| Bottom | Home | Article | Bookshelf | Keyword | Author | Oxymoron |

$\frac{1}{2}$

Key Concepts of Generated AI Technology

Category: ICT
Published: 2025
#2503b

Cohesity, et.al.

251191u
Title

Key Concept of Generated AI Technology

AI技術のキーとなる概念

Index
  1. Introduction:
  2. Key Concepts:
  3. Mysteriesxxx:
  4. NNNN:
  5. NNNN:
  6. NNNN:
  7. NNNN:
  8. NNNN:
  9. NNNN:
  10. NNNN:
  11. NNNN:
  1. 序文:
  2. 重要概念:
  3. Mysteriesxxx:
  4. NNNN:
  5. NNNN:
  6. NNNN:
  7. NNNNx:
  8. NNNN:
  9. NNNN:
  10. NNNN:
  11. NNNN:
Key
; ;
Key
Description
Remarks

>Top

https://aismiley.co.jp/ai_news/what-is-large-language-models/

0. Introduction:

  • AI is advancing rapidly. There are many new papers and proposals of use of AI, particularly in the fields of ICT and business, appearing one after another. Such explanations contain many technical terms and concepts related to the field of AI as well as ICT, which make the readers difficult to understand.
  • Here are several quotations or explanations related recent AI technology, adding some comments or remarks for easy understanding.
  • AIの進歩が早い。特にICTとビジネスの前線に関わるAI活用の新たな論文や提案が次々出ている。その説明の用語も、ICT 関連に加えてAI分野の用語や概念が多く、なかなか読みにくい。
  • これをいくつかの引用やコメントや注釈をつけてみたい。

>Top 1. Attention Is All You Need (2017):

  • Abstract:
    • The dominant sequence transduction*1 models are based on complex recurrent or convolutional*2 neural networks that include an encoder and a decoder.
    • The best performing models also connect the encoder and decoder through an attention mechanism*3.
    • We propose a new simple network architecture, the Transformer*4, based solely on attention mechanisms, dispensing*5 with recurrence and convolutions entirely.
    • Experiments on two machine translation tasks show these models to be superior in quality while being more parallelizable and requiring significantly less time to train.
    • Our model achieves 28.4 BLEU*6 on the WMT*7 2014 English- to-German translation task, improving over the existing best results, including ensembles, by over 2 BLEU.
    • On the WMT 2014 English-to-French translation task, our model establishes a new single-model state-of-the-art *8 BLEU score of 41.0 after training for 3.5 days on eight GPUs*9, a small fraction of the training costs of the best models from the literature.
    • We show that the Transformer gerealizes well to other tasks by applying it successfully to English constitutency parsing both with large and limited training data.

1. Attention Is All You Need (2017):
(Google 8 members thesis)

  • 概要:
    • よく使われている主要なシーケンス変換モデルは、EncoderとDecoderを含む複雑な再帰型または畳み込みのNeural Networkに基づいている。
    • 最も性能が高いモデルは、EncoderとDecoderをAttention Mechanismを介して接続している。
    • 我々は、新しいシンプルなNetwork architecture である Transformerを提案する。それは注意機構 (attention mechanism) のみに基づいており、再帰(recurrence)と畳み込み(convolutions)は(複雑になるので)完全に排除している。
    • 二つの機械翻訳のタスクでの実験では、これらのモデルは品質が優れており、同時に(GPUによって)より並列処理が可能であり、トレーニングに時間が大幅に少ないことが示されている。
    • 我々のモデルは、英語から独語への翻訳タスクで、WMT 2014で28.4 BLEUを達成し、ensemblesを含め、今迄の最高点を2 BLEU以上も上回った。
    • またWMT 2014の英語から仏語への翻訳タスクでは、我々のモデルは8つのGPUで3.5日間トレーニングをした後、単一モデルで最先端のBLEUスコア41.0を達成した。これは文献中の最高のモデルのtraning costのごく一部である。
    • 我々は、Transformerが他のタスクにもよく適用できることを示した。これはtraining dataが豊富な場合と限られた場合の両方で、英語の構成成分の解析に成功裏に応用できた。

Remarks:

  1. Hommage of Beetles "All You Need Is Love"
  2. transduce: 他の形に変換
  3. convolution: 渦巻き, 回旋
  4. atttention mechanism:
    注意機構
  5. transformer:
    文章中の単語のように連続したdataの関係を追跡することで文脈を理解するNeural NW
  6. dispence:<dis+pendere
    〜を免ずる
  7. bleu score:機械翻訳の評価の指標; 訳文の理解容易性と忠実度; BLEW (BiLiguual Evaluation Understduy)は、IBMが20年前に発表した多言語自然言語処理の評価尺度
  8. WMT: Workshop on Statistical Machine Translation (2014)
  9. =SoTA; 最先端
  10. GPU: Graphics Processing Unit: 並列処理に特化して、画像処理、Deep Learning に強い
  • 自己注意 (Self-Attention): Seqenceの表現を計算するのに、一つのsequenceの異なる位置を関連づける注意mechanism.
  • Multi-head Attention: 異なる位置にある異なる表現部分空間から情報に共同して注意するために複数の頭部を使用する。
  • 位置encording: Transformerモデルは再帰や畳み込みを使用しないので、位置encordingが追加され、sequence内のTokenの相対的・絶対的位置に関する情報をモデルに与える。
  • Transformerを画像や音声のような他のmodalityを含むタスクに拡張し、大規模な入力と出力の取り扱いの改善についても言及。
  • Sequence transduction models: 入力sequence (英語) から出力sequence (独語)へ変換
  • Re: Attention とHeat map:
  • Self-Atttention Mechanism: 入力した文章中の単語間の関係性と捉える
  • RNN: Recurrent Neural Network, 回帰型N-NW
  • BERT: Bidirectional Encorder Representations from Transformers
  • GPT: Generative Pre-trained Transfoprmer
  • RNNもCNNも、文章のレン属性や文脈を理解するために入力されるToken (名詞や動詞などの基本要素)の順序に依存している。
https://arxiv.org/abs/2305.19129, Ali Borji, 2023 https://qiita.com/SolingJiner/items/6ededdb2e0fdd3b46256

>Top3. xxxx::

  • Abstract: Transformer
    • Transformers have emerged as the prevailing standard solution for various AI tasks, including computer vision and natural language processing. The widely adopted Query, Key, and Value formulation (QKV) has played a significant role in this.
    • Nevertheless, no research has examined the essentiality of these three components for transformer performance. Therefore, we conducted an evaluation of the key-value formulation (KV), which generates symmetric attention maps, along with an asymmetric version that incorporates a 2D positional encoding into the attention matrix.
    • Remarkably, this transformer requires fewer parameters and computation than the original one. Through experiments encompassing three task types -- synthetics (such as reversing or sorting a list), vision (mnist or cifar classification), and NLP (character generation and translation) -- we discovered that the KV transformer occasionally outperforms the QKV transformer.
    • However, it also exhibits instances of underperformance compared to QKV, making it challenging to draw a definitive conclusion. Nonetheless, we consider the reported results to be encouraging and anticipate that they may pave the way for more efficient transformers in the future.

3. xxxx:

  • Abstract Transforer
    • Transformerは、computer visionやNLP (自然言語処理)を含む様々なAIタスクの標準的な解決方法として広く普及している。これには、広く採用されているQuery, Key, Valueの定式化(QKV)が重要な役割を果たしている。
    • しかしTransformerの性能にこれら3つの構成要素が不可欠であることを検証した研究はない。そこで我々は、対称的な注意マップを生成するKey-Value定式化(KV)と、注意行列に2次元位置エンコーディングを組み込んだ非対称バージョンの評価を行った。
    • 驚くべきことに、このTransformerは元のTransformerよりも少ないパラメータと計算量で済む。我々は、3つのタスク、すなわち合成(リストの反転や並べ替えなど)、視覚(mnistやcifarの分類)、NLP (文字の生成と翻訳)の実験を通して、KV-TransformerがQKV-Transformerを上回ることがあることを発見した。
    • しかし、QKVに比べて性能が劣る場合もあり、決定的な結論を出すのは困難である。しかしながら、報告された結果は勇気づけられるものであり、将来より効率的なTransformerへの道が開かれることが期待される.
 
 
  • Transformaerにおけるquery, key, valueの関係
 
https://www.cohesity.com/resource-assets/ebook/exploring-the-benefits-of-secure-ai-ready-data-ebook-en.pdf; by Ashish Vaswani, et.al.

>Top 2. Cohesity Thesis (2025/1):

<Exploring the benefits of secure, AI-ready data; It's time to bring your data into the future.>

  • Introduction:
    • In the past few years, we’ve heard all about AI and its promised benefits, largely around increasing productivity and replacing menial tasks. But the power of AI is growing rapidly and organizations are already using it in a wide range of industries, including healthcare, finance, transportation, and technology, among others. In 2022, the global AI market was valued at $428 billion. It’s projected to surge to $2 trillion by 2030. If this seems outrageous, consider the growth of Open AI and ChatGPT in under a year. According to OpenAI, ChatGPT gained over one million users in just five days after its November 2022 launch. AI is here to stay and it’s no longer a future technology, as tech companies are announcing new AI products and integrations every day.
    • What are the benefits of AI to large global enterprises?:
      At Cohesity, we’re looking at AI through a data security and data management lens. And that’s really where we see AI as a game changer. For example, we can secure your data with AI-powered early threat detection so you can get more value from your backed up data by exposing zero cost clones*1 to your AI and ML workflows - whether your data sits in a data center, or a public or private cloud. AI can help you differentiate your business, driving growth and improving customer outcomes.
  • Data and AI:
    • Data is an essential aspect of AI. It’s the fuel that provides context to AI algorithms and vectors. But AI models are only as good as the data they’re trained on, and the quality of this training data can significantly impact the validity, effectiveness, and power of the model. If the data available to AI models is biased or inaccurate, the model may produce biased or inaccurate results.
    • AI models also require ongoing access to new data to continue learning and improving over time. This is why
      data is so important to AI’s development and deployment. Organizations that invest in collecting, storing, and analyzing high-quality data are better positioned to use AI’s power to gain a competitive advantage.
    • In today’s modern, distributed architecture, though, collecting, collating, and leveraging data from workflows across an organization’s data estate can be complex. Organizations are generally running infrastructure in a variety of locations, spanning private data centers, single or multiple clouds, SaaS applications hosted by other organizations, and edge locations like stores, IoT devices, and more.
    • They’re routinely storing petabytes*3 (or more) of data without classifying, indexing, or tracking it. This unstructured data is often referred to asdark data,”*4 which Gartner defines as “the information assets organizations collect, process and store during regular business activities, but generally fail to use for other purposes (for example, analytics, business relationships and direct monetizing).”
    • This dark data represents a missed opportunity. Organizations can’t gain insights and make informed decisions, dramatically reduce their data costs,or secure and protect this data—because they
      don’t even know it exists.
  • RAG (Retreval Augmented Generation):
    • In the era of AI, off-the-shelf*5 trained large language models (LLMs) have emerged as a powerful tool for generating human-like responses. But most existing knowledge-grounded conversation models rely on out-of-date materials. They’re limited in their ability to generate knowledgeable responses that could involve proprietary*6 or domain-specific information.
    • The introduction of retrieval augmented generation (RAG) models can overcome this challenge. RAG models combine the strengths of LLMs with the ability to retrieve information from multiple sources. RAG not only enables LLMs to generate more knowledgeable, diverse, and relevant responses, but also offers a more efficient approach to fine-tuning these models.
    • At Cohesity, we’re working on providing robust and domain-specific context to RAG-driven AI systems through our patented SnapTree and SpanFS architectures. By leveraging this robust file s=ystem, we’re making our platform ‘AI ready’ for RAG-assisted LLMs through an on-demand index of embeddings that will be provided just-in-time to the AI application requesting the data. We also secure the data through our role-based access control (RBAC*16) models.
    • Our patent-pending retrieval-augmented response generation technology currently under development accepts a user- or machine-driven input—such as a question, or a query*7. That input is then used to filter the petabytes of an enterprise’s backup data to filter down to a smaller subset of data. It then selects representations from within those documents or objects that are most relevant to the user or machine query. That result is packaged, along with the original query, to the LLM to provide a context-aware answer. This innovative approach ensures that the generated responses are relevant to the enterprise’s domain-specific content.
    • Innovative RAG-driven AI systems like ours will present a unique opportunity for technology and business executives to leverage the power of data-driven insights and enhance the quality of conversations across various platforms. Harnessing the power of our data protection and data management capabilities, enhanced by AI, helps organizations unlock new levels of efficiency, innovation, and growth.
  • Getting more from stored data:
    • In the same way backup data is stored and can be searched for threat analysis,
      it’s also AI ready and contains metadata*8 that can be used with LLMs. When a person asks questions about the data through the LLM, the model provides human-readable responses. Using authoritative data sources backed up on Cohesity can help ensure more accurate, actionable responses to user or machine queries.
      Since we index all backup data, APIs*9 will return context-aware responses in a highly performant way that doesn’t use up too much compute power.
  • Indexing*10 and instant search with Cohesity:
    • We’ll also take a differentiated approach to storing and indexing massive amounts of data, enabling organizations like yours to instantly search across your entire data estate. With Cohesity instant search, you can quickly search for and locate specific data and find the information you need. You don’t have to manually search through large amounts of data.
      Think of it this way: Say you’re a lawyer and you want to research information from a case your firm litigated years ago. You could pull out boxes and dig through them to find the brief in question, like a needle in a haystack. Soon, you could simply use an AI chatbot to query the data that already lives on Cohesity.
    • With our holistic view of data over time, you can search decades-old data, instantly, and see different variations of it during different periods. Other companies store data without indexing file and object metadata and have limited history available (only days) for searching or changes.
  • The Cohesity Data Cloud offers:
    • Data aggregation and unification:
      We aggregate data from different sources and data types, including on-premises, cloud, and edge locations. This makes it easier to analyze and grant secure access to data for AI applications and identify patterns, trends, and anomalies that may not be visible in siloed data, while also dramatically reducing or eliminating dark data. Using backup data that’s indexed*10 and aggregated allows you to leverage AI in a highly performant way.
    • Data optimization:
      We efficiently deduplicate and store data in compact structures which can be fortified with appropriate metadata that makes search more robust.
    • Data protection:
      We provide enterprise-grade backup, recovery, and disaster recovery capabilities—including a way to isolate data in a virtual air-gapped environment*11 so a known clean copy can be retrieved and restored in the event of a cyberattack. Organizations can get back up and running quickly using instant mass restore (IMR) to instantly recover thousands of VMs, databases, files and other data. This data is available, resilient, and recoverable when needed—which is critical for
      AI applications that rely on large volumes of data.
    • Data security:
      Our comprehensive data security proactively detects threats within data to identify anomalies, like possible malware, using security threat feeds.*12 Data classification*13 can identify where sensitive and critical data sits, and cyber vaulting*14 ensures if an attack happens the blast radius is mitigated. AI applications continue running to help ensure that business operations don’t stop, even in the event of an attack or disaster.
    • Data access:
      Our granular role-based access controls (RBAC*16) for backup data helps prevent users from accessing data they don’t have permissions for, like sensitive data (patient data/PII, trade secrets, financials, and more). This approach applies to AI, where the AI model only queries data and provides responses that align to users’ permissions.
  • CONCLUSION
    • AI is poised to be the next big disruptor in today’s macro business*17 environment - from streamlining operational processes to transforming customer experience via new data insights-driven*18 services. And that’s just a start. At Cohesity, we’re focusing on the power of AI to improve data protection and security via advanced threat and anomaly detection. We create AI-powered backups that are fully hydrated*19 and ready for nearly instant zero cost cloning, and safe from harm, too - turning data backups into treasure troves of data insights.
  • Glossary:
    • RAG (Retrieval augmented generation) is a NLP*20 technique that combines the benefits of retrieval-based and generative-based approaches to improve the quality of text generation tasks, such as question-answering, summarization, and conversational AI.
    • Generative AI uses algorithms to generate new content (written content, images, video, audio, and computer code, etc...) based on user input. Unlike earlier versions of AI, generative AI can create new content, like news articles, poetry, or cyber threat analyses presented in a conversational UI.
    • Conversational AI simulates human conversations through natural language processing (NLP) and related techniques such as transformers*21. It can interpret user input and generate appropriate responses based on an understanding of the user’s intent.
    • Cognitive AI aims to replicate human cognitive abilities such as perception, reasoning, problem-solving, and decision-making. It uses ML, NLP, and related techniques to create intelligent systems that can learn and improve based on interactions with users and the environment.
    • Retrieval AI involves searching and retrieving information from large datasets. It uses techniques such as NLP and ML algorithms to understand the intent of a user’s query and retrieve the most relevant results from a database.
    • Attention = Query + Key +Value
      By examining the relationship between Query and key, and determine which key be focused on and then understand the information you want.

2. Cohesityの論文 (2024/1):

<AI対応の安全なデータのメリットを探求>

  • 序文:
    • ここ数年、AIによる生産性向上と単純作業の置き換えが言われてきた。AIの急速な能力向上にともない、すでに医療・金融・輸送・技術の業界が使用されている。2022年のAI市場は4280億ドルで、2030年には2兆ドルに達すると予測。
    • 過去1年足らずでOpen AIとChart AIが急成長した。ChatGPTは 2022/11の発表後、5日感で100万人以上のユーザを獲得。もはや未来の技術ではない。
    • グローバル企業にとってのメリット:
      Cohesityは、AIをGame changerとみなしている。AIを活用した早期脅威検知によってデータを保護できるので、Data center, Public cloud, Private cloudいずれかに関係なく、コストゼロのcloneをAIおよびML work flowに公開することで、バックアップされたdataから多くの価値を引き出せる。AIは、ビジネスの差別化・成長・顧客成果の向上に役立つ。
    • DataとAI:
      DataはAIの重要な側面である。それはAI algorithmsとvectorに補給する。AIモデルの良否は、trainingに使用したdata次第であり、モデルの有効性に影響する。AIモデルに使用するdataが偏っていたり不正確だと、Modelも同様に偏ったり不正確な結果を生成する。
    • Aiモデルは、改善するために、新データに継続的にアクセスする必要があるので、データがAIにとって非常に重要である理由である。高品質のデータを収集・保存・分析に投資する組織は、AIの力を使うことで競争優位を獲得する。
    • 今日の分散architectureでは、組織のデータ資産前回からデータを収集・照合・活用することは複雑になる。組織は通常、私的なData center、複数のCloud、他組織のSaaS、店舗やIoTデバイス等のEdgeなど、様々にインフラを構築し実行している。
    • 企業は、PetaByte 以上のデータを分類・Index・追跡なしで日常的に保管している。この非構造データはDark dataと呼ばれる。Gartnerの定義によれば"組織は業務を通じて収集・処理・保存するが、通常は他目的 (分析・関係性・収益化) には使用できない情報資産"としている。
    • このDark dataは機会損失でもある。組織はその存在も知らず、情報に基づく意志決定もせず、データコストの削減もそのセキュリティの確保もしない。
  • RAG (検索拡張生成):
    • AI時代には、すでにLLM(大規模言語モデル) が、人間のような応答をするツールとして登場している。しかし、それはホントは古いデータに依存している。企業固有の情報や専門領域の応答を生成するには限界がある。
    • RAG モデルがこの課題克服のために導入された。RAGは、LLMの長所とさらに複数源から情報を得る機能を組み合わせている。RAGによりLLMはおり知識豊富で関連性のある応答を生成できるだけでなく、これらのモデルを精緻する効果的なアプローチも提供される。
    • Cohesistyでは、SnapTreeおよびSpanFS architectureを通じて、RAG駆動型AIシステムに堅牢で専門的なcontextを提供することに取り組んでいる。このfile systmを活用することで、我々のplatformはRAG支援のLLMとして'AI対応'したのは、データを要求するAIアプリにjust=in-timeで提供される埋め込みのon-demand indexを通じてである。 またroleベースのアクセス制御 (RBAC) モデルを通じてデータも保護される。
    • 我々のRAG技術 (特許出願中)は、ユーザやマシンによる質問やQueryの入力を受け付ける。その入力は、企業のPeta Byteに及ぶデータをフィルター処理して、より小さなデータのsubsetに絞り込む。次に、そのQueryに最も関連性の高い対象の中から表現を選択する。その結果は元のQueryと共にLLMにパッケージ化され、contextを理解した回答を提供する。この革新的なアプローチによって、生成された高騰が企業の専門的な内容に関連することが保証される。
    • 当社の革新的なRAG駆動形AIシステムは、技術や経営陣に、データ駆動型の洞察力を活用して様々なplatform間での対話の質を高めるユニークな機会を提供する。この活用によって、組織は効率・革新・成長の新たなレベルを目指せるよう支援する。
  • 保存データからより多く情報を得る:
    • Back upデーアは保存され、リスク分析のために検索でき、さらにAI対応でLLMで使用可能なメタデータも含まれる。人がLLMを通じたデータについて質問をすると、モデルは人が読める応答をする。Cohesity にバックアップされた信用できるデータソースを利用すると、ユーザやマシンのQueryに対してより正確で実用的な応答を行うことができる。全ての大量にバックアップデータを指標(Index)化しているので、APIはあまりコンピューティング能力を消費しないで、高いパフォーマンスでcontextを認識して応答する。
  • CohesityによるIndex作成とインスタント検索:
    • Cohesityは、大量データの保存とIndex作成に差別化されたアプローチで、顧客がデータ資産全体を瞬時に検索努力ようにする。インスタント検索を使用すると特定データの検索して迅速に見つけることができる。もはや大量データを手動で検索する必要はなくなる。
    • もし弁護士で、何年も前に会社が訴訟した事件の情報を調べたい場合があれば、それは干し草の中の針を探すようなもので、多くの箱の中から該当の書類を掘り出す必要がある。今後は、AI chatbotを利用してCohesityがすでに保存しているデータをquaryできるようになる。
  • Coesityの Data Cloudサービス:
    • データの集約と統合:
      我々はデータをOn-premise、Cloud, Edge locationなど種々なソートとデータ型からデータを集約する。これにより、AIアプリのデータを分析して、安全なアクセスを許可し、サイロ化されたデータでは見えないパターン・傾向・異常を特定でき、Dark dataを大幅に削減できる。Index化され集約されたback up dataを使用すると、AI活用がパフォーマンスが非常に高まる。
    • データの最適化:
      データの重複を効率的になくし、コンパクトな構造で保存する。この構造は、適切なメタデータで強化するので検索が堅牢になる。
    • データ保護:
      企業レベルのバックアップ、リカバリィ、災害復旧機能を提供する。これは、virtual air-gapped環境というデータを分離する方法も含まれており、サイバー攻撃が発生した場合には、既知のクリーンなコピーを取得して復元できる。会社組織は、Instant mass restore (IMR)を使用して数千のVM、DB、ファイルその他のデータを即時に復元し西海道できる。このデータは必要に応じて利用可能で回復力があり復元可能である。これは大量のデータに依存するAIアプリにとって必須である。
    • データ・セキュリティ:
      当社のData securityは、Security thread feedを利用して、データ内の脅威を事前に検知し、Malwareの可能性などの異常を特定する。データ分類により、機密データや重要データがどこに保存されているかを特定できる。
      またCyber vaultingにより、攻撃が発生した場合でも影響範囲が緩和される。またAIアプリは実行を継続し、攻撃や災害が発生した場合でもビジネス運用を停止しないようにする。
    • データアクセス:
      Back up data に対する精緻な役割ベースのアクセス制御(RBAC)により、機密データ (患者データ/PII、企業機密、財務情報等)に権限のないデータにアクセスするのを褒美できる。この方法は、AIに適用され、AIモデルはデータのQueryのみを実行し、ユーザ権限に合わせた応答を提供する。
  • 結論:
    • AIは今日のマクロビジネス環境において運用プロセスの合理化から、新しいデータinsight主導のサービスによる顧客体験の偏角まで、次の破壊的変化をもたらす存在になりうするある。 これは始まりにすぎない。 Cohesityは、高度な脅威と異常の検知によってデータ保護とSecurityを向上させるAIのちからに注力して、AIを活用したBack upを作成している。このBackupは高度化されており、ほぼ瞬時にコスト零でcloneを作成でき、損傷からも無害である。これによりData backupはData insightの宝庫となる。
  • 用語集:
    • RAG (検索拡張生成):
      検索ベースと生成ベースのapproachの利点を組み合わせて、質問応答・要約・会話型AIなどのtest生成タスク位の品質を向上させるNLP技術。
    • 生成AIは、Algorithmを使用してユーザ入力に基づいて新たなcontets (文章・画像・映像・音声・code等)を生成する。従来のAIとは異なり、生成AIは、会話型UIで表示される新たなcontens (記事・詩・Cyber脅威分析等)を作成できる。
    • 会話型AIは、NLPとtransformerなどの関連技術を通じて、人間の会話をsimulationする。ユーザの入力を解釈し、ユーザの意図を理解した上で適切な回答を生成することができる。
    • 認知AIは、知覚・推論・問題解決・意思決定などの人間の認知能力を再現することを目的とする。ML, NLP等の関連技術を利用して、ユーザや環境との応答に基づいて学習・改善ができるintelligent systemを作成する。
    • 検索 AI では、大規模なdata setから情報を検索・取得しする。NLP や ML algorithum等の技術を使用して、ユーーのQueryの意図を理解し、DBから最も関連性の高い結果を検索する。
    • Attention = Query + Key +Value
      Query とKeyの関係を掲載に、どのKeyに着目すべきか判断し、最終的に得たい情報のない及び報をを理解する。

 

  1. 米国San Joseの情報技術会社 2013創立
  2. Zero copy lone:
    create table table_A clone
    tabel_A_clone
    によって
    table-Aのstorage層にあるだたを参照する新たなtable-A-cloneを容易するだけで、data storageをそのまま利用する。

  3. a
  4. PB =1000 TB

  5. dark data:
    dark =hidden from knowlege
    Cf: dark matter
  6. off-the-self:
    在庫の; 特別あつらえでない
  7. proprietary:
    独占権をもつ

  8. query:
    DBから情報をと取り出すためのコンピュータ言語


  9. metadata:
    データを定義する高次のデータ; データ項目・形式・桁数など

  10. API:
    Application Programming Interface

  11. Indexing:
    予め指定したkeyword(統制語やcheck tag)に基づいてデータ本体とは別に自動的に検索データを作成する機能。


  12. Virtuual Air-gapped environment:
    thiou connected, these virtual instances are shielded from each other, preventing unauthorized access and malware spread.
    ・従来のair-gap (Tape,やOffline media) によってrestore時間が増加しdown timeによるコストが増加する。Back up copyを受信する間のNW接続中に攻撃を受ける可能性がある。Logical air-gapはback upをOLに維持しながらできるのでair gapとしては最適。

  13. Thread feed:
    攻撃者のIP address や公開されているmalware siteのURLリストを予め取り込むことで通信をブロックし、SSLの復号化が不要となる。

  14. Data callifi-cation:
    データの機密性に基づいてデータを分類する(access権限、保存や転送の際の保護policy等)

  15. Cyber vault (storage):
    RTOとRPOの達成のため
    1)データ隔離 2)隔離データのアクセス逝去 3)データの改竄防止 4)データの損失とdown timeの最小化

  16. WORM =Write Once, Read Many techonology
    一度書き込んだdataは消去・書換できない追記型の記憶方式

  17. RBAC =Role Base Access Control; 一つまたは複数の役割を各ユーザに割りあえて、各役割の異なる権限を付与することでaccessを逝去する
    Cf: ABAC =Attribute Based Access Control 属性に設定された情報でaccess 制御する
  18. macro business: Control不能な外部環境 (政治・経済・社会・技術)
  19. data insight-driven:
    戦略的で十分なdataに基づく意思決定を行う情報
  20. hydrated copy: Data objectの完全なreplica
  21. NLP (Natural Language Processing 自然言語処理)
  22. transformer:
    重要な情報に着目(attention)して翻訳するalgorithum.



>Top 3. xxxx::

3. xxxx:

 

>Top 4. <E>:

4. xxxx:

 

>Top 5. <F>:

5. xxxx:

 

>Top 6. <G>:

6. xxxx:

 

>Top 7. <H>:

7. xxxx:

 

>Top 8. < I >:

8. xxxx:

 

>Top 9. <J>:

9. xxxx:

 

>Top 10. <K>:

10. xxxx:

 
Comment
  • AI stands for Artificial Intelligence, but it appears to be Abnormal Intelligence.
  • Text creation, its comments, and translation are increasingly generated by AI technology.
  • Humans have easily thought we could leave only simple jobs to AI, but AI is rapidly advancing into the complex intellectual fields. Humans begin to feel as if they are being driven out of the intellectual fields by AI, which is changing Abnormal Intelligence, or the dark knowledge.
  • AI =Artificial Intelligenceのはずだが、Abnormal Intelligenceの様相を呈してきた。
  • 文章作成もその解説も翻訳も、ますますAIが生成し、AIが解説するようになってきた。
  • 人間は、単純な作業はAIに任せればと油断していたが、AIは複雑な知的な領域にどんどん進出してきている。人間は、知的な領域でAIによって駆逐されるような気がしてきている。AI =Abnormal IntelligenceというDark knowledgeである。

| Top | Home | Article | Bookshelf | Keyword | Author | Oxymoron |