AIのコンテキスト問題:専門家がリアルタイムな結果の提供と自律型システムの保護における課題を強調
大規模言語モデル(LLM)は、リアルタイムな結果の提供と自律型システムの保護において、重大な課題に直面していると、最近の報告書や専門家の意見は指摘しています。LLMは推論に優れているものの、コンテキストの理解に苦労することが多く、特にリアルタイムの注文システムのような動的な環境において、真に役立つ体験を提供する能力を妨げています。同時に、自律型システムのセキュリティに関する懸念が高まっており、堅牢なガバナンスと境界制御を求める声が上がっています。
InstacartのCTOであるアニルバン・クンドゥ氏が述べた「ブラウニーレシピ問題」は、コンテキストの課題を例示しています。VentureBeatによると、LLMが単にブラウニーを作るという要求を理解するだけでは不十分です。真に役立つためには、モデルはユーザーの好み、市場の入手可能性(オーガニック卵か通常の卵か)、および地理的な制約を考慮して、配送可能性を確保し、食品の腐敗を防ぐ必要があります。Instacartは、1秒以内に体験を提供するために、レイテンシーと適切なコンテキストの組み合わせを両立させることを目指しています。
このコンテキストの欠如は、注文システムにとどまりません。Certiniaのラジュ・マルホトラ氏は、VentureBeatで、多くのAIパイロットプログラムが約束された結果を提供できないのは、モデル自体の知能の欠如ではなく、コンテキストの欠如に起因すると主張しました。彼はこれを、ばらばらのテクノロジー内にコンテキストを閉じ込める、切り離されたポイントソリューションの「フランケンスタック」、脆弱なAPI、およびレイテンシーに悩まされる統合が原因であるとしました。
さらに複雑さを増しているのは、AI研究の非営利団体METRが追跡しているように、特定のAI機能が指数関数的な速度で発展していることをMIT Technology Reviewが強調していることです。進歩は急速に進んでいますが、安全な実装の必要性は依然として最重要課題です。
AIエージェントの高度化が進むにつれて、潜在的なリスクに関する懸念が高まっています。MIT Technology Reviewは、最初のAIが組織したスパイ活動と、プロンプトレベルの制御の失敗について報告しました。これに対し、専門家は、エージェントを強力な半自律ユーザーとして扱い、ID、ツール、データ、および出力と相互作用する境界でルールを適用することを提唱しています。Protegrityは、MIT Technology Reviewで、CEOが実装し、報告するための8段階の計画を概説し、3つの制御の柱を通じて境界で自律型システムを管理することに焦点を当てています。
さらに、AIのエネルギー需要も注目を集めています。MIT Technology Reviewは、AIの計算能力をサポートするための大規模なデータセンターへの前例のない投資について指摘しました。次世代の原子力発電所は、これらの施設の潜在的な電力源として検討されており、旧モデルと比較して建設費が安く、安全な運転が可能です。これは、ハイパースケールAIデータセンターと次世代原子力に関する最近の購読者限定のラウンドテーブルディスカッションで議論された重要なトピックでした。
コンテキストの理解からセキュリティ、エネルギー消費まで、AI開発を取り巻く課題は、多面的なアプローチの必要性を浮き彫りにしています。AIが進化し続けるにつれて、これらの問題に対処することは、潜在的なリスクを軽減しながら、その可能性を最大限に実現するために不可欠です。
Discussion
AI Experts & Community
Be the first to comment