AI開発は急速に進展していますが、安全対策に関する国際協力は課題に直面しています。2月19~20日にデリーで開催されるAIインパクトサミットに先立ち発表された新たな国際AI安全報告書は、AIの改善ペースの加速と、それに関連するリスクの増大を示す証拠がますます増えていることを強調しています。しかし、報告書の議長であり、チューリング賞を受賞した科学者であるヨシュア・ベンジオ氏によると、米国は昨年とは異なり、今年の報告書を支持することを拒否しました。
この報告書は、英国、中国、欧州連合を含む30カ国および国際機関の支援を受け、100人の専門家の指導の下、AIの課題に関する国際協力の模範を示すことを目的としていました。報告書は、現在のリスク管理技術は改善されているものの、依然として不十分であると結論付けています。
一方、企業内では、実用的なAIの実装に焦点が移っています。AsanaのCPOであるアーナブ・ボーズ氏は、AIエージェントを成功させるためには、共有メモリとコンテキストが重要であると強調しました。サンフランシスコで開催された最近のVentureBeatのイベントで、ボーズ氏は、AIエージェントに詳細な履歴と直接アクセスを提供し、ガードレールチェックポイントと人間の監視を組み合わせることで、AIエージェントはアクティブなチームメイトとして機能できると述べました。Asanaは昨年、AIをチームやプロジェクトに直接統合することを目標に、Asana AI Teammatesを発表しました。
Mistral AIも、グローバルな業界リーダーと協力して、カスタマイズされたAIソリューションを共同設計しています。MIT Technology Reviewによると、Mistral AIは、Cisco、Stellantis、ASMLなどの企業と提携して、特定の課題に対処するためにAIシステムをカスタマイズしています。彼らの方法論では、将来のAIソリューションの基盤となる「象徴的なユースケース」を特定することを含みます。
しかし、AIの潜在的な悪用に関する懸念は残っています。MIT Technology Reviewが取り上げたスタンフォード大学とインディアナ大学の研究者による調査では、アンドリーセン・ホロウィッツが支援する、ユーザーが有名人のディープフェイクを生成するためのカスタム命令ファイルを購入できる民間のオンラインマーケットプレイスを調査しました。この調査では、サイトの禁止にもかかわらず、一部のファイルがポルノ画像を生成するように特別に設計されていることが判明しました。研究者らは、2023年中頃から2024年末までのコンテンツのリクエスト(「バウンティ」と呼ばれる)を分析しました。
別の面では、開発者はAI構成管理を効率化するためのツールに取り組んでいます。Hacker Newsは、Krystian Jonca氏が開発した統合AI構成管理CLIであるLNAIについて報告しました。LNAIは、ユーザーが構成を「.ai」ファイルに一度定義し、それをさまざまなツール間で同期できるようにすることで、さまざまなAIコーディングツールの構成を管理するプロセスを簡素化することを目的としています。サポートされているツールには、Claude、Codex、Cursor、Gemini CLI、GitHub Copilot、OpenCode、Windsurfが含まれます。このツールはnpm経由で入手でき、検証機能や孤立したファイルの自動クリーンアップ機能が含まれています。
Discussion
AI Experts & Community
Be the first to comment