Nvidiaは、大規模言語モデル(LLM)の推論におけるメモリコストを劇的に削減する新技術を発表した一方、OpenAIはCerebrasチップを搭載した新しいコーディングモデルをローンチし、Nvidiaハードウェアへの依存からの脱却を示唆した。これらの進展は、脳の老化や言語学習に関する継続的な研究と並び、人工知能および関連分野における急速な進歩を浮き彫りにしている。
VentureBeatによると、Nvidiaの新しい技術である動的メモリ疎化(DMS)は、LLMが使用する一時的なメモリであるキーバリュー(KV)キャッシュを最大8倍まで圧縮できるという。これにより、LLMはメモリ不足になることなく、より長く「思考」し、より多くの解決策を探求できるとVentureBeatは報じている。他の方法でもキャッシュの圧縮が試みられてきたが、Nvidiaのアプローチはモデルの推論能力を維持または向上させる。
OpenAIが新しいGPT-5.3-Codex-SparkコーディングモデルにCerebrasチップを採用したことは、Nvidiaへの従来の依存からの大きな転換を示している。VentureBeatは、このモデルがほぼ瞬時の応答時間を実現するように設計されており、OpenAIにとってNvidia以外との初の主要な推論パートナーシップであると指摘した。このパートナーシップは、OpenAIにとって重要な時期に行われた。OpenAIは、Nvidiaとの緊張した関係、ChatGPTへの広告導入に対する批判、新たに発表されたペンタゴンとの契約、そして内部組織の混乱を乗り越えようとしている。
その他のニュースとして、カフェインが脳の老化に与える影響に関する研究が続いている。13万人の人々を対象とした研究では、適度なカフェイン摂取が認知症のリスクを軽減する可能性があるとNature Newsは示唆している。また、Nature Podcastでは、AIを使用して忘れ去られた古代ローマのボードゲームのルールを解読することについても議論された。
一方、テクノロジーコミュニティは革新を続けている。「zed」というオープンソースプロジェクトは、GitHubのプルリクエストで示されているように、wgpuを使用してLinuxレンダラーを再実装することに取り組んでいる。さらに、ウェブサイト「lairner」は、Hacker Newsによると、希少言語や絶滅危惧言語を含む60以上の言語でコースを提供している。
Discussion
AI Experts & Community
Be the first to comment