Nvidia は、大規模言語モデル (LLM) の推論におけるメモリコストを最大8分の1に削減する新しい技術を発表しました。一方、OpenAI は Cerebras チップを導入し、「ほぼ瞬時」なコード生成を実現し、従来の Nvidia への依存から大きく脱却しました。これらの進展は、AI およびテクノロジー分野における活発な動きの中で起こっており、核融合エネルギーのマイルストーンや、人員を増やすことなく成功を収めたスタートアップの事例も含まれています。
Nvidia の新しい技術は、ダイナミックメモリ疎化 (DMS) と呼ばれ、VentureBeat によると、LLM がプロンプトを処理し、問題を推論するために使用する一時的なメモリであるキーバリュー (KV) キャッシュを圧縮します。実験の結果、DMS により LLM はメモリ需要を増やすことなく、より長く「思考」し、より多くの解決策を探索できることが示されました。一方、OpenAI は、高速な応答時間のために設計されたコーディングモデルである GPT-5.3-Codex-Spark を、Cerebras Systems のハードウェア上でローンチしました。VentureBeat の報道によると、この提携は、OpenAI が Nvidia 以外と行う初の主要な推論に関する協力となります。
テクノロジー業界では、他の分野でも進歩が見られます。サム・アルトマンが議長を務める核融合エネルギー開発企業 Helion Energy は、太陽の中心の10倍にあたる摂氏1億5000万度という記録的なプラズマ温度を達成したというマイルストーンを発表しました。Fortune によると、この成果は、2028年までにワシントン州の送電網に電力を供給するという Helion の目標の一環です。しかし、Helion のタイムラインと技術的アプローチについては、懐疑的な見方も残っています。
その他のニュースとして、スタートアップの Abacum は、Fortune によると、人員を増やすことなく1億ドル以上を調達し、収益を3倍にしました。同社は、採用を避け、代わりに根本的な問題に対処することを選択しました。
これらの進展に加えて、Asimov (YC W26) という企業がリモートポジションの採用を行っています。同社は、人間型ロボットのトレーニングデータを作成するために、人々が日常的なタスクを行っている様子を撮影した主観的ビデオを収集しています。Hacker News によると、この役割には、日常的な活動を行いながら、ヘッドバンドに取り付けられた電話を装着することが含まれます。
Discussion
AI Experts & Community
Be the first to comment