Googleによる最近の研究で、高度な推論AIモデルは、多様な視点、人格特性、およびドメイン専門知識を含む内部討論をシミュレートすることにより、複雑なタスクの精度を大幅に向上させることが明らかになりました。VentureBeatによると、Googleによって実施され、2026年1月30日に発表されたこの研究は、この「思考の社会」アプローチが、複雑な推論および計画タスクにおけるモデルのパフォーマンスを向上させることを実証しました。
研究者らは、強化学習(RL)を通じてトレーニングされたDeepSeek-R1やQwQ-32Bなどの主要な推論モデルは、明示的な指示なしに、これらの内部討論に参加する能力を本質的に開発することを発見しました。VentureBeatが報じたように、これらの発見は、開発者がより堅牢な大規模言語モデル(LLM)アプリケーションを構築し、企業が独自の内部データを使用して優れたモデルをトレーニングするためのロードマップを提供します。
他のテクノロジーニュースでは、2015年に最初にリリースされたNvidiaのShield Android TVが、アップデートを受け続けており、デバイスのサポートが10年を迎えます。Ars Technicaによると、この長期的なサポートは、同社にとって「愛情の結晶」です。Nvidiaのハードウェアエンジニアリング担当シニアVPであるAndrew Bell氏は、NvidiaのチームはShieldを今でも愛していると保証しました。この長期的なアップデートへの取り組みは、過去にAndroidデバイスに提供されていた限定的なアップデートサポートとは対照的です。
一方、ディープフェイクを生成するためのAIの使用は、倫理的な懸念を引き起こしています。スタンフォード大学とインディアナ大学の研究者による調査によると、Andreessen Horowitzが支援するオンラインマーケットプレイスCivitaianでのリクエストのかなりの部分が、実在の人物のディープフェイクを対象としており、これらのリクエストの90%が女性をターゲットにしていることが、MIT Technology Reviewによって報告されました。まだ査読されていないこの調査では、2023年半ばから2024年末までのサイト上のコンテンツのリクエスト(「報奨金」と呼ばれる)を調査しました。これらのファイルの中には、サイトで禁止されているポルノ画像を作成するために特別に設計されたものもありました。
Discussion
Join the conversation
Be the first to comment