Nvidia hat eine neue Technik vorgestellt, um die Speicherkosten für das Reasoning großer Sprachmodelle (LLMs) drastisch zu senken, während OpenAI ein neues Coding-Modell auf den Markt gebracht hat, das von Cerebras-Chips angetrieben wird, was eine Abkehr von der Abhängigkeit von Nvidia-Hardware darstellt. Diese Entwicklungen, zusammen mit der laufenden Forschung über das Altern des Gehirns und das Sprachenlernen, unterstreichen die raschen Fortschritte in der künstlichen Intelligenz und verwandten Bereichen.
Laut VentureBeat kann die neue Technik von Nvidia, die als Dynamic Memory Sparsification (DMS) bezeichnet wird, den Key-Value (KV)-Cache – den temporären Speicher, den LLMs verwenden – um bis zu achtmal komprimieren. Dies ermöglicht es LLMs, "länger zu denken" und mehr Lösungen zu erkunden, ohne dass der Speicher ausgeht, wie VentureBeat berichtet. Während andere Methoden versucht haben, den Cache zu komprimieren, erhält oder verbessert der Ansatz von Nvidia die Reasoning-Fähigkeiten des Modells sogar.
Der Wechsel von OpenAI zu Cerebras-Chips für sein neues GPT-5.3-Codex-Spark-Coding-Modell stellt eine bedeutende Abkehr von der traditionellen Abhängigkeit von Nvidia dar. VentureBeat merkte an, dass dieses Modell für nahezu sofortige Reaktionszeiten konzipiert ist und OpenAIs erste größere Inferenzpartnerschaft außerhalb von Nvidia darstellt. Die Partnerschaft kommt zu einem entscheidenden Zeitpunkt für OpenAI, das sich mit einer angespannten Beziehung zu Nvidia, Kritik an seiner Entscheidung, Werbung in ChatGPT einzuführen, einem neu angekündigten Pentagon-Vertrag und internen organisatorischen Umwälzungen auseinandersetzt.
In anderen Nachrichten wird weiterhin die Auswirkung von Koffein auf das Altern des Gehirns erforscht. Eine Studie an 130.000 Menschen deutet darauf hin, dass eine moderate Koffeinaufnahme das Demenzrisiko verringern könnte, so Nature News. Der Nature Podcast diskutierte auch den Einsatz von KI, um die Regeln eines lange vergessenen antiken römischen Brettspiels zu entschlüsseln.
In der Zwischenzeit setzt die Tech-Community ihre Innovationen fort. Das Open-Source-Projekt "zed" arbeitet an der Neuimplementierung seines Linux-Renderers mit wgpu, wie durch einen Pull-Request auf GitHub angezeigt wird. Darüber hinaus bietet die Website "lairner" Kurse in über 60 Sprachen an, darunter seltene und gefährdete Sprachen, so Hacker News.
Discussion
AI Experts & Community
Be the first to comment