Astronom*innen* sind bereit, ihr Verständnis des Kuipergürtels, einer riesigen Region eisiger Trümmer jenseits des Neptun, erheblich zu erweitern, während eine kalifornische Küstenstadt KI einsetzt, um gegen Verstöße in Fahrradspuren vorzugehen, und Forscher bei Nvidia eine Technik entwickelt haben, um die Speicherkosten des Reasoning von Large Language Models (LLMs) zu senken. Diese Entwicklungen, die sich über Weltraumforschung, urbane Sicherheit und künstliche Intelligenz erstrecken, unterstreichen die anhaltenden Fortschritte in verschiedenen Bereichen.
In den letzten 30 Jahren haben Astronom*innen* laut Ars Technica etwa 4.000 Kuipergürtelobjekte (KBOs), darunter Zwergplaneten und eisige Kometen, katalogisiert. Diese Zahl wird sich in den kommenden Jahren voraussichtlich verzehnfachen, da Beobachtungen von fortschrittlicheren Teleskopen genutzt werden. Dies wird ein tieferes Verständnis dieser Region ermöglichen, die 30 bis 50 Mal weiter von der Sonne entfernt ist als die Erde.
In Santa Monica, Kalifornien, wird die Stadt die erste im Land sein, die ein KI-System in kommunalen Parküberwachungsfahrzeugen einsetzt, um Verstöße in Fahrradspuren zu erkennen, wie Ars Technica berichtet. Ab April wird die Scantechnologie von Hayden AI in sieben Parküberwachungsautos eingesetzt, was die bereits an Stadtbussen montierten Kameras erweitert. "Je mehr wir die Menge an illegalem Parken reduzieren können, desto sicherer können wir es für Radfahrer machen", sagte Charley Territo, Chief Growth Officer bei Hayden AI.
Unterdessen haben Nvidia-Forscher eine Technik namens Dynamic Memory Sparsification (DMS) entwickelt, die die Speicherkosten des LLM-Reasoning um bis zu das Achtfache senken kann, wie VentureBeat detailliert beschreibt. DMS komprimiert den Key-Value-Cache (KV-Cache), den temporären Speicher, den LLMs generieren. Experimente zeigen, dass DMS es LLMs ermöglicht, länger zu "denken" und mehr Lösungen zu erkunden, ohne dass zusätzlicher Speicher benötigt wird.
Die Entwicklung von KI wird auch in anderen Bereichen eingesetzt. Laut VentureBeat zeigt die Forschung, dass die ideale Größe für ein produktives Echtzeitgespräch nur etwa 4 bis 7 Personen beträgt. Wenn Gruppen größer werden, hat jede Person weniger Gelegenheit zu sprechen, was ihre Frustration erhöht.
In einem anderen Kontext hob das MIT Technology Review die Realitäten der High-Tech-Kriminalität hervor und stellte fest, dass technische Gegenmaßnahmen selten ein Problem darstellen und High-Tech-Gadgets selten eine Lösung sind. Die Haupthürde ist in der Regel eine buchstäbliche Zugangshürde.
Discussion
AI Experts & Community
Be the first to comment