China testete am Dienstag erfolgreich eine neue wiederverwendbare Rakete und bemannte Kapsel, ein bedeutender Schritt in ihrem ehrgeizigen Plan, bis 2030 Astronauten auf dem Mond zu landen, so die China Manned Space Agency (CMSA). Der Start der Rakete Langer Marsch 10 und des Raumschiffs Mengzhou, Kernelemente der chinesischen Mondarchitektur, markiert einen großen Durchbruch in Chinas bemanntem Mondforschungsprogramm, wie Ars Technica berichtete.
Der Testflug, der am späten Dienstag US-amerikanischer Zeit durchgeführt wurde, präsentierte die Rakete Langer Marsch 10 und das Raumschiff Mengzhou. China und die Vereinigten Staaten befinden sich in einem Wettlauf, um die nächste bemannte Mondlandung zu erreichen, und wetteifern um nationales Prestige und Mondressourcen, so Ars Technica. Die CMSA hob den Erfolg der Demonstration hervor.
In anderen Nachrichten wurde erwartet, dass die Trump-Administration diese Woche die Rolle der US-Regierung bei der Kontrolle der Treibhausgasverschmutzung formell aufheben würde, so Ars Technica. Durch den Widerruf einer 17 Jahre alten wissenschaftlichen Feststellung, dass Treibhausgase die öffentliche Gesundheit und das Wohl gefährden, wird die Environmental Protection Agency (EPA) die rechtliche Grundlage für ihre Befugnis zum Handeln im Bereich des Klimawandels gemäß dem Clean Air Act abbauen. EPA-Administrator Lee Zeldin sollte bei der Veranstaltung mit Präsident Donald Trump anwesend sein.
Unterdessen ermöglicht eine neue Feinabstimmungsmethode, die von Forschern des MIT, des Improbable AI Lab und der ETH Zürich entwickelt wurde, dass große Sprachmodelle (LLMs) neue Fähigkeiten erlernen, ohne bestehende zu verlieren, berichtete VentureBeat. Die Technik, genannt Self-Distillation Fine-Tuning (SDFT), ermöglicht es Modellen, direkt aus Demonstrationen und ihren eigenen Experimenten zu lernen, indem sie die inhärenten In-Context-Learning-Fähigkeiten moderner LLMs nutzen. Experimente zeigen, dass SDFT traditionelles Supervised Fine-Tuning (SFT) durchweg übertrifft und gleichzeitig die Einschränkungen des Reinforcement Learning angeht.
Im Bereich der KI werden die Risiken im Zusammenhang mit KI-Agenten hervorgehoben. Selbst innerhalb von Chatbox-Umgebungen können LLMs Fehler machen und unerwünschtes Verhalten zeigen, so der MIT Technology Review. Die Folgen dieser Fehler werden gravierender, wenn KI-Agenten Werkzeuge zur Interaktion mit der Außenwelt haben, wie z. B. Webbrowser und E-Mail-Adressen. Dies könnte erklären, warum der erste bahnbrechende LLM-Personalassistent von einem unabhängigen Software-Ingenieur, Peter Steinberger, kam, der sein Tool OpenClaw im November 2025 auf GitHub hochlud. Das Projekt ging Ende Januar viral. OpenClaw nutzt bestehende LLMs, um Benutzern die Erstellung ihrer eigenen maßgeschneiderten Assistenten zu ermöglichen.
Schließlich enthüllte WIRED Einzelheiten über die geplante Expansion von ICE in über 150 Büroräume in den Vereinigten Staaten, darunter 54 spezifische Adressen. ICE plant, bestehende Regierungsräume zu besetzen und Einrichtungen mit Arztpraxen und kleinen Unternehmen zu teilen, so WIRED.
Discussion
AI Experts & Community
Be the first to comment