ROM, ITALIEN - In einer Studie, die konventionelle Weisheiten in Frage stellt, fanden Forscher heraus, dass Meditation kein Zustand der Gehirnruhe ist, sondern vielmehr einer erhöhten zerebralen Aktivität. Gleichzeitig verzeichnete die KI-Landschaft bedeutende Entwicklungen, wobei ein chinesisches KI-Startup eine rekordniedrige Halluzinationsrate erreichte und Forscher des MIT eine neue Feinabstimmungsmethode für große Sprachmodelle enthüllten. Bedenken hinsichtlich der Sicherheit von KI-Assistenten bestehen jedoch weiterhin, wie durch das Aufkommen eines neuen Tools eines unabhängigen Software-Ingenieurs hervorgehoben wurde.
Forscher der Universität Montreal und des italienischen Nationalen Forschungsrats analysierten die Gehirnaktivität von 12 Mönchen der Thai-Wald-Tradition mithilfe der Magnetoenzephalographie (MEG), so ein Bericht von Wired. Die Studie, die in einem buddhistischen Kloster außerhalb Roms durchgeführt wurde, ergab, dass Meditation die Gehirndynamik grundlegend verändert.
Unterdessen brachte Zhupai (z.ai) in der KI-Welt sein neues großes Sprachmodell GLM-5 auf den Markt, das laut VentureBeat eine rekordniedrige Halluzinationsrate im unabhängigen Artificial Analysis Intelligence Index v4.0 erreichte. Das Modell erreichte -1 im AA-Omniscience Index, was einer Verbesserung von 35 Punkten gegenüber seinem Vorgänger entspricht. Damit liegt GLM-5 in Bezug auf die Wissenszuverlässigkeit vor Wettbewerbern wie Google, OpenAI und Anthropic.
Auch Forscher des MIT machten Fortschritte in der KI-Entwicklung. Sie entwickelten eine neue Technik namens Self-Distillation Fine-Tuning (SDFT), die es LLMs ermöglicht, neue Fähigkeiten zu erlernen, ohne ihr vorhandenes Wissen zu vergessen, berichtete VentureBeat. Diese Methode nutzt die In-Context-Learning-Fähigkeiten moderner LLMs und übertrifft traditionelles überwachtes Fine-Tuning durchweg.
Die rasante Entwicklung der KI wirft jedoch auch Sicherheitsbedenken auf. Ein unabhängiger Software-Ingenieur, Peter Steinberger, entwickelte OpenClaw, ein Tool, mit dem Benutzer ihre eigenen maßgeschneiderten KI-Assistenten erstellen können, so MIT Technology Review. Das Projekt ging Ende Januar 2026 viral. Der Artikel merkt an, dass "KI-Agenten ein riskantes Geschäft sind" und dass LLMs selbst innerhalb eines Chatbox-Fensters Fehler machen können.
Diese Entwicklungen erfolgen inmitten anderer globaler Ereignisse, wie z. B. der Behauptung der USA, China führe geheime Atomtests durch, wie von NPR Politics berichtet. Die USA behaupten, China entwickle möglicherweise neue Atomsprengköpfe für seine Hyperschallwaffen.
Discussion
AI Experts & Community
Be the first to comment