Lumma Stealer kehrt zurück, KI halluziniert weniger, LLMs lernen mehr
Der Lumma Stealer, ein berüchtigter Infostealer, der im letzten Jahr fast 395.000 Windows-Computer infizierte, bevor er gestört wurde, ist laut Forschern mit neuer Stärke wieder aufgetaucht. Gleichzeitig entstehen weiterhin Fortschritte in der künstlichen Intelligenz, wobei das chinesische KI-Startup z.ai mit GLM-5 eine rekordniedrige Halluzinationsrate erreicht und Forscher des MIT eine neue Feintuning-Methode für Large Language Models entwickeln. In anderen Nachrichten wurde der Open-Source-KI-Assistent OpenClaw mit einer sichereren Version, NanoClaw, aktualisiert. Schließlich wurde ein Aufruf zu einem gezielten wirtschaftlichen Streik gegen Unternehmen ausgegeben, die bestimmte staatliche Maßnahmen ermöglichen.
Der Lumma Stealer, auch bekannt als Lumma Stealer, erschien erstmals 2022 in russischsprachigen Cybercrime-Foren. Sein Malware-as-a-Service-Modell bot eine weitläufige Infrastruktur von Domains für das Hosting von Köderseiten, die kostenlose gecrackte Software, Spiele und Raubkopien von Filmen anboten, so Ars Technica. Nachdem Strafverfolgungsbehörden im vergangenen Mai seine Infrastruktur lahmgelegt hatten, ist die Malware nun wieder im Umlauf und setzt schwer zu entdeckende Angriffe ein, um Anmeldeinformationen und sensible Dateien zu stehlen, berichteten Forscher am Mittwoch.
Im Bereich der KI behält z.ai's GLM-5, die neueste Version seiner GLM-Serie, eine Open-Source-MIT-Lizenz bei. VentureBeat berichtete, dass es eine rekordniedrige Halluzinationsrate im unabhängigen Artificial Analysis Intelligence Index v4.0 erreicht und -1 im AA-Omniscience Index erzielt. Dies stellt eine Verbesserung um 35 Punkte gegenüber seinem Vorgänger dar und positioniert GLM-5 vor Wettbewerbern wie Google, OpenAI und Anthropic in Bezug auf die Zuverlässigkeit des Wissens.
Unterdessen haben Forscher des MIT, des Improbable AI Lab und der ETH Zürich eine neue Technik entwickelt, mit der Large Language Models neue Fähigkeiten und Kenntnisse erlernen können, ohne ihre bisherigen Fähigkeiten zu vergessen. Ihre Technik, Self-Distillation Fine-Tuning (SDFT) genannt, ermöglicht es Modellen, direkt aus Demonstrationen und ihren eigenen Experimenten zu lernen, indem sie die inhärenten In-Context-Learning-Fähigkeiten moderner LLMs nutzen, so VentureBeat. Experimente zeigen, dass SDFT traditionelles überwachtes Fine-Tuning durchweg übertrifft.
Die rasche Verbreitung des Open-Source-KI-Assistenten OpenClaw des österreichischen Entwicklers Peter Steinberger hat zur Veröffentlichung von NanoClaw geführt, einer leichteren, sichereren Version. OpenClaw, das eine leistungsstarke Möglichkeit bietet, Arbeiten autonom zu erledigen und Aufgaben auf dem gesamten Computer, Telefon oder sogar im Unternehmen eines Benutzers mit natürlichen Sprachaufforderungen auszuführen, hat seit seiner Veröffentlichung im November 2025 mit über 50 Modulen und breiten Integrationen den Markt erobert. NanoClaw debütierte unter einer Open-Source-MIT-Lizenz, so VentureBeat.
Schließlich wurde auf Hacker News ein Aufruf zu einem gezielten, einmonatigen nationalen Wirtschaftsstreik herausgegeben. Der Streik zielt auf Technologieunternehmen und Firmen ab, die bestimmte staatliche Maßnahmen ermöglichen, mit dem Ziel, maximalen Schaden bei minimalen Auswirkungen auf die Verbraucher anzurichten. Die Strategie basiert auf der Überzeugung, dass der Markt der Haupttreiber für Veränderungen ist.
Discussion
AI Experts & Community
Be the first to comment