Ein Bundesrichter in New York ging diese Woche den seltenen Schritt, einen Fall zu beenden, da ein Anwalt KI wiederholt missbraucht hatte, um Schriftsätze zu verfassen. Gleichzeitig heizten sich die KI-Coding-Kriege auf, als OpenAI und Anthropic konkurrierende Modelle auf den Markt brachten und sich auf Super Bowl-Werbespots vorbereiteten. Darüber hinaus wurde festgestellt, dass bösartige Pakete in npm- und PyPI-Repositories Wallet-Zugangsdaten stehlen, und Forscher entwickelten eine neue Technik zur Optimierung von GPU-Kernels.
Richterin am Bezirksgericht Katherine Polk Failla entschied, dass außergewöhnliche Sanktionen gegen den Anwalt Steven Feldman gerechtfertigt seien, nachdem er wiederholt Schriftsätze mit gefälschten Zitaten und "auffällig blumiger Prosa" eingereicht hatte, so Ars Technica. Die Entscheidung der Richterin unterstreicht die wachsenden Bedenken hinsichtlich des Missbrauchs von KI in rechtlichen Kontexten.
In der Tech-Welt verschärfte sich der Wettbewerb zwischen den KI-Giganten OpenAI und Anthropic. OpenAI veröffentlichte GPT-5.3-Codex, seinen bisher leistungsfähigsten Coding-Agenten, zeitgleich mit der Vorstellung von Anthropics aktualisiertem Claude Opus 4.6. Dieser synchronisierte Start markierte den Beginn dessen, was Branchenbeobachter als die "KI-Coding-Kriege" bezeichnen, einen Kampf um die Eroberung des Enterprise-Softwareentwicklungsmarktes, wie VentureBeat berichtete. Die Unternehmen werden auch konkurrierende Super Bowl-Werbespots ausstrahlen.
Unterdessen entdeckten Sicherheitsforscher bösartige Pakete in den npm- und PyPI-Repositories, die Wallet-Zugangsdaten von dYdX-Entwicklern und Backend-Systemen stahlen und in einigen Fällen Geräte mit Backdoors versahen, berichtete Ars Technica. Die kompromittierten Pakete gefährdeten Anwendungen, die sie verwendeten, was möglicherweise zu einem vollständigen Wallet-Kompromiss und irreversiblem Kryptowährungsdiebstahl führte.
Eine weitere Entwicklung betraf Forscher von Stanford, Nvidia und Together AI, die eine neue Technik namens Test-Time Training to Discover (TTT-Discover) entwickelten. Diese Technik ermöglicht es einem Modell, während des Inferenzprozesses weiter zu trainieren und seine Gewichte für das spezifische Problem zu aktualisieren. Sie optimierten erfolgreich einen kritischen GPU-Kernel, der doppelt so schnell lief wie der bisherige Stand der Technik, der von menschlichen Experten geschrieben wurde, so VentureBeat.
In einem separaten Vorfall erhielt ein Entwickler eine LinkedIn-Nachricht von einem Personalvermittler, die zu einer Coding-Bewertung führte, die die Installation eines Pakets erforderte. Dieses Paket extrahierte dann Cloud-Zugangsdaten, einschließlich persönlicher GitHub-Zugriffstoken und AWS-API-Schlüssel, wodurch der Angreifer innerhalb von Minuten Zugriff auf die Cloud-Umgebung erhielt, berichtete VentureBeat. Diese Angriffskette wird als Identity and Access Management (IAM)-Pivot bekannt und stellt eine grundlegende Lücke in der Art und Weise dar, wie Unternehmen identitätsbasierte Angriffe überwachen.
Discussion
AI Experts & Community
Be the first to comment