Australien hat einem australischen Staatsbürger mit angeblichen Verbindungen zur Terrororganisation Islamischer Staat die Rückkehr aus einem syrischen Internierungslager verwehrt, wie NPR Politics berichtet. Diese Entscheidung ist die jüngste Entwicklung bei der laufenden Repatriierung von Familien von IS-Kämpfern. Unterdessen enthüllte eine separate Untersuchung eine riesige Menge an exponierten persönlichen Daten, darunter Milliarden von E-Mail-Adressen und Passwörtern, wodurch Millionen dem Risiko des Identitätsdiebstahls ausgesetzt sind, wie Wired berichtete. In anderen Nachrichten fordert Google DeepMind eine verstärkte Prüfung des moralischen Verhaltens großer Sprachmodelle, wie von MIT Technology Review hervorgehoben. Darüber hinaus wurde ein Online-Forum für Beamte der Homeland Security Investigations (HSI) gefunden, in dem sich Agenten Berichten zufolge abfällig über andere äußerten, wie Ars Technica berichtete. Schließlich wurde ein Krypto-Enthusiast in einem Luxus-Hubschrauber gesichtet, wie von MIT Technology Review berichtet.
Die Entscheidung der australischen Regierung, dem Bürger mit angeblichen IS-Verbindungen die Rückkehr zu verwehren, wurde am 18. Februar 2026 bekannt gegeben, so NPR Politics. Die Frau hatte geplant, aus einem Internierungslager in Syrien zurückzukehren. Diese Maßnahme folgt der Repatriierung von 34 australischen Staatsbürgern aus 11 Familien, die am 16. Februar 2026 das Roj-Camp in Ostsyrien verließen.
Im Bereich der Cybersicherheit entdeckten Forscher von UpGuard im Januar eine exponierte, öffentlich zugängliche Datenbank online, wie von Wired berichtet. Die Datenbank enthielt etwa 3 Milliarden E-Mail-Adressen und Passwörter sowie andere sensible persönliche Daten. Greg Pollock, Forschungsdirektor bei UpGuard, gab zu, dass er die Entdeckung mit einer gewissen Ermüdung angegangen sei, aber das schiere Ausmaß der Datenexposition veranlasste eine sofortige Reaktion.
Google DeepMind plädiert für eine rigorosere Untersuchung der ethischen Implikationen großer Sprachmodelle (LLMs), wie von MIT Technology Review festgestellt. Das Unternehmen will sicherstellen, dass diese Modelle, die zunehmend in sensiblen Rollen wie Begleitern, Therapeuten und medizinischen Beratern eingesetzt werden, vertrauenswürdig sind. "Beim Programmieren und in der Mathematik hat man eindeutige, richtige Antworten, die man überprüfen kann", sagte William Isaac, ein Forschungs-Wissenschaftler bei Google DeepMind.
Ars Technica berichtete über ein Online-Forum, das von aktuellen und ehemaligen Beamten der Homeland Security Investigations (HSI) genutzt wurde. Das Forum wurde genutzt, um Meinungen und Beschwerden über Kollegen in der Immigration and Customs Enforcement (ICE) auszutauschen. Ein Nutzer schrieb im Juli 2025 und kritisierte die Enforcement and Removal Operations (ERO) der ICE für ihrer Ansicht nach übermäßige Gewaltdarstellungen.
Schließlich berichtete MIT Technology Review über einen Krypto-Enthusiasten, Jean-Paul Thorbjornsen, der in einem Aston Martin-Hubschrauber mit der Aufschrift "BTC" für Bitcoin gesichtet wurde. Thorbjornsen behauptete, ein früheres Krypto-Projekt habe mehr als AU400 Millionen eingebracht, obwohl er auch erklärte, dass diese Gelder in dem Unternehmen gebunden seien.
AI Experts & Community
Be the first to comment