L'Australie a interdit à un citoyen australien, soupçonné d'être lié au groupe État islamique, de rentrer chez lui depuis un camp de détention en Syrie, selon NPR Politics. Cette décision est le dernier développement en date de la rapatriement en cours des familles de combattants de l'EI. Parallèlement, une enquête distincte a révélé une vaste mine de données personnelles exposées, notamment des milliards d'adresses électroniques et de mots de passe, mettant des millions de personnes en danger de vol d'identité, comme l'a rapporté Wired. Dans d'autres actualités, Google DeepMind appelle à un contrôle accru du comportement moral des grands modèles linguistiques, comme l'a souligné MIT Technology Review. De plus, un forum en ligne pour les agents des enquêtes de la sécurité intérieure (HSI) a été découvert, où les agents se seraient insultés, selon Ars Technica. Enfin, un passionné de crypto a été vu en train de voler dans un hélicoptère de luxe, comme l'a rapporté MIT Technology Review.
La décision du gouvernement australien d'interdire au citoyen, soupçonné de liens avec l'EI, de rentrer chez lui a été rendue publique le 18 février 2026, selon NPR Politics. La femme avait prévu de revenir d'un camp de détention en Syrie. Cette action fait suite au rapatriement de 34 citoyens australiens de 11 familles qui ont quitté le camp de Roj, dans l'est de la Syrie, le 16 février 2026.
Dans le domaine de la cybersécurité, des chercheurs d'UpGuard ont découvert en janvier une base de données exposée et accessible au public en ligne, comme l'a rapporté Wired. La base de données contenait environ 3 milliards d'adresses électroniques et de mots de passe, ainsi que d'autres données personnelles sensibles. Greg Pollock, directeur de la recherche chez UpGuard, a admis qu'il avait abordé la découverte avec une certaine fatigue, mais l'ampleur même de l'exposition des données a suscité une réaction immédiate.
Google DeepMind plaide pour un examen plus rigoureux des implications éthiques des grands modèles linguistiques (LLM), comme l'a déclaré MIT Technology Review. L'entreprise veut s'assurer que ces modèles, qui sont de plus en plus utilisés dans des rôles sensibles tels que compagnons, thérapeutes et conseillers médicaux, sont dignes de confiance. "Avec le codage et les mathématiques, vous avez des réponses claires et correctes que vous pouvez vérifier", a déclaré William Isaac, chercheur scientifique chez Google DeepMind.
Ars Technica a rendu compte d'un forum en ligne utilisé par des agents actuels et anciens des enquêtes de la sécurité intérieure (HSI). Le forum était utilisé pour partager des opinions et des plaintes concernant des collègues de l'Immigration and Customs Enforcement (ICE). Un utilisateur a écrit en juillet 2025, critiquant les opérations d'application et de renvoi (ERO) de l'ICE pour ce qu'il percevait comme des démonstrations excessives de force.
Enfin, MIT Technology Review a rendu compte d'un passionné de crypto, Jean-Paul Thorbjornsen, qui a été vu en train de voler dans un hélicoptère Aston Martin orné de "BTC" pour bitcoin. Thorbjornsen a affirmé qu'un précédent projet de crypto avait rapporté plus de 400 millions de dollars australiens, bien qu'il ait également déclaré que ces fonds étaient bloqués dans l'entreprise.
AI Experts & Community
Be the first to comment