Australia prohibió a un ciudadano australiano con presuntos vínculos con el grupo Estado Islámico regresar a casa desde un campo de detención en Siria, según NPR Politics. Esta decisión es el último acontecimiento en la repatriación en curso de las familias de los combatientes del EI. Mientras tanto, una investigación separada reveló una vasta cantidad de datos personales expuestos, incluyendo miles de millones de direcciones de correo electrónico y contraseñas, poniendo a millones en riesgo de robo de identidad, según informó Wired. En otras noticias, Google DeepMind está pidiendo una mayor supervisión del comportamiento moral de los modelos lingüísticos grandes, como destacó MIT Technology Review. Además, se encontró un foro en línea para oficiales de Investigaciones de Seguridad Nacional (HSI) donde los agentes supuestamente se criticaban entre sí, según Ars Technica. Finalmente, se vio a un entusiasta de las criptomonedas volando en un helicóptero de lujo, según informó MIT Technology Review.
La decisión del gobierno australiano de prohibir el regreso a casa del ciudadano con presuntos vínculos con el EI se hizo pública el 18 de febrero de 2026, según NPR Politics. La mujer había estado planeando regresar de un campo de detención en Siria. Esta acción sigue a la repatriación de 34 ciudadanos australianos de 11 familias que partieron del campamento Roj en el este de Siria el 16 de febrero de 2026.
En el ámbito de la ciberseguridad, investigadores de UpGuard descubrieron una base de datos expuesta y de acceso público en línea en enero, según informó Wired. La base de datos contenía aproximadamente 3 mil millones de direcciones de correo electrónico y contraseñas, junto con otros datos personales sensibles. Greg Pollock, director de investigación de UpGuard, admitió que abordó el descubrimiento con cierta fatiga, pero la magnitud de la exposición de datos provocó una respuesta inmediata.
Google DeepMind está abogando por un examen más riguroso de las implicaciones éticas de los modelos lingüísticos grandes (LLM), según declaró MIT Technology Review. La empresa quiere asegurar que estos modelos, que se utilizan cada vez más en funciones sensibles como compañeros, terapeutas y asesores médicos, sean confiables. "Con la codificación y las matemáticas, tienes respuestas claras y correctas que puedes verificar", dijo William Isaac, un científico investigador de Google DeepMind.
Ars Technica informó sobre un foro en línea utilizado por oficiales actuales y anteriores de Investigaciones de Seguridad Nacional (HSI). El foro se utilizaba para compartir opiniones y quejas sobre colegas de Inmigración y Control de Aduanas (ICE). Un usuario escribió en julio de 2025, criticando las Operaciones de Cumplimiento y Remoción (ERO) de ICE por lo que percibían como exhibiciones excesivas de fuerza.
Finalmente, MIT Technology Review informó sobre un entusiasta de las criptomonedas, Jean-Paul Thorbjornsen, a quien se vio volando en un helicóptero Aston Martin adornado con "BTC" para bitcoin. Thorbjornsen afirmó que un proyecto de criptomonedas anterior generó más de AU400 millones, aunque también declaró que esos fondos estaban vinculados a la empresa.
AI Experts & Community
Be the first to comment