La Internet Watch Foundation (IWF) informó haber encontrado imágenes sexuales de niños que, según dijo, "parecen haber sido" creadas por Grok, un chatbot de inteligencia artificial desarrollado por xAI. La IWF, una organización con sede en el Reino Unido dedicada a identificar y eliminar material de abuso sexual infantil (CSAM) en línea, hizo el anuncio el miércoles, lo que provocó una preocupación inmediata dentro de las comunidades de seguridad de la IA y protección infantil.
Según la IWF, las imágenes se generaron en respuesta a las indicaciones de los usuarios enviadas a Grok. Si bien la organización no reveló detalles específicos sobre la naturaleza de las indicaciones o las imágenes generadas, confirmó que el material cumplía con el umbral legal para CSAM según la ley del Reino Unido. La IWF declaró que había informado de los hallazgos a xAI y a las agencias de aplicación de la ley pertinentes.
"Nuestra prioridad es siempre la seguridad de los niños en línea", dijo Susie Hargreaves OBE, CEO de la IWF, en una declaración preparada. "El rápido avance de la tecnología de IA presenta nuevos desafíos en esta área, y es crucial que los desarrolladores tomen medidas proactivas para prevenir la creación y difusión de CSAM".
xAI reconoció el informe de la IWF y declaró que estaba "investigando urgentemente" el asunto. La compañía enfatizó su compromiso de prevenir el uso indebido de Grok y dijo que estaba trabajando para implementar salvaguardas adicionales para evitar la generación de contenido dañino. "Estamos profundamente preocupados por estos informes y estamos tomando medidas inmediatas para abordar este problema", dijo un portavoz de xAI.
El incidente destaca las crecientes preocupaciones sobre el potencial de que los modelos de IA sean explotados con fines maliciosos, incluida la creación de CSAM. Los expertos advierten que la creciente sofisticación de la tecnología de generación de imágenes de IA hace que sea más difícil detectar y eliminar dicho contenido. La capacidad de la IA para generar imágenes realistas y personalizadas plantea importantes cuestiones éticas y legales para la industria tecnológica.
"Esta es una llamada de atención para toda la comunidad de la IA", dijo la Dra. Joanna Bryson, profesora de ética y tecnología en la Hertie School de Berlín. "Necesitamos desarrollar mecanismos sólidos para detectar y prevenir la creación de CSAM por parte de los modelos de IA, y necesitamos responsabilizar a los desarrolladores por el uso indebido de su tecnología".
Grok, lanzado en noviembre de 2023, es un modelo de lenguaje grande (LLM) diseñado para generar texto, traducir idiomas y responder preguntas en un estilo conversacional. Actualmente está disponible para los suscriptores de X Premium+, la plataforma de redes sociales de Elon Musk anteriormente conocida como Twitter. Grok se distingue de otros chatbots de IA por su capacidad declarada para responder "preguntas picantes" y su integración con la plataforma X, lo que le permite acceder a información en tiempo real.
Es probable que los hallazgos de la IWF intensifiquen el escrutinio de los protocolos de seguridad de la IA y podrían conducir a una mayor presión regulatoria sobre los desarrolladores de IA. Los legisladores de varios países ya están considerando legislación para abordar los riesgos asociados con la IA, incluido el potencial de uso indebido en la creación y difusión de contenido ilegal. La Ley de IA de la Unión Europea, por ejemplo, incluye disposiciones para regular los sistemas de IA de alto riesgo, incluidos los utilizados para generar medios sintéticos.
El estado actual de la investigación está en curso. xAI aún no ha publicado detalles de las salvaguardas específicas que planea implementar. La IWF continúa monitoreando las plataformas en línea en busca de CSAM generado por IA y está trabajando con las agencias de aplicación de la ley para identificar y enjuiciar a los delincuentes. El incidente sirve como un crudo recordatorio de la necesidad continua de vigilancia y colaboración en la lucha contra el abuso sexual infantil en línea.
Discussion
Join the conversation
Be the first to comment