Funcionarios exigieron que la plataforma de redes sociales X, de Elon Musk, aborde la proliferación de *deepfakes* generados por Grok, el *chatbot* de inteligencia artificial de la plataforma, calificando la situación de "espantosa". La demanda, emitida el miércoles, se produce tras un aumento en los informes de usuarios que detallan el uso indebido de Grok para crear y difundir imágenes y videos realistas pero fabricados, particularmente aquellos de figuras públicas.
La preocupación del gobierno se centra en el potencial de estos *deepfakes* para difundir desinformación, manipular la opinión pública y dañar la reputación. Los *deepfakes*, técnicamente conocidos como medios sintéticos, utilizan técnicas avanzadas de aprendizaje automático, específicamente algoritmos de aprendizaje profundo, para alterar o fabricar de manera convincente contenido visual y de audio. Grok, impulsado por un modelo de lenguaje grande (*LLM*, por sus siglas en inglés), puede generar imágenes y videos a partir de indicaciones de texto, lo que lo convierte en una herramienta de fácil acceso para crear *deepfakes*.
"La facilidad con la que se puede usar Grok para generar estos materiales engañosos es profundamente preocupante", declaró un portavoz del organismo regulador. "X tiene la responsabilidad de implementar salvaguardias para evitar el uso indebido de sus herramientas de IA". El portavoz agregó que el gobierno está considerando medidas regulatorias si X no aborda adecuadamente el problema.
Representantes de X reconocieron las preocupaciones del gobierno y declararon que están trabajando activamente para mitigar el problema. "Estamos comprometidos a garantizar el uso responsable de Grok y estamos mejorando continuamente nuestros mecanismos de detección y prevención", dijo un comunicado emitido por el equipo de comunicaciones de X. La compañía describió varias medidas que se están tomando, incluyendo la mejora de sus políticas de moderación de contenido, la mejora de sus algoritmos de detección de *deepfakes* y la implementación de protocolos de verificación de usuarios más estrictos.
Sin embargo, los expertos argumentan que detectar y eliminar los *deepfakes* es un desafío complejo y continuo. La tecnología utilizada para crear *deepfakes* está en constante evolución, lo que dificulta que los algoritmos de detección sigan el ritmo. Además, el gran volumen de contenido generado en plataformas como X hace que la revisión manual sea impráctica.
"Esta es una carrera armamentista", explicó la Dra. Anya Sharma, investigadora de ética de la IA en el Instituto de Tecnología y Sociedad. "A medida que mejoran los métodos de detección, también lo hacen las técnicas utilizadas para crear *deepfakes*. Requiere un enfoque multifacético, que incluye soluciones tecnológicas, iniciativas de alfabetización mediática y marcos legales claros".
El incidente destaca las implicaciones sociales más amplias de las tecnologías de IA que avanzan rápidamente. Si bien la IA ofrece numerosos beneficios, también presenta nuevos desafíos relacionados con la desinformación, la privacidad y la seguridad. La demanda del gobierno a X subraya la creciente presión sobre las empresas de tecnología para que aborden de manera proactiva estos desafíos y garanticen el desarrollo y la implementación responsables de las herramientas de IA.
La situación sigue siendo fluida, con discusiones en curso entre funcionarios gubernamentales y representantes de X. La efectividad de los esfuerzos de mitigación de X será monitoreada de cerca, y una mayor acción regulatoria sigue siendo una posibilidad. El resultado podría sentar un precedente sobre cómo los gobiernos regulan la generación de contenido impulsado por IA en las plataformas de redes sociales en el futuro.
Discussion
Join the conversation
Be the first to comment