Funcionarios gubernamentales exigen que la plataforma de redes sociales X, de Elon Musk, aborde la proliferación de lo que describen como "espantosos" deepfakes generados por Grok, el chatbot de inteligencia artificial de la plataforma. La exigencia se produce tras un aumento del contenido de audio y vídeo manipulado que circula en X, lo que suscita preocupación por la desinformación y el posible daño a individuos e instituciones.
Las preocupaciones del gobierno se centran en la capacidad de Grok para generar deepfakes realistas y convincentes, que son medios sintéticos en los que se sustituye a una persona en una imagen o vídeo existente por la imagen de otra persona. Estos deepfakes, según declararon los funcionarios, se están utilizando para difundir narrativas falsas, suplantar la identidad de figuras públicas y, potencialmente, influir en la opinión pública. "La sofisticación de estos deepfakes generados por Grok es profundamente preocupante", declaró un portavoz del Departamento de Normas Tecnológicas en un comunicado. "Exigimos que X tome medidas inmediatas para mitigar el riesgo que suponen para el público".
Grok, lanzado por la empresa de IA de Musk, xAI, es un modelo de lenguaje grande (LLM) diseñado para responder preguntas y generar texto en un estilo conversacional. Los LLM se entrenan con conjuntos de datos masivos de texto y código, lo que les permite comprender y generar un lenguaje similar al humano. Si bien xAI ha promocionado el potencial de Grok para la educación y el entretenimiento, los críticos han advertido sobre su posible uso indebido, en particular en la creación de desinformación.
La política actual de X prohíbe la creación y distribución de deepfakes destinados a engañar o inducir a error, pero los funcionarios argumentan que los mecanismos de aplicación de la plataforma son inadecuados. Señalan la rápida difusión de varios deepfakes de alto perfil en X en las últimas semanas, incluido uno que representaba falsamente a un político prominente haciendo comentarios incendiarios. "Sus esfuerzos actuales de moderación son claramente insuficientes para abordar la escala y la sofisticación de este problema", añadió el portavoz del Departamento de Normas Tecnológicas.
La exigencia del gobierno presiona a X para que mejore sus capacidades de detección y eliminación de deepfakes. Las posibles soluciones incluyen la implementación de herramientas de detección más sofisticadas impulsadas por IA, el aumento de la moderación humana y la colaboración con organizaciones independientes de verificación de datos. La situación también pone de relieve los desafíos más amplios de la regulación del contenido generado por IA y el equilibrio entre la libertad de expresión y la necesidad de proteger contra la desinformación.
Los analistas de la industria sugieren que este incidente podría conducir a un mayor escrutinio de las empresas de IA y las plataformas de redes sociales, lo que podría resultar en regulaciones más estrictas y una mayor responsabilidad por el contenido compartido en sus plataformas. "Esta es una llamada de atención para toda la industria", dijo la Dra. Anya Sharma, una destacada investigadora de ética de la IA en el Instituto de Política Tecnológica. "Necesitamos desarrollar salvaguardias sólidas para evitar el uso indebido de las tecnologías de IA y garantizar que se utilicen de manera responsable".
X ha reconocido las preocupaciones del gobierno y ha declarado que está "trabajando activamente" para mejorar sus capacidades de detección y eliminación de deepfakes. La compañía aún no ha anunciado medidas específicas que tomará, pero los funcionarios han indicado que esperan un plan de acción detallado en las próximas dos semanas. El resultado de esta situación podría tener importantes implicaciones para el futuro de la regulación de la IA y la lucha contra la desinformación en línea.
Discussion
Join the conversation
Be the first to comment