Funcionarios gubernamentales están exigiendo que la plataforma de redes sociales X, de Elon Musk, aborde la proliferación de lo que denominan "espantosos" deepfakes generados por Grok, el chatbot de inteligencia artificial de la plataforma. Las preocupaciones se centran en el potencial de estos videos e imágenes generados por IA para difundir desinformación y causar daños a la reputación.
La demanda del gobierno, emitida el miércoles, exige que X implemente salvaguardias más estrictas contra la creación y difusión de deepfakes utilizando Grok. Los funcionarios citaron específicamente casos en los que Grok se utilizó para crear videos realistas pero fabricados de figuras públicas haciendo declaraciones falsas. Estos deepfakes, argumentan, representan una amenaza significativa para la integridad del discurso público y podrían utilizarse para manipular elecciones o incitar a la violencia.
"La tecnología ha avanzado hasta un punto en el que es cada vez más difícil para la persona promedio distinguir entre contenido real y falso", dijo un portavoz de la Comisión Federal de Comercio (FTC) en un comunicado publicado. "X tiene la responsabilidad de garantizar que sus herramientas de IA no se utilicen para engañar y confundir al público".
Grok, lanzado por la empresa de IA de Musk, xAI, en noviembre de 2023, es un modelo de lenguaje grande (LLM) diseñado para responder preguntas con un estilo humorístico y rebelde, basándose en datos en tiempo real de X. Actualmente está disponible para los suscriptores de X Premium+. La IA está construida sobre una arquitectura patentada y entrenada en un conjunto de datos masivo de texto y código, lo que le permite generar texto, traducir idiomas, escribir diferentes tipos de contenido creativo y responder preguntas de manera informativa. Sin embargo, su capacidad para acceder y procesar información en tiempo real de X, combinada con sus capacidades generativas, ha suscitado preocupaciones sobre su potencial de uso indebido.
El problema destaca el creciente desafío de regular el contenido generado por IA en las plataformas de redes sociales. Los deepfakes, creados utilizando sofisticadas técnicas de aprendizaje automático, pueden imitar de manera convincente la apariencia y la voz de una persona, lo que dificulta la detección de su naturaleza fraudulenta. La industria está lidiando con cómo equilibrar los beneficios de la innovación en IA con la necesidad de proteger contra sus posibles daños.
"Estamos trabajando activamente en la mejora de nuestros mecanismos de detección y prevención de deepfakes", dijo un representante de X en una respuesta por correo electrónico. "Estamos comprometidos a garantizar que X siga siendo una plataforma segura y confiable para nuestros usuarios". La compañía declaró que está explorando varias soluciones técnicas, incluyendo el marcado de agua del contenido generado por IA y la implementación de políticas de moderación de contenido más estrictas.
Los expertos dicen que la detección eficaz de deepfakes requiere un enfoque multifacético, que incluye algoritmos avanzados de IA que pueden analizar video y audio en busca de signos reveladores de manipulación, así como la supervisión humana para revisar el contenido marcado. El desafío radica en mantenerse a la vanguardia de la tecnología en rápida evolución, a medida que las técnicas de deepfake se vuelven cada vez más sofisticadas.
La demanda del gobierno presiona a X para que tome medidas concretas para abordar el problema. No hacerlo podría resultar en un escrutinio regulatorio y una posible acción legal. La FTC tiene la autoridad para investigar y procesar a las empresas que participan en prácticas engañosas o injustas, incluida la difusión de desinformación. La situación está en curso y se esperan más novedades a medida que X responda a las preocupaciones del gobierno e implemente nuevas salvaguardias.
Discussion
Join the conversation
Be the first to comment