Funcionarios gubernamentales exigen que la plataforma de redes sociales X, de Elon Musk, aborde la proliferación de lo que denominan "espantosos" deepfakes generados por Grok, el chatbot de inteligencia artificial de la plataforma. La demanda se produce tras un aumento de contenido de audio y video realista pero fabricado que circula en X, lo que genera preocupación por la posible desinformación y el daño a la reputación.
Las preocupaciones del gobierno se centran en la capacidad de Grok para generar deepfakes altamente convincentes, que son medios sintéticos en los que una persona en una imagen o video existente es reemplazada por la imagen de otra persona. Esta tecnología, si bien tiene aplicaciones potenciales en el entretenimiento y la educación, puede utilizarse indebidamente para crear narrativas falsas, manipular la opinión pública y difamar a personas. "La velocidad y la sofisticación con la que Grok puede producir estos deepfakes es profundamente preocupante", dijo un portavoz del Departamento de Regulación Tecnológica en un comunicado. "Necesitamos garantías de que X está tomando medidas proactivas para mitigar los riesgos".
X introdujo Grok a sus suscriptores premium a finales de 2023 como una función diseñada para mejorar la participación de los usuarios y proporcionar herramientas creativas. Grok se basa en un modelo de lenguaje grande (LLM), un tipo de IA que se entrena con conjuntos de datos masivos de texto y código, lo que le permite generar texto similar al humano, traducir idiomas y crear diferentes tipos de contenido creativo. Si bien X ha implementado salvaguardas para evitar la generación de contenido dañino, los críticos argumentan que estas medidas son insuficientes para combatir la creciente sofisticación de la tecnología deepfake.
El auge de los deepfakes generados por IA plantea un desafío importante tanto para la industria tecnológica como para los reguladores. Los expertos advierten que la tecnología es cada vez más accesible, lo que facilita a los actores maliciosos la creación y difusión de desinformación convincente. "El desafío no es solo detectar deepfakes, sino también atribuirlos a su fuente y responsabilizar a los responsables", dijo la Dra. Anya Sharma, investigadora líder en IA en el Instituto de Ética Digital.
X ha respondido a las demandas del gobierno afirmando que está comprometido a combatir el uso indebido de la IA en su plataforma. La compañía describió sus medidas actuales, que incluyen políticas de moderación de contenido, herramientas de detección impulsadas por IA y mecanismos de denuncia de usuarios. "Estamos trabajando constantemente para mejorar nuestra capacidad de identificar y eliminar deepfakes y otras formas de medios manipulados", dijo una declaración emitida por el jefe de Confianza y Seguridad de X. "También estamos explorando nuevas tecnologías, como el marcado de agua y el seguimiento de la procedencia, para ayudar a los usuarios a distinguir entre contenido auténtico y sintético".
El gobierno está revisando actualmente las medidas propuestas por X y considerando nuevas acciones regulatorias. Esto podría incluir la imposición de políticas de moderación de contenido más estrictas, la exigencia de que el contenido generado por IA esté claramente etiquetado y la imposición de sanciones a las plataformas que no aborden adecuadamente la propagación de deepfakes. El resultado de esta revisión podría tener implicaciones significativas para el futuro de la regulación de la IA y la responsabilidad de las plataformas de redes sociales en la lucha contra la desinformación.
Discussion
Join the conversation
Be the first to comment