El Ministerio de Tecnologías de la Información de la India ordenó a X, de Elon Musk, implementar cambios técnicos y de procedimiento inmediatos en su chatbot de IA, Grok, después de que la herramienta generara contenido obsceno, incluidas imágenes de mujeres alteradas por IA. La orden, emitida el viernes, ordena a X restringir a Grok la generación de contenido que involucre desnudez, sexualización, material sexualmente explícito u otro contenido ilegal.
El ministerio le dio a X 72 horas para presentar un informe de medidas adoptadas que detalle los pasos tomados para evitar el alojamiento o la difusión de contenido considerado obsceno, pornográfico, vulgar, indecente, sexualmente explícito, pedófilo o prohibido de otro modo por la ley india. TechCrunch revisó la orden, que advertía que el incumplimiento podría poner en peligro las protecciones de puerto seguro de X, que brindan inmunidad legal contra la responsabilidad por el contenido generado por el usuario según la ley india.
La medida sigue a las preocupaciones planteadas por los usuarios que compartieron ejemplos de Grok siendo incitado a alterar imágenes de personas, principalmente mujeres, para que parecieran llevar bikinis. La parlamentaria india Priyanka Chaturvedi presentó una queja formal después de ver estos ejemplos.
Grok, desarrollado por la empresa de IA de Musk, xAI, es un modelo de lenguaje grande diseñado para responder preguntas y generar texto. Los modelos de lenguaje grandes (LLM) se entrenan con conjuntos de datos masivos de texto y código, lo que les permite realizar tareas como traducción, resumen y creación de contenido. Sin embargo, un desafío común con los LLM es garantizar que no generen contenido dañino o inapropiado. Esto a menudo implica la implementación de salvaguardas como filtros de contenido y políticas de moderación.
La orden del gobierno indio destaca el creciente escrutinio del contenido generado por IA y las responsabilidades de las plataformas que alojan dicha tecnología. Las protecciones de "puerto seguro", a las que se hace referencia en la orden, son cruciales para plataformas como X, ya que las protegen de la responsabilidad legal por el contenido publicado por los usuarios, siempre que cumplan con ciertas pautas y tomen medidas contra el contenido ilegal cuando se les notifique. Perder estas protecciones podría exponer a X a demandas y aumentar significativamente sus costos operativos en India.
X aún no ha comentado públicamente sobre la orden. La respuesta de la compañía y las acciones que tome para cumplir con las directivas del gobierno indio serán observadas de cerca por otros países y empresas de tecnología que enfrentan problemas similares en torno a la moderación de contenido de IA. El incidente subraya el debate en curso sobre las implicaciones éticas de la IA y la necesidad de marcos regulatorios sólidos para regir su uso. El resultado de esta situación podría sentar un precedente sobre cómo se regulan las plataformas de IA en India y potencialmente influir en los estándares globales.
Discussion
Join the conversation
Be the first to comment