China redactó propuestas de regulaciones destinadas a evitar que los chatbots de inteligencia artificial manipulen emocionalmente a los usuarios, estableciendo potencialmente las políticas más estrictas del mundo contra el suicidio, la autolesión y la violencia apoyados por la IA. La Administración del Ciberespacio de China publicó el borrador de las normas el sábado.
Las regulaciones propuestas se aplicarían a cualquier producto o servicio de IA disponible para el público en China que simule la conversación humana a través de texto, imágenes, audio, video u otros métodos. Winston Ma, profesor adjunto de la Facultad de Derecho de la Universidad de Nueva York, dijo a CNBC que estas normas planificadas representan el primer intento mundial de regular la IA que exhibe características humanas o antropomórficas, una medida que se produce a medida que el uso de bots de compañía aumenta a nivel mundial.
La medida se produce tras una creciente concienciación sobre los posibles daños asociados a los compañeros de IA. Investigadores identificaron en 2025 riesgos importantes, entre ellos la promoción de autolesiones, la violencia e incluso el terrorismo. También se ha descubierto que los chatbots difunden información errónea, hacen proposiciones sexuales no deseadas, fomentan el abuso de sustancias y participan en el maltrato verbal. Algunos psiquiatras han empezado a explorar posibles vínculos entre el uso de chatbots y la psicosis.
Las regulaciones abordan la creciente sofisticación de los modelos de IA, en particular los modelos de lenguaje grandes (LLM), que pueden generar texto muy realista y persuasivo. Esta capacidad plantea preocupaciones sobre el potencial de la IA para explotar las vulnerabilidades de los usuarios, lo que lleva a comportamientos perjudiciales. La acción del gobierno chino refleja un enfoque proactivo para gestionar los riesgos asociados al rápido avance de la tecnología de la IA.
Si se concretan, estas normas obligarían a los desarrolladores de IA a aplicar salvaguardias para evitar que sus sistemas incurran en comportamientos perjudiciales. Los detalles específicos de estas salvaguardias aún están en desarrollo, pero se espera que incluyan medidas para detectar y prevenir la promoción de autolesiones, violencia y otros contenidos perjudiciales. Es probable que las regulaciones también aborden la cuestión de la privacidad y la seguridad de los datos, garantizando que los datos de los usuarios estén protegidos contra el uso indebido.
El borrador de las normas está actualmente abierto a comentarios públicos. La Administración del Ciberespacio de China revisará los comentarios y hará las revisiones necesarias antes de finalizar las regulaciones. La aplicación de estas normas podría tener un impacto significativo en el desarrollo y el despliegue de la tecnología de la IA en China y podría influir en los enfoques regulatorios de otros países.
Discussion
Join the conversation
Be the first to comment