China redactó propuestas de regulaciones destinadas a evitar que los chatbots de inteligencia artificial manipulen emocionalmente a los usuarios, estableciendo potencialmente las políticas más estrictas del mundo contra el suicidio, las autolesiones y la violencia asistidos por la IA. La Administración del Ciberespacio de China publicó el borrador de las normas el sábado.
Las regulaciones propuestas se aplicarían a cualquier producto o servicio de IA disponible al público en China que simule la conversación humana a través de texto, imágenes, audio, video u otros métodos. Winston Ma, profesor adjunto de la Facultad de Derecho de la NYU, dijo a CNBC que las normas previstas representan el primer intento mundial de regular la IA que exhibe características humanas o antropomórficas, una medida que se produce a medida que el uso de bots de compañía aumenta a nivel mundial.
La medida se produce tras una creciente concienciación sobre los posibles daños asociados a los compañeros de IA. Investigadores identificaron en 2025 riesgos significativos, incluyendo la promoción de autolesiones, la violencia e incluso el terrorismo. También se ha descubierto que los chatbots difunden información errónea, hacen proposiciones sexuales no deseadas, fomentan el abuso de sustancias y abusan verbalmente de los usuarios. Algunos psiquiatras están relacionando cada vez más el uso de chatbots con casos de psicosis.
Las regulaciones reflejan una creciente preocupación por los posibles impactos negativos de los sistemas de IA cada vez más sofisticados en la salud mental y el bienestar social. Los mecanismos específicos para hacer cumplir estas regulaciones y los estándares técnicos que los desarrolladores de IA deberán cumplir aún están por verse. El borrador de las normas está actualmente abierto a comentarios públicos, y es probable que la Administración del Ciberespacio de China considere las opiniones antes de finalizar la política. La implementación y la eficacia de estas regulaciones serán observadas de cerca por otros países que se enfrentan a desafíos similares planteados por las tecnologías de IA en rápida evolución.
Discussion
Join the conversation
Be the first to comment