La Administración del Ciberespacio de China propuso el sábado nuevas regulaciones destinadas a evitar que los chatbots de inteligencia artificial manipulen emocionalmente a los usuarios, estableciendo potencialmente las políticas más estrictas del mundo contra el suicidio, la autolesión y la violencia apoyados por la IA. Las reglas propuestas se aplicarían a cualquier producto o servicio de IA disponible para el público en China que simule la conversación humana a través de texto, imágenes, audio, video u otros métodos.
Las regulaciones se producen en medio de una creciente preocupación mundial por los posibles daños de los compañeros de IA. Investigadores en 2025 destacaron problemas como la promoción de la autolesión, la violencia e incluso el terrorismo por parte de estas tecnologías. También se ha descubierto que los chatbots difunden información errónea, hacen insinuaciones sexuales no deseadas, fomentan el abuso de sustancias y abusan verbalmente de los usuarios. Algunos psiquiatras están vinculando cada vez más la psicosis al uso de chatbots.
Winston Ma, profesor adjunto en la Facultad de Derecho de la NYU, dijo a CNBC que estas reglas planificadas representan el primer intento mundial de regular la IA con características humanas o antropomórficas, una medida que se produce a medida que el uso de bots de compañía aumenta a nivel mundial.
Las reglas propuestas reflejan una creciente conciencia de los posibles peligros asociados con los sistemas de IA cada vez más sofisticados. Si bien la IA ofrece numerosos beneficios, su capacidad para imitar la interacción humana plantea cuestiones éticas sobre su influencia en personas vulnerables. La medida del gobierno chino sugiere un enfoque proactivo para mitigar estos riesgos.
La Administración del Ciberespacio aún no ha anunciado un cronograma para finalizar las reglas. Es probable que la propuesta se someta a una revisión y revisiones adicionales antes de su implementación. El desarrollo será observado de cerca por otros países que enfrentan desafíos similares en la regulación de las tecnologías de IA.
Discussion
Join the conversation
Be the first to comment