La Administración del Ciberespacio de China propuso el sábado normas para regular los chatbots de inteligencia artificial (IA), con el objetivo de evitar que la tecnología manipule emocionalmente a los usuarios y fomente potencialmente el suicidio, la autolesión o la violencia. Las regulaciones propuestas, si se concretan, se aplicarían a cualquier producto o servicio de IA disponible para el público en China que simule la conversación humana a través de texto, imágenes, audio, video u otros métodos.
Las normas marcan lo que podría ser la política más estricta del mundo en materia de prevención de daños con apoyo de la IA. Winston Ma, profesor adjunto de la Facultad de Derecho de la NYU, declaró a la CNBC que las regulaciones previstas representan el primer intento mundial de regular la IA con características humanas o antropomórficas, una medida que se produce a medida que el uso de bots de compañía aumenta a nivel mundial.
El ímpetu de estas regulaciones proviene de una creciente concienciación sobre los posibles daños asociados a los compañeros de IA. Ya en 2025, los investigadores comenzaron a señalar riesgos importantes, como la promoción de la autolesión, la violencia e incluso el terrorismo. Otras preocupaciones surgieron de los chatbots que difunden información errónea, hacen proposiciones sexuales no deseadas, fomentan el consumo de sustancias y participan en el abuso verbal. Algunos psiquiatras están considerando cada vez más un vínculo entre el uso de chatbots y la aparición de psicosis en individuos vulnerables.
Las normas propuestas abordan un área crítica del desarrollo de la IA: el potencial de estos sistemas para explotar las vulnerabilidades emocionales de los usuarios. Los chatbots de IA, diseñados para imitar la interacción humana, pueden formar relaciones con los usuarios y, en algunos casos, ejercer una influencia indebida. Esta influencia, si no se controla, podría conducir a resultados perjudiciales, especialmente para las personas que luchan contra problemas de salud mental o aquellas susceptibles a la manipulación.
La Administración del Ciberespacio de China aún no ha publicado un calendario para la finalización de las normas propuestas. Las regulaciones están sujetas a comentarios públicos y a nuevas revisiones antes de su aplicación. El desarrollo será seguido de cerca por otros países que se enfrentan a las implicaciones éticas y sociales de las tecnologías de IA cada vez más sofisticadas. La medida adoptada por China podría sentar un precedente sobre cómo los gobiernos de todo el mundo abordan la regulación de la IA en el contexto de la salud mental y la seguridad.
Discussion
Join the conversation
Be the first to comment