China ha propuesto nuevas regulaciones dirigidas al desarrollo de la inteligencia artificial (IA), centrándose en la protección de los niños y la prevención de contenido impulsado por la IA que pueda conducir a la autolesión o la violencia. La Administración del Ciberespacio de China (CAC) publicó el borrador de las normas durante el fin de semana, en el que se esbozan las medidas que las empresas de IA deben aplicar para establecer configuraciones personalizadas y límites de tiempo de uso para los usuarios más jóvenes.
Las normas propuestas abordan la rápida proliferación de chatbots de IA en China y a nivel mundial, exigiendo a los desarrolladores que obtengan el consentimiento de los tutores antes de prestar servicios de compañía emocional. Además, las regulaciones exigen la intervención humana en las conversaciones de los chatbots relacionadas con el suicidio o la autolesión, con notificación inmediata al tutor del usuario o al contacto de emergencia. Las normas también prohíben que los modelos de IA generen contenido que promueva el juego.
Estas regulaciones marcan un paso significativo hacia la regulación del panorama de la IA en rápida evolución en China, donde las preocupaciones sobre la seguridad y las implicaciones éticas se han intensificado. Las normas se aplicarán a los productos y servicios de IA que operen en China.
La medida de la CAC refleja una tendencia mundial creciente de los gobiernos que lidian con el impacto social de la IA. La IA, en esencia, implica la creación de sistemas informáticos capaces de realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, la resolución de problemas y la toma de decisiones. Estos sistemas se basan en algoritmos y grandes cantidades de datos para identificar patrones y hacer predicciones. La IA generativa, un subconjunto de la IA, puede crear nuevos contenidos, incluyendo texto, imágenes y audio, lo que suscita preocupación por el posible uso indebido y la difusión de información errónea.
Las regulaciones propuestas ponen de relieve los retos que plantea el equilibrio entre la innovación y el desarrollo responsable de la IA. Garantizar que los sistemas de IA sean seguros, éticos y beneficiosos para la sociedad requiere una cuidadosa consideración de los riesgos potenciales y la aplicación de las salvaguardias adecuadas. El enfoque del gobierno chino en la protección de los niños y la prevención de contenidos perjudiciales refleja un enfoque proactivo para mitigar estos riesgos.
El borrador de las normas se encuentra actualmente en revisión, y la CAC no ha anunciado un calendario para su finalización y aplicación. Una vez finalizadas, se espera que las regulaciones tengan un impacto significativo en la industria de la IA en China, influyendo potencialmente en el desarrollo y el despliegue de las tecnologías de IA en todo el mundo.
Discussion
Join the conversation
Be the first to comment