China está proponiendo nuevas regulaciones para gobernar los productos y servicios de inteligencia artificial (IA), con un enfoque en la protección de los niños y la prevención de contenido dañino. La Administración del Ciberespacio de China (CAC) publicó el borrador de las reglas durante el fin de semana, delineando medidas para proteger a los niños de los riesgos potenciales asociados con la IA y para evitar que los chatbots brinden consejos que puedan conducir a la autolesión o la violencia.
Las regulaciones propuestas requerirían que las empresas de IA ofrezcan configuraciones personalizadas y límites de tiempo de uso para los usuarios infantiles. Además, las empresas de IA necesitarían obtener el consentimiento de los tutores antes de proporcionar servicios de compañía emocional a menores. Las reglas también abordan el tema del contenido generado por IA, estipulando que los modelos de IA no deben generar contenido que promueva los juegos de azar.
Según la CAC, los operadores de chatbots estarían obligados a tener un humano que se haga cargo de cualquier conversación relacionada con el suicidio o la autolesión. Estos operadores también deberían notificar inmediatamente al tutor del usuario o a un contacto de emergencia en tales situaciones.
La medida para regular la IA se produce en medio de un aumento en el número de chatbots que se lanzan tanto en China como a nivel mundial. El rápido desarrollo de la tecnología de IA ha generado preocupaciones sobre la seguridad y el posible uso indebido, lo que ha impulsado a los gobiernos de todo el mundo a considerar marcos regulatorios. Una vez finalizadas, estas reglas se aplicarán a todos los productos y servicios de IA que operen dentro de China. Esto marca un paso significativo hacia la regulación de la tecnología de rápido crecimiento.
El borrador de las reglas refleja una creciente conciencia de los riesgos potenciales asociados con la IA, particularmente para poblaciones vulnerables como los niños. Al requerir el consentimiento de los padres e implementar límites de tiempo, las regulaciones apuntan a mitigar los posibles impactos negativos de la IA en el desarrollo y el bienestar de los niños. El enfoque en evitar que la IA promueva actividades dañinas como los juegos de azar y la autolesión subraya el compromiso del gobierno de garantizar que la IA se utilice de manera responsable y ética.
Las regulaciones propuestas por la CAC se encuentran actualmente en la etapa de borrador, y se espera que estén sujetas a una mayor revisión y modificaciones antes de ser finalizadas e implementadas. El desarrollo está siendo observado de cerca por los desarrolladores de IA, las empresas de tecnología y los responsables políticos de todo el mundo, ya que podría sentar un precedente para la regulación de la IA en otros países.
Discussion
Join the conversation
Be the first to comment