China propone nuevas regulaciones para gobernar los productos y servicios de inteligencia artificial (IA), con un enfoque en la protección de los niños y la prevención de contenido dañino. La Administración del Ciberespacio de China (CAC) publicó el borrador de las reglas durante el fin de semana, delineando medidas que los desarrolladores de IA deben implementar para salvaguardar a los menores y abordar los riesgos potenciales relacionados con el suicidio y la violencia.
Las regulaciones propuestas requieren que las empresas de IA ofrezcan configuraciones personalizadas y límites de tiempo de uso para los usuarios infantiles. También exigen obtener el consentimiento de los tutores antes de proporcionar servicios de compañía emocional. Esta medida se produce en medio de crecientes preocupaciones sobre el impacto potencial de la IA en los jóvenes, particularmente la creciente disponibilidad de chatbots impulsados por IA.
Según la CAC, los operadores de chatbots deberán tener a un humano que se haga cargo de cualquier conversación relacionada con el suicidio o la autolesión. Además, deben notificar inmediatamente al tutor del usuario o a un contacto de emergencia en tales situaciones. Las reglas también tienen como objetivo evitar que los modelos de IA generen contenido que promueva los juegos de azar.
Las regulaciones marcan un paso significativo hacia la regulación del panorama de la IA en rápida evolución en China. La tecnología se ha enfrentado a un mayor escrutinio este año debido a preocupaciones de seguridad. Las reglas, una vez finalizadas, se aplicarán a todos los productos y servicios de IA que operen dentro del país.
El desarrollo refleja una tendencia global de creciente atención regulatoria sobre la IA. Los gobiernos de todo el mundo están lidiando con los desafíos de aprovechar los beneficios de la IA al tiempo que mitigan los riesgos potenciales. La Unión Europea, por ejemplo, está trabajando en su propia Ley de IA integral.
El enfoque del gobierno chino en la protección de los niños y la prevención de contenido dañino se alinea con los esfuerzos más amplios para promover el desarrollo responsable de la IA. Las regulaciones resaltan la importancia de considerar las implicaciones éticas y sociales de las tecnologías de IA.
La CAC aún no ha anunciado un cronograma para finalizar las regulaciones. El borrador de las reglas está actualmente abierto a comentarios públicos, y se espera que la administración considere los comentarios antes de implementar las nuevas medidas. Es probable que la medida tenga un impacto significativo en la industria de la IA en China, lo que podría dar forma al desarrollo y la implementación de las tecnologías de IA en el país.
Discussion
Join the conversation
Be the first to comment