China ha propuesto nuevas regulaciones dirigidas al desarrollo de la inteligencia artificial (IA), centrándose en la protección infantil y la prevención de contenido dañino relacionado con el suicidio y la violencia. La Administración del Ciberespacio de China (CAC) publicó el borrador de las normas durante el fin de semana, en el que se esbozan los requisitos para las empresas de IA que operan en el país.
Las regulaciones propuestas abordan la creciente prevalencia de los chatbots impulsados por la IA y su impacto potencial en las poblaciones vulnerables. Se exigirá a los desarrolladores que implementen configuraciones personalizadas y límites de tiempo para los niños que utilicen productos de IA. Además, las normas exigen obtener el consentimiento del tutor antes de prestar servicios de compañía emocional a menores.
Una disposición clave se centra en la prevención del suicidio. Según la CAC, los operadores de chatbots deben garantizar la intervención humana en cualquier conversación que indique pensamientos suicidas o autolesiones. Las regulaciones estipulan la notificación inmediata al tutor o contacto de emergencia del usuario en tales situaciones. Las normas también prohíben que los modelos de IA generen contenido que promueva los juegos de azar.
Estas medidas marcan un paso significativo hacia la regulación del panorama de la IA, que evoluciona rápidamente en China. La medida se produce en medio de un creciente escrutinio mundial con respecto a la seguridad y las implicaciones éticas de las tecnologías de la IA. Las regulaciones se aplicarán a todos los productos y servicios de IA que se ofrezcan en China una vez que se finalicen.
El auge de los modelos de IA sofisticados, en particular los modelos de lenguaje grandes (LLM) capaces de generar texto similar al humano y participar en conversaciones complejas, ha suscitado preocupación por el posible uso indebido y las consecuencias no deseadas. Los LLM se entrenan con conjuntos de datos masivos, lo que les permite realizar una amplia gama de tareas, desde responder preguntas hasta crear contenido original. Sin embargo, esto también significa que pueden ser susceptibles a los sesgos presentes en los datos de entrenamiento y generar potencialmente información perjudicial o engañosa.
La iniciativa del gobierno chino refleja un enfoque proactivo para mitigar estos riesgos, en particular en lo que respecta al bienestar de los niños. Al exigir el consentimiento de los padres e implementar salvaguardias contra el contenido dañino, las regulaciones tienen como objetivo crear un entorno en línea más seguro para los usuarios jóvenes. El enfoque en la intervención humana en casos de ideación suicida destaca la importancia de combinar soluciones tecnológicas con apoyo humano.
El borrador de las normas se encuentra actualmente en revisión, y se espera que la CAC solicite comentarios de las partes interesadas de la industria y del público antes de finalizar las regulaciones. La implementación de estas normas podría sentar un precedente para otros países que se enfrentan a los desafíos de regular la IA y garantizar su desarrollo y despliegue responsables. Las regulaciones señalan un compromiso de equilibrar la innovación tecnológica con el bienestar social y las consideraciones éticas.
Discussion
Join the conversation
Be the first to comment