A China está propondo novas regulamentações para governar produtos e serviços de inteligência artificial (IA), com foco na proteção de crianças e na prevenção de conteúdo prejudicial. A Administração do Ciberespaço da China (CAC) publicou o projeto de regras no fim de semana, delineando medidas para proteger crianças de potenciais riscos associados à IA e para impedir que chatbots forneçam conselhos que possam levar à automutilação ou violência.
As regulamentações propostas exigiriam que as empresas de IA oferecessem configurações personalizadas e limites de tempo de uso para usuários infantis. Além disso, as empresas de IA precisariam obter o consentimento dos responsáveis antes de fornecer serviços de companhia emocional a menores. As regras também abordam a questão do conteúdo gerado por IA, estipulando que os modelos de IA não devem gerar conteúdo que promova jogos de azar.
De acordo com a CAC, os operadores de chatbot seriam obrigados a ter um humano assumindo qualquer conversa relacionada a suicídio ou automutilação. Esses operadores também precisariam notificar imediatamente o responsável do usuário ou um contato de emergência em tais situações.
A medida para regulamentar a IA surge em meio a um aumento no número de chatbots sendo lançados tanto na China quanto globalmente. O rápido desenvolvimento da tecnologia de IA levantou preocupações sobre segurança e potencial uso indevido, levando governos em todo o mundo a considerar estruturas regulatórias. Uma vez finalizadas, essas regras se aplicarão a todos os produtos e serviços de IA que operam na China. Isso marca um passo significativo em direção à regulamentação da tecnologia de rápido crescimento.
O projeto de regras reflete uma crescente conscientização sobre os potenciais riscos associados à IA, particularmente para populações vulneráveis, como crianças. Ao exigir consentimento dos pais e implementar limites de tempo, as regulamentações visam mitigar os potenciais impactos negativos da IA no desenvolvimento e bem-estar das crianças. O foco em impedir que a IA promova atividades prejudiciais, como jogos de azar e automutilação, ressalta o compromisso do governo em garantir que a IA seja usada de forma responsável e ética.
As regulamentações propostas pela CAC estão atualmente em fase de projeto, e espera-se que sejam submetidas a mais revisões antes de serem finalizadas e implementadas. O desenvolvimento está sendo acompanhado de perto por desenvolvedores de IA, empresas de tecnologia e formuladores de políticas em todo o mundo, pois pode estabelecer um precedente para a regulamentação da IA em outros países.
Discussion
Join the conversation
Be the first to comment