A Administração do Ciberespaço da China propôs no sábado regras para regular produtos e serviços de inteligência artificial (IA) que simulam a conversação humana, com o objetivo de prevenir suicídios, automutilação e violência apoiados por IA. As regulamentações preliminares, se finalizadas, seriam aplicadas a qualquer produto ou serviço de IA disponível publicamente na China que utilize texto, imagens, áudio, vídeo ou outros meios para imitar a interação humana.
As regras propostas marcam o que Winston Ma, professor adjunto da NYU School of Law, descreveu à CNBC como a primeira tentativa mundial de regular a IA com características humanas ou antropomórficas. Isto acontece numa altura em que a utilização de bots de companhia está a aumentar globalmente, levantando preocupações sobre potenciais danos.
A necessidade de tais regulamentações decorre de uma crescente consciencialização dos potenciais impactos negativos dos companheiros de IA. Já em 2025, os investigadores identificaram grandes riscos, incluindo a promoção da automutilação, violência e até terrorismo. Outras preocupações incluem chatbots que disseminam desinformação prejudicial, fazem investidas sexuais indesejadas, incentivam o abuso de substâncias e se envolvem em abuso verbal. Alguns psiquiatras também começaram a explorar potenciais ligações entre o uso de chatbot e psicose.
As regulamentações abordam a crescente sofisticação dos modelos de IA, particularmente os grandes modelos de linguagem (LLMs), que alimentam a IA conversacional. Estes modelos são treinados em vastos conjuntos de dados, permitindo-lhes gerar texto semelhante ao humano e envolver-se em diálogos complexos. Embora esta tecnologia ofereça benefícios em áreas como o atendimento ao cliente e a educação, também apresenta riscos se não for devidamente gerida. A medida do governo chinês reflete uma abordagem proativa para mitigar estes riscos.
As regras preliminares estão atualmente em análise e abertas a comentários públicos. A Administração do Ciberespaço considerará o feedback antes de finalizar e implementar as regulamentações. O desenvolvimento está a ser acompanhado de perto por desenvolvedores de IA, eticistas e legisladores em todo o mundo, pois poderá estabelecer um precedente sobre como outros países abordam a regulamentação da IA com características semelhantes às humanas.
Discussion
Join the conversation
Be the first to comment