O Discord em breve exigirá que todos os usuários em todo o mundo verifiquem sua idade com uma leitura facial ou documento de identificação para acessar conteúdo adulto, anunciou a empresa. Essa medida, juntamente com ações judiciais históricas contra empresas de mídia social que começam esta semana nos EUA, destaca as crescentes preocupações sobre a segurança online e o impacto da tecnologia nos usuários, particularmente crianças.
O serviço de bate-papo online, que possui mais de 200 milhões de usuários mensais, implementará as medidas de verificação de idade globalmente a partir do início de março, de acordo com a BBC Technology. As novas medidas de segurança são projetadas para colocar todos em uma experiência apropriada para adolescentes "por padrão", de acordo com o Discord. Isso segue os requisitos de verificação de idade existentes no Reino Unido e na Austrália, implementados para cumprir as leis de segurança online.
Simultaneamente, batalhas legais estão se desenrolando nos EUA, com ações judiciais acusando as principais empresas de mídia social de prejudicar crianças. Os argumentos de abertura começaram esta semana em um caso movido pelo procurador-geral do Novo México, alegando que a Meta não conseguiu proteger as crianças de material sexualmente explícito, conforme relatado pela Al Jazeera. Esses casos marcam os primeiros esforços legais para responsabilizar empresas como a Meta pelos efeitos que seus produtos têm sobre os jovens usuários.
A União Europeia também tomou medidas, ordenando que a Meta permitisse que chatbots de empresas de IA rivais acessassem o WhatsApp. A UE afirma que a Meta violou suas regras ao bloquear outros chatbots de IA do aplicativo de mensagens, que a Comissão Europeia considera um "ponto de entrada importante" para chatbots de IA como o ChatGPT alcançarem as pessoas, de acordo com a BBC Technology. Um porta-voz da Meta disse à BBC que a UE "não tinha motivos" para intervir.
Esses desenvolvimentos ocorrem em meio a outras preocupações sobre o cenário tecnológico. Um estudo recente da Universidade de Oxford descobriu que os chatbots de IA fornecem conselhos médicos imprecisos e inconsistentes, potencialmente representando riscos para os usuários. A Dra. Rebecca Payne, médica líder no estudo, afirmou que poderia ser "perigoso" para as pessoas perguntarem aos chatbots sobre seus sintomas, conforme relatado pela BBC Technology.
Os desafios se estendem além da segurança do usuário e para áreas como segurança alimentar. Apesar dos avanços na tecnologia, a fraude alimentar persiste, custando à economia global um valor estimado em US$ 81 bilhões anualmente. Os fraudadores geralmente visam alimentos comumente consumidos e de alto valor, como o mel, que é frequentemente falsificado com alternativas mais baratas, de acordo com a BBC Technology.
Discussion
AI Experts & Community
Be the first to comment