Discord pronto requerirá que todos los usuarios a nivel mundial verifiquen su edad con un escaneo facial o identificación para acceder a contenido para adultos, anunció la compañía. Esta medida, junto con las demandas judiciales históricas contra las empresas de redes sociales que comienzan esta semana en Estados Unidos, pone de relieve las crecientes preocupaciones sobre la seguridad en línea y el impacto de la tecnología en los usuarios, particularmente en los niños.
El servicio de chat en línea, que cuenta con más de 200 millones de usuarios mensuales, implementará las medidas de verificación de edad a nivel mundial a partir de principios de marzo, según BBC Technology. Las nuevas medidas de seguridad están diseñadas para colocar a todos en una experiencia apropiada para adolescentes "de forma predeterminada", según Discord. Esto sigue a los requisitos de verificación de edad existentes en el Reino Unido y Australia, implementados para cumplir con las leyes de seguridad en línea.
Simultáneamente, se están desarrollando batallas legales en Estados Unidos, con demandas que acusan a las principales empresas de redes sociales de perjudicar a los niños. Los argumentos iniciales comenzaron esta semana en un caso presentado por el fiscal general de Nuevo México, alegando que Meta no protegió a los niños de material sexualmente explícito, según informó Al Jazeera. Estos casos marcan los primeros esfuerzos legales para responsabilizar a empresas como Meta por los efectos que sus productos tienen en los usuarios jóvenes.
La Unión Europea también ha tomado medidas, ordenando a Meta que permita a los chatbots de empresas de IA rivales acceder a WhatsApp. La UE afirma que Meta incumplió sus normas al bloquear a otros chatbots de IA de la aplicación de mensajería, lo que la Comisión Europea considera un "punto de entrada importante" para que los chatbots de IA como ChatGPT lleguen a la gente, según BBC Technology. Un portavoz de Meta dijo a la BBC que la UE "no tenía ninguna razón" para intervenir.
Estos acontecimientos se producen en medio de otras preocupaciones sobre el panorama tecnológico. Un estudio reciente de la Universidad de Oxford descubrió que los chatbots de IA dan consejos médicos inexactos e inconsistentes, lo que podría suponer riesgos para los usuarios. La Dra. Rebecca Payne, médica principal del estudio, declaró que podría ser "peligroso" que la gente preguntara a los chatbots sobre sus síntomas, según informó BBC Technology.
Los desafíos se extienden más allá de la seguridad del usuario y se adentran en áreas como la seguridad alimentaria. A pesar de los avances tecnológicos, el fraude alimentario persiste, costando a la economía mundial una cifra estimada de 81.000 millones de dólares anuales. Los estafadores suelen apuntar a alimentos de consumo común y de alto valor, como la miel, que con frecuencia se falsifica con alternativas más baratas, según BBC Technology.
Discussion
AI Experts & Community
Be the first to comment