Discord exigera bientôt de tous les utilisateurs du monde entier qu'ils vérifient leur âge avec une analyse faciale ou une pièce d'identité pour accéder au contenu pour adultes, a annoncé la société. Cette décision, ainsi que les procès historiques contre les entreprises de médias sociaux qui commencent cette semaine aux États-Unis, mettent en évidence les préoccupations croissantes concernant la sécurité en ligne et l'impact de la technologie sur les utilisateurs, en particulier les enfants.
Le service de chat en ligne, qui compte plus de 200 millions d'utilisateurs mensuels, déploiera les mesures de vérification de l'âge dans le monde entier à partir de début mars, selon BBC Technology. Les nouvelles mesures de sécurité sont conçues pour placer tout le monde dans une expérience adaptée aux adolescents "par défaut", selon Discord. Cela fait suite aux exigences de vérification de l'âge existantes au Royaume-Uni et en Australie, mises en œuvre pour se conformer aux lois sur la sécurité en ligne.
Simultanément, des batailles juridiques se déroulent aux États-Unis, avec des poursuites accusant les grandes entreprises de médias sociaux de nuire aux enfants. Les plaidoiries d'ouverture ont commencé cette semaine dans une affaire intentée par le procureur général du Nouveau-Mexique, alléguant que Meta n'a pas réussi à protéger les enfants contre les contenus à caractère sexuel explicite, comme l'a rapporté Al Jazeera. Ces affaires marquent les premiers efforts juridiques pour tenir des entreprises comme Meta responsables des effets de leurs produits sur les jeunes utilisateurs.
L'Union européenne a également pris des mesures, ordonnant à Meta d'autoriser les chatbots des entreprises d'IA rivales à accéder à WhatsApp. L'UE affirme que Meta a enfreint ses règles en bloquant les autres chatbots d'IA de l'application de messagerie, ce que la Commission européenne considère comme un "point d'entrée important" pour les chatbots d'IA comme ChatGPT pour atteindre les gens, selon BBC Technology. Un porte-parole de Meta a déclaré à la BBC que l'UE n'avait "aucune raison" d'intervenir.
Ces développements surviennent au milieu d'autres préoccupations concernant le paysage technologique. Une étude récente de l'Université d'Oxford a révélé que les chatbots d'IA donnent des conseils médicaux inexacts et incohérents, ce qui pourrait poser des risques pour les utilisateurs. Le Dr Rebecca Payne, médecin principal de l'étude, a déclaré qu'il pourrait être "dangereux" pour les gens de poser des questions sur leurs symptômes aux chatbots, comme l'a rapporté BBC Technology.
Les défis s'étendent au-delà de la sécurité des utilisateurs et dans des domaines comme la sécurité alimentaire. Malgré les progrès technologiques, la fraude alimentaire persiste, coûtant à l'économie mondiale environ 81 milliards de dollars par an. Les fraudeurs ciblent souvent les aliments couramment consommés et de grande valeur, comme le miel, qui est fréquemment falsifié avec des alternatives moins chères, selon BBC Technology.
Discussion
AI Experts & Community
Be the first to comment