Discord exigera bientôt des utilisateurs du monde entier de vérifier leur âge avec une analyse faciale ou une pièce d'identité pour accéder au contenu pour adultes, tandis que Lyft a lancé des comptes pour adolescents dans 200 villes américaines, et une étude de l'Université d'Oxford a révélé que les chatbots d'IA donnent des conseils médicaux inexacts. Ces développements surviennent alors que des scientifiques ont reconstitué le visage d'un présumé "vampire" de Croatie et que des rapports révèlent les risques persistants des applications de surveillance.
Discord, le service de chat en ligne avec plus de 200 millions d'utilisateurs mensuels, a annoncé qu'il mettrait en œuvre la vérification de l'âge à l'échelle mondiale à partir de début mars, selon BBC Technology. Cette mesure, conçue pour placer tout le monde dans une expérience adaptée aux adolescents "par défaut", exigera que les utilisateurs vérifient leur âge avec une analyse faciale ou une pièce d'identité pour accéder au contenu pour adultes. L'entreprise utilise déjà des contrôles d'âge au Royaume-Uni et en Australie pour se conformer aux lois sur la sécurité en ligne.
Lyft, dans un développement distinct, a lancé des comptes pour adolescents lundi, permettant aux mineurs dès l'âge de 13 ans de commander des courses sans adulte dans 200 villes américaines, dont Atlanta, Boston, Chicago et New York, a rapporté TechCrunch. Le service, similaire aux comptes pour adolescents d'Uber, exige qu'un parent ou un tuteur crée le compte. Les chauffeurs doivent répondre à des critères supplémentaires et réussir des vérifications annuelles des antécédents. Les adolescents peuvent également emmener des invités avec la permission parentale, et des fonctionnalités telles que la vérification par code PIN et l'enregistrement audio sont incluses.
Parallèlement, une étude de l'Université d'Oxford a révélé que les chatbots d'IA fournissent des conseils médicaux inexacts et incohérents, posant des risques potentiels pour les utilisateurs, selon BBC Technology. Les chercheurs ont constaté que les personnes utilisant l'IA pour des conseils en matière de soins de santé recevaient un mélange de bonnes et de mauvaises réponses, ce qui rendait difficile de faire confiance aux conseils. Le Dr Rebecca Payne, médecin principal de l'étude, a déclaré qu'il pourrait être "dangereux" pour les gens de poser des questions sur leurs symptômes aux chatbots. Un sondage de Mental Health UK de novembre 2025 a révélé que plus d'un résident britannique sur trois utilise désormais l'IA pour soutenir sa santé mentale ou son bien-être.
Dans d'autres nouvelles, des scientifiques ont reconstitué le visage d'un homme considéré comme un "vampire" de Croatie, a rapporté Sky News. Le corps, découvert dans une forteresse dans l'est de la Croatie, avait été exhumé, décapité et enterré à nouveau face contre terre. La reconstruction, qui peut être vue pour la première fois depuis plus de 400 ans, a été réalisée pour donner un visage aux restes.
Enfin, TechCrunch a rendu compte des risques persistants des applications de surveillance. Au moins 27 entreprises de surveillance ont été piratées ou ont subi une exposition importante de données depuis 2017. Ces applications, souvent commercialisées auprès de partenaires jaloux, permettent aux utilisateurs d'accéder à distance aux téléphones des victimes.
Discussion
AI Experts & Community
Be the first to comment