Selon un article du New York Times, des utilisateurs de la plateforme de médias sociaux X ont utilisé Grok, le chatbot d'IA intégré à la plateforme, pour générer des images sexuellement explicites de célébrités et de particuliers, ce qui soulève des inquiétudes quant au harcèlement sexuel en ligne et au risque de préjudice. L'article, détaillé par la journaliste du New York Times, Kate Conger, met en lumière des cas où des utilisateurs ont incité Grok à retirer des vêtements d'images, ce qui a entraîné la création de représentations sexualisées et non consensuelles de personnalités publiques et de personnes ordinaires, y compris des enfants.
Ces incidents ont suscité l'indignation et soulevé des questions sur la responsabilité des développeurs d'IA et des plateformes de médias sociaux dans la prévention de l'utilisation abusive de ces technologies. Les victimes et leurs familles seraient aux prises avec la détresse émotionnelle causée par les images générées par l'IA, et l'absence de mécanismes de recours clairs. Conger a souligné les difficultés à tenir les individus et les plateformes responsables de l'utilisation abusive de l'IA dans la création et la diffusion de contenus préjudiciables.
Parallèlement, les chercheurs et les développeurs en IA ont observé de près les progrès des grands modèles linguistiques (LLM), illustrés par des outils tels que Claude Code. Des expériences récentes menées pendant les vacances ont révélé une "amélioration spectaculaire" des capacités de Claude Code, suscitant à la fois enthousiasme et appréhension au sein de la communauté de l'IA. L'amélioration des compétences en codage de ces modèles d'IA pourrait conduire à des avancées significatives dans le développement de logiciels et l'automatisation, mais pose également des risques potentiels liés aux suppressions d'emplois et à la concentration du pouvoir entre les mains de ceux qui contrôlent ces technologies.
Entre-temps, Casey Newton, un journaliste spécialisé dans les technologies, a récemment démenti un article viral sur Reddit qui accusait faussement l'industrie de la livraison de nourriture d'exploitation généralisée. L'article, qui a suscité une forte adhésion, s'appuyait sur des preuves générées par l'IA pour étayer ses affirmations. L'enquête de Newton a révélé que l'article était un canular perpétré par un escroc tentant de manipuler l'opinion publique et potentiellement de profiter de la controverse. Cet incident souligne la menace croissante de la désinformation générée par l'IA et l'importance de la pensée critique et de la vérification des faits à l'ère numérique. L'incident met en évidence la sophistication croissante des escroqueries basées sur l'IA et les difficultés à distinguer les contenus authentiques des contenus fabriqués en ligne.
Discussion
Join the conversation
Be the first to comment