Le développement de l'IA confronté à un manque de confiance, tandis que les applications vont de la pornographie à la génération de code
Le développement de l'intelligence artificielle est confronté à un "paradoxe de la confiance", car de nombreuses organisations ont du mal à étendre l'IA au-delà des programmes pilotes initiaux, selon une récente enquête. Parallèlement, les applications de l'IA se diversifient rapidement, certains modèles générant de la pornographie et d'autres démontrant des capacités de codage avancées, ce qui soulève des inquiétudes quant aux suppressions d'emplois et aux considérations éthiques.
La troisième enquête annuelle d'Informatica auprès des directeurs des données (CDO), portant sur 600 cadres dans le monde, a révélé que si 69 % des entreprises ont déployé l'IA générative et que 47 % l'expérimentent, il existe un écart de gouvernance important. L'enquête a révélé que 76 % des responsables de données ne peuvent pas contrôler ce que les employés utilisent déjà. Ce décalage explique pourquoi de nombreuses organisations ont du mal à passer de l'expérimentation de l'IA à la production à grande échelle, selon VentureBeat.
Pour ajouter à la complexité, une nouvelle étude de Google suggère que les modèles de raisonnement avancés atteignent des performances élevées en simulant des débats de type multi-agents impliquant diverses perspectives. Ces conversations de type "société de pensée", comme les appellent les chercheurs, améliorent considérablement les performances des modèles dans les tâches complexes de raisonnement et de planification. Les chercheurs ont constaté que les principaux modèles de raisonnement tels que DeepSeek-R1 et QwQ-32B développent intrinsèquement cette capacité sans instruction explicite, offrant ainsi une feuille de route aux développeurs pour créer des applications LLM plus robustes et aux entreprises pour former des modèles supérieurs en utilisant leurs propres données internes, a rapporté VentureBeat.
Cependant, les progrès rapides de l'IA soulèvent également des préoccupations éthiques. Une analyse réalisée par des chercheurs de Stanford et de l'université de l'Indiana a révélé qu'une place de marché civile en ligne pour le contenu généré par l'IA, soutenue par Andreessen Horowitz, permet aux utilisateurs d'acheter des fichiers d'instructions personnalisés pour générer des deepfakes de célébrités. Selon MIT Technology Review, certains de ces fichiers ont été spécialement conçus pour créer des images pornographiques interdites par le site. L'étude a révélé qu'entre le milieu de l'année 2023 et la fin de l'année 2024, une part importante des demandes sur le site concernait des deepfakes de personnes réelles, et que 90 % de ces demandes de deepfakes visaient des femmes.
Les diverses capacités des modèles d'IA suscitent à la fois enthousiasme et inquiétude. MIT Technology Review a noté que si certains modèles comme Grok sont utilisés pour générer de la pornographie, d'autres comme Claude Code peuvent effectuer des tâches complexes telles que la construction de sites web et la lecture d'IRM. Cela a suscité des inquiétudes, en particulier chez la génération Z, quant à l'impact potentiel de l'IA sur le marché du travail. De nouvelles recherches inquiétantes suggèrent que l'IA aura un impact considérable sur le marché du travail cette année.
L'industrie de l'IA elle-même est confrontée à des tensions internes. L'ancien responsable scientifique de l'IA de Meta, Yann LeCun, partage publiquement ses opinions, tandis qu'Elon Musk et OpenAI se dirigent vers un procès, ce qui crée une incertitude supplémentaire dans le domaine, selon MIT Technology Review.
Discussion
Join the conversation
Be the first to comment