Une étude récente de Google a révélé que les modèles d'IA de raisonnement avancé améliorent considérablement la précision des tâches complexes en simulant des débats internes impliquant diverses perspectives, traits de personnalité et expertise du domaine. La recherche, menée par Google et publiée le 30 janvier 2026, a démontré que cette approche de "société de pensée" améliore les performances du modèle dans les tâches complexes de raisonnement et de planification, selon VentureBeat.
Les chercheurs ont constaté que les principaux modèles de raisonnement tels que DeepSeek-R1 et QwQ-32B, entraînés par apprentissage par renforcement (RL), développent intrinsèquement la capacité de s'engager dans ces débats internes sans instruction explicite. Ces résultats offrent une feuille de route aux développeurs pour créer des applications de modèle de langage étendu (LLM) plus robustes et aux entreprises pour former des modèles supérieurs en utilisant leurs propres données internes, a rapporté VentureBeat.
Dans d'autres nouvelles technologiques, la Shield Android TV de Nvidia, lancée en 2015, continue de recevoir des mises à jour, marquant une décennie de support pour l'appareil. Selon Ars Technica, ce support à long terme est un "travail d'amour" pour l'entreprise. Andrew Bell, vice-président principal de l'ingénierie matérielle chez Nvidia, a assuré que l'équipe de Nvidia aime toujours la Shield. Cet engagement envers les mises à jour à long terme contraste avec le support de mise à jour limité généralement offert pour les appareils Android dans le passé.
Parallèlement, l'utilisation de l'IA pour générer des deepfakes a soulevé des préoccupations éthiques. Une étude menée par des chercheurs de Stanford et de l'Indiana University a révélé qu'une part importante des demandes sur la place de marché en ligne Civitaian, soutenue par Andreessen Horowitz, concernait des deepfakes de personnes réelles, dont 90 % visaient des femmes, selon MIT Technology Review. L'étude, qui n'a pas encore fait l'objet d'un examen par les pairs, a examiné les demandes de contenu sur le site, appelées "primes", entre mi-2023 et fin 2024. Certains de ces fichiers étaient spécifiquement conçus pour créer des images pornographiques interdites par le site.
Discussion
Join the conversation
Be the first to comment