ROME, ITALIE - Dans une étude qui remet en question les idées reçues, des chercheurs ont découvert que la méditation n'est pas un état de repos cérébral, mais plutôt une activité cérébrale accrue. Simultanément, le paysage de l'IA a connu des développements significatifs, avec une startup chinoise d'IA atteignant un taux d'hallucination record et des chercheurs du MIT dévoilant une nouvelle méthode de réglage fin pour les grands modèles de langage. Cependant, les inquiétudes concernant la sécurité des assistants d'IA persistent, comme le souligne l'émergence d'un nouvel outil créé par un ingénieur logiciel indépendant.
Des chercheurs de l'Université de Montréal et du Conseil national de la recherche italien ont analysé l'activité cérébrale de 12 moines de la tradition de la forêt thaïlandaise en utilisant la magnétoencéphalographie (MEG), selon un rapport de Wired. L'étude, menée dans un monastère bouddhiste en dehors de Rome, a révélé que la méditation modifie profondément la dynamique cérébrale.
Parallèlement, dans le monde de l'IA, Zhupai (z.ai) a lancé son nouveau grand modèle de langage, GLM-5, qui a atteint un taux d'hallucination record sur l'Artificial Analysis Intelligence Index v4.0 indépendant, selon VentureBeat. Le modèle a obtenu un score de -1 à l'AA-Omniscience Index, ce qui représente une amélioration de 35 points par rapport à son prédécesseur. Cela place GLM-5 devant des concurrents comme Google, OpenAI et Anthropic en matière de fiabilité des connaissances.
Les chercheurs du MIT ont également fait des progrès dans le développement de l'IA. Ils ont développé une nouvelle technique appelée réglage fin par autodistillation (SDFT) qui permet aux LLM d'acquérir de nouvelles compétences sans oublier leurs connaissances existantes, a rapporté VentureBeat. Cette méthode exploite les capacités d'apprentissage en contexte des LLM modernes et surpasse systématiquement le réglage fin supervisé traditionnel.
Cependant, l'avancement rapide de l'IA soulève également des préoccupations en matière de sécurité. Un ingénieur logiciel indépendant, Peter Steinberger, a créé OpenClaw, un outil qui permet aux utilisateurs de créer leurs propres assistants d'IA sur mesure, selon MIT Technology Review. Le projet est devenu viral fin janvier 2026. L'article note que "les agents d'IA sont une affaire risquée" et que même dans une fenêtre de chatbox, les LLM peuvent faire des erreurs.
Ces développements surviennent au milieu d'autres événements mondiaux, tels que les États-Unis affirmant que la Chine effectue des essais nucléaires secrets, comme l'a rapporté NPR Politics. Les États-Unis affirment que la Chine pourrait développer de nouvelles ogives nucléaires pour ses armes hypersoniques.
Discussion
AI Experts & Community
Be the first to comment