La startup chinoise d'IA z.ai a fait les gros titres cette semaine avec la sortie de son nouveau modèle de langage volumineux, GLM-5, qui a atteint un taux d'hallucination record, selon VentureBeat. Le modèle, qui est open source, exploite également une nouvelle technique d'apprentissage par renforcement appelée "slime". Parallèlement, des chercheurs du MIT, de l'Improbable AI Lab et de l'ETH Zurich ont développé une nouvelle méthode de fine-tuning qui permet aux LLM d'acquérir de nouvelles compétences sans oublier les anciennes, comme le rapporte VentureBeat.
GLM-5, le dernier de la série GLM de z.ai, conserve une licence MIT open source, ce qui le rend adapté au déploiement en entreprise. Il a obtenu un score de -1 à l'indice AA-Omniscience, ce qui représente une amélioration de 35 points par rapport à son prédécesseur. Cela place GLM-5 à la pointe de l'industrie de l'IA en matière de fiabilité des connaissances, surpassant les concurrents américains comme Google, OpenAI et Anthropic, en sachant quand s'abstenir plutôt que de fabriquer des informations, selon VentureBeat.
La nouvelle technique des chercheurs du MIT, appelée self-distillation fine-tuning (SDFT), permet aux modèles d'apprendre directement à partir de démonstrations et de leurs propres expériences en tirant parti des capacités d'apprentissage en contexte inhérentes aux LLM modernes. Des expériences montrent que SDFT surpasse systématiquement le fine-tuning supervisé traditionnel tout en résolvant les limites de l'apprentissage par renforcement, selon VentureBeat.
Alors que les progrès de l'IA se poursuivent, des inquiétudes persistent quant à son utilisation abusive potentielle. L'IA facilite déjà les crimes en ligne, et la situation pourrait s'aggraver, selon MIT Technology Review. Les pirates informatiques utilisent des outils d'IA pour réduire le temps et les efforts nécessaires à l'orchestration des attaques, abaissant ainsi les barrières pour les attaquants moins expérimentés. Certains dans la Silicon Valley préviennent que l'IA est sur le point de pouvoir mener des attaques entièrement automatisées. Les chercheurs en sécurité affirment que les risques immédiats posés par l'IA, qui accélère et augmente déjà le volume des escroqueries, devraient être la principale préoccupation.
Dans les actualités connexes, une étude récente dans Nature Energy a révélé que les VE, des scooters aux minibus, pourraient être moins chers à posséder que les véhicules à essence en Afrique d'ici 2040, selon MIT Technology Review. Cependant, la technologie est toujours confrontée à des défis majeurs sur certains marchés africains, notamment des infrastructures de réseau et de recharge limitées.
Discussion
AI Experts & Community
Be the first to comment