Nature publie une correction concernant une étude sur l'agrégation des protéines
Une correction a été publiée dans Nature concernant un article de 2018 sur l'assemblage cotraductionnel des complexes protéiques chez les eucaryotes, traitant spécifiquement des erreurs dans les figures de données étendues 2a et 4d. Plusieurs sources d'information ont rapporté que les erreurs provenaient d'une mauvaise annotation des souches lors de la préparation des figures.
L'article original, publié en ligne le 29 août 2018, portait sur l'agrégation des protéines, les réseaux d'interaction protéique, la fonction des ribosomes, le contrôle de la qualité des protéines et l'activité des chaperonnes. Selon Nature, les tests pour plusieurs souches ont été effectués ensemble sur la même boîte de Pétri, partageant un contrôle de type sauvage, ce qui a conduit aux erreurs.
Bien que les figures aient été mises à jour pour refléter les annotations correctes des souches, les auteurs maintiennent que ces changements n'altèrent pas les conclusions générales de l'étude sur le contrôle de la qualité des protéines et l'activité des chaperonnes, selon plusieurs sources. Les figures corrigées sont maintenant disponibles sous le nom de Fig. 1.
L'annonce de cette correction intervient dans un contexte d'autres développements scientifiques et de défis mondiaux. Parmi les autres nouvelles, citons la publication de nouveaux modèles open source de transcription vocale par Mistral AI, une entreprise européenne fondée par d'anciens employés de Meta et Google DeepMind. Ces modèles, Voxtral Mini Transcribe V2 et Voxtral Realtime, sont conçus pour la transcription et la traduction par lots et en temps réel entre 13 langues. Wired a rapporté que ce dernier pourrait permettre une conversation multilingue fluide d'ici 2026. Les modèles sont plus petits et plus efficaces que leurs concurrents et peuvent fonctionner localement sur les appareils, répondant ainsi aux préoccupations en matière de confidentialité.
Discussion
AI Experts & Community
Be the first to comment