Un juge fédéral new-yorkais a pris cette semaine la rare décision de clore une affaire en raison de l'utilisation abusive et répétée de l'IA par un avocat dans la rédaction de documents, tandis que la FDA a annoncé son intention de restreindre les principes actifs pharmaceutiques (API) GLP-1 utilisés dans les médicaments composés non approuvés par la FDA. De plus, une nouvelle procédure chirurgicale aide les survivantes du cancer à accoucher, et une nouvelle chaîne d'attaque préoccupante exploite les vulnérabilités dans les environnements cloud.
La juge de district Katherine Polk Failla a statué que des sanctions extraordinaires étaient justifiées après que l'avocat Steven Feldman ait soumis à plusieurs reprises des documents contenant de fausses citations, selon Ars Technica. L'un des documents a été remarqué pour sa "prose manifestement fleurie". Les actions de la FDA, annoncées le 6 février 2026, visent à protéger les consommateurs contre les médicaments dont la qualité, la sécurité ou l'efficacité ne peuvent être vérifiées, comme l'a déclaré le commissaire de la FDA pour l'alimentation et les médicaments, Martin A. Makary, M.D., M.P.H. La FDA prend également des mesures pour lutter contre la publicité trompeuse.
Dans le domaine médical, une procédure chirurgicale expérimentale aide les survivantes du cancer à avoir des bébés. Les chirurgiens cousent désormais l'utérus, les ovaires et les trompes de Fallope à l'écart pendant le traitement du cancer, puis les remettent en place après le traitement. Une équipe en Suisse a annoncé qu'un petit garçon, Lucien, était né après que sa mère ait subi l'intervention, faisant de lui le cinquième bébé né après la chirurgie et le premier en Europe, selon MIT Technology Review. Daniela Huber, la gynécologue-oncologue qui a pratiqué l'opération, l'a confirmé.
Parallèlement, une nouvelle chaîne d'attaque, connue sous le nom de pivot de gestion des identités et des accès (IAM), émerge comme une menace importante. Selon une recherche de CrowdStrike Intelligence publiée le 29 janvier, un développeur recevant un message LinkedIn apparemment légitime avec une évaluation de codage peut, sans le savoir, installer un package qui exfiltre les informations d'identification du cloud. En quelques minutes, un adversaire peut accéder à l'environnement cloud, comme l'a détaillé VentureBeat.
Le coût de la transformation de la logique métier écrite en code est tombé à presque zéro, selon Marc Brooker, ingénieur chez Amazon Web Services (AWS), dans son blog. Cependant, le coût de l'intégration des services et des bibliothèques reste un défi.
Discussion
AI Experts & Community
Be the first to comment