Un juge fédéral de New York a pris cette semaine la rare décision de clore une affaire en raison de l'utilisation abusive et répétée de l'IA par un avocat dans la rédaction de documents, tandis que simultanément, les guerres de codage de l'IA se sont intensifiées avec OpenAI et Anthropic lançant des modèles concurrents et se préparant pour des publicités au Super Bowl. De plus, des packages malveillants sur les référentiels npm et PyPI ont été découverts en train de voler des identifiants de portefeuille, et des chercheurs ont développé une nouvelle technique pour optimiser les noyaux GPU.
La juge de district Katherine Polk Failla a statué que des sanctions extraordinaires étaient justifiées contre l'avocat Steven Feldman après qu'il ait soumis à plusieurs reprises des documents contenant de fausses citations et une "prose manifestement fleurie", selon Ars Technica. La décision du juge souligne les préoccupations croissantes concernant l'utilisation abusive de l'IA dans les contextes juridiques.
Dans le monde de la technologie, la concurrence entre les géants de l'IA OpenAI et Anthropic s'est intensifiée. OpenAI a sorti GPT-5.3-Codex, son agent de codage le plus performant à ce jour, coïncidant avec la présentation par Anthropic de son Claude Opus 4.6 mis à jour. Ce lancement synchronisé a marqué l'ouverture de ce que les observateurs de l'industrie appellent les "guerres de codage de l'IA", une bataille pour conquérir le marché du développement de logiciels d'entreprise, comme le rapporte VentureBeat. Les entreprises sont également sur le point de diffuser des publicités concurrentes au Super Bowl.
Parallèlement, des chercheurs en sécurité ont découvert des packages malveillants sur les référentiels npm et PyPI qui volaient les identifiants de portefeuille des développeurs dYdX et des systèmes backend, et dans certains cas, ont piégé des appareils, a rapporté Ars Technica. Les packages compromis mettent en péril les applications qui les utilisent, ce qui pourrait entraîner une compromission complète du portefeuille et un vol irréversible de crypto-monnaie.
Un autre développement a impliqué des chercheurs de Stanford, Nvidia et Together AI, qui ont développé une nouvelle technique appelée Test-Time Training to Discover (TTT-Discover). Cette technique permet à un modèle de continuer à s'entraîner pendant le processus d'inférence, en mettant à jour ses poids pour le problème spécifique. Ils ont réussi à optimiser un noyau GPU critique pour qu'il fonctionne deux fois plus vite que l'état de l'art précédent écrit par des experts humains, selon VentureBeat.
Dans un incident distinct, un développeur a reçu un message LinkedIn d'un recruteur, ce qui a conduit à une évaluation de codage qui nécessitait l'installation d'un package. Ce package a ensuite exfiltré des identifiants cloud, notamment des jetons d'accès personnels GitHub et des clés API AWS, accordant à l'adversaire l'accès à l'environnement cloud en quelques minutes, a rapporté VentureBeat. Cette chaîne d'attaque est en train de devenir connue sous le nom de pivot de gestion des identités et des accès (IAM), représentant une lacune fondamentale dans la façon dont les entreprises surveillent les attaques basées sur l'identité.
Discussion
AI Experts & Community
Be the first to comment