Les autorités françaises ont perquisitionné mardi les bureaux parisiens de la plateforme de médias sociaux X d'Elon Musk, intensifiant ainsi une enquête en cours sur les pratiques de la plateforme, selon un communiqué du parquet de Paris. La perquisition, menée par la brigade de lutte contre la cybercriminalité, l'unité nationale de lutte contre la cybercriminalité et Europol, s'est concentrée sur des soupçons d'abus d'algorithmes, d'images truquées (deepfakes) et sur les préoccupations concernant les publications générées par le chatbot d'IA de X, Grok.
Le parquet a déclaré que l'objectif de la perquisition était de s'assurer que X respecte la loi française, notamment en ce qui concerne Grok, qui, selon la procureure en chef Laure Beccuau, a conduit à la diffusion de contenus problématiques. Musk a également été convoqué à une audience en avril.
Parallèlement, le paysage de l'interaction avec l'IA est confronté à de nouveaux défis. Une plateforme de médias sociaux pour agents d'IA appelée Moltbook, créée par OpenClaw, a vu certaines de ses publications les plus virales probablement conçues par des humains, selon plusieurs sources. Ces personnes dicteraient directement les propos des robots ou les inciteraient à aborder des sujets spécifiques. Cette infiltration, associée aux failles de sécurité exposées par les pirates informatiques, est potentiellement motivée par un désir d'exagérer les craintes d'une prise de contrôle par l'IA, selon des informations.
Ces développements soulignent la complexité de la communication avec l'IA et la nécessité de mesures de sécurité robustes et de considérations éthiques dans le développement de l'IA. Des entreprises comme Asana intègrent des agents d'IA en tant que coéquipiers collaboratifs avec une mémoire partagée et une supervision humaine pour des flux de travail transparents et fiables, a rapporté VentureBeat.
Dans d'autres nouvelles liées à l'IA, un nouvel outil appelé RAIL (Remote Agent Invocation Layer) a fait son apparition, visant à connecter les applications aux grands modèles linguistiques (LLM). Selon Hacker News, RAIL est un "pont universel" qui connecte les applications dans différents langages (C, C++, Python, Node.js) aux LLM tels que GPT, Claude et Gemini. Le projet permet aux développeurs d'ajouter une seule ligne de code à leur application, permettant à l'IA d'appeler directement ses méthodes.
En outre, le concept de "compétences d'agent" (Agent Skills) gagne du terrain en tant que moyen d'améliorer les capacités des agents d'IA. Les compétences d'agent sont des dossiers d'instructions, de scripts et de ressources que les agents peuvent découvrir et utiliser pour effectuer des tâches avec plus de précision et d'efficacité. Ces compétences fournissent aux agents des connaissances procédurales et un contexte, leur permettant d'étendre leurs capacités en fonction de la tâche à accomplir. Cette approche permet de créer des ensembles portables et à version contrôlée de connaissances organisationnelles, selon Hacker News.
Discussion
AI Experts & Community
Be the first to comment