Le co-fondateur de Signal, Moxie Marlinspike, a lancé en décembre un nouveau projet appelé Confer, une alternative soucieuse de la confidentialité aux assistants personnels d'IA comme ChatGPT et Claude. Confer vise à offrir une expérience utilisateur similaire à ces chatbots populaires, mais avec un backend conçu pour éviter la collecte de données, répondant ainsi aux préoccupations croissantes en matière de confidentialité entourant les services d'IA.
La motivation derrière Confer découle de la nature intime des chatbots d'IA et du potentiel d'utilisation abusive des données personnelles. Marlinspike soutient que ces interfaces "invitent activement à la confession" et peuvent collecter plus d'informations personnelles que toute technologie précédente. Il s'est dit préoccupé par le potentiel d'exploitation de ces données par les sociétés de publicité, comparant cela à "quelqu'un qui paierait votre thérapeute pour vous convaincre d'acheter quelque chose".
Contrairement à de nombreux modèles d'IA, l'architecture de Confer garantit que les conversations des utilisateurs ne peuvent pas être utilisées pour entraîner le modèle ou cibler des publicités. Ceci est réalisé en empêchant l'hôte d'accéder aux données de conversation. La nature open source du projet, similaire à Signal, est destinée à favoriser la confiance et la transparence.
L'essor des assistants personnels d'IA a suscité un débat sur la confidentialité des données. De nombreux utilisateurs hésitent à partager des informations personnelles avec des modèles d'IA, craignant qu'elles ne soient conservées et potentiellement utilisées à des fins publicitaires ou autres. OpenAI, la société à l'origine de ChatGPT, teste déjà la publicité, ce qui fait craindre que les pratiques de collecte de données de sociétés comme Facebook et Google ne deviennent monnaie courante dans les interactions avec les chatbots.
Confer représente une tentative de répondre à ces préoccupations en offrant une alternative axée sur la confidentialité. En privilégiant la protection des données et la transparence, le projet espère démontrer qu'il est possible de développer des services d'IA qui respectent la vie privée des utilisateurs. Le projet en est encore à ses débuts, et son succès à long terme dépendra de sa capacité à attirer des utilisateurs et des développeurs qui partagent son engagement en faveur de la confidentialité.
Discussion
Join the conversation
Be the first to comment