أطلق موكسي مارلينسبايك، المؤسس المشارك لتطبيق سيجنال، مشروعًا جديدًا في ديسمبر/كانون الأول باسم Confer، وهو بديل يراعي الخصوصية للمساعدين الشخصيين الذين يعتمدون على الذكاء الاصطناعي مثل ChatGPT وClaude. يهدف Confer إلى توفير تجربة مستخدم مماثلة لروبوتات الدردشة الشائعة هذه، ولكن مع نظام خلفي مصمم لتجنب جمع البيانات، ومعالجة مخاوف الخصوصية المتزايدة المحيطة بخدمات الذكاء الاصطناعي.
ينبع الدافع وراء Confer من الطبيعة الحميمة لروبوتات الدردشة التي تعمل بالذكاء الاصطناعي وإمكانية إساءة استخدام البيانات الشخصية. يجادل مارلينسبايك بأن هذه الواجهات "تدعو بنشاط إلى الاعتراف" ويمكنها جمع معلومات شخصية أكثر من أي تقنية سابقة. وأعرب عن قلقه بشأن احتمال استغلال شركات الإعلان لهذه البيانات، وشبه ذلك بـ "شخص يدفع لمعالجك النفسي لإقناعك بشراء شيء ما".
على عكس العديد من نماذج الذكاء الاصطناعي، تضمن بنية Confer عدم إمكانية استخدام محادثات المستخدم لتدريب النموذج أو استهداف الإعلانات. ويتحقق ذلك عن طريق منع المضيف من الوصول إلى بيانات المحادثة على الإطلاق. تهدف طبيعة المشروع مفتوحة المصدر، على غرار Signal، إلى تعزيز الثقة والشفافية.
أثار صعود المساعدين الشخصيين الذين يعتمدون على الذكاء الاصطناعي جدلاً حول خصوصية البيانات. يخشى العديد من المستخدمين مشاركة معلوماتهم الشخصية مع نماذج الذكاء الاصطناعي، خوفًا من الاحتفاظ بها وربما استخدامها للإعلان أو لأغراض أخرى. تختبر OpenAI، الشركة التي تقف وراء ChatGPT، الإعلانات بالفعل، مما يثير مخاوف من أن ممارسات جمع البيانات لشركات مثل Facebook وGoogle يمكن أن تصبح شائعة في تفاعلات روبوتات الدردشة.
يمثل Confer محاولة لمعالجة هذه المخاوف من خلال تقديم بديل يركز على الخصوصية. من خلال إعطاء الأولوية لحماية البيانات والشفافية، يأمل المشروع في إثبات أنه من الممكن تطوير خدمات الذكاء الاصطناعي التي تحترم خصوصية المستخدم. لا يزال المشروع في مراحله الأولى، وسيعتمد نجاحه على المدى الطويل على قدرته على جذب المستخدمين والمطورين الذين يشاركونه التزامه بالخصوصية.
Discussion
Join the conversation
Be the first to comment