أطلق موكسي مارلينسبايك، المؤسس المشارك لـ Signal، مشروعًا جديدًا في ديسمبر يُدعى Confer، وهو بديل يراعي الخصوصية لمساعدي الذكاء الاصطناعي الشخصيين مثل ChatGPT و Claude. يهدف Confer إلى توفير تجربة مستخدم مماثلة مع تجنب ممارسات جمع البيانات التي أثارت مخاوف بشأن الخصوصية مع روبوتات الدردشة الحالية التي تعمل بالذكاء الاصطناعي.
يكمن الاختلاف الأساسي في بنية الواجهة الخلفية لـ Confer، المصممة لمنع المضيف من الوصول إلى محادثات المستخدمين. يضمن هذا عدم إمكانية استخدام التفاعلات لتدريب النماذج أو الإعلانات المستهدفة، مما يعالج مصدر قلق رئيسي للمستخدمين الذين يخشون مشاركة معلوماتهم الشخصية مع أنظمة الذكاء الاصطناعي. أكد مارلينسبايك على الطبيعة الحميمة لواجهات الدردشة التي تعمل بالذكاء الاصطناعي، قائلاً: "تعرف واجهات الدردشة مثل ChatGPT عن الأشخاص أكثر من أي تقنية أخرى من قبل". وحذر كذلك من احتمال تضارب المصالح عند وجود إعلانات، وشبه ذلك بـ "شخص يدفع لمعالجك لإقناعك بشراء شيء ما".
أثار صعود مساعدي الذكاء الاصطناعي الشخصيين جدلاً حول خصوصية البيانات. يتردد العديد من المستخدمين في مشاركة معلوماتهم الشخصية مع هذه الخدمات بسبب المخاوف بشأن كيفية استخدام هذه البيانات. تختبر OpenAI، مبتكرة ChatGPT، بالفعل الإعلانات، مما يثير احتمال إمكانية الاستفادة من بيانات المستخدمين للإعلانات المستهدفة، على غرار ممارسات شركات مثل Facebook و Google.
يميز Confer نفسه من خلال إعطاء الأولوية لخصوصية المستخدم من خلال تصميمه مفتوح المصدر. يهدف هذا النهج إلى بناء الثقة من خلال السماح بالتحقق المستقل من ممارسات معالجة البيانات الخاصة به، على غرار الطريقة التي رسخ بها Signal نفسه كمنصة مراسلة موثوقة. يسعى المشروع إلى إثبات أنه من الممكن إنشاء خدمات ذكاء اصطناعي تحترم خصوصية المستخدم دون التضحية بالوظائف.
يمثل تطوير Confer جهدًا لمعالجة الطلب المتزايد على حلول الذكاء الاصطناعي التي تركز على الخصوصية. مع تزايد اندماج تكنولوجيا الذكاء الاصطناعي في الحياة اليومية، سيكون ضمان خصوصية المستخدم أمرًا بالغ الأهمية لتعزيز الثقة وتشجيع التبني على نطاق واسع. المشروع مستمر، ومن المتوقع حدوث المزيد من التطورات مع استمرار مارلينسبايك وفريقه في تحسين النظام الأساسي واستكشاف طرق جديدة لحماية بيانات المستخدم.
Discussion
Join the conversation
Be the first to comment