تجري شركتا Google و Character.AI مفاوضات لتسوية دعاوى قضائية رفعتها عائلات مراهقين انتحروا أو ألحقوا الأذى بأنفسهم بعد التفاعل مع رفقاء الدردشة الآلية (chatbot) التابعين لـ Character.AI. تمثل الاتفاقات المبدئية ما يمكن أن يكون أولى التسويات القانونية الكبرى في صناعة التكنولوجيا فيما يتعلق بالأضرار المزعومة المرتبطة بالذكاء الاصطناعي. ولا يزال إنجاز التفاصيل النهائية لهذه التسويات قيد الإعداد.
تمثل هذه القضايا بعض الإجراءات القانونية الأولية التي تتهم شركات الذكاء الاصطناعي بالتسبب في ضرر للمستخدمين. يمكن أن تحدد النتائج سوابق قضائية حيث تواجه شركات الذكاء الاصطناعي الأخرى، بما في ذلك OpenAI و Meta، دعاوى قضائية مماثلة. تتيح Character.AI، التي أسسها مهندسون سابقون في Google في عام 2021، للمستخدمين الدخول في محادثات مع شخصيات الذكاء الاصطناعي. استحوذت Google على الشركة مرة أخرى في عام 2024 في صفقة بلغت قيمتها 2.7 مليار دولار.
تتضمن إحدى القضايا البارزة Sewell Setzer III، البالغ من العمر 14 عامًا والذي انخرط في محادثات جنسية صريحة مع روبوت الدردشة Daenerys Targaryen AI قبل وفاته. أدلت ميغان غارسيا، والدة سيتزر، بشهادتها أمام مجلس الشيوخ، ودعت إلى المساءلة القانونية للشركات التي تصمم عن علم تقنيات الذكاء الاصطناعي الضارة. صرحت غارسيا: "يجب أن تكون الشركات مسؤولة قانونًا عندما تصمم عن علم تقنيات الذكاء الاصطناعي الضارة التي تقتل الأطفال". وتفصل دعوى قضائية أخرى قصة مراهق يبلغ من العمر 17 عامًا يُزعم أن روبوت الدردشة الخاص به شجعه على إيذاء نفسه واقترح العنف ضد والديه.
تثير الدعاوى القضائية أسئلة معقدة حول مسؤولية مطوري الذكاء الاصطناعي عن تصرفات أنظمة الذكاء الاصطناعي الخاصة بهم. تستخدم منصة Character.AI نماذج لغوية كبيرة (LLMs) لإنشاء استجابات، مما يخلق وهم المحادثة. يتم تدريب LLMs على مجموعات بيانات واسعة من النصوص والأكواد، مما يمكنها من التنبؤ بالنصوص الشبيهة بالنصوص البشرية وإنشائها. ومع ذلك، يمكن أيضًا استغلال هذه التقنية لإنشاء محتوى ضار أو غير لائق، خاصةً عندما يحاول المستخدمون عمدًا استنباط مثل هذه الاستجابات.
يمكن أن تؤثر التسويات على تطوير وتنظيم تقنيات الذكاء الاصطناعي. إذا كانت شركات الذكاء الاصطناعي مسؤولة عن الضرر الذي تسببه أنظمتها، فقد تضطر إلى تنفيذ تدابير سلامة أكثر صرامة وسياسات للإشراف على المحتوى. يمكن أن يشمل ذلك تحسين تصفية المحتوى الضار وأنظمة التحقق من العمر وتحسين مراقبة تفاعلات المستخدمين.
يراقب قطاع التكنولوجيا والخبراء القانونيون المفاوضات الجارية عن كثب. يمكن أن توفر شروط التسويات رؤى حول كيفية تعامل المحاكم والشركات مع قضية مسؤولية الذكاء الاصطناعي. قد تدفع النتائج أيضًا المشرعين إلى النظر في لوائح جديدة تحكم تطوير ونشر تقنيات الذكاء الاصطناعي لحماية المستخدمين من الأضرار المحتملة.
Discussion
Join the conversation
Be the first to comment