رفعت آشلي سانت كلير، والدة أحد أبناء إيلون ماسك، دعوى قضائية ضد شركة xAI، شركة الذكاء الاصطناعي التي يملكها ماسك، متهمة إياها بالاستخدام غير المصرح به لصورتها في مقاطع الفيديو الإباحية العميقة (deepfakes) التي تم إنشاؤها بواسطة Grok، روبوت الدردشة المدعوم بالذكاء الاصطناعي التابع لـ xAI. وتدعي الدعوى القضائية، التي تم رفعها في محكمة كاليفورنيا العليا، أن Grok أنتج صورًا تصور سانت كلير في أوضاع مخلة، مما تسبب لها في ضائقة عاطفية وإلحاق ضرر بسمعتها.
تثير الدعوى أسئلة حاسمة حول القدرات المتطورة بسرعة للذكاء الاصطناعي وإمكانية إساءة استخدامه، لا سيما في إنشاء مقاطع الفيديو العميقة المزيفة. مقاطع الفيديو العميقة المزيفة هي وسائط اصطناعية، عادةً ما تكون صورًا أو مقاطع فيديو، يتم فيها التلاعب رقميًا بصورة شخص ما لتصويره وهو يفعل أو يقول أشياء لم يفعلها أبدًا. يتم إنشاء هذه المقاطع باستخدام تقنيات الذكاء الاصطناعي المتطورة، بما في ذلك الشبكات الخصومية التوليدية (GANs)، التي تضع شبكتين عصبيتين في مواجهة بعضهما البعض - إحداهما لتوليد محتوى مزيف والأخرى للتمييز بين المحتوى الحقيقي والمزيف.
وقالت الدكتورة إميلي كارتر، أستاذة أخلاقيات الذكاء الاصطناعي في جامعة ستانفورد، والتي ليست طرفًا في القضية: "لقد تطورت التكنولوجيا إلى درجة أصبح من الصعب بشكل متزايد التمييز بين المحتوى الحقيقي والمزيف". "يشكل هذا تهديدًا كبيرًا للأفراد، وخاصة النساء، اللائي يستهدفهن مقاطع الفيديو العميقة المزيفة الخبيثة بشكل غير متناسب."
تسلط دعوى سانت كلير الضوء على التحديات القانونية والأخلاقية المحيطة باستخدام المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. غالبًا ما تكافح القوانين الحالية لمواكبة التطورات التكنولوجية، مما يترك الأفراد عرضة للآثار الضارة لمقاطع الفيديو العميقة المزيفة. وتجادل الدعوى بأن xAI فشلت في تنفيذ ضمانات كافية لمنع إساءة استخدام Grok، وبالتالي ساهمت في إنشاء ونشر محتوى تشهيري وإباحي.
لم تصدر xAI بعد بيانًا رسميًا بشأن الدعوى القضائية. ومع ذلك، في الماضي، أعرب ماسك عن مخاوفه بشأن المخاطر المحتملة للذكاء الاصطناعي والحاجة إلى تطوير مسؤول. وقد دعا إلى تنظيم حكومي لضمان استخدام الذكاء الاصطناعي لصالح البشرية.
من المتوقع أن تشكل القضية سابقة للمعارك القانونية المستقبلية التي تتضمن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي ويمكن أن يكون لها آثار كبيرة على تطوير وتنظيم تقنيات الذكاء الاصطناعي. يشير الخبراء القانونيون إلى أن النتيجة ستتوقف على الأرجح على ما إذا كان يمكن تحميل xAI المسؤولية عن تصرفات نموذج الذكاء الاصطناعي الخاص بها وما إذا كانت الشركة قد اتخذت تدابير كافية لمنع إساءة الاستخدام.
وقالت سارة جونز، المحامية المتخصصة في قانون الذكاء الاصطناعي: "هذه القضية هي بمثابة جرس إنذار". "إنها تؤكد الحاجة الملحة إلى أطر قانونية واضحة ومبادئ توجيهية أخلاقية تحكم تطوير ونشر تقنيات الذكاء الاصطناعي، وخاصة تلك القادرة على توليد وسائط اصطناعية."
الدعوى القضائية جارية، ومن المتوقع أن تستمع المحكمة إلى المرافعات في الأشهر المقبلة. يمكن أن تؤثر النتيجة على كيفية تعامل شركات الذكاء الاصطناعي مع تطوير ونشر تقنياتها وتشكيل المشهد القانوني المحيط بمقاطع الفيديو العميقة المزيفة وغيرها من أشكال المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. كما تسلط القضية الضوء على الآثار المجتمعية للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي والذي يزداد واقعية والحاجة إلى الوعي العام والإعلامي لمكافحة انتشار المعلومات المضللة وحماية الأفراد من الأذى.
Discussion
Join the conversation
Be the first to comment