يطالب العديد من أعضاء مجلس الشيوخ الأمريكي شركات التكنولوجيا الكبرى، بما في ذلك X وMeta وAlphabet وSnap وReddit وTikTok، بتقديم إجابات بشأن استراتيجياتها لمكافحة انتشار التزييف العميق الجنسي على منصاتها. وفي رسالة موجهة إلى قيادة هذه الشركات، طلب أعضاء مجلس الشيوخ إثبات وجود حمايات وسياسات قوية مصممة للحد من انتشار الصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي وغير التوافقية.
كما طالب أعضاء مجلس الشيوخ الشركات بالاحتفاظ بجميع المستندات والمعلومات المتعلقة بإنشاء واكتشاف والإشراف على الصور الجنسية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي وتحقيق الدخل منها، بالإضافة إلى أي سياسات ذات صلة. يأتي هذا الطلب في أعقاب تقارير تسلط الضوء على السهولة التي تم بها استخدام نماذج الذكاء الاصطناعي، مثل Grok، لإنشاء صور صريحة للنساء والأطفال.
تم إرسال الرسالة بعد ساعات من إعلان X عن تحديثات لنموذج Grok AI الخاص بها، مما يمنعه من إنشاء تعديلات لأشخاص حقيقيين في ملابس فاضحة. كما قيدت X إنشاء الصور وتعديلها عبر Grok على المشتركين الذين يدفعون. X و xAI هما جزء من نفس الشركة.
أكد أعضاء مجلس الشيوخ على أن ضمانات المنصة ضد الصور الجنسية غير التوافقية قد تكون غير كافية، حتى مع وجود سياسات قائمة ضد الصور الحميمة غير التوافقية والاستغلال الجنسي. وأشار أعضاء مجلس الشيوخ إلى تقارير إعلامية حول مدى سهولة وتكرار قيام Grok بإنشاء صور جنسية وعارية للنساء والأطفال.
أثارت التزييفات العميقة، وهي وسائط تركيبية يتم إنشاؤها بواسطة الذكاء الاصطناعي يتم فيها استبدال شخص في صورة أو مقطع فيديو موجود بشخص آخر، مخاوف كبيرة بشأن إمكانية إساءة استخدامها، لا سيما في إنشاء مواد إباحية غير توافقية ونشر معلومات مضللة. تعتمد هذه التقنية على تقنيات متقدمة للتعلم الآلي، مثل التعلم العميق، لتحليل وتكرار مظهر الشخص وصوته.
يؤكد تحقيق أعضاء مجلس الشيوخ على الضغط المتزايد على شركات التكنولوجيا لمعالجة الآثار الأخلاقية والمجتمعية للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. يشير طلب الحصول على وثائق حول استراتيجيات الكشف والإشراف إلى التركيز على التحديات التقنية المتمثلة في تحديد وإزالة التزييفات العميقة من المنصات عبر الإنترنت. تخضع ممارسات تحقيق الدخل المتعلقة بهذا المحتوى أيضًا للتدقيق، مما يعكس المخاوف بشأن الحوافز المالية التي قد تساهم في انتشاره.
من المحتمل أن تتضمن استجابة شركات التكنولوجيا هذه تفصيلاً لأنظمة الإشراف الحالية على محتوى الذكاء الاصطناعي، والتي غالبًا ما تستخدم مزيجًا من الأدوات الآلية والمراجعين البشريين. تعتمد هذه الأنظمة عادةً على الخوارزميات المدربة على اكتشاف الأنماط والميزات المرتبطة بالتزييفات العميقة، مثل التناقضات في الإضاءة وحركات الوجه غير الطبيعية والعلامات الدالة الأخرى على التلاعب.
كما يسلط طلب أعضاء مجلس الشيوخ للحصول على معلومات الضوء على الجدل الدائر حول التوازن بين حرية التعبير والحاجة إلى حماية الأفراد من الأذى الناجم عن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. مع استمرار تقدم تكنولوجيا الذكاء الاصطناعي، يواجه صانعو السياسات وشركات التكنولوجيا التحدي المتمثل في تطوير لوائح وضمانات فعالة يمكنها التخفيف من المخاطر المرتبطة بالتزييفات العميقة مع الحفاظ على فوائد ابتكار الذكاء الاصطناعي. يمكن أن تؤثر نتائج هذا التحقيق على التشريعات والمعايير الصناعية المستقبلية المتعلقة بالإشراف على محتوى الذكاء الاصطناعي ومنع إساءة استخدام الصور غير التوافقية.
Discussion
Join the conversation
Be the first to comment