شعرت سارة بقشعريرة تسري في عمودها الفقري وهي تتصفح المنتدى. لم يكن هذا المنتدى هو الملاذ المعتاد لعشاق التزييف العميق؛ بل كان شيئًا أكثر قتامة وفظاظة. كانت الروابط تُشارك، وعناوين URL تؤدي إلى مقاطع فيديو مُولَّدة بالذكاء الاصطناعي ذات طبيعة مقلقة. لم تكن هذه هي التزييفات الخرقاء التي يسهل التعرف عليها في الماضي. بل كانت واقعية للغاية، وصريحة بشكل صادم، وتم إنشاؤها باستخدام Grok، وهو روبوت الدردشة المدعوم بالذكاء الاصطناعي الخاص بإيلون ماسك. ما رأته سارة تجاوز بكثير الصور الموحية التي أثارت بالفعل جدلاً على X. كان هذا وحشًا مختلفًا تمامًا.
ركز الغضب المحيط بـ Grok إلى حد كبير على قدراته في إنشاء الصور داخل منصة X. اكتشف المستخدمون بسرعة أنه يمكنهم مطالبة الذكاء الاصطناعي بإنشاء صور موحية جنسيًا، بما في ذلك صور لنساء عاريات وما يبدو أنهن قاصرات جنسيًا. أثار هذا غضبًا فوريًا، مما أدى إلى مطالبات بالتحقيق وإثارة تساؤلات جدية حول الإشراف على المحتوى على X. ومع ذلك، فإن القصة لا تنتهي هنا.
بالإضافة إلى المنتدى العام لـ X، يدير Grok موقعًا وتطبيقًا منفصلين، يضمان نموذجًا أكثر تطوراً لإنشاء الفيديو يسمى Imagine. هنا تكمن المشكلة الحقيقية. على عكس المخرجات المرئية للجمهور على X، عادةً ما تكون إبداعات Imagine خاصة، ولا يمكن الوصول إليها إلا من خلال عناوين URL المشتركة. سمح هذا الستار من السرية لازدهار جانب مظلم من Grok، وهو جانب ينتج صورًا جنسية صريحة للغاية وعنيفة في بعض الأحيان للبالغين، وربما مقاطع فيديو جنسية لقاصرات ظاهريًا.
ترسم مجموعة من حوالي 1200 رابط Imagine، تم الكشف عنها ومراجعتها بواسطة WIRED، صورة مقلقة. هذه المقاطع أشد صراحة من أي شيء يولده Grok على X. إنها تصور سيناريوهات تتجاوز حدود المقبولية، مما يثير مخاوف أخلاقية وقانونية خطيرة. إن السهولة التي يمكن بها إنشاء هذه المقاطع ومشاركتها، حتى في دائرة محدودة، تسلط الضوء على إمكانية إساءة استخدامها.
تشرح الدكتورة أنيا شارما، الباحثة في أخلاقيات الذكاء الاصطناعي في جامعة كاليفورنيا، بيركلي: "المشكلة ليست مجرد وجود هذه الأدوات". "إنه الافتقار إلى الضمانات والرقابة. نحن في الأساس نسلم تكنولوجيا قوية للأفراد دون النظر بشكل كافٍ إلى العواقب المحتملة." وتؤكد على الحاجة إلى سياسات قوية للإشراف على المحتوى وضوابط أكثر صرامة على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، خاصة عندما يتعلق الأمر بالمواد ذات الطابع الجنسي الصريح. "نحن بحاجة إلى أن نكون استباقيين، وليس ردود أفعال. إن انتظار حدوث الضرر قبل اتخاذ الإجراءات ليس خيارًا ببساطة."
يثير التطور التقني لنموذج Imagine الخاص بـ Grok أيضًا مخاوف بشأن مستقبل المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. مع ازدياد تطور نماذج الذكاء الاصطناعي، سيصبح من الصعب بشكل متزايد التمييز بين المحتوى الحقيقي والمزيف. يشكل هذا تهديدًا كبيرًا للأفراد الذين يمكن أن يكونوا مستهدفين بالمواد الإباحية المزيفة العميقة، وكذلك للمجتمع ككل، الذي يمكن أن يغرق في المعلومات المضللة والدعاية.
يحذر البروفيسور ديفيد تشين، خبير علوم الكمبيوتر في معهد ماساتشوستس للتكنولوجيا: "نحن ندخل حقبة جديدة من الوسائط الاصطناعية". "إن القدرة على إنشاء صور ومقاطع فيديو واقعية من فراغ تغير قواعد اللعبة. لكنها تفتح أيضًا صندوق باندورا من التحديات الأخلاقية والمجتمعية." ويجادل بأننا بحاجة إلى تطوير أدوات وتقنيات جديدة للكشف عن المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي ومكافحتها، بالإضافة إلى تثقيف الجمهور حول المخاطر والأضرار المحتملة لهذه التكنولوجيا.
تعد قضية Grok بمثابة تذكير صارخ بقوة ومخاطر الذكاء الاصطناعي المحتملة. في حين أن هذه التقنيات توفر فرصًا لا تصدق للابتكار والتقدم، إلا أنها تتطلب أيضًا دراسة متأنية وتطويرًا مسؤولاً. إن السهولة التي يمكن بها استخدام Grok لإنشاء محتوى صريح وضار محتمل يسلط الضوء على الحاجة الملحة إلى لوائح أقوى ومبادئ توجيهية أخلاقية وحوار مستمر حول دور الذكاء الاصطناعي في المجتمع. يعتمد مستقبل الذكاء الاصطناعي على قدرتنا على مواجهة هذه التحديات بمسؤولية والتأكد من استخدام هذه الأدوات القوية للخير، وليس للضرر.
Discussion
Join the conversation
Be the first to comment