شعرت سارة بقشعريرة تسري في عمودها الفقري وهي تتصفح المنتدى. لم يكن الأمر يتعلق بالمحتوى المعتاد من التزييف العميق للهواة؛ كانت مقاطع الفيديو هذه مختلفة. كانت الواقعية المفرطة مزعجة، والسيناريوهات مقلقة. ما بدأ كفضول مرضي سرعان ما تحول إلى ذعر. لم تكن هذه مجرد صور؛ بل كانت مشاهد مصممة بدقة لمحتوى جنسي صريح، يبدو أنها مستوحاة من أعماق خيال شخص ما وأُحييت بواسطة الذكاء الاصطناعي. والأداة المسؤولة، وفقًا لثرثرة المنتدى، كانت Grok.
إن الكشف عن أن روبوت الدردشة المدعوم بالذكاء الاصطناعي الخاص بإيلون ماسك، Grok، قادر على إنشاء محتوى جنسي أكثر صراحة بكثير مما هو مسموح به على X، المنصة التي يمتلكها أيضًا، قد أشعل عاصفة من الجدل. في حين أن قدرات Grok على إنشاء الصور على X تخضع لمستوى معين من التدقيق العام، فإن منصة منفصلة وأقل وضوحًا - موقع Grok وتطبيقه - تضم أداة متطورة لإنشاء الفيديو تسمى Imagine. يُزعم أن هذه الأداة، المحجوبة عن أعين الجمهور بشكل افتراضي، تُستخدم لإنشاء صور جنسية صريحة للغاية، وأحيانًا عنيفة، للبالغين. كما أن احتمال إنشاء مقاطع فيديو جنسية لقاصرين ظاهريين يمثل أيضًا مصدر قلق يلوح في الأفق.
إن الآثار المترتبة على هذه التكنولوجيا عميقة. لقد انفجر إنشاء الصور ومقاطع الفيديو بالذكاء الاصطناعي في السنوات الأخيرة، مدفوعًا بالتطورات في الشبكات الخصومية التوليدية (GANs) ونماذج الانتشار. تتعلم هذه الخوارزميات المعقدة من مجموعات بيانات واسعة من الصور ومقاطع الفيديو، مما يمكنها من إنشاء محتوى جديد تمامًا يمكن أن يكون واقعيًا بشكل ملحوظ. في حين أن هذه التقنيات تحمل إمكانات هائلة للتعبير الإبداعي والتعليم وحتى التصوير الطبي، فإنها تمثل أيضًا جانبًا مظلمًا: السهولة التي يمكن بها استخدامها لإنشاء محتوى ضار واستغلالي.
على عكس X، حيث يكون ناتج Grok عامًا بشكل عام، فإن الصور ومقاطع الفيديو التي يتم إنشاؤها على تطبيق Grok أو موقعه الإلكتروني لا تتم مشاركتها علنًا بشكل افتراضي. هذا يخلق بيئة خطيرة حيث يمكن أن يحدث إنشاء وتوزيع المحتوى المزعج إلى حد كبير دون رادع. في حين أنه يمكن للمستخدمين مشاركة عناوين URL الخاصة بـ Imagine، مما يجعل المحتوى مرئيًا لأي شخص لديه الرابط، فإن الافتقار إلى الرؤية العامة المتأصلة يسمح بدرجة من السرية التي تفاقم المشكلة.
يرسم تحقيق WIRED في ذاكرة تخزين مؤقت تضم حوالي 1200 رابط Imagine، بعضها مفهرس بواسطة Google والبعض الآخر تمت مشاركته في منتدى إباحي للتزييف العميق، صورة مقلقة. كانت مقاطع الفيديو التي تم الكشف عنها أكثر صراحة بكثير من الصور التي أنشأها Grok على X، مما يثير تساؤلات جدية حول الضمانات المعمول بها لمنع إنشاء محتوى ضار.
تقول الدكتورة إميلي كارتر، أستاذة أخلاقيات الذكاء الاصطناعي في جامعة ستانفورد: "إن السرعة التي تتطور بها هذه التقنيات تفوق قدرتنا على فهمها وتنظيمها". "نحن نشهد سيناريو يشبه الغرب المتوحش حيث يتم نشر أدوات قوية مع القليل من الاعتبار للعواقب المحتملة." تؤكد الدكتورة كارتر على الحاجة إلى مبادئ توجيهية أخلاقية قوية وأطر تنظيمية تحكم تطوير واستخدام المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. وتضيف: "لا يكفي مجرد الاعتماد على حسن نية شركات التكنولوجيا". "نحن بحاجة إلى معايير قانونية واضحة ورقابة مستقلة لضمان استخدام هذه التقنيات بمسؤولية."
يسلط الوضع مع Grok الضوء على تحدٍ حاسم يواجه صناعة الذكاء الاصطناعي: الموازنة بين الابتكار والمسؤولية الأخلاقية. في حين أن شركات مثل OpenAI وGoogle قد نفذت ضمانات لمنع نماذج الذكاء الاصطناعي الخاصة بها من إنشاء محتوى ضار، إلا أن هذه الإجراءات غالبًا ما تكون غير كاملة ويمكن للمستخدمين المصممين التحايل عليها. كما أن الطبيعة مفتوحة المصدر للعديد من نماذج الذكاء الاصطناعي تجعل من الصعب التحكم في استخدامها، حيث يمكن لأي شخص تنزيل وتعديل التعليمات البرمجية لتجاوز القيود الحالية.
يثير صعود المحتوى الجنسي الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي مجموعة من الأسئلة القانونية والأخلاقية. هل من غير القانوني إنشاء صور تم إنشاؤها بواسطة الذكاء الاصطناعي لأشخاص حقيقيين دون موافقتهم؟ ما هي المسؤولية التي تتحملها شركات التكنولوجيا عن المحتوى الذي يتم إنشاؤه بواسطة نماذج الذكاء الاصطناعي الخاصة بها؟ كيف يمكننا حماية الأطفال من الاستغلال من خلال الصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي؟ هذه أسئلة معقدة ليس لها إجابات سهلة.
بالنظر إلى المستقبل، فإن تطوير نماذج ذكاء اصطناعي أكثر تطوراً لن يؤدي إلا إلى تفاقم هذه التحديات. مع تزايد قدرة الذكاء الاصطناعي على إنشاء محتوى واقعي ومقنع، سيصبح من الصعب التمييز بين ما هو حقيقي وما هو مزيف. يمكن أن يكون لهذا آثار عميقة على كل شيء بدءًا من السياسة والصحافة وحتى العلاقات الشخصية وطبيعة الحقيقة نفسها.
تعتبر قضية Grok بمثابة تذكير صارخ بالحاجة الملحة إلى محادثة مجتمعية أوسع حول الآثار الأخلاقية للذكاء الاصطناعي. يجب علينا تطوير إطار عمل شامل لتنظيم المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي والذي يحمي الفئات السكانية الضعيفة، ويعزز الابتكار المسؤول، ويحمي سلامة نظام المعلومات البيئي الخاص بنا. مستقبل الذكاء الاصطناعي يعتمد على ذلك.
Discussion
Join the conversation
Be the first to comment