يواجه تطوير الذكاء الاصطناعي فجوة ثقة، في حين تتراوح التطبيقات من المواد الإباحية إلى توليد التعليمات البرمجية
يواجه تطوير الذكاء الاصطناعي "مفارقة ثقة" حيث تكافح العديد من المؤسسات لتوسيع نطاق الذكاء الاصطناعي إلى ما بعد البرامج التجريبية الأولية، وفقًا لمسح حديث. وفي الوقت نفسه، تتنوع تطبيقات الذكاء الاصطناعي بسرعة، حيث تقوم بعض النماذج بتوليد مواد إباحية بينما تُظهر نماذج أخرى قدرات ترميز متقدمة، مما يثير مخاوف بشأن إزاحة الوظائف والاعتبارات الأخلاقية.
كشف المسح السنوي الثالث لشركة Informatica لرؤساء أقسام البيانات (CDOs)، والذي شمل 600 من المديرين التنفيذيين على مستوى العالم، أنه في حين أن 69٪ من الشركات قد نشرت الذكاء الاصطناعي التوليدي، و 47٪ يجربون استخدامه، توجد فجوة كبيرة في الحوكمة. ووجد المسح أن 76٪ من قادة البيانات لا يستطيعون التحكم في ما يستخدمه الموظفون بالفعل. ووفقًا لموقع VentureBeat، فإن هذا الانفصال يفسر سبب معاناة العديد من المؤسسات للانتقال من تجربة الذكاء الاصطناعي إلى نطاق الإنتاج.
ومما يزيد الأمر تعقيدًا، تشير دراسة جديدة أجرتها Google إلى أن نماذج الاستدلال المتقدمة تحقق أداءً عاليًا من خلال محاكاة مناقشات شبيهة بالوكلاء المتعددين تتضمن وجهات نظر متنوعة. هذه المحادثات "مجتمع الفكر"، كما يسميها الباحثون، تحسن بشكل كبير أداء النموذج في مهام الاستدلال والتخطيط المعقدة. ووجد الباحثون أن نماذج الاستدلال الرائدة مثل DeepSeek-R1 و QwQ-32B تطور هذه القدرة بطبيعتها دون تعليمات صريحة، مما يوفر خارطة طريق للمطورين لبناء تطبيقات LLM أكثر قوة وللمؤسسات لتدريب نماذج متفوقة باستخدام بياناتهم الداخلية الخاصة، حسبما ذكرت VentureBeat.
ومع ذلك، فإن التقدم السريع للذكاء الاصطناعي يثير أيضًا مخاوف أخلاقية. ووجد تحليل أجراه باحثون في جامعة ستانفورد وجامعة إنديانا أن سوقًا مدنيًا عبر الإنترنت للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، مدعومًا من Andreessen Horowitz، يسمح للمستخدمين بشراء ملفات تعليمات مخصصة لإنشاء صور deepfake للمشاهير. ووفقًا لمجلة MIT Technology Review، تم تصميم بعض هذه الملفات خصيصًا لإنشاء صور إباحية محظورة من قبل الموقع. ووجدت الدراسة أنه بين منتصف عام 2023 ونهاية عام 2024، كان جزء كبير من الطلبات على الموقع مخصصًا لصور deepfake لأشخاص حقيقيين، وأن 90٪ من طلبات deepfake هذه استهدفت النساء.
تخلق القدرات المتنوعة لنماذج الذكاء الاصطناعي الإثارة والقلق على حد سواء. أشارت مجلة MIT Technology Review إلى أنه في حين أن بعض النماذج مثل Grok تُستخدم لإنشاء مواد إباحية، إلا أن نماذج أخرى مثل Claude Code يمكنها أداء مهام معقدة مثل بناء مواقع الويب وقراءة التصوير بالرنين المغناطيسي. وقد أدى ذلك إلى مخاوف، لا سيما بين الجيل Z، بشأن التأثير المحتمل للذكاء الاصطناعي على سوق العمل. تشير الأبحاث الجديدة المثيرة للقلق إلى أن الذكاء الاصطناعي سيكون له تأثير زلزالي على سوق العمل هذا العام.
تواجه صناعة الذكاء الاصطناعي نفسها توترات داخلية. يشارك يان ليكان، كبير علماء الذكاء الاصطناعي السابق في Meta، علنًا بآرائه، بينما يتجه إيلون ماسك و OpenAI إلى المحاكمة، مما يخلق مزيدًا من عدم اليقين في هذا المجال، وفقًا لمجلة MIT Technology Review.
Discussion
Join the conversation
Be the first to comment