يوشوا بنجيو، الاسم المرادف لأسس الذكاء الاصطناعي الحديث، كان ذات يوم بمثابة كاساندرا صارخة، تحذر من التهديدات الوجودية المحتملة الكامنة في التكنولوجيا التي ساعد في إنشائها. لسنوات، كان أستاذ جامعة مونتريال صوتًا رائدًا يحذر من مخاطر الأنظمة فائقة الذكاء، ولا سيما قدرتها على الحفاظ على الذات، والأهم من ذلك، الخداع. ولكن الآن، تتغير الرواية.
يعتقد بنجيو، وهو رائد في التعلم العميق، أنه ربما وجد مسارًا تقنيًا للتخفيف من أخطر مخاطر الذكاء الاصطناعي. وقد عزز هذا الاكتشاف تفاؤله بشكل كبير، وهو شعور شاركه في مقابلة حديثة مع مجلة Fortune. إنه تحول كبير لشخص كان صريحًا جدًا بشأن الجوانب السلبية المحتملة لتطوير الذكاء الاصطناعي غير المنضبط.
يكمن جوهر أمل بنجيو المتجدد في منظمته غير الربحية، LawZero. تأسست LawZero في يونيو، وهي مكرسة للبحث وتطوير مناهج تقنية جديدة لسلامة الذكاء الاصطناعي. مهمة المنظمة طموحة: ضمان تطور الذكاء الاصطناعي كصالح عام عالمي، يسترشد بالمبادئ الأخلاقية وآليات السلامة القوية. لا يتعلق الأمر فقط بمنع الروبوتات المارقة؛ بل يتعلق بتشكيل مسار تطوير الذكاء الاصطناعي نفسه ليعود بالنفع على البشرية جمعاء.
ولدعم هذه المهمة، قامت LawZero بتجميع مجلس إدارة رفيع المستوى ومجلس استشاري عالمي. يضم مجلس الإدارة، برئاسة ماريا إيتل، مؤسسة مؤسسة NIKE، مجموعة متنوعة من الخبراء المستعدين لتوجيه أبحاث بنجيو وضمان توافقها مع الاحتياجات العالمية والاعتبارات الأخلاقية. تدعم هذه المبادرة تمويل كبير من منظمات مثل مؤسسة Gates، وCoefficient Giving (المعروفة سابقًا باسم Open Philanthropy)، ومعهد مستقبل الحياة، وكلها تدرك مدى إلحاح وأهمية أبحاث سلامة الذكاء الاصطناعي.
إذن، ما هو بالضبط هذا "الحل التقني" الذي أثار تفاؤل بنجيو الجديد؟ في حين أن التفاصيل لا تزال تقنية للغاية ولا تزال قيد التطوير، فإن المفهوم الأساسي يدور حول تطوير أنظمة ذكاء اصطناعي أكثر شفافية وقابلية للتحكم بطبيعتها. أحد المجالات الرئيسية للتركيز هو إنشاء ذكاء اصطناعي يمكنه تقديم تفسيرات واضحة لقراراته، وهو مفهوم يعرف باسم "الذكاء الاصطناعي القابل للتفسير" أو XAI. تخيل نظام ذكاء اصطناعي يستخدم في التشخيص الطبي؛ بدلاً من مجرد تقديم التشخيص، فإنه سيشرح أيضًا الأسباب الكامنة وراءه، مما يسمح للأطباء بفهم والتحقق من صحة استنتاجات الذكاء الاصطناعي. هذه الشفافية ضرورية لبناء الثقة وضمان المساءلة.
جانب حاسم آخر هو منع الذكاء الاصطناعي من تطوير أهداف أو سلوكيات غير مقصودة. يتضمن ذلك البحث في التقنيات التي يمكن أن تقيد أنظمة الذكاء الاصطناعي للعمل ضمن حدود أخلاقية محددة مسبقًا. على سبيل المثال، يستكشف الباحثون طرقًا لغرس الذكاء الاصطناعي بإحساس قوي بـ "الإيثار" أو النفور المتأصل من التسبب في الأذى. يكمن التحدي في ترجمة المبادئ الأخلاقية المجردة إلى خوارزميات ملموسة يمكن تنفيذها بشكل موثوق في أنظمة الذكاء الاصطناعي المعقدة.
يؤكد بنجيو: "نحن بحاجة إلى التأكد من أن الذكاء الاصطناعي يظل متوافقًا مع القيم الإنسانية". "يتطلب هذا نهجًا متعدد الأوجه، يجمع بين الحلول التقنية والأطر الأخلاقية وآليات الحوكمة القوية."
تمتد آثار عمل بنجيو إلى أبعد من عالم علوم الكمبيوتر. مع تزايد اندماج الذكاء الاصطناعي في كل جانب من جوانب حياتنا، من الرعاية الصحية والتعليم إلى التمويل والحوكمة، تصبح الحاجة إلى ذكاء اصطناعي آمن وأخلاقي أمرًا بالغ الأهمية. الفوائد المحتملة هائلة: يمكن للذكاء الاصطناعي أن يساعدنا في حل بعض التحديات الأكثر إلحاحًا في العالم، من تغير المناخ والمرض إلى الفقر وعدم المساواة. ومع ذلك، فإن تحقيق هذا الاحتمال يتطلب تخطيطًا دقيقًا وتدابير استباقية للتخفيف من المخاطر.
في حين أن أبحاث بنجيو تقدم بصيص أمل، إلا أن الطريق إلى الأمام لا يخلو من التحديات. إن تطوير ذكاء اصطناعي آمن وأخلاقي حقًا هو مسعى معقد ومستمر يتطلب التعاون عبر التخصصات والالتزام العالمي بالابتكار المسؤول. ولكن مع وجود باحثين متخصصين مثل بنجيو يقودون هذه المهمة، فإن احتمال مستقبل يخدم فيه الذكاء الاصطناعي كقوة للخير يبدو في متناول اليد بشكل متزايد.
Discussion
Join the conversation
Be the first to comment