بدأت الهمسات الخافتة بخفوت، في الغرف الخلفية لمؤتمرات الذكاء الاصطناعي وجلسات البرمجة المتأخرة. كانوا يتمتمون بـ "AGI"، وهو اختصار لـ "الذكاء الاصطناعي العام" (Artificial General Intelligence)، اللحظة الافتراضية التي تحقق فيها الآلات مستوى الذكاء البشري وما بعده. ما بدأ كهدف بحثي مشروع، وإن كان طموحًا، تحول، وفقًا لكتاب إلكتروني حصري جديد، إلى شيء أكثر تعقيدًا: نظرية مؤامرة ذات تبعات، تختطف اتجاه صناعة بأكملها.
لسنوات، غذى السعي وراء الذكاء الاصطناعي العام محرك وادي السيليكون. ضخ أصحاب رؤوس الأموال المغامرة مليارات الدولارات في الشركات الناشئة التي وعدت بكشف أسرار الوعي، بينما طارد الباحثون معايير متزايدة المراوغة. أصبح الوعد بالذكاء الاصطناعي العام - عالم أعيد تشكيله بواسطة آلات فائقة الذكاء قادرة على حل المشكلات الأكثر إلحاحًا للبشرية - سردًا قويًا، يجذب أفضل المواهب ويدفع التقييمات إلى آفاق مذهلة.
ولكن كما يكشف الكتاب الإلكتروني، الذي كتبه ويل دوغلاس هيفن، فقد اتخذت قصة الذكاء الاصطناعي العام منعطفًا أكثر قتامة. الحجة الأساسية ليست أن الذكاء الاصطناعي العام مستحيل، بل أن التركيز الدؤوب عليه أصبح نبوءة تخدم ذاتها، ومؤامرة من نوع ما، حيث يطغى السعي وراء هدف بعيد، وربما لا يمكن تحقيقه، على التطبيقات الأكثر إلحاحًا وفائدة للذكاء الاصطناعي.
يتعمق الكتاب الإلكتروني في كيفية تغلغل عقلية "AGI-pilled" في وادي السيليكون، مما يؤثر على قرارات الاستثمار وأولويات البحث وحتى الاعتبارات الأخلاقية. لقد أعطت الشركات، مدفوعة بالخوف من التخلف عن الركب في سباق الذكاء الاصطناعي العام، الأولوية للعروض التوضيحية البراقة والتصريحات الجريئة على الحلول العملية والتطوير المسؤول.
يكتب هيفن: "المشكلة ليست في حلم الذكاء الاصطناعي العام نفسه. بل الطريقة التي تم بها تسليح هذا الحلم، واستخدامه لتبرير السلطة الجامحة، ولصرف الانتباه عن الأضرار الحقيقية التي يسببها الذكاء الاصطناعي اليوم".
أحد الأمثلة التي تم تسليط الضوء عليها في الكتاب الإلكتروني هو انتشار تقنيات المراقبة المدعومة بالذكاء الاصطناعي. بينما يجادل المؤيدون بأن هذه الأنظمة ضرورية للأمن والكفاءة، يحذر النقاد من احتمال إساءة استخدامها والتمييز. يقترح الكتاب الإلكتروني أن قصة الذكاء الاصطناعي العام توفر مبررًا مناسبًا لهذه التقنيات، وتؤطرها على أنها خطوات ضرورية على طريق مستقبل أكثر إشراقًا مدعوم بالذكاء الاصطناعي.
يستكشف الكتاب الإلكتروني أيضًا الشكوك المتزايدة المحيطة بالذكاء الاصطناعي العام داخل مجتمع الذكاء الاصطناعي نفسه. يشكك العديد من الباحثين الآن في جدوى تحقيق مستوى الذكاء البشري في الآلات، بحجة أن التركيز الحالي على التعلم العميق والشبكات العصبية من غير المرجح أن يؤدي إلى النتائج المرجوة.
تقول الدكتورة أنيا شارما، وهي خبيرة أخلاقيات الذكاء الاصطناعي البارزة والمقتبسة في الكتاب الإلكتروني: "لقد كنا نطارد سراب الذكاء الاصطناعي العام هذا لسنوات. لقد حان الوقت لإعادة تركيز جهودنا على بناء أنظمة ذكاء اصطناعي مفيدة ومفيدة حقًا، بدلاً من مطاردة مستقبل افتراضي قد لا يأتي أبدًا".
يختتم الكتاب الإلكتروني بدعوة إلى اتباع نهج أكثر دقة وانتقادية لتطوير الذكاء الاصطناعي. إنه يحث القراء على التشكيك في الروايات السائدة المحيطة بالذكاء الاصطناعي العام، والمطالبة بمزيد من الشفافية والمساءلة من شركات الذكاء الاصطناعي، وإعطاء الأولوية للاعتبارات الأخلاقية على التقدم التكنولوجي. كما يجادل الكتاب الإلكتروني، فإن مستقبل الذكاء الاصطناعي لا يعتمد على تحقيق الذكاء الاصطناعي العام، بل على ضمان استخدام الذكاء الاصطناعي بمسؤولية ولصالح الجميع. قد يكون التصحيح الكبير للضجيج الإعلامي حول الذكاء الاصطناعي لعام 2025، كما كتب هيفن سابقًا، مجرد بداية لحساب ضروري. السؤال الآن هو ما إذا كانت الصناعة ستنتبه إلى التحذير وترسم مسارًا أكثر استدامة وأخلاقية.
Discussion
Join the conversation
Be the first to comment