بدأت الهمسات بخفوت، كطنين منخفض تحت صخب طموح وادي السيليكون. ثم، تعالت الأصوات، وتحولت إلى جوقة من الإيمان المتحمس: الذكاء الاصطناعي العام، أو AGI، لم يكن ممكنًا فحسب، بل كان وشيكًا. لم يكن هذا تنبؤًا علميًا؛ بل كان نبوءة، نبوءة تحقق ذاتها تغذيها مليارات الدولارات والإيمان الراسخ لنخبة التكنولوجيا. ولكن ماذا يحدث عندما يتحول هدف تكنولوجي إلى نظرية مؤامرة، تختطف صناعة بأكملها وتشوه فهمنا للإمكانات الحقيقية للذكاء الاصطناعي؟
لطالما كان الوعد بالذكاء الاصطناعي العام – آلة قادرة على فهم المعرفة وتعلمها وتطبيقها مثل الإنسان – هو الكأس المقدسة لأبحاث الذكاء الاصطناعي. لعقود من الزمان، ظل حلمًا بعيد المنال، مقتصرًا على عالم الخيال العلمي. ومع ذلك، فإن التطورات السريعة في تعلم الآلة، وخاصة التعلم العميق، على مدى العقد الماضي أشعلت موجة جديدة من التفاؤل. فجأة، بدا الذكاء الاصطناعي العام في متناول اليد، وهو شعور ضخم عززه أصحاب رؤوس الأموال الاستثمارية ودعاة التكنولوجيا على حد سواء.
هذا الإيمان المتحمس بالذكاء الاصطناعي العام الوشيك، كما تم استكشافه في كتاب إلكتروني جديد مخصص للمشتركين فقط بقلم ويل دوغلاس هيفن، أصبح أكثر من مجرد تطلع تكنولوجي. لقد تحول إلى ما يسميه البعض "مؤامرة الذكاء الاصطناعي العام الكبرى". هذه ليست مؤامرة بالمعنى التقليدي، تتضمن اجتماعات سرية ومؤامرات شريرة. بدلاً من ذلك، إنه وهم جماعي، نظام اعتقاد مشترك يعطي الأولوية للسعي وراء مستقبل افتراضي على معالجة التحديات الواقعية والآثار الأخلاقية للذكاء الاصطناعي الذي لدينا اليوم.
إن عواقب عقلية "AGI-pilled" هذه بعيدة المدى. يتم توجيه التمويل بشكل غير متناسب نحو أبحاث الذكاء الاصطناعي العام المضاربة، غالبًا على حساب تطبيقات الذكاء الاصطناعي الأكثر عملية وفائدة. الشركات، مدفوعة بالخوف من تفويت الفرصة، تقدم ادعاءات شاذة حول قدرات الذكاء الاصطناعي الخاصة بها، مما يساهم في مناخ من الضجيج والمعلومات المضللة. يتحول التركيز من بناء أنظمة ذكاء اصطناعي مسؤولة وأخلاقية إلى مطاردة الحلم المراوغ لآلة يمكنها التفكير مثل الإنسان.
توضح الدكتورة آنيا شارما، وهي خبيرة رائدة في أخلاقيات الذكاء الاصطناعي في جامعة ستانفورد: "المشكلة ليست في أن الذكاء الاصطناعي العام مستحيل". "المشكلة هي أن السعي الدؤوب لتحقيقه يشوه المجال بأكمله. نحن نركز بشدة على بناء ذكاء 'عام' لدرجة أننا نهمل الذكاءات المحددة التي يمكن أن تحل المشكلات الملحة في الرعاية الصحية وتغير المناخ والتعليم."
يتعمق الكتاب الإلكتروني في الطرق التي اختطف بها هذا الهوس بالذكاء الاصطناعي العام الصناعة. ويسلط الضوء على أمثلة للشركات التي تبالغ في قدرات الذكاء الاصطناعي الخاصة بها لجذب الاستثمار، والباحثين الذين يعطون الأولوية للمنشورات المتعلقة بالذكاء الاصطناعي العام على العمل الأكثر عملية، وصناع السياسات الذين يكافحون لتنظيم التكنولوجيا التي يتم إعادة تعريفها باستمرار من خلال الضجيج المحيط بها.
أحد الأمثلة البارزة بشكل خاص هو حالة شركة ناشئة بارزة في مجال الذكاء الاصطناعي ادعت أنها على وشك تحقيق الذكاء الاصطناعي العام. جمعت الشركة مئات الملايين من الدولارات بناءً على هذا الوعد، وجذبت أفضل المواهب وأثارت ضجة إعلامية كبيرة. ومع ذلك، كشفت عمليات التدقيق المستقلة لاحقًا أن تكنولوجيا الشركة كانت أقل تقدمًا بكثير مما هو مزعوم، حيث اعتمدت بشكل كبير على المدخلات البشرية والتسويق الذكي لخلق وهم الذكاء.
إن "مؤامرة الذكاء الاصطناعي العام" لها أيضًا آثار كبيرة على المجتمع. إن الخوف من سيطرة الآلات فائقة الذكاء على العالم، والذي غالبًا ما يغذيه التغطية الإعلامية المثيرة، يصرف الانتباه عن المخاوف الأكثر إلحاحًا وإلحاحًا المحيطة بالتحيز في الذكاء الاصطناعي، وإزاحة الوظائف، وخصوصية البيانات.
تجادل الدكتورة شارما: "نحن بحاجة إلى تغيير السرد". "بدلاً من القلق بشأن سكاى نت، يجب أن نركز على المخاطر الحقيقية والحالية لأنظمة الذكاء الاصطناعي التي تديم التمييز وتتلاعب بالرأي العام وتؤدي إلى تآكل خصوصيتنا."
كما يختتم الكتاب الإلكتروني، فإن التصحيح الكبير للضجيج الإعلامي حول الذكاء الاصطناعي لعام 2025 يجبر على إجراء حسابات. إن إدراك أن الذكاء الاصطناعي العام ليس قاب قوسين أو أدنى يدفع إلى إعادة تقييم الأولويات وتركيز متجدد على تطوير الذكاء الاصطناعي المسؤول. التحدي الآن هو التعلم من أخطاء الماضي وبناء مستقبل للذكاء الاصطناعي يفيد البشرية جمعاء، وليس فقط قلة مختارة يطاردون سرابًا تكنولوجيًا. يعتمد مستقبل الذكاء الاصطناعي على تجاوز مؤامرة الذكاء الاصطناعي العام وتبني رؤية أكثر واقعية وأخلاقية وواقعية.
Discussion
Join the conversation
Be the first to comment