تخيل عالماً يكون فيه الحصول على المشورة الطبية بسيطاً مثل طرح سؤال. كانت Google، من خلال نظراتها العامة المدعومة بالذكاء الاصطناعي (AI Overviews)، تهدف إلى تقريب هذا العالم إلى الواقع. ولكن كشف تحقيق حديث عن عيب خطير: يمكن أن تكون النصائح الطبية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي مضللة بشكل خطير. الآن، سحبت Google بهدوء نظراتها العامة المدعومة بالذكاء الاصطناعي لبعض الاستعلامات المتعلقة بالصحة، مما أثار تساؤلات حول موثوقية الذكاء الاصطناعي في الرعاية الصحية ومستقبل البحث نفسه.
بدأت الحادثة بتقرير نشرته صحيفة الغارديان، سلط الضوء على عدم الدقة في نظرات Google العامة المدعومة بالذكاء الاصطناعي فيما يتعلق بنتائج اختبارات الدم الخاصة بالكبد. قدم الذكاء الاصطناعي، في محاولته لتقديم إجابات سريعة، "نطاقاً طبيعياً" معمماً لم يأخذ في الاعتبار العوامل الفردية الحاسمة مثل الجنسية والجنس والعرق والعمر. كان من الممكن أن يؤدي هذا النهج الأحادي الذي يناسب الجميع إلى قيام الأفراد بتفسير نتائج الاختبارات الخاصة بهم بشكل خاطئ، مما قد يؤخر التدخل الطبي الضروري.
تؤكد المشكلة على تحدٍ أساسي في تطبيق الذكاء الاصطناعي على المجالات المعقدة مثل الطب. يتم تدريب نماذج الذكاء الاصطناعي، حتى أكثرها تطوراً، على مجموعات بيانات ضخمة. إذا كانت مجموعات البيانات هذه تفتقر إلى الفروق الدقيقة أو التمثيل، فيمكن تحريف مخرجات الذكاء الاصطناعي، مما يؤدي إلى نصائح غير دقيقة أو حتى ضارة. في هذه الحالة، يبدو أن الذكاء الاصطناعي فشل في فهم المتغيرات المعقدة التي تؤثر على نتائج اختبارات الدم الخاصة بالكبد، مما يدل على قيود قدرة الذكاء الاصطناعي على التعميم من البيانات.
في أعقاب تقرير الغارديان، يبدو أن Google قد اتخذت إجراءات سريعة، حيث قامت بإزالة نظراتها العامة المدعومة بالذكاء الاصطناعي للاستعلامات مثل "ما هو النطاق الطبيعي لاختبارات الدم الخاصة بالكبد" و "ما هو النطاق الطبيعي لاختبارات وظائف الكبد". ومع ذلك، كما أشارت صحيفة الغارديان، وكما أكدت الاختبارات الأولية، فإن الاختلافات الطفيفة في هذه الاستعلامات، مثل "lft reference range"، لا تزال قادرة على تشغيل الملخصات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. يسلط هذا الضوء على لعبة القط والفأر الكامنة في محاولة تصحيح أنظمة الذكاء الاصطناعي: غالباً ما يكشف معالجة عيب واحد عن عيوب أخرى كامنة تحت السطح. حتى وقت كتابة هذا التقرير، يبدو أنه تمت معالجة هذه الاختلافات أيضاً، حيث غالباً ما تكون نتيجة البحث الأولى هي مقالة الغارديان التي تفصل المشكلة الأولية.
يثير هذا الحادث أسئلة أوسع حول دور الذكاء الاصطناعي في تقديم المعلومات الطبية. في حين أن الذكاء الاصطناعي يوفر إمكانية إضفاء الطابع الديمقراطي على الوصول إلى المعرفة وتمكين الأفراد من السيطرة على صحتهم، إلا أنه يحمل أيضاً مخاطر كبيرة. يمكن أن يطغى جاذبية الإجابات السريعة والسهلة على أهمية استشارة متخصصي الرعاية الصحية المؤهلين.
تقول الدكتورة إميلي كارتر، أخصائية المعلوماتية الطبية: "يمكن أن يكون الذكاء الاصطناعي أداة قوية للوصول إلى المعلومات، ولكن من الضروري أن نتذكر أنه ليس بديلاً عن الخبرة البشرية". "في الرعاية الصحية، السياق هو كل شيء. ينظر الطبيب في التاريخ الطبي الكامل للمريض ونمط حياته وظروفه الفردية قبل تقديم التشخيص أو التوصية بالعلاج. غالباً ما يفتقر الذكاء الاصطناعي، في شكله الحالي، إلى هذا المستوى من الفهم الدقيق."
تعد إزالة نظرات الذكاء الاصطناعي العامة لبعض الاستعلامات الطبية خطوة في الاتجاه الصحيح، ولكنها ليست حلاً كاملاً. لا تزال Google تتيح للمستخدمين خيار طرح نفس الاستعلام في وضع الذكاء الاصطناعي (AI Mode)، مما يشير إلى أن نموذج الذكاء الاصطناعي الأساسي لا يزال متاحاً. هذا يثير مخاوف بشأن احتمال أن يتعثر المستخدمون عن غير قصد في معلومات غير دقيقة أو مضللة.
يسلط الحادث أيضاً الضوء على أهمية الشفافية والمساءلة في تطوير الذكاء الاصطناعي. تتحمل شركات التكنولوجيا مسؤولية التأكد من أن أنظمة الذكاء الاصطناعي الخاصة بها دقيقة وموثوقة وآمنة، خاصة عند التعامل مع الموضوعات الحساسة مثل الصحة. يتطلب ذلك اختباراً صارماً ومراقبة مستمرة واستعداداً لمعالجة العيوب على الفور.
بالنظر إلى المستقبل، يتوقف مستقبل الذكاء الاصطناعي في الرعاية الصحية على معالجة هذه التحديات. تحتاج نماذج الذكاء الاصطناعي إلى التدريب على مجموعات بيانات أكثر تنوعاً وتمثيلاً، ويجب تصميمها مع التركيز بشكل أكبر على السياق والفروق الدقيقة. علاوة على ذلك، هناك حاجة إلى إرشادات ولوائح واضحة لضمان استخدام الذكاء الاصطناعي بمسؤولية وأخلاقية في أماكن الرعاية الصحية.
تعد حادثة نظرات Google العامة المدعومة بالذكاء الاصطناعي بمثابة قصة تحذيرية، تذكرنا بأن الذكاء الاصطناعي أداة قوية، ولكنه ليس حلاً سحرياً. بينما نعتمد بشكل متزايد على الذكاء الاصطناعي للحصول على المعلومات واتخاذ القرارات، من الضروري التعامل معه بجرعة صحية من الشك والالتزام بالتفكير النقدي. يجب ألا تأتي السعي للحصول على معلومات طبية يسهل الوصول إليها على حساب الدقة وسلامة المرضى.
Discussion
Join the conversation
Be the first to comment