على مدى عقدين تقريبًا، اعتاد الأفراد الذين يعانون من أعراض طبية جديدة على اللجوء إلى البحث عبر الإنترنت، وهي ممارسة غالبًا ما يطلق عليها بازدراء "دكتور جوجل". هذا النهج يتطور الآن حيث يسعى الكثيرون للحصول على معلومات طبية من نماذج اللغة الكبيرة (LLMs). تفيد OpenAI أن 230 مليون شخص يطرحون استفسارات متعلقة بالصحة على ChatGPT كل أسبوع، مما يمهد الطريق للإطلاق الأخير لمنتج ChatGPT Health من OpenAI في وقت سابق من هذا الشهر.
تزامن ظهور ChatGPT Health مع تقرير من SFGate يفصل وفاة سام نيلسون، وهو مراهق تناول جرعة زائدة بعد استشارة ChatGPT حول الجمع بين الأدوية. دفعت هذه الأخبار الصحفيين إلى التشكيك في سلامة الاعتماد على أدوات الذكاء الاصطناعي للحصول على المشورة الطبية. على الرغم من كونه ميزة منفصلة داخل ChatGPT، فإن ChatGPT Health ليس نموذج ذكاء اصطناعي جديدًا، بل هو تطبيق موجه للنماذج الحالية، ومجهز بأدوات لتقديم المشورة الصحية، بما في ذلك الوصول إلى السجلات الطبية الإلكترونية للمستخدمين.
عكس صعود "دكتور جوجل" الرغبة في الحصول على معلومات صحية متاحة بسهولة، ولكنه طرح أيضًا تحديات، بما في ذلك انتشار المعلومات المضللة واحتمال التشخيص الخاطئ. تهدف نماذج اللغة الكبيرة مثل ChatGPT Health إلى تحسين ذلك من خلال توفير معلومات أكثر تنظيماً وربما شخصية. ومع ذلك، فإن الحادث الذي تورط فيه سام نيلسون يسلط الضوء على الحاجة الماسة إلى الحذر والرقابة.
يؤكد الخبراء على أنه في حين أن الذكاء الاصطناعي يمكن أن يساعد في الرعاية الصحية، إلا أنه لا ينبغي أن يحل محل المشورة الطبية المهنية. إن دمج السجلات الطبية الإلكترونية يثير مخاوف تتعلق بالخصوصية ويتطلب تدابير قوية لحماية البيانات. لا تزال الآثار الطويلة الأجل للاعتماد على الذكاء الاصطناعي للحصول على معلومات صحية تتكشف، مما يتطلب تقييمًا مستمرًا لتأثيره على نتائج المرضى وأنظمة الرعاية الصحية.
ذكرت OpenAI أن ChatGPT Health مصمم لتعزيز الرعاية الطبية التقليدية، وليس استبدالها. تعمل الشركة على تحسين دقة وأمان الأداة، لكن الحادث الذي تورط فيه سام نيلسون يؤكد أهمية المراقبة المستمرة والاعتبارات الأخلاقية في تطوير ونشر الذكاء الاصطناعي في الرعاية الصحية. من المحتمل أن تركز التطورات المستقبلية على تعزيز قدرة الأداة على توفير معلومات طبية موثوقة وآمنة مع معالجة مخاوف الخصوصية والأخلاق.
Discussion
Join the conversation
Be the first to comment