يرى الأطباء أن للذكاء الاصطناعي دورًا يلعبه في الرعاية الصحية، لكن بعض الخبراء يحذرون من الاعتماد فقط على روبوتات الدردشة للحصول على المشورة الطبية. شارك الدكتور سينا باري، وهو جراح ممارس وقائد الذكاء الاصطناعي في مجال الرعاية الصحية في شركة البيانات iMerit، مثالاً على كيفية تزويد ChatGPT لمريض بمعلومات طبية غير دقيقة فيما يتعلق بالآثار الجانبية المحتملة لدواء ما.
وفقًا للدكتور باري، قدم المريض نسخة مطبوعة من ChatGPT تدعي أن الدواء لديه فرصة بنسبة 45٪ للتسبب في الانسداد الرئوي. وكشف مزيد من التحقيق أن الإحصائية نشأت من دراسة تركز على مجموعة فرعية معينة من مرضى السل، مما يجعلها غير ذات صلة بحالة الفرد.
على الرغم من هذه المخاوف، أعرب الدكتور باري عن تفاؤله بشأن إعلان OpenAI الأخير عن ChatGPT Health، وهو روبوت دردشة مخصص مصمم للمحادثات المتعلقة بالصحة. تهدف المنصة الجديدة إلى تزويد المستخدمين ببيئة أكثر خصوصية حيث لا يتم استخدام رسائلهم لتدريب نموذج الذكاء الاصطناعي. قال الدكتور باري: "أعتقد أنه أمر رائع". "إنه شيء يحدث بالفعل، لذا فإن إضفاء الطابع الرسمي عليه لحماية معلومات المرضى ووضع بعض الضمانات حوله سيجعله أكثر قوة للمرضى لاستخدامه."
من المتوقع أن يتم طرح ChatGPT Health في الأسابيع المقبلة، مما يوفر للمستخدمين إرشادات مخصصة. يأتي هذا التطور وسط اهتمام متزايد بإمكانات الذكاء الاصطناعي لتحسين الوصول إلى الرعاية الصحية وكفاءتها. ومع ذلك، يؤكد الخبراء على أهمية التحقق من المعلومات الطبية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي مع متخصصي الرعاية الصحية المؤهلين. تسلط الحادثة التي تورط فيها مريض الدكتور باري الضوء على المخاطر المحتملة للاعتماد على نصائح الذكاء الاصطناعي غير الموثوقة، خاصة عندما يتعلق الأمر بالأدوية وقرارات العلاج. في حين أن الذكاء الاصطناعي يمكن أن يكون أداة قيمة، إلا أنه لا ينبغي أن يحل محل خبرة وحكم الأطباء البشريين.
Discussion
Join the conversation
Be the first to comment