يعتقد الأطباء أن الذكاء الاصطناعي له دور في الرعاية الصحية، لكنهم يعربون عن حذرهم بشأن استخدامه كـ "شات بوت"، مشيرين إلى حالات لنصائح طبية غير دقيقة. وروى الدكتور سينا باري، وهو جراح ممارس وقائد في مجال الذكاء الاصطناعي في الرعاية الصحية في شركة البيانات iMerit، تجربة حيث طعن مريض في دواء وصفه له، وقدم معلومات من ChatGPT تدعي وجود خطر بنسبة 45٪ للإصابة بالانسداد الرئوي.
اكتشف الدكتور باري أن الإحصائية نشأت من دراسة تركز على مجموعة فرعية معينة من مرضى السل، مما يجعلها غير ذات صلة بحالة مريضه. وعلى الرغم من هذا القلق، أعرب الدكتور باري عن تفاؤله بشأن إعلان OpenAI الأخير عن ChatGPT Health، وهو "شات بوت" مخصص مصمم للمحادثات المتعلقة بالصحة مع خصوصية معززة.
يهدف ChatGPT Health إلى توفير بيئة أكثر أمانًا للمستخدمين لمناقشة مخاوفهم الصحية، مما يضمن عدم استخدام رسائلهم لتدريب نموذج الذكاء الاصطناعي الأساسي. وقال الدكتور باري: "أعتقد أنه أمر رائع". "إنه شيء يحدث بالفعل، لذا فإن إضفاء الطابع الرسمي عليه لحماية معلومات المرضى ووضع بعض الضمانات حوله سيجعله أكثر قوة للمرضى لاستخدامه".
يعترف المجتمع الطبي بالفوائد المحتملة للذكاء الاصطناعي في الرعاية الصحية، مثل التوجيه الشخصي وتحسين الوصول إلى المعلومات. ومع ذلك، يؤكد الخبراء على أهمية التحقق من المعلومات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي مع متخصصي الرعاية الصحية المؤهلين. ينبع القلق من احتمال قيام نماذج الذكاء الاصطناعي بتفسير البيانات بشكل خاطئ أو تقديم نصائح غير قابلة للتطبيق على الحالة الطبية المحددة للفرد.
يمثل ChatGPT Health، المتوقع إطلاقه في الأسابيع المقبلة، جهدًا لمعالجة هذه المخاوف من خلال إنشاء بيئة أكثر تحكمًا وخصوصية لتفاعلات الذكاء الاصطناعي المتعلقة بالصحة. تم تصميم المنصة لتقديم إرشادات مخصصة مع حماية معلومات المرضى. يمثل هذا التطور خطوة نحو دمج الذكاء الاصطناعي في الرعاية الصحية بمسؤولية، مع التركيز على الدقة وسلامة المرضى.
Discussion
Join the conversation
Be the first to comment