أطلقت OpenAI مؤخرًا ChatGPT Health، وهو منتج جديد مصمم لتقديم المشورة الصحية، وسط مخاوف متزايدة بشأن موثوقية المعلومات الطبية المدفوعة بالذكاء الاصطناعي. يأتي ظهور ChatGPT Health، الذي حدث في وقت سابق من هذا الشهر، في الوقت الذي يستخدم فيه ما يقدر بنحو 230 مليون شخص كل أسبوع بالفعل ChatGPT للاستعلامات المتعلقة بالصحة، وفقًا لـ OpenAI.
وقد طغت على الإطلاق تقرير من SFGate يفصل وفاة المراهق سام نيلسون، الذي ورد أنه انخرط في محادثات مكثفة مع ChatGPT حول الجمع بين الأدوية قبل تناول جرعة زائدة قاتلة. وقد أثارت هذه الحادثة جدلاً بين الصحفيين والخبراء بشأن السلامة والآثار الأخلاقية للاعتماد على الذكاء الاصطناعي للحصول على إرشادات طبية.
ChatGPT Health ليس نموذجًا جديدًا للذكاء الاصطناعي، بل هو واجهة متخصصة مبنية على نماذج OpenAI الحالية. يوفر هذا "الغلاف" للذكاء الاصطناعي تعليمات وأدوات محددة لتقديم المشورة الصحية، بما في ذلك الوصول المحتمل إلى السجلات الطبية الإلكترونية للمستخدم. الهدف هو تحسين دقة وأهمية المعلومات المقدمة مقارنةً بروبوتات الدردشة التي تعمل بالذكاء الاصطناعي للأغراض العامة.
لسنوات، لجأ الأفراد إلى الإنترنت للحصول على معلومات طبية، وهي ممارسة يشار إليها غالبًا باسم "Dr. Google". ومع ذلك، فإن ظهور نماذج اللغة الكبيرة (LLMs) مثل ChatGPT يمثل فرصًا ومخاطر. في حين أن أدوات الذكاء الاصطناعي هذه يمكنها معالجة وتجميع كميات هائلة من البيانات الطبية بسرعة، إلا أنها أيضًا عرضة للأخطاء والتحيزات وتوليد نصائح مضللة أو ضارة.
تؤكد الحادثة التي تورط فيها سام نيلسون المخاطر المحتملة للاعتماد على الذكاء الاصطناعي في اتخاذ القرارات الصحية الحاسمة. يحذر الخبراء من أن النصائح الطبية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي لا ينبغي أن تحل محل الاستشارات مع متخصصي الرعاية الصحية المؤهلين. ويؤكدون على أهمية التحقق من المعلومات التي يتم الحصول عليها من أدوات الذكاء الاصطناعي من مصادر موثوقة والتماس إرشادات طبية شخصية من الأطباء ومقدمي الرعاية الصحية الآخرين.
أقرت OpenAI بالمخاوف المحيطة بالذكاء الاصطناعي والرعاية الصحية وتذكر أن ChatGPT Health مصمم مع وضع السلامة والدقة في الاعتبار. وتقول الشركة إنها ملتزمة بالتحسين المستمر للأداة ومعالجة المخاطر المحتملة. ومع ذلك، لا يزال التأثير طويل المدى لـ ChatGPT Health وأدوات طبية مماثلة مدفوعة بالذكاء الاصطناعي على المجتمع غير واضح، وهناك ما يبرر التدقيق المستمر لضمان التطوير والنشر المسؤولين.
Discussion
Join the conversation
Be the first to comment