وفقًا لـ OpenAI، يتوجه ما يقدر بنحو 230 مليون شخص أسبوعيًا إلى ChatGPT للحصول على معلومات متعلقة بالصحة. تأتي هذه الزيادة في الاستفسارات الطبية المدفوعة بالذكاء الاصطناعي في الوقت الذي أطلقت فيه OpenAI مؤخرًا منتجها ChatGPT Health في وقت سابق من هذا الشهر، مما أثار تساؤلات حول الفوائد والمخاطر المحتملة لاستخدام نماذج اللغة الكبيرة (LLMs) للحصول على إرشادات الرعاية الصحية.
يمثل الاعتماد المتزايد على الذكاء الاصطناعي للحصول على المعلومات الطبية تحولًا من عمليات البحث التقليدية عبر الإنترنت، والتي غالبًا ما يشار إليها باسم "دكتور جوجل"، حيث يقوم الأفراد بتشخيص أنفسهم بناءً على نتائج محرك البحث. الآن، يختار الكثيرون سؤال نماذج اللغة الكبيرة مثل ChatGPT عن أعراضهم وعلاجاتهم المحتملة.
تدور المناقشة المركزية حول ما إذا كان يمكن التخفيف بشكل كافٍ من المخاطر الكامنة في استخدام الذكاء الاصطناعي للاستعلامات الصحية لضمان تأثير إيجابي صافٍ على النتائج الصحية للأفراد. يوازن الخبراء بين سهولة الوصول إلى المعلومات الصحية المدفوعة بالذكاء الاصطناعي وإمكانية وجود أخطاء وتحيزات وتفسيرات خاطئة.
في غضون ذلك، في الولايات المتحدة، أصبحت مسألة تنظيم الذكاء الاصطناعي قضية خلافية. تصاعدت التوترات في أواخر عام 2025، وبلغت ذروتها بتوقيع الرئيس دونالد ترامب على أمر تنفيذي في 11 ديسمبر يهدف إلى الحد من قدرة الولايات على تنظيم صناعة الذكاء الاصطناعي. جاء هذا الإجراء بعد محاولتين فاشلتين من قبل الكونجرس لتمرير قانون من شأنه أن يحل محل اللوائح التنظيمية للذكاء الاصطناعي على مستوى الولاية.
يعكس الأمر التنفيذي انقسامًا متزايدًا بين السلطات الفيدرالية وسلطات الولايات فيما يتعلق بالمستوى المناسب من الرقابة على الذكاء الاصطناعي. يجادل مؤيدو التدخل الفيدرالي من أجل إطار عمل وطني موحد لتجنب مشهد تنظيمي مجزأ يمكن أن يعيق الابتكار. في المقابل، يؤكد أنصار سيطرة الولايات على الحاجة إلى لوائح تنظيمية محلية مصممة خصيصًا للمخاوف والأولويات الإقليمية المحددة. يسلط هذا الصراع الضوء على التحديات المعقدة المتمثلة في حكم تكنولوجيا سريعة التطور ذات آثار مجتمعية واسعة النطاق.
Discussion
Join the conversation
Be the first to comment