وفقًا لـ OpenAI، يستخدم ما يقدر بنحو 230 مليون شخص ChatGPT أسبوعيًا لطرح أسئلة متعلقة بالصحة. تأتي هذه الزيادة في الاستفسارات الصحية المدفوعة بالذكاء الاصطناعي في الوقت الذي أطلقت فيه OpenAI مؤخرًا منتجها ChatGPT Health في وقت سابق من هذا الشهر، مما أثار تساؤلات حول الفوائد والمخاطر المحتملة لاستخدام نماذج اللغة الكبيرة (LLMs) للحصول على معلومات طبية.
على مدار عقدين من الزمن، لجأ الأفراد الذين يعانون من أعراض طبية جديدة بشكل شائع إلى الإنترنت للحصول على المعلومات، وهي ممارسة يشار إليها غالبًا باسم "دكتور جوجل". الآن، أصبحت نماذج اللغة الكبيرة (LLMs) بشكل متزايد مصدرًا للاستعلامات المتعلقة بالصحة، مما أثار نقاشًا حول ما إذا كان يمكن التخفيف من المخاطر الكامنة في استخدام الذكاء الاصطناعي في هذا السياق بشكل كافٍ.
يحمل استخدام الذكاء الاصطناعي للحصول على معلومات صحية مخاطر محتملة، بما في ذلك توليد معلومات غير دقيقة أو مضللة. يؤكد الخبراء على أهمية التقييم الدقيق لموثوقية ودقة النصائح الصحية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.
في غضون ذلك، تواجه الولايات المتحدة صراعًا داخليًا متزايدًا بشأن تنظيم الذكاء الاصطناعي. في أواخر عام 2025، بلغت التوترات نقطة حرجة عندما فشل الكونجرس في تمرير قانون يحظر قوانين الذكاء الاصطناعي على مستوى الولايات. لاحقًا، وقع الرئيس آنذاك دونالد ترامب أمرًا تنفيذيًا في 11 ديسمبر 2025، يهدف إلى تقييد الولايات من تنظيم صناعة الذكاء الاصطناعي سريعة النمو، مما يسلط الضوء على الصراع المستمر لإنشاء نهج موحد لحوكمة الذكاء الاصطناعي في جميع أنحاء البلاد. كان الهدف من الأمر التنفيذي هو منع مجموعة متنوعة من اللوائح على مستوى الولايات والتي يمكن أن تخنق الابتكار وتخلق تحديات امتثال لشركات الذكاء الاصطناعي. أثارت هذه الخطوة جدلاً فوريًا، حيث تعهدت بعض الولايات بالطعن في الأمر في المحكمة، بحجة أنه تجاوز السلطة الفيدرالية وانتهك حقها في حماية مواطنيها من المخاطر المحتملة المرتبطة بالذكاء الاصطناعي.
Discussion
Join the conversation
Be the first to comment