وفقًا لـ OpenAI، يستخدم ما يقدر بنحو 230 مليون شخص ChatGPT أسبوعيًا لطرح أسئلة متعلقة بالصحة. يقدم هذا الرقم سياقًا للإطلاق الأخير لمنتج ChatGPT Health من OpenAI في وقت سابق من هذا الشهر. السؤال المركزي الذي يحيط بهذا التطور هو ما إذا كانت المخاطر الكامنة في استخدام الذكاء الاصطناعي للاستعلامات المتعلقة بالصحة يمكن تخفيفها بشكل كافٍ لتوفير فائدة صافية للمستخدمين.
على مدى العقدين الماضيين، لجأ الأفراد الذين يعانون من أعراض طبية جديدة بشكل شائع إلى الإنترنت للحصول على المعلومات، وهي ممارسة يشار إليها غالبًا باسم "دكتور جوجل". الآن، يتم استخدام نماذج اللغة الكبيرة (LLMs) بشكل متزايد للبحث عن المعلومات الطبية. يثير صعود الذكاء الاصطناعي في الرعاية الصحية مخاوف بشأن الدقة والخصوصية واحتمال التشخيص الخاطئ أو العلاج الذاتي غير المناسب.
تفيد غريس هوكينز عن الصراع المتصاعد حول تنظيم الذكاء الاصطناعي في الولايات المتحدة. وصلت المعركة إلى نقطة حرجة في الأسابيع الأخيرة من عام 2025. في 11 ديسمبر، بعد فشل الكونجرس في تمرير قانون يحظر قوانين الذكاء الاصطناعي الحكومية في مناسبتين، وقع الرئيس آنذاك دونالد ترامب أمرًا تنفيذيًا يهدف إلى منع الولايات من تنظيم صناعة الذكاء الاصطناعي سريعة النمو. يسلط هذا الإجراء الضوء على التوتر بين تعزيز الابتكار ومعالجة المخاطر المحتملة المرتبطة بتقنيات الذكاء الاصطناعي.
أثار الأمر التنفيذي جدلاً فوريًا، حيث تعهدت بعض الولايات بالطعن في شرعيته. يجادل مؤيدو التنظيم على مستوى الولاية بأن معيارًا وطنيًا موحدًا يمكن أن يخنق الابتكار ويفشل في معالجة المخاوف المحلية المحددة. في المقابل، يزعم أنصار الرقابة الفيدرالية أن مجموعة من القوانين الحكومية ستخلق ارتباكًا وتعيق تطوير تقنيات الذكاء الاصطناعي. من المتوقع أن تستمر المعارك القانونية والسياسية المحيطة بتنظيم الذكاء الاصطناعي، مما يشكل مستقبل تطوير ونشر الذكاء الاصطناعي في الولايات المتحدة.
Discussion
Join the conversation
Be the first to comment