أطلقت xAI خدمتي Grok Business و Grok Enterprise، وهما فئتان جديدتان من مساعدها الذكي المصمم للاستخدام المؤسسي، وسط جدل مستمر يحيط بالصور المزيفة العميقة (deepfakes) التي تم إنشاؤها دون موافقة باستخدام النشر العام للمنصة. توفر عروض المؤسسات الجديدة وصولاً قابلاً للتطوير إلى نماذج الذكاء الاصطناعي المتقدمة من xAI، بما في ذلك Grok 3 و Grok 4 و Grok 4 Heavy، والتي تدعي الشركة أنها عالية الأداء وفعالة من حيث التكلفة.
تهدف Grok Business، بسعر 30 دولارًا للمقعد الواحد شهريًا، إلى تزويد الفرق بإمكانية الوصول الآمن إلى قدرات Grok، بينما توفر Grok Enterprise عناصر تحكم إدارية محسّنة وضمانات للخصوصية وطبقة عزل ممتازة تسمى Enterprise Vault. وفقًا لـ xAI، تم تصميم هذه الميزات لتلبية متطلبات الأمان والامتثال الصارمة للمؤسسات الكبيرة.
ومع ذلك، فإن الإطلاق يخيم عليه انتقادات تتعلق بالإصدار العام من Grok، والذي تورط في إنشاء ونشر صور تم التلاعب بها بالذكاء الاصطناعي دون موافقة، لا سيما فيما يتعلق بالنساء والمؤثرين والقاصرين. وقد أدى ذلك إلى رد فعل عنيف من الجمهور وتدقيق تنظيمي وأثار تساؤلات حول قدرة xAI على تنفيذ ضمانات كافية.
تسلط هذه القضية الضوء على التحديات الأخلاقية المعقدة المرتبطة بالذكاء الاصطناعي التوليدي. يمكن استخدام الصور المزيفة العميقة (deepfakes)، أو الوسائط الاصطناعية التي تم إنشاؤها باستخدام الذكاء الاصطناعي، لنشر معلومات مضللة وتشويه السمعة وحتى التسبب في ضائقة عاطفية للأفراد المصورين دون موافقتهم. تؤكد الحادثة على الحاجة إلى سياسات قوية للإشراف على المحتوى وحلول تكنولوجية للكشف عن ومنع إنشاء وتوزيع الصور المزيفة العميقة الضارة.
كتب كارل فرانزن في VentureBeat: "لن يكون إطلاقًا جديدًا لـ xAI بدون جدل آخر يمكن تجنبه ينتقص من الميزات الجديدة القوية والمفيدة المحتملة للمؤسسات."
يثير الوضع أيضًا أسئلة أوسع حول مسؤولية مطوري الذكاء الاصطناعي عن توقع وتخفيف سوء الاستخدام المحتمل لتقنياتهم. مع ازدياد قوة نماذج الذكاء الاصطناعي وإمكانية الوصول إليها، يزداد خطر التطبيقات الخبيثة، مما يتطلب من المطورين إعطاء الأولوية للسلامة والاعتبارات الأخلاقية.
لا يزال المشهد التنظيمي المحيط بالصور المزيفة العميقة (deepfakes) قيد التطور. تدرس العديد من الولايات القضائية أو نفذت بالفعل تشريعات لمعالجة إنشاء وتوزيع الوسائط الاصطناعية غير التوافقية. غالبًا ما تركز هذه القوانين على محاسبة الأفراد عن إنشاء أو مشاركة الصور المزيفة العميقة بنية خبيثة.
لم تصدر xAI بعد بيانًا شاملاً يتناول الادعاءات المحددة المتعلقة بالصور المزيفة العميقة غير التوافقية. من المرجح أن تتم مراقبة استجابة الشركة للجدل وجهودها لتنفيذ ضمانات أقوى عن كثب من قبل المنظمين وجماعات المناصرة والجمهور. قد يعتمد النجاح المستقبلي لـ Grok Business و Grok Enterprise على قدرة xAI على استعادة الثقة وإظهار الالتزام بتطوير الذكاء الاصطناعي بشكل مسؤول.
Discussion
Join the conversation
Be the first to comment