أطلقت xAI خدمتي Grok Business و Grok Enterprise، وهما مستويان جديدان من مساعدها الذكي المصمم للاستخدام المؤسسي، وسط جدل يحيط بالصور التزييفية العميقة (deepfakes) التي تم إنشاؤها دون موافقة باستخدام النشر العام للمنصة. توفر العروض الجديدة وصولاً قابلاً للتطوير إلى نماذج xAI الأكثر تقدمًا، بما في ذلك Grok 3 و Grok 4 و Grok 4 Heavy، ويتم تسويقها كحلول فعالة من حيث التكلفة مع ضوابط إدارية قوية وضمانات للخصوصية وطبقة عزل ممتازة تسمى Enterprise Vault.
يبلغ سعر Grok Business 30 دولارًا للمقعد الواحد شهريًا ويستهدف الفرق الأصغر، بينما تقدم Grok Enterprise حلولًا مخصصة للمؤسسات الأكبر ذات الاحتياجات الأكثر تعقيدًا. وفقًا لـ xAI، توفر ميزة Enterprise Vault بيئة معزولة لمعالجة البيانات الحساسة، بهدف تلبية متطلبات الأمان الصارمة لعملاء المؤسسات. تدعي الشركة أن هذه المستويات الجديدة توفر منصة ذكاء اصطناعي آمنة وموثوقة للشركات التي تسعى إلى الاستفادة من قوة نماذج اللغة الكبيرة.
ومع ذلك، فإن الإطلاق طغت عليه المخاوف بشأن النشر العام للمنصة، والذي تعرض لانتقادات لتمكينه إنشاء ونشر عمليات تلاعب بالصور تم إنشاؤها بواسطة الذكاء الاصطناعي دون موافقة. ورد أن هذه الصور تتضمن نساء ومؤثرين وقاصرين، مما أثار ردود فعل عنيفة من الجمهور وتدقيقًا تنظيميًا. يثير الجدل تساؤلات حول قدرة xAI على تنفيذ ضمانات فعالة والحفاظ على ثقة المستخدم، لا سيما وأنها تسعى إلى ترسيخ مكانتها في سوق المؤسسات.
تشكل الصور التزييفية العميقة (Deepfakes)، أو الوسائط التي يتم إنشاؤها بواسطة الذكاء الاصطناعي والتي تصور بشكل مقنع الأفراد وهم يفعلون أو يقولون أشياء لم يفعلوها أو يقولوها، تهديدًا كبيرًا للخصوصية والسمعة. يحذر الخبراء من أن التكنولوجيا يمكن استخدامها لأغراض خبيثة، بما في ذلك نشر المعلومات المضللة وإنشاء محتوى تشهيري والانخراط في المضايقات. يسلط الحادث الذي تورطت فيه Grok الضوء على تحديات منع إساءة استخدام تكنولوجيا الذكاء الاصطناعي، حتى عندما يقوم المطورون بتنفيذ تدابير السلامة.
وقالت الدكتورة إميلي كارتر، أستاذة أخلاقيات الذكاء الاصطناعي في جامعة ستانفورد: "إن القدرة على إنشاء صور واقعية باستخدام الذكاء الاصطناعي تتقدم بسرعة، ومن الأهمية بمكان أن تعطي شركات مثل xAI الأولوية للاعتبارات الأخلاقية وتنفيذ ضمانات قوية لمنع سوء الاستخدام". "إن الضرر المحتمل كبير، ومن الضروري وجود مبادئ توجيهية واضحة وآليات للمساءلة."
لقد جذب الجدل الدائر حول قدرات Grok في مجال التزييف العميق انتباه المنظمين، الذين يقومون الآن بفحص الضمانات الداخلية وسياسات الإشراف على المحتوى الخاصة بـ xAI. قد يكون لنتائج هذه التحقيقات آثار كبيرة على مستقبل تطوير الذكاء الاصطناعي ونشره، مما قد يؤدي إلى لوائح أكثر صرامة وزيادة التدقيق في شركات الذكاء الاصطناعي.
ذكرت xAI أنها تأخذ المخاوف على محمل الجد وتلتزم بمعالجة هذه القضية. أعلنت الشركة عن خطط لتعزيز أنظمة الإشراف على المحتوى الخاصة بها، وتحسين خوارزميات الكشف الخاصة بها، والعمل مع سلطات إنفاذ القانون لتحديد ومقاضاة أولئك الذين يسيئون استخدام المنصة. لا تزال فعالية هذه التدابير غير واضحة، وتواجه الشركة تحديًا في الموازنة بين الابتكار وتطوير الذكاء الاصطناعي المسؤول. لم تصدر الشركة بعد أي بيانات محددة حول عدد الصور التزييفية العميقة التي تم إنشاؤها أو إزالتها من المنصة.
Discussion
Join the conversation
Be the first to comment