أوقفت OpenAI الوصول إلى نموذج GPT-4o الخاص بها في أعقاب شكاوى المستخدمين والتحديات القانونية، بينما تعرض جهاز الكمبيوتر المحمول الخاص بمراسل بي بي سي للاختراق من خلال منصة ترميز الذكاء الاصطناعي، مما يسلط الضوء على المخاوف المتزايدة بشأن أمن الذكاء الاصطناعي والآثار الأخلاقية. هذه التطورات، التي أوردتها مصادر متعددة بما في ذلك TechCrunch و BBC، تؤكد التطور السريع للذكاء الاصطناعي والتحديات التي تواجه إدارة المخاطر المحتملة.
يعكس قرار OpenAI بسحب نموذج GPT-4o، على الرغم من انخفاض نسب الاستخدام، الاعتبارات الأخلاقية المعقدة المحيطة بتطوير ونشر نماذج الذكاء الاصطناعي، وفقًا لـ TechCrunch. جاءت هذه الخطوة استجابة لشكاوى المستخدمين والتحديات القانونية المتعلقة بسلوك النموذج.
في الوقت نفسه، تعرض جهاز الكمبيوتر المحمول الخاص بمراسل بي بي سي للاختراق بنجاح من خلال Orchids، وهي منصة ترميز ذكاء اصطناعي يستخدمها مليون مستخدم، بمن فيهم شركات كبرى. كشفت هذه الحادثة، التي أوردتها بي بي سي، عن ثغرة أمنية سيبرانية كبيرة في أداة "vibe-coding"، والتي تسمح للمستخدمين الذين ليس لديهم خبرة في الترميز ببناء التطبيقات. أعرب الخبراء عن قلقهم بشأن تداعيات هذه الثغرة الأمنية، نظرًا للاستخدام الواسع النطاق للمنصة وعدم استجابة الشركة.
تشكل هذه الأحداث جزءًا من اتجاه أوسع للمخاوف الأمنية السيبرانية والمناقشات الأخلاقية المحيطة بالذكاء الاصطناعي. كما ورد في Hacker News، ساهمت تقلبات السوق في العملات المشفرة، بما في ذلك تعليق BlockFills، أيضًا في أخبار الأسبوع. علاوة على ذلك، أثار إصدار نموذج اللغة M2.5 مفتوح المصدر لشركة MiniMax الناشئة الصينية في مجال الذكاء الاصطناعي مناقشات حول طبيعة البرامج مفتوحة المصدر وتوقعات المستخدمين، مع التأكيد على أن المستخدمين غير مؤهلين للتأثير أو المطالبة بالتغييرات داخل مشاريع مفتوحة المصدر.
في أخبار ذات صلة، ألغت شركة Amazon's Ring شراكتها مع Flock Safety، وهي شركة كاميرات مراقبة مدعومة بالذكاء الاصطناعي، بعد أن خططت في البداية للسماح لمستخدمي Ring بمشاركة اللقطات مع وكالات إنفاذ القانون. جاء هذا القرار، الذي أوردته TechCrunch، في أعقاب المخاوف العامة والجدل المحيط بميزات Ring المدعومة بالذكاء الاصطناعي، مثل ميزة "Search Party" وإمكانية التحيز العنصري في المراقبة المدعومة بالذكاء الاصطناعي.
في خضم هذه التطورات، يوفر ظهور مشاريع مثل IronClaw، وهو مساعد ذكاء اصطناعي مفتوح المصدر يركز على الخصوصية والأمان، نهجًا بديلاً. IronClaw، كما هو موضح في Hacker News، مبني على مبدأ أن مساعد الذكاء الاصطناعي يجب أن يعمل من أجل المستخدم، وليس ضده، مع تخزين جميع البيانات محليًا ومشفرة وعدم مغادرتها أبدًا سيطرة المستخدم.
Discussion
AI Experts & Community
Be the first to comment