يشهد تطوير الذكاء الاصطناعي تقدمًا سريعًا، لكن التعاون العالمي بشأن تدابير السلامة يواجه تحديات. يسلط تقرير دولي جديد حول سلامة الذكاء الاصطناعي، صدر قبل انعقاد قمة تأثير الذكاء الاصطناعي في دلهي في الفترة من 19 إلى 20 فبراير، الضوء على الوتيرة المتزايدة لتحسين الذكاء الاصطناعي والأدلة المتزايدة على المخاطر المرتبطة به. ومع ذلك، امتنعت الولايات المتحدة عن دعم تقرير هذا العام، على عكس العام السابق، وفقًا ليوشوا بنجيو، رئيس التقرير والعالم الحائز على جائزة تورينج.
يهدف التقرير، الذي يسترشد به 100 خبير وبدعم من 30 دولة ومنظمة دولية بما في ذلك المملكة المتحدة والصين والاتحاد الأوروبي، إلى تقديم مثال للتعاون الدولي بشأن تحديات الذكاء الاصطناعي. وخلص التقرير إلى أن تقنيات إدارة المخاطر الحالية تتحسن ولكنها لا تزال غير كافية.
وفي الوقت نفسه، داخل المؤسسات، يتحول التركيز نحو التنفيذ العملي للذكاء الاصطناعي. أكد أرناب بوز، كبير مسؤولي المنتجات في أسانا، على أهمية الذاكرة المشتركة والسياق لنجاح وكلاء الذكاء الاصطناعي. وفي حديثه في فعالية VentureBeat الأخيرة في سان فرانسيسكو، ذكر بوز أن تزويد وكلاء الذكاء الاصطناعي بتاريخ مفصل ووصول مباشر، جنبًا إلى جنب مع نقاط تفتيش الحماية والإشراف البشري، يسمح لهم بالعمل كأعضاء فاعلين في الفريق. أطلقت أسانا Asana AI Teammates العام الماضي بهدف دمج الذكاء الاصطناعي مباشرة في الفرق والمشاريع.
تعمل Mistral AI أيضًا مع قادة الصناعة العالميين لتصميم حلول ذكاء اصطناعي مخصصة بشكل مشترك. وفقًا لمجلة MIT Technology Review، تتعاون Mistral AI مع شركات مثل Cisco و Stellantis و ASML لتخصيص أنظمة الذكاء الاصطناعي لمعالجة تحديات محددة. تتضمن منهجيتهم تحديد "حالة استخدام مميزة" لتكون بمثابة الأساس لحلول الذكاء الاصطناعي المستقبلية.
ومع ذلك، لا تزال المخاوف قائمة بشأن احتمال إساءة استخدام الذكاء الاصطناعي. فحصت دراسة أجراها باحثون في ستانفورد وجامعة إنديانا، سلطت عليها مجلة MIT Technology Review الضوء، سوقًا مدنيًا عبر الإنترنت مدعومًا من Andreessen Horowitz يسمح للمستخدمين بشراء ملفات تعليمات مخصصة لإنشاء صور deepfakes للمشاهير. ووجدت الدراسة أن بعض الملفات مصممة خصيصًا لإنشاء صور إباحية، على الرغم من حظر الموقع. قام الباحثون بتحليل طلبات المحتوى، التي تسمى "المكافآت"، بين منتصف عام 2023 ونهاية عام 2024.
على جبهة أخرى، يعمل المطورون على أدوات لتبسيط إدارة تكوين الذكاء الاصطناعي. ذكر Hacker News عن LNAI، وهو CLI موحد لإدارة تكوين الذكاء الاصطناعي تم تطويره بواسطة Krystian Jonca. يهدف LNAI إلى تبسيط عملية إدارة التكوينات لأدوات ترميز الذكاء الاصطناعي المختلفة من خلال السماح للمستخدمين بتحديد التكوينات مرة واحدة في ملف ".ai" ثم مزامنتها عبر أدوات مختلفة. تشمل الأدوات المدعومة Claude و Codex و Cursor و Gemini CLI و GitHub Copilot و OpenCode و Windsurf. الأداة متاحة عبر npm وتتضمن ميزات للتحقق من الصحة والتنظيف التلقائي للملفات المهجورة.
Discussion
AI Experts & Community
Be the first to comment