أحدث التطورات في الذكاء الاصطناعي والمخاوف الأمنية تسلط الضوء عليها التقارير الحديثة
تسلط مجموعة من التقارير والإصدارات الحديثة من قطاع الذكاء الاصطناعي الضوء على كل من التطورات السريعة في قدرات نماذج الذكاء الاصطناعي والتحديات الأمنية الناشئة المصاحبة لها. من معالجة المستندات المحسنة إلى وكلاء الذكاء الاصطناعي مفتوحة المصدر، يتطور المشهد بسرعة، مما يتطلب اهتمامًا من المطورين والمؤسسات والمتخصصين في الأمن على حد سواء.
أصدر مختبر الذكاء الاصطناعي Arcee، ومقره سان فرانسيسكو، أكبر نموذج لغوي مفتوح له حتى الآن، Trinity Large، وهو مزيج من الخبراء (MoE) يضم 400 مليار معلمة. وفقًا لتقرير VentureBeat، النموذج متاح في نسخة تجريبية. وإلى جانب ذلك، أصدرت Arcee أيضًا Trinity-Large-TrueBase، وهو نموذج نقطة تفتيش "خام"، مما يسمح للباحثين بدراسة تعقيدات MoE متفرقة تضم 400 مليار معلمة. وأشار كارل فرانزن من VentureBeat إلى أن Arcee أحدثت ضجة العام الماضي لكونها واحدة من الشركات الأمريكية الوحيدة التي تدرب نماذج لغوية كبيرة (LLMs) من الصفر وتصدرها بموجب تراخيص مفتوحة المصدر أو مفتوحة المصدر جزئيًا.
وفي الوقت نفسه، لا تزال التحديات قائمة في الاستخدام الفعال للذكاء الاصطناعي لتحليل المستندات المعقدة. غالبًا ما تكافح أنظمة الاسترجاع المعزز (RAG) القياسية مع المستندات المتطورة، وتعاملها على أنها سلاسل نصية مسطحة وتستخدم "تقسيم ثابت الحجم"، وفقًا لـ VentureBeat. هذه الطريقة، على الرغم من ملاءمتها للنثر، يمكن أن تعطل منطق الأدلة الفنية عن طريق قطع الجداول والتسميات التوضيحية والتسلسلات الهرمية المرئية. أفاد بن ديكسون من VentureBeat أن إطار عمل جديد مفتوح المصدر يسمى PageIndex يعالج هذه المشكلة من خلال التعامل مع استرجاع المستندات كمشكلة تنقل بدلاً من مشكلة بحث، مما يحقق معدل دقة يبلغ 98.7٪ على المستندات التي يفشل فيها البحث المتجه.
ومع ذلك، فإن صعود الذكاء الاصطناعي الوكيلي يمثل أيضًا مخاطر أمنية كبيرة. وصل OpenClaw، مساعد الذكاء الاصطناعي مفتوح المصدر، إلى 180,000 نجمة على GitHub وجذب 2 مليون زائر في أسبوع واحد، وفقًا للمنشئ Peter Steinberger. أفاد لويس كولومبوس من VentureBeat أن باحثي الأمن وجدوا أكثر من 1800 حالة مكشوفة تسرب مفاتيح API وسجلات الدردشة وبيانات اعتماد الحساب. هذا يسلط الضوء على كيف يمكن لحركة الذكاء الاصطناعي الوكيلي الشعبية أن تصبح سطح هجوم غير مُدار، وغالبًا ما يكون غير مرئي لأدوات الأمان التقليدية، خاصةً عندما يعمل الوكلاء على أجهزة BYOD.
يتطور أيضًا تطوير وكلاء الترميز، حيث يستكشف المطورون مناهج بسيطة وقائمة على الرأي. شارك أحد المطورين تجربته في بناء مثل هذا الوكيل، مع التركيز على مطالبات النظام البسيطة ومجموعات الأدوات، والتخلي عن ميزات مثل قوائم المهام وأوضاع الخطة المضمنة، كما ورد في Hacker News.
تؤكد هذه التطورات على الحاجة إلى اتباع نهج متعدد الأوجه لتبني الذكاء الاصطناعي، والموازنة بين الابتكار والتدابير الأمنية القوية ومعالجة القيود المفروضة على أنظمة الذكاء الاصطناعي الحالية في التعامل مع المعلومات المعقدة.
Discussion
AI Experts & Community
Be the first to comment