تشهد وكلاء الذكاء الاصطناعي تطورًا سريعًا، مع ظهور أدوات جديدة يمكن أن تحدث ثورة في جوانب مختلفة من الحياة، ولكنها قد تطرح أيضًا تحديات جديدة. تشمل التطورات الأخيرة تقدمًا في تنسيق المهام المدعوم بالذكاء الاصطناعي، ونماذج ترميز جديدة، وتهديدات أمنية ناشئة، وفقًا لمصادر إخبارية متعددة.
تم تقديم منسق مهام LLM 7B محلي وغير متصل بالإنترنت، يسمى Resilient Workflow Sentinel، على GitHub، وهو مصمم لتحليل الإلحاح ومناقشة المهام وموازنة أعباء العمل. يشتمل النظام، الذي يعمل على وحدات معالجة الرسومات RTX 3080/4090، على "وضع الفوضى"، وفقًا لـ Hacker News (المصدر 1). يتماشى هذا التطور مع اتجاه أوسع لوكلاء الذكاء الاصطناعي الذين "يبنون البرامج ويحلون المشكلات وحتى يتحدثون مع بعضهم البعض"، كما وصفت Vox (المصدر 2).
أصدرت OpenAI نموذج الترميز الجديد GPT-5.3-Codex، وهو متاح من خلال واجهات مختلفة، بما في ذلك تطبيق سطح المكتب macOS. يتفوق هذا النموذج على سابقيه في العديد من المعايير، مما يؤكد دوره كأداة شاملة لتطوير البرامج، تتجاوز إنشاء التعليمات البرمجية لتشمل تصحيح الأخطاء والنشر ومهام دورة الحياة الأخرى، وفقًا لـ Ars Technica (المصدر 5). يعد التحديث أيضًا بأداء أسرع للمستخدمين.
ومع ذلك، فإن التقدم السريع للذكاء الاصطناعي يجلب أيضًا مخاوف أمنية جديدة. اكتشف باحث أمني ثغرة أمنية RCE خطيرة في برنامج AutoUpdate الخاص بشركة AMD، بينما ورد أن جامعة La Sapienza في روما واجهت هجومًا محتملاً لبرامج الفدية، وفقًا لـ Hacker News (المصدر 4). علاوة على ذلك، تستهدف سلسلة هجمات جديدة، وهي IAM pivot، المطورين بحزم ضارة لسرقة بيانات اعتماد السحابة، مما يسهل سرقة العملات المشفرة والعمليات غير المكتشفة.
إن ظهور وكلاء الذكاء الاصطناعي ونماذج الترميز المتقدمة يخلق "لحظة ChatGPT"، وفقًا لـ Vox (المصدر 2)، ولكن هذه المرة، ينصب التركيز على الأدوات التي يمكنها أداء مهام معقدة. في حين أن هذه التطورات توفر إمكانات كبيرة، إلا أنها تسلط الضوء أيضًا على الحاجة إلى تدابير أمنية قوية للتخفيف من المخاطر المرتبطة بهذه التقنيات الجديدة القوية.
Discussion
AI Experts & Community
Be the first to comment