الذكاء الاصطناعي يتقدم في مواجهة تحديات الاحتيال والتعرف على الكلام
نيويورك - 10 فبراير 2026 - يحقق الذكاء الاصطناعي تقدمًا كبيرًا في كل من كشف الاحتيال والتعرف على الكلام، مع نماذج جديدة تقدم سرعة وكفاءة مثيرة للإعجاب. تستخدم منصة Decision Intelligence Pro (DI Pro) من ماستركارد الذكاء الاصطناعي لتحليل المعاملات الفردية وتحديد الأنشطة المشبوهة في أجزاء من الثانية، بينما تمكن مشاريع المصادر المفتوحة من إمكانيات تحويل الكلام إلى نص في الوقت الفعلي.
تم تصميم منصة DI Pro من ماستركارد، وهي منصة رائدة لمكافحة الاحتيال، لمواجهة التطور المتزايد للاحتيال المالي. وفقًا لـ Johan Gerber من ماستركارد، تركز المنصة على تقييم المخاطر المرتبطة بكل معاملة. هذا أمر بالغ الأهمية نظرًا لحجم عمليات ماستركارد، والتي تعالج ما يقرب من 160 مليار معاملة سنويًا، مع ذروة تصل إلى 70000 معاملة في الثانية خلال فترات الازدحام مثل موسم العطلات في ديسمبر (VentureBeat).
في الوقت نفسه، تظهر تطورات في التعرف على الكلام. يتم تنفيذ نموذج Voxtral Realtime 4B من Mistral AI بأشكال مختلفة. أحد الأمثلة هو تطبيق Rust خالص باستخدام إطار عمل Burn ML، يسمى Voxtral Mini 4B Realtime، والذي يمكن تشغيله من جانب العميل في علامة تبويب المتصفح عبر WASM و WebGPU (Hacker News). مثال آخر هو تطبيق C لخط أنابيب الاستدلال لنفس النموذج، تم تطويره بواسطة antirez، والذي لا يحتوي على أي تبعيات خارجية تتجاوز مكتبة C القياسية (Hacker News). يوفر تطبيق C هذا واجهة برمجة تطبيقات (API) للتدفق، مما يسمح بإدخال صوتي تدريجي وإخراج سلسلة رموز.
يتطلب نموذج Voxtral Mini 4B Realtime، عند استخدام مسار Q4 GGUF الكمي، 2.5 جيجابايت فقط ويمكنه نسخ الملفات الصوتية. يمكن لـ CLI الأصلي تنزيل أوزان النموذج (9 جيجابايت) ونسخ الملفات الصوتية. يسمح تطبيق C أيضًا بإدخال الصوت من stdin أو مباشرة من الميكروفون، مما يسهل تحويل أي تنسيق ونسخه عبر ffmpeg (Hacker News).
تسلط هذه التطورات الضوء على التطور المستمر للذكاء الاصطناعي، مع تطبيقات تتراوح من الأمن المالي إلى التعرف على الكلام الذي يمكن الوصول إليه. في حين تركز منصة DI Pro من ماستركارد على الحماية من الاحتيال، تُظهر مشاريع مثل Voxtral إمكانات مبادرات المصادر المفتوحة لتوفير أدوات ذكاء اصطناعي قوية.
في أخبار ذات صلة، يتم إجراء بحث حول تقييم انتهاكات القيود القائمة على النتائج في وكلاء الذكاء الاصطناعي المستقلين. يتم تطوير معيار لتقييم سلامة وتوافق هؤلاء الوكلاء مع القيم الإنسانية، وهو مصدر قلق بالغ الأهمية مع نشر أنظمة الذكاء الاصطناعي في بيئات عالية المخاطر (Hacker News).
Discussion
AI Experts & Community
Be the first to comment