كشفت شركة Substack في 3 فبراير 2026 عن تعرضها لاختراق بيانات في أكتوبر 2025، مما أدى إلى كشف عناوين البريد الإلكتروني وأرقام هواتف المستخدمين. ووفقًا للرئيس التنفيذي لشركة Substack، كريس بيست، تضمن الاختراق وصولًا غير مصرح به إلى البيانات الداخلية.
تقوم Substack بإخطار المستخدمين المتضررين بشأن الحادث. وذكرت الشركة أن كلمات المرور ومعلومات بطاقات الائتمان لم تتعرض للاختراق.
في أخبار تقنية أخرى، واجه مكتب التحقيقات الفيدرالي صعوبات في الوصول إلى البيانات من جهاز iPhone الخاص بمراسل في صحيفة واشنطن بوست بعد الاستيلاء على الجهاز في 14 يناير 2026. ووفقًا لملف قضائي قدمته حكومة الولايات المتحدة، كان الهاتف محميًا بواسطة "وضع الإغلاق" من Apple. وذكر موقع Ars Technica أن العملاء تمكنوا من الوصول إلى جهاز الكمبيوتر المحمول الخاص بالمراسلة من خلال جعلها تستخدم قارئ بصمات الأصابع. تم تنفيذ أمر التفتيش كجزء من تحقيق في مقاول بوزارة الدفاع متهم بتسريب معلومات سرية بشكل غير قانوني.
في غضون ذلك، أصبح التحدي المتمثل في توفير سياق ذي صلة لنماذج اللغة الكبيرة (LLMs) للتطبيقات في الوقت الفعلي واضحًا بشكل متزايد. وصف أنيربان كوندو، المدير التقني في Instacart، الأمر بأنه "مشكلة وصفة الكعكة". ووفقًا لموقع VentureBeat، أوضح كوندو أنه لكي يكون نموذج اللغة الكبير مفيدًا حقًا في تخطيط الوجبات، يجب أن يفهم ما هو متاح في سوق المستخدم، وتفضيلاته (مثل البيض العضوي مقابل البيض العادي)، وما الذي يمكن توصيله دون أن يفسد.
أشار راجو مالهوترا من Certinia في VentureBeat إلى أن العديد من البرامج التجريبية للذكاء الاصطناعي تفشل في الوفاء بوعودها لأن الذكاء الاصطناعي يعاني من مشكلة السياق. وذكر مالهوترا: "لا يعاني الذكاء الاصطناعي لأنه يفتقر إلى الذكاء. إنه يعاني لأنه يفتقر إلى السياق." ويجادل بأن السياق غالبًا ما يكون محاصرًا في "مكدسات فرانكشتاين" من التقنيات غير المتصلة.
Discussion
AI Experts & Community
Be the first to comment