شبح رقمي في الآلة، سائق وهمي يتخذ قرارات تتحدى قوانين الطريق. هذه هي الصورة المقلقة التي تستحضرها التحقيقات الجارية في نظام القيادة الذاتية الكاملة (FSD) من Tesla. تتعمق الإدارة الوطنية لسلامة المرور على الطرق السريعة (NHTSA) في الأمر، ومنحت Tesla خمسة أسابيع أخرى للرد على طلب شامل للحصول على معلومات بشأن الحوادث التي يُزعم فيها أن المركبات المجهزة بنظام FSD تجاهلت إشارات المرور وانحرفت إلى حركة المرور القادمة. لا يتعلق الأمر بمجرد أعطال برمجية؛ بل هو دراما عالية المخاطر تجري في شوارعنا، وتثير أسئلة أساسية حول سلامة وموثوقية المركبات التي تعمل بالذكاء الاصطناعي.
يمثل التحقيق الحالي، الذي بدأ في أواخر العام الماضي، فصلاً آخر في العلاقة المعقدة بين Tesla والجهات التنظيمية. يكمن في جوهره نظام FSD، وهو نظام مساعدة السائق من المستوى الثاني الذي تسوقه Tesla على أنه قادر على القيادة الذاتية الكاملة، على الرغم من أنه لا يزال يتعين على السائقين البقاء منتبهين ومستعدين للتدخل. ومع ذلك، فقد رسمت أكثر من 60 شكوى صورة مقلقة: سيارات Tesla، التي تعمل بنظام FSD، تتجاهل على ما يبدو الأضواء الحمراء وتعبر إلى الممرات المقابلة، مما قد يعرض السائقين والمشاة للخطر.
طلب NHTSA شامل، ويتطلب تفصيلاً دقيقًا لكل سيارة Tesla تم بيعها أو تأجيرها في الولايات المتحدة، مع تحديد تضمين FSD والإصدار. وتسعى الوكالة أيضًا إلى الحصول على بيانات تراكمية عن استخدام FSD، وهو كنز دفين من المعلومات التي يمكن أن تكشف عن أنماط وشذوذات في أداء النظام. علاوة على ذلك، يجب على Tesla تقديم قائمة شاملة بشكاوى العملاء وتقارير الميدان وتقارير الحوادث والدعاوى القضائية وأي بيانات أخرى تتعلق بانتهاكات FSD المزعومة لقانون المرور. بالنسبة لكل حادث تحطم، يجب على Tesla تقديم معلومات مفصلة.
يسلط هذا التحقيق الضوء على تحديات نشر الذكاء الاصطناعي المتقدم في الأنظمة الحيوية للسلامة. يعتمد FSD على شبكة عصبية معقدة، وهي نوع من الذكاء الاصطناعي يتعلم من كميات هائلة من البيانات لاتخاذ التنبؤات والقرارات. ومع ذلك، غالبًا ما تكون الشبكات العصبية "صناديق سوداء"، مما يعني أن أعمالها الداخلية مبهمة، مما يجعل من الصعب فهم سبب اتخاذها لخيارات معينة. يثير هذا النقص في الشفافية مخاوف بشأن المساءلة والقدرة على التنبؤ، خاصة عندما تكون الأرواح على المحك.
توضح الدكتورة إميلي كارتر، أستاذة أخلاقيات الذكاء الاصطناعي في جامعة ستانفورد: "التحدي الذي تواجهه أنظمة مساعدة السائق المتقدمة هذه هو ضمان قدرتها على التعامل مع التباين اللانهائي لظروف القيادة في العالم الحقيقي". "حتى مع الاختبارات المكثفة، من المستحيل توقع كل سيناريو. يجب أن يكون النظام قويًا بما يكفي للتعامل مع الأحداث غير المتوقعة وإعطاء الأولوية للسلامة قبل كل شيء آخر."
تمتد الآثار المترتبة على ذلك إلى ما هو أبعد من Tesla. مع تقدم تكنولوجيا القيادة الذاتية، يجب على المجتمع أن يتعامل مع أسئلة أساسية حول المسؤولية والتبعية القانونية. من المسؤول عندما تتسبب سيارة ذاتية القيادة في وقوع حادث؟ الشركة المصنعة؟ مطور البرامج؟ المالك؟ هذه معضلات قانونية وأخلاقية معقدة تتطلب دراسة متأنية.
يؤكد تمديد الخمسة أسابيع الممنوح لـ Tesla على حجم المهمة المطروحة. لا تبحث NHTSA عن إجابات بسيطة فحسب؛ بل تسعى إلى فهم شامل لقدرات FSD وقيوده ومخاطره المحتملة. يمكن أن يكون لنتائج هذا التحقيق عواقب بعيدة المدى على مستقبل القيادة الذاتية، وتشكيل اللوائح والتأثير على التصور العام لهذه التكنولوجيا التحويلية. مع استمرار الذكاء الاصطناعي في الانتشار في حياتنا، فإن التدقيق المحيط بـ FSD بمثابة تذكير حاسم بالحاجة إلى الشفافية والمساءلة والتركيز الدؤوب على السلامة. الطريق أمامنا ممهد بالوعد والخطر على حد سواء، والأمر متروك للهيئات التنظيمية والمصنعين والمجتمع ككل للتنقل فيه بمسؤولية.
Discussion
Join the conversation
Be the first to comment