الأضواء الحمراء الوامضة لحافلة مدرسية هي إشارة عالمية، واختزال بصري للحذر والانتباه، خاصة حول الأطفال. ولكن بالنسبة لمركبات Waymo ذاتية القيادة، أصبح هذا السيناريو الذي يبدو بسيطًا تحديًا متكررًا ومثيرًا للقلق. الآن، يتدخل المجلس الوطني لسلامة النقل (NTSB)، ويطلق تحقيقًا في سيارات الأجرة الروبوتية التابعة لـ Waymo بعد ورود تقارير متعددة عن تجاوزها بشكل غير قانوني لحافلات مدرسية متوقفة في ولايتين على الأقل.
إن تحقيق NTSB، الذي يركز في البداية على أكثر من 20 حادثة في أوستن، تكساس، يمثل تصعيدًا كبيرًا في التدقيق بالنسبة لشركة القيادة الذاتية المملوكة لشركة Alphabet. يتوجه المحققون إلى أوستن للتعمق في تفاصيل هذه الحوادث، حيث يُزعم أن مركبات Waymo فشلت في التوقف للحافلات التي تقوم بتحميل أو تنزيل الطلاب. ومن المتوقع صدور تقرير أولي في غضون 30 يومًا، مع توقع صدور تقرير نهائي شامل في غضون سنة إلى سنتين قادمتين.
ليست هذه هي المرة الأولى التي يثير فيها سلوك Waymo تجاه الحافلات المدرسية علامات استفهام. بدأت الإدارة الوطنية لسلامة المرور على الطرق السريعة (NHTSA) تحقيقًا مماثلًا في أكتوبر. أصدرت Waymo نفسها سحبًا للبرامج العام الماضي لمعالجة المشكلة، مما يشير إلى أن الشركة كانت على علم بالمشكلة وحاولت تصحيحها. ومع ذلك، تشير الحوادث المستمرة إلى أن تحديثات البرامج السابقة لم تحل المشكلة بشكل كامل. في أوستن، حيث تم التقاط العديد من الحوادث بالكاميرا، طلبت المنطقة التعليمية رسميًا من Waymo التوقف عن العمل بالقرب من المدارس.
يكمن في صميم المشكلة التحدي المعقد المتمثل في برمجة المركبات ذاتية القيادة للتنقل في العالم الحقيقي الذي لا يمكن التنبؤ به. في حين أن تقنية Waymo تتفوق في العديد من سيناريوهات القيادة، إلا أن الظروف المحددة المحيطة بالحافلات المدرسية - الأضواء الوامضة، وأذرع التوقف الممتدة، واحتمال وجود أطفال - تمثل مجموعة فريدة من التحديات.
توضح الدكتورة إميلي كارتر، الأستاذة المتخصصة في سلامة المركبات ذاتية القيادة في جامعة ستانفورد: "تعتمد أنظمة القيادة الذاتية على مجموعة من المستشعرات، بما في ذلك الكاميرات والرادار والليدار، لإدراك بيئتها". "تغذي هذه المستشعرات البيانات في خوارزميات متطورة تم تدريبها لتحديد الكائنات والتنبؤ بسلوكها واتخاذ قرارات بشأن كيفية التنقل بأمان. التحدي الذي تواجهه الحافلات المدرسية هو أن النظام يحتاج إلى تحديد الحافلة بشكل موثوق، والتعرف على الإشارات المحددة التي تشير إلى التوقف، والتفاعل بشكل مناسب، حتى في ظروف الإضاءة والطقس المتغيرة."
من المحتمل أن يكون "سحب البرامج" الذي أصدرته Waymo العام الماضي قد تضمن تحديثات لهذه الخوارزميات، مما قد يحسن قدرة النظام على تحديد إشارات الحافلات المدرسية وتحسين عملية اتخاذ القرار. ومع ذلك، تشير الحوادث المستمرة إلى أن المشكلة أكثر دقة من مجرد تصحيح بسيط للبرامج.
أحد العوامل المحتملة هو ظاهرة "الحالات الشاذة"، حيث تكافح الأنظمة المستقلة مع السيناريوهات النادرة أو التي تنحرف عن البيانات التي تم تدريبها عليها. يمكن أن تختلف مواقف الحافلات المدرسية اختلافًا كبيرًا من حيث الموقع والرؤية وسلوك الأطفال القريبين. إذا لم يتم تدريب النظام بشكل كافٍ على مجموعة متنوعة من هذه السيناريوهات، فقد يكافح للتفاعل بشكل مناسب.
من المحتمل أن يركز تحقيق NTSB على فهم الأسباب الجذرية لهذه الإخفاقات. هل تكتشف المستشعرات إشارات الحافلات المدرسية بدقة؟ هل تفسر الخوارزميات البيانات بشكل صحيح؟ هل هناك قيود في قدرة النظام على التنبؤ بسلوك الأطفال بالقرب من الحافلة؟ ستكون الإجابات على هذه الأسئلة حاسمة في تحديد كيف يمكن لـ Waymo تحسين تقنيتها ومنع وقوع حوادث مستقبلية.
يقول مارك جونسون، مستشار السلامة المرورية الذي يتمتع بخبرة تزيد عن 20 عامًا: "هذا التحقيق بالغ الأهمية ليس فقط لـ Waymo، ولكن لصناعة المركبات ذاتية القيادة بأكملها". "إنه يسلط الضوء على أهمية الاختبار والتحقق الصارمين، خاصة في السيناريوهات التي تشمل مستخدمي الطريق الضعفاء مثل الأطفال. يجب أن يكون لدى الجمهور ثقة في أن هذه المركبات يمكن أن تعمل بأمان في جميع الظروف."
يمكن أن يكون لنتائج تحقيق NTSB آثار كبيرة على عمليات Waymo والتوسع الأوسع للمركبات ذاتية القيادة. قد يؤدي ذلك إلى لوائح أكثر صرامة، ومتطلبات اختبار أكثر صرامة، وزيادة التركيز على السلامة في تطوير تكنولوجيا القيادة الذاتية. بينما تواصل Waymo والشركات الأخرى دفع حدود القيادة الذاتية، يجب أن تظل ضمان سلامة الأطفال وغيرهم من مستخدمي الطريق الضعفاء على رأس الأولويات. الأضواء الحمراء الوامضة لحافلة مدرسية هي وعد بالسلامة، وهو وعد يجب أن تكون المركبات ذاتية القيادة قادرة على الوفاء به.
Discussion
Join the conversation
Be the first to comment