حاولت منطقة مدرسية المساعدة في تدريب Waymos على التوقف عند الحافلات المدرسية. لم ينجح الأمر

واحد من تتمثل المزايا المزعومة لتقنية السيارات ذاتية القيادة في أن كل سيارة يمكن أن تتعلم من أخطاء مركبة واحدة. وإليك كيف تضع Waymo الأمر على موقعها على الإنترنت: “يتعلم Waymo Driver من التجارب الجماعية التي تم جمعها عبر أسطولنا، بما في ذلك أجيال الأجهزة السابقة.”
لكن في أوستن، كافحت مركبات Waymo لعدة أشهر لتتعلم كيفية التوقف للحافلات المدرسية أثناء قيام السائقين بنقل الأطفال وإنزالهم. زعم مسؤول في منطقة مدارس أوستن المستقلة (AISD) أن المركبات، في 19 حالة على الأقل، تجاوزت “بشكل غير قانوني وخطير” الحافلات المدرسية في المنطقة بينما كانت أضواءها الحمراء تومض وتم تمديد أذرع التوقف الخاصة بها بدلاً من التوقف الكامل، كما يقتضي القانون.
في أوائل ديسمبر، أصدرت Waymo استدعاءًا فيدراليًا يتعلق بالحوادث، وأبلغت ما لا يقل عن 12 منها إلى المنظمين الفيدراليين في الإدارة الوطنية لسلامة المرور على الطرق السريعة (NHTSA)، التي تشرف على السلامة على الطرق. ووفقاً للملفات الفيدرالية، فإن المهندسين في شركة المركبات ذاتية القيادة “قاموا بتطوير تغييرات برمجية لمعالجة السلوك” قبل أسابيع.
ولكن حتى بعد الاستدعاء، استمرت حوادث مرور الحافلات المدرسية، وفقًا لمسؤولي المدرسة وتقرير صادر عن المجلس الوطني لسلامة النقل (NTSB)، وهي هيئة مراقبة السلامة الفيدرالية المستقلة التي تحقق أيضًا في الوضع.
الآن، تُظهر رسائل البريد الإلكتروني والرسائل النصية بين مسؤولي المدرسة وممثلي Waymo، والتي حصلت عليها WIRED من خلال طلب السجلات العامة، المدى الذي بذلته منطقة المدارس العامة في أوستن وWaymo لمحاولة حل المشكلة. حتى أن AISD استضافت حدثًا “لجمع البيانات” لمدة نصف يوم في ساحة انتظار السيارات بالمدرسة في منتصف ديسمبر، كما تظهر الوثائق، حيث قام العديد من الموظفين بجمع الحافلات المدرسية وإشارات التوقف من جميع أنحاء الأسطول حتى تتمكن شركة السيارات ذاتية القيادة من جمع المعلومات المتعلقة بالمركبات وأضوائها الساطعة.
ومع ذلك، بحلول منتصف يناير، بعد مرور أكثر من شهر، أبلغت المنطقة التعليمية عن وقوع أربعة حوادث أخرى على الأقل لمرور الحافلات المدرسية في أوستن. قال مسؤول في قسم شرطة المدرسة لقناة NBC المحلية التابعة لشبكة NBC في ذلك الشهر: “تظهر البيانات التي جمعناها من بداية العام الدراسي حتى نهاية الفصل الدراسي أن حوالي 98 بالمائة من الأشخاص الذين يتلقون مخالفة واحدة لا يتلقون مخالفة أخرى”. “هذا يخبرنا أن الشخص يتعلم، ولكن لا يبدو أن نظام التشغيل الآلي Waymo يتعلم من خلال تحديثات البرامج الخاصة به، أو استدعائه، أو ما الذي يحدث لك، لأننا لا نزال نواجه انتهاكات”.
يثير هذا الوضع تساؤلات حول النقاط العمياء المثيرة للاهتمام في تقنيات القيادة الذاتية وقدرة الصناعة على التعويض عنها حتى بعد اكتشافها.
تقول ميسي كامينغز، التي تبحث في المركبات ذاتية القيادة في جامعة جورج ماسون وعملت كمستشارة للسلامة لدى NHTSA خلال إدارة بايدن، إن برمجيات القيادة الذاتية عانت منذ فترة طويلة من أجل التعرف على أضواء الطوارئ الوامضة وأجهزة السلامة على الطرق ذات الأذرع الطويلة والرفيعة، بما في ذلك البوابات وأذرع التوقف. “لو [the company] وتقول: “لم يتم حل هذه المشكلة قبل بضع سنوات، فكلما زاد عدد سياراتهم، زادت المشكلة. وهذا بالضبط ما يحدث هنا”.
لم تستجب Waymo لطلبات WIRED للتعليق. أحال متحدث باسم منطقة المدارس المستقلة في أوستن WIRED إلى NTSB بينما تكون الحوادث قيد التحقيق. رفض متحدث باسم NTSB الإجابة على أسئلة WIRED أثناء استمرار التحقيق.
تمرير غير قانوني
بحلول منتصف شتاء عام 2025، شعر مسؤولو AISD بالإحباط. في واحدة من الحوادث الـ 19 التي زعمها محامي المنطقة في رسالة نشرها لاحقًا المنظمون الفيدراليون للسلامة على الطرق، مرت سيارة Waymo بحافلة مدرسية لترك الأطفال “بعد لحظات فقط من عبور الطالب أمام السيارة، وبينما كان الطالب لا يزال على الطريق”.
وكتب المحامي: “من المثير للقلق أن خمسة من الحوادث المزعومة وقعت بعد أن أكدت شركة Waymo للمنطقة أنها قامت بتحديث برامجها لإصلاح المشكلة. وقد أطلق المنظمون الفيدراليون مع NHTSA بالفعل تحقيقًا في هذا السلوك. وحذر المحامي من أن “معهد أوستن ISD يقوم بتقييم جميع سبل الانتصاف القانونية المحتملة المتاحة له ويعتزم اتخاذ أي إجراء ضروري لحماية سلامة طلابه، إذا لزم الأمر”.




