В Остине, штат Техас, разворачивается тревожная история, которая ставит под сомнение способность беспилотных автомобилей адаптироваться к реальным дорожным ситуациям. Несмотря на обещания, что каждый робомобиль учится на опыте всего парка, автомобили компании Waymo на протяжении нескольких месяцев систематически нарушали правила, проезжая мимо остановившихся школьных автобусов с включённой аварийной сигнализацией и выдвинутым знаком «стоп».
По данным школьного округа Остина (AISD), зафиксировано как минимум 19 таких опасных инцидентов. В декабре компания даже объявила отзывную кампанию (recall) для своего программного обеспечения, признав перед федеральными регуляторами безопасности дорожного движения (NHTSA) 12 случаев. Инженеры Waymo заверили, что выпустили обновление, устраняющее проблему. Однако, как показывают документы, полученные журналистами, даже после этого нарушения продолжились.
В попытке решить проблему, школа пошла на беспрецедентные меры. В середине декабря в школьном парке устроили специальную «сессию сбора данных»: сотрудники округа собрали несколько автобусов разных моделей, чтобы инженеры Waymo могли детально изучить их световые сигналы. Но к середине января было зарегистрировано ещё как минимум четыре нарушения. «Около 98% водителей, получивших одно нарушение, не повторяют его. Это говорит о том, что человек учится, — заявил представитель школьной полиции. — Но автоматическая система Waymo, судя по всему, не учится через обновления и отзывы».
Эксперты не удивлены. Мисси Каммингс, исследовательница автономного транспорта и бывший советник NHTSA, отмечает, что программное обеспечение давно испытывает трудности с распознаванием мигающих аварийных огней и длинных тонких объектов, таких как шлагбаумы и знаки «стоп» у автобусов. «Если компания не решила эту проблему несколько лет назад, то чем больше они ездят, тем чаще она будет возникать. Именно это мы и наблюдаем», — говорит она.
Расследование Национального совета по безопасности на транспорте (NTSB) выявило один из инцидентов в январе, когда удалённый оператор Waymo из Мичигана ошибочно сообщил роботакси, что у автобуса впереди не горят сигналы. Это привело к проезду. Ситуация поднимает фундаментальный вопрос: как научить искусственный интеллект справляться с редкими, но критически важными исключениями из правил? Филип Купман, исследователь из Университета Карнеги-Меллон, поясняет: «Последний 1% надёжности — это самое сложное. Мы пытаемся научить систему исключениям». Пока же урок, который Waymo хочет выучить, её робомобили в Остине явно не усвоили.