Samochód z włączoną funkcją jazdy autonomicznej wtacza się na przejazd kolejowy, a barierki właśnie zaczynają opadać; kierowca w ostatniej chwili wciska hamulec i ratuje siebie oraz pasażera. Tak wyglądała scena, którą zarejestrowała ekipa telewizji NBC podczas testu najnowszej wersji pakietu Full Self-Driving (FSD) w Tesli. Incydent, w którym auto nie rozpoznało przeszkody, pogłębił debatę o tym, czy deklaracje producentów nadążają za rzeczywistym poziomem bezpieczeństwa układów półautonomicznych.
Kontrowersyjna obietnica pełnej autonomii
FSD należy do kategorii systemów wspomagania kierowcy klasy SAE Level 2: pojazd potrafi sam wykonać większość czynności – utrzymuje się w pasie, reguluje prędkość, podejmuje decyzje o wyprzedzaniu, a nawet reaguje na sygnalizację świetlną. Kluczowe zastrzeżenie brzmi jednak, że człowiek musi nieustannie monitorować drogę. Tymczasem materiał marketingowy Tesli, podobnie jak wypowiedzi jej prezesa, budują wrażenie, że auto „prowadzi się samo”. To rozdźwięk, który według amerykańskiej Agencji Bezpieczeństwa Ruchu Drogowego (NHTSA) wywołał już ponad tuzin oficjalnych dochodzeń dotyczących wypadków z udziałem pojazdów marki.
Konkretne dane pokazują skalę systemu: do końca 2023 r. Tesla uruchomiła program FSD u około 400 tys. kierowców w USA i Kanadzie. Porównawczo konkurencyjny Super Cruise firmy General Motors oraz Drive Pilot Mercedesa operują na znacznie mniejszą skalę i na ściśle wytyczonych, zmapowanych trasach. Eksperci wskazują, że właśnie brak ograniczenia geograficznego stanowi największe wyzwanie dla algorytmów Tesli – muszą one sobie radzić z nieprzewidywalną infrastrukturą w każdym zakątku kraju.
Przejazdy kolejowe – trudny przypadek dla algorytmów wizyjnych
Problemy w punktach krzyżowania torów i dróg nie są nowe. Według Federal Railroad Administration w samych Stanach Zjednoczonych dochodzi rocznie do około dwóch tysięcy kolizji na przejazdach, a blisko 200 z nich kończy się ofiarami śmiertelnymi. Dla kamer i sieci neuronowych, na których opiera się Tesla po rezygnacji z radarów i lidarów, bariera kolejowa bywa elementem trudnym do sklasyfikowania, zwłaszcza przy nietypowym oświetleniu lub zapadającym zmroku.
W przypadku pokazanym przez NBC samochód zignorował czerwone światło przejazdowe oraz opuszczające się rogatki. Właściciel pojazdu twierdzi, że niemal identyczną sytuację przeżył kilka dni wcześniej, a według dziennikarzy co najmniej sześciu innych kierowców zgłosiło analogiczne incydenty służbom federalnym. W sieci krąży również co najmniej kilkanaście nagrań, na których widać Teslę niehamującą przed pociągiem lub zatrzymującą się dopiero za linią bezpieczeństwa.
NHTSA potwierdziła, że analizuje materiał dowodowy w ramach szerszego dochodzenia dotyczącego Autopilota i FSD. Agencja już wcześniej zalecała Tesli wprowadzenie zewnętrznego systemu weryfikacji poprawności działania, jednak producent pozostaje przy filozofii „vision-only”.
Stanowisko władz i reakcja producenta
Po fali krytyki Tesla wycofała w 2023 r. ponad 360 tys. pojazdów z oprogramowaniem FSD, instalując aktualizację, która – według dokumentów NHTSA – ma poprawić logikę przy skrzyżowaniach. Najnowszy incydent pokazał jednak, że wersja beta nadal może nie rozpoznawać wszystkich scenariuszy. Firma zapowiedziała kolejną iterację kodu „jeszcze przed końcem roku”, lecz nie przedstawiła harmonogramu ani listy zmian.
Regulatorzy na całym świecie przyglądają się sprawie. Europejska organizacja Euro NCAP wprowadziła w 2023 r. osobną kategorię oceny „Assisted Driving”, gdzie testuje reakcję na nietypowe przeszkody i statyczne obiekty. Wyniki wskazują, że systemy radarowo-lidarowe konkurencji uzyskują wyższe noty w detekcji zamkniętych przejazdów. W USA Narodowa Rada Bezpieczeństwa Transportu (NTSB) postulowała obowiązkowe czujniki pokładowe monitorujące uwagę kierowcy – Tesla wprowadziła kamerę kabinową, lecz nadal dopuszcza krótkie okresy, w których kierowca może patrzeć poza tor jazdy.
Głos nauki i ocena ryzyka
Profesor Philip Koopman z Carnegie Mellon University podkreśla, że problemem nie jest pojedynczy błąd algorytmu, lecz statystyczna nieuchronność zdarzenia: „Jeśli układ nie rozpoznaje przejazdów we wszystkich warunkach, prędzej czy później dojdzie do wypadku”. Podobnego zdania są badacze z MIT AgeLab, którzy w raporcie z 2024 r. wykazali, że kierowcy bardzo szybko tracą czujność, gdy pojazd przez kilka minut jedzie bezbłędnie. Czas potrzebny na przejęcie kontroli wydłuża się średnio do ponad czterech sekund – znacznie dłużej niż typowy dystans hamowania przed niestrzeżonym przejazdem przy prędkości autostradowej.
Amerykańska organizacja AAA Foundation prowadzi od 2022 r. testy porównawcze różnych marek i potwierdza, że obecne rozwiązania Level 2 nie gwarantują pełnej ochrony przed kolizją z pociągiem. Eksperci wskazują na konieczność redundancji sensorów (kamera + radar + lidar) oraz bliższej współpracy z operatorami infrastruktury kolejowej, którzy mogliby dostarczać dane o nadjeżdżających składach w czasie rzeczywistym.
Przyszłość automatyzacji – wyzwania i możliwe scenariusze
Potencjał automatyzacji pozostaje ogromny: według szacunków Światowej Organizacji Zdrowia za 94 % wypadków drogowych odpowiada błąd ludzki. Jednak, aby półautonomiczne systemy rzeczywiście przełożyły się na spadek statystyk, muszą sprostać skrajnie rzadkim, lecz krytycznym sytuacjom. Najbliższe miesiące pokażą, czy oprogramowanie Tesli otrzyma poprawki likwidujące lukę w detekcji przejazdów kolejowych, a równolegle czy regulatorzy zdecydują się na bardziej zdecydowane kroki, choćby obowiązkowe testy egzaminacyjne dla nowych wersji oprogramowania, jak proponuje NTSB.
Dla użytkowników oznacza to konieczność wzmożonej czujności i uważnego śledzenia biuletynów bezpieczeństwa. Równocześnie inżynierowie branży motoryzacyjnej obserwują, jak kolejne incydenty wpływają na tempo i kierunek rozwoju algorytmów. Jeśli producenci nie udowodnią niezawodności w najbardziej wymagających scenariuszach, zaufanie opinii publicznej do automatyzacji może zostać nadwyrężone na lata – a wraz z nim perspektywa szybkiego wprowadzenia pojazdów naprawdę bez kierownicy.