Jeśli ktoś do tej pory uważał autonomiczne, "samoprowadzące" się samochody za science-fiction, czy melodię dalekiej przyszłości, w minionym tygodniu musiał zmienić zdanie. Doniesienia o pierwszym w historii przypadku śmierci za kierownicą Tesli, elektrycznego samochodu ustawionego prawdopodobnie w chwili wypadku w trybie autopilota, pokazuje, że ta rzeczywistość jest już tuż za rogiem. A jej skutki nie dotyczą tylko tych, których wkrótce na takie samochody będzie stać, ale nas wszystkich, którzy możemy - w samochodzie lub pieszo - wejść takim autom w drogę.

Jeśli ktoś do tej pory uważał autonomiczne, "samoprowadzące" się samochody za science-fiction, czy melodię dalekiej przyszłości, w minionym tygodniu musiał zmienić zdanie. Doniesienia o pierwszym w historii przypadku śmierci za kierownicą Tesli, elektrycznego samochodu ustawionego prawdopodobnie w chwili wypadku w trybie autopilota, pokazuje, że ta rzeczywistość jest już tuż za rogiem. A jej skutki nie dotyczą tylko tych, których wkrótce na takie samochody będzie stać, ale nas wszystkich, którzy możemy - w samochodzie lub pieszo - wejść takim autom w drogę.
Zdj. ilustracyjne /JAN WOITAS /PAP/EPA

Jeśli miałbym wskazać dziedzinę nauki, która budzi obecnie najpoważniejsze wątpliwości natury etycznej, byłaby to prawdopodobnie biologia z wszystkimi pytaniami dotyczącymi choćby genetycznych modyfikacji organizmów. Jeśli pytanie dotyczyłoby ogólnie rozumianych nauk technicznych i inżynierii, na myśl przychodzą roboty, po pierwsze te, które mają walczyć i mogą nas zabić, po drugie, te które mają nas zastąpić i przy okazji też narazić na szwank nasze fizyczne bezpieczeństwo. Choćby właśnie autonomiczne samochody.

Śledztwo w sprawie feralnego wypadku, w którym samochód nie zauważył zajeżdżającej mu drogę ciężarówki wyjaśni zapewne, czy winny jest producent, który obiecał kierowcy za dużo, czy sam kierowca, który nie doczytał instrukcji, użył autopilota w sytuacji i w sposób, w jaki nie powinien tego robić. Pewne procedury zostaną zapewne poprawione, instrukcja precyzyjniej napisana, być może ktoś zapłaci odszkodowanie i sprawa rozejdzie się po kościach. To jednak owych wątpliwości etycznych, które przed nami stoją nie rozwiąże. Tym bardziej, że sami chyba nie do końca wiemy, jak miałoby rozwiązać.

Takie wnioski przynosi opublikowana jeszcze w czerwcu na łamach czasopisma "Science" praca naukowców z USA i Francji. Ich badania pokazały, że pojawienie się autonomicznych samochodów stawia przed nami dylemat społeczny, z którymi nie umiemy sobie poradzić. Chodzi o to, w jaki sposób powinno się programować takie samochody, czyje bezpieczeństwo "wybiorą", gdy staną w obliczu wypadku, którego nie da się uniknąć. Mówiąc wprost, czy dla ochrony swego "kierowcy", czy pasażerów mogą narazić życie innych użytkowników drogi. Albo odwrotnie, czy dla ochrony grupy kilku pieszych mogą narazić na szwank zdrowie i życie swego właściciela i jego rodziny.

Badania pokazały, że większość ankietowanych w naturalny sposób opowiada się za tym, by autonomiczne samochody w skrajnych sytuacjach minimalizowały liczbę możliwych ofiar. A więc zjeżdżały z drogi, ryzykując wypadek, by nie wpaść na przykład w grupę 10 pieszych. Jednocześnie jednak ci sami badani podkreślali, że tak zaprogramowanym samochodem sami... nie chcieliby jeździć. Czyli owszem, chcemy by autonomiczne samochody chroniły innych uczestników ruchu, pod warunkiem, że... nie chodzi o nasz samochód, który raczej za wszelką cenę powinien chronić nas.

Autorzy pracy przyznają, że w tej chwili nie sposób opracować algorytmu, który pozwoliłby ten dylemat automatycznie rozstrzygnąć. Jesteśmy przyzwyczajeni, że w krytycznej sytuacji na drodze, często w ułamku sekundy, takie decyzje podejmuje za kierownicą człowiek. I za te decyzje ponosi potem - przed sobą i innymi - odpowiedzialność. Nie umiemy na razie określić, jak przekazać ten obowiązek w ręce, było nie było, sztucznej inteligencji.

Najprostszym rozwiązaniem byłaby chyba decyzja, by... nie przekazywać. By to wciąż kierowca ostatecznie decydował o tym, jak jedzie jego auto. By owszem wspomóc kierowcę na wszelki dostępny sposób, by chronić jego i innych przed skutkami brawury, zmęczenia, braku umiejętności,  czy pokusy siadania za kierownicę po alkoholu, ale ostateczne decyzje zostawić człowiekowi. Tyle, że proces projektowania i budowy aut, które same się prowadzą ruszył na tyle energicznie, że raczej nic go już nie powstrzyma. Więc nawet jeśli za chwilę nie będziemy nimi jeździć, to będziemy się z nimi mijać. Na ulicach i przejściach dla pieszych.

Oczywiście w motoryzacji to człowiek jest najczęściej najsłabszym ogniwem. Czasem z powodu zmęczenia, nieostrożności, roztargnienia,  prawdopodobnie najczęściej z powodu zwykłej głupoty. Eksperci szacują, że przestawienie się na samosterujące się samochody pomogłoby zapobiec nawet 90 procent wypadków. I to może być rozstrzygający argument. Są jednak takie zdarzenia, którym zapobiec nie sposób. Co wtedy? Kiedy mamy w pełni zaufać maszynie, nawet potencjalnie nieomylnej, zaczynamy się wahać. Tym bardziej, że ktoś musi przecież określić, co tej maszynie nakazać. Entuzjazm ankietowanych natychmiast spadał, gdy uświadamiano im, że to przecież nie oni, a rządy państw, czy władze korporacji będą tworzyć przepisy, które wskażą ich samochodowi, kiedy ma ich samych poświęcić.

Wydaje się, że prawdziwy sukces autonomicznych samochodów nastąpi wtedy, gdy samodzielne kierowanie pojazdem stanie się praktycznie nielegalne. Być może nastąpi to nawet szybciej, niż nam się dziś wydaje. Oj, będziemy mieli jeszcze o czym dyskutować...