Autonomiczny samochód miał wypadek. Kto jest winny?

W autonomicznych pojazdach nie będziemy mieli kontroli nad autem. Ale mimo to musimy być za te auta odpowiedzialni.

"Poboczem idzie troje dzieci. A na ciebie pędzi rodzinny SUV. Co wybierze "inteligentny" samochód?" - zastanawiał się Piotr Stanisławski. Etyka to dla wielu największy problem autonomicznych pojazdów. Co zrobią w niebezpiecznych sytuacjach? Poświęcą właściciela, wybierając mniejsze zło, czy może za wszelką cenę będą chciały go uratować? Wylosują rozwiązanie czy zaczną sugerować się pochodzeniem, pracą, stanem zdrowia?

Ale przecież ciekawe jest także to, co stanie się po wypadku. Volvo wychodzi przed szereg i zapewnia: całą odpowiedzialność bierzemy na siebie. To odważna deklaracja, ale przede wszystkim sprytny ruch marketingowy. Volvo pokazuje, że jest pewne swojej technologii - w końcu ktoś, kto miałby świadomość częstych wypadków, nie składałby takiej deklaracji. Tak zapewne pomyśli większość.

Volvo uspokaja, ponieważ wie, że dużo nie straci. Autonomiczne auta jeżdżą inaczej. Nie będą brawurowe, pijane, nieodpowiedzialne, dostosują się do przepisów drogowych. Ze statystyk Google'a wynika, że jeśli inteligentne pojazdy biorą udział w wypadkach, to najczęściej powodują je te samochody, w których jest "prawdziwy" kierowca. Wielu ma obawy co do niezależnych, inteligentnych wozów, ale pierwsze miesiące po premierze mogą uspokoić niepewnych. Łatwo sobie wyobrazić, że większym zagrożeniem będą "ludzkie" samochody, a nie te sterowane przez sztuczną inteligencję.

Tyle że kolizje będą. Muszą być. Zapewne będzie ich mniej, ale stłuczek nie unikniemy. Technologia nie jest bezawaryjna. System nawali, nie włączy się, będzie miał usterkę. Życie. Teoretycznie obietnica Volvo uspokaja. Niektórzy komentatorzy cieszą się, bo jeden problem z głowy. Na pewno?

Jak w świecie autonomicznych samochodów udowodnimy, że wypadek był z naszej winy? Trzeba będzie przedstawiać raporty z przeglądów, pokazywać, że przed wyjazdem wszystko było testowane i sprawne. Że wszystko opłacone. No cóż, nic nowego, normalna sprawa. Ale co dalej?

Kto z Volvo pójdzie do więzienia? Bo przecież kara finansowa to nie wszystko. Sprawca musi być ukarany: w końcu nie zawsze do wypadku dojdzie z powodu awarii. Z czasem, kiedy na ulicach będzie większość autonomicznych pojazdów, wypadki będą wynikiem nie zbyt dużej prędkości czy nieodpowiednich warunków, a zwykłych zbiegów okoliczności. Przypadku, znalezienia się w niewłaściwym miejscu i czasie. Piotr Stanisławski brał pod uwagę kilka możliwości wypadków:

Poboczem idzie troje dzieci. A na ciebie pędzi rodzinny SUV. W środku może być sam kierowca albo 5-osobowa rodzina z niemowlęciem. To gdzie jedziemy? To już nie decyzja o twoim życiu, a wybór między zabiciem ciebie i, potencjalnie, całej rodziny albo "tylko" trójki dzieci

Zastanawiamy się, jaką decyzję pojazd podejmie. Nie myślimy jednak o tym, co będzie po wypadku. W przypadku oczywistej awarii, jak np. błąd w oprogramowaniu, łatwo wskazać winnego i powód. Ale gdy dojdzie do sytuacji niespodziewanej, której nie przewidzieli nawet twórcy, to kto będzie za nią odpowiadał? Jeśli pojazd wybierze "mniejsze zło", o którym pisał Piotr Stanisławski, i wszyscy "obiektywni" sędziowie i świadkowie się z tym zgodzą, to kary, poza wypłaceniem odszkodowania, nie będzie? Ale przecież zginął lub ucierpiał człowiek! A skoro pozbawiony kontroli: niewinny człowiek!

Jeszcze nie ustalono, jak mają zachowywać się inteligentne (?) pojazdy w kryzysowych sytuacjach. Nie wprowadzono przepisu, który będzie nakazywał stosowanie jednej, żelaznej logiki. I raczej do tego nie dojdzie. Nie sądzę, żeby wszystkie autonomiczne pojazdy były zaprojektowane tak samo, według wzoru: "chronimy właściciela" albo wręcz przeciwnie, "mniejsze zło". Raczej producenci będą pod tym względem ze sobą konkurować. Czymś takie auta muszą się wyróżniać.

Może przyciągać będą algorytmy i to, czym się kierują w chwili wypadku? Osiągi przestaną się liczyć, istotne będzie to, jak samochód... myśli. A raczej: jak postrzega świat. Jakimi zasadami się kieruje. Cenę podnosić będzie brak moralności. Droższe modele zapewnią właścicielowi bezpieczeństwo za wszelką cenę. Kupujesz, dajmy na to, Volvo i wiesz, że auto zrobi wszystko, żebyś nie ucierpiał. Po przeciwnej stronie znajdą się te tańsze, które  będą charakteryzował się tym, że decyzja podejmowana jest losowo. O takim rozwiązaniu także pisał Piotr Stanisławski:

Jest też trzecia droga. Najbardziej "ludzka". Losowanie. Samochód może "rzucać kostką" i część decyzji podejmować losowo - dzieci czy ciężarówka?

Płacisz więcej, masz większe szanse na przeżycie. Zapłacisz mniej, ryzykujesz - tak to może wyglądać. Bogatsi będą mieli większe szanse w stłuczce z biednymi.

Steve Jurvetson/WIKIMEDIAFot. Steve Jurvetson/WIKIMEDIA

Skoro tak, to czy w takim razie odpowiadać za wypadki powinien nie szef marki, a ten, kto wgrał oprogramowanie? Wymyślił je? A może ten, kto na takie warunki przystał i zdecydował o tym, że samochód wjedzie do salonów? Teoretycznie deklaracja Volvo to sugeruje. W firmach będą ludzie, którzy będą odpowiadali za każdy model wystawiony na sprzedaż i to ich producent poświęci.

No dobrze, tyle że znowu wracamy do punktu wyjścia: starcia człowieka z wielką korporacją. Ofiara będzie musiała udowodnić, że to nie ona jest winna i nie powinna ucierpieć tylko dlatego, że nie zrobiła aktualizacji, nie sprawdziła stanu pojazdu lub nie kupiła droższego modelu, gwarantującego większe bezpieczeństwo.

A poza tym twórca oprogramowania będzie mógł się obronić. Przedstawiać scenariusze, z których wyniknie, że podjął dobrą decyzję. Jego system mógł sprawić, że ofiar byłoby więcej - nie jest więc winnym, a bohaterem. Czy w takim razie poszkodowani będą po prostu "wliczeni w koszta"? Nikt nie będzie odpowiedzialny, stało się, bo takie jest życie w nowoczesnym świecie? Ale nie ma co rozpaczać, bo kiedyś było gorzej?

Naiwnym jest sądzenie, że Volvo czy inni producenci wezmą wszystko na klatę. Od czasu do czasu, przy okazji ewidentnych awarii i afer, wypłacą odszkodowanie. Znacznie częściej będą kombinowały, zrzucały odpowiedzialność na człowieka. Właściciela. A raczej: "właściciela".

Ale może to nic złego? Może to najlepsze rozwiązanie. Autonomiczne auta, jeśli w końcu wyjadą na ulice, odmienią nie tylko motoryzację, ale też myślenie o przepisach ruchu drogowego. O wypadkach. Nie możemy więc patrzeć na nie przez pryzmat tego, co znamy. Będziemy musieli zaakceptować nowe zasady i warunki.

Na przykład takie, że kierowca, który tak naprawdę nie ma kontroli nad pojazdem, jest za niego w stu procentach odpowiedzialny. Będzie musiał ponosić konsekwencje tego, że wybrał tańszy model, przez co algorytm "wylosował" źle i konsekwencją był tragiczny wypadek. Albo droższy: taki, który zadecydował o tym, że należało przejechać pieszego by uniknąć zderzenia z nadjeżdżającą ciężarówką. Odpowiedzialni będziemy nie za to, że sami tak postąpiliśmy, ale powierzyliśmy życie swoje i innych technologii. To też jest jakaś decyzja, która wpłynąć może na pozostałe jednostki. Nie chcesz być karany - nie wsiadaj do auta. Przecież nigdy nie wiesz, co się stanie. Kogo spotkasz i kogo twoje auto poświęci.

To zupełnie inne myślenie niż dzisiaj. Coś za coś. Mamy gwarancję, że nie wjedzie w nas pijany świr. Musimy jednak liczyć się z tym, że jeśli wybrane auto nawali, to my za to będziemy odpowiadać. Motoryzacja się zmieni. Musimy zmienić się też my, żeby się do tego dopasować.

Więcej o: