Autonomiczny samochód miał wypadek. Kto jest winny?

W autonomicznych pojazdach nie będziemy mieli kontroli nad autem. Ale mimo to musimy być za te auta odpowiedzialni.

"Poboczem idzie troje dzieci. A na ciebie pędzi rodzinny SUV. Co wybierze "inteligentny" samochód?? - zastanawiał się Piotr Stanisławski. Etyka to dla wielu największy problem autonomicznych pojazdów. Co zrobią w niebezpiecznych sytuacjach? Poświęcą właściciela, wybierając mniejsze zło, czy może za wszelką cenę będą chciały go uratować? Wylosują rozwiązanie czy zaczną sugerować się pochodzeniem, pracą, stanem zdrowia?

Ale przecież ciekawe jest także to, co stanie się po wypadku. Volvo wychodzi przed szereg i zapewnia: całą odpowiedzialność bierzemy na siebie. To odważna deklaracja, ale przede wszystkim sprytny ruch marketingowy. Volvo pokazuje, że jest pewne swojej technologii - w końcu ktoś, kto miałby świadomość częstych wypadków, nie składałby takiej deklaracji. Tak zapewne pomyśli większość.

Volvo uspokaja, ponieważ wie, że dużo nie straci. Autonomiczne auta jeżdżą inaczej. Nie będą brawurowe, pijane, nieodpowiedzialne, dostosują się do przepisów drogowych. Ze statystyk Google'a wynika, że jeśli inteligentne pojazdy biorą udział w wypadkach, to najczęściej powodują je te samochody, w których jest "prawdziwy? kierowca. Wielu ma obawy co do niezależnych, inteligentnych wozów, ale pierwsze miesiące po premierze mogą uspokoić niepewnych. Łatwo sobie wyobrazić, że większym zagrożeniem będą "ludzkie" samochody, a nie te sterowane przez sztuczną inteligencję.

Tyle że kolizje będą. Muszą być. Zapewne będzie ich mniej, ale stłuczek nie unikniemy. Technologia nie jest bezawaryjna. System nawali, nie włączy się, będzie miał usterkę. Życie. Teoretycznie obietnica Volvo uspokaja. Niektórzy komentatorzy cieszą się, bo jeden problem z głowy. Na pewno?

Jak w świecie autonomicznych samochodów udowodnimy, że wypadek był z naszej winy? Trzeba będzie przedstawiać raporty z przeglądów, pokazywać, że przed wyjazdem wszystko było testowane i sprawne. Że wszystko opłacone. No cóż, nic nowego, normalna sprawa. Ale co dalej?

Kto z Volvo pójdzie do więzienia? Bo przecież kara finansowa to nie wszystko. Sprawca musi być ukarany: w końcu nie zawsze do wypadku dojdzie z powodu awarii. Z czasem, kiedy na ulicach będzie większość autonomicznych pojazdów, wypadki będą wynikiem nie zbyt dużej prędkości czy nieodpowiednich warunków, a zwykłych zbiegów okoliczności. Przypadku, znalezienia się w niewłaściwym miejscu i czasie. Piotr Stanisławski brał pod uwagę kilka możliwości wypadków:

Poboczem idzie troje dzieci. A na ciebie pędzi rodzinny SUV. W środku może być sam kierowca albo 5-osobowa rodzina z niemowlęciem. To gdzie jedziemy? To już nie decyzja o twoim życiu, a wybór między zabiciem ciebie i, potencjalnie, całej rodziny albo ?tylko? trójki dzieci

Zastanawiamy się, jaką decyzję pojazd podejmie. Nie myślimy jednak o tym, co będzie po wypadku. W przypadku oczywistej awarii, jak np. błąd w oprogramowaniu, łatwo wskazać winnego i powód. Ale gdy dojdzie do sytuacji niespodziewanej, której nie przewidzieli nawet twórcy, to kto będzie za nią odpowiadał? Jeśli pojazd wybierze "mniejsze zło?, o którym pisał Piotr Stanisławski, i wszyscy "obiektywni? sędziowie i świadkowie się z tym zgodzą, to kary, poza wypłaceniem odszkodowania, nie będzie? Ale przecież zginął lub ucierpiał człowiek! A skoro pozbawiony kontroli: niewinny człowiek!

Jeszcze nie ustalono, jak mają zachowywać się inteligentne (?) pojazdy w kryzysowych sytuacjach. Nie wprowadzono przepisu, który będzie nakazywał stosowanie jednej, żelaznej logiki. I raczej do tego nie dojdzie. Nie sądzę, żeby wszystkie autonomiczne pojazdy były zaprojektowane tak samo, według wzoru: "chronimy właściciela? albo wręcz przeciwnie, "mniejsze zło?. Raczej producenci będą pod tym względem ze sobą konkurować. Czymś takie auta muszą się wyróżniać.

Może przyciągać będą algorytmy i to, czym się kierują w chwili wypadku? Osiągi przestaną się liczyć, istotne będzie to, jak samochód... myśli. A raczej: jak postrzega świat. Jakimi zasadami się kieruje. Cenę podnosić będzie brak moralności. Droższe modele zapewnią właścicielowi bezpieczeństwo za wszelką cenę. Kupujesz, dajmy na to, Volvo i wiesz, że auto zrobi wszystko, żebyś nie ucierpiał. Po przeciwnej stronie znajdą się te tańsze, które  będą charakteryzował się tym, że decyzja podejmowana jest losowo. O takim rozwiązaniu także pisał Piotr Stanisławski:

Jest też trzecia droga. Najbardziej ?ludzka?. Losowanie. Samochód może ?rzucać kostką? i część decyzji podejmować losowo - dzieci czy ciężarówka?

Płacisz więcej, masz większe szanse na przeżycie. Zapłacisz mniej, ryzykujesz - tak to może wyglądać. Bogatsi będą mieli większe szanse w stłuczce z biednymi.

Steve Jurvetson/WIKIMEDIAFot. Steve Jurvetson/WIKIMEDIA

Skoro tak, to czy w takim razie odpowiadać za wypadki powinien nie szef marki, a ten, kto wgrał oprogramowanie? Wymyślił je? A może ten, kto na takie warunki przystał i zdecydował o tym, że samochód wjedzie do salonów? Teoretycznie deklaracja Volvo to sugeruje. W firmach będą ludzie, którzy będą odpowiadali za każdy model wystawiony na sprzedaż i to ich producent poświęci.

No dobrze, tyle że znowu wracamy do punktu wyjścia: starcia człowieka z wielką korporacją. Ofiara będzie musiała udowodnić, że to nie ona jest winna i nie powinna ucierpieć tylko dlatego, że nie zrobiła aktualizacji, nie sprawdziła stanu pojazdu lub nie kupiła droższego modelu, gwarantującego większe bezpieczeństwo.

A poza tym twórca oprogramowania będzie mógł się obronić. Przedstawiać scenariusze, z których wyniknie, że podjął dobrą decyzję. Jego system mógł sprawić, że ofiar byłoby więcej - nie jest więc winnym, a bohaterem. Czy w takim razie poszkodowani będą po prostu "wliczeni w koszta?? Nikt nie będzie odpowiedzialny, stało się, bo takie jest życie w nowoczesnym świecie? Ale nie ma co rozpaczać, bo kiedyś było gorzej?

Naiwnym jest sądzenie, że Volvo czy inni producenci wezmą wszystko na klatę. Od czasu do czasu, przy okazji ewidentnych awarii i afer, wypłacą odszkodowanie. Znacznie częściej będą kombinowały, zrzucały odpowiedzialność na człowieka. Właściciela. A raczej: "właściciela?.

Ale może to nic złego? Może to najlepsze rozwiązanie. Autonomiczne auta, jeśli w końcu wyjadą na ulice, odmienią nie tylko motoryzację, ale też myślenie o przepisach ruchu drogowego. O wypadkach. Nie możemy więc patrzeć na nie przez pryzmat tego, co znamy. Będziemy musieli zaakceptować nowe zasady i warunki.

Na przykład takie, że kierowca, który tak naprawdę nie ma kontroli nad pojazdem, jest za niego w stu procentach odpowiedzialny. Będzie musiał ponosić konsekwencje tego, że wybrał tańszy model, przez co algorytm "wylosował" źle i konsekwencją był tragiczny wypadek. Albo droższy: taki, który zadecydował o tym, że należało przejechać pieszego by uniknąć zderzenia z nadjeżdżającą ciężarówką. Odpowiedzialni będziemy nie za to, że sami tak postąpiliśmy, ale powierzyliśmy życie swoje i innych technologii. To też jest jakaś decyzja, która wpłynąć może na pozostałe jednostki. Nie chcesz być karany - nie wsiadaj do auta. Przecież nigdy nie wiesz, co się stanie. Kogo spotkasz i kogo twoje auto poświęci.

To zupełnie inne myślenie niż dzisiaj. Coś za coś. Mamy gwarancję, że nie wjedzie w nas pijany świr. Musimy jednak liczyć się z tym, że jeśli wybrane auto nawali, to my za to będziemy odpowiadać. Motoryzacja się zmieni. Musimy zmienić się też my, żeby się do tego dopasować.

Więcej o:
Komentarze (25)
Autonomiczny samochód miał wypadek. Kto jest winny?
Zaloguj się
  • klm747

    Oceniono 30 razy 10

    "Jak w świecie autonomicznych samochodów udowodnimy, że wypadek był z naszej winy? " - czy durny pismak potrafi przeczytać co napisał?
    i pojąć co za brednie wypisuje??
    cały artykuł to kupa bzdur wypierdzianych przez głupka, który nie ma pojecia o czym pisze...

  • Maciej Szewczuk

    Oceniono 19 razy 9

    Jeśli po drogach będą jeździć jednocześnie samochody autonomiczne i te z kierowcami, to można przewidzieć, że gdy kierowca rozpozna przed sobą samochód autonomiczny, może zacząć "bawić się" z nim: zajeżdżać drogę, wykonywać ryzykowny manewr w celu "przestraszenia" komputera, robić inne niebezpieczne manewry w celu wypróbowania reakcji automatu. Co wtedy? Kto odpowie za ewentualny wypadek? Czy samochód autonomiczny rozpozna ryzykanta?

  • wmc-33

    Oceniono 12 razy 8

    Zanim zaczniemy rozważać dylematy moralne, filozoficzne i prawne, inteligentne samochody będą musiały nauczyć się reagować trochę inteligentniej na codzienne sytuacje drogowe. Na przykład - jeśli samochód Googla jedzie prawym pasem oddzielonym linią ciągłą, a na jego pasie bezprawnie zatrzyma się inny pojazd lub pojawi się jakaś przeszkoda, dzisiejszy "inteligentny" samochód staje i... umiera. Brak mu procedury złamania zakazu przekroczenia linii ciągłej, przynajmniej w sytuacji braku zagrożenia wypadkiem. Podobnie absurdalnie (nie zawsze, ale zdarza się) zachowują się te samochody przy skręcie w lewo, gdy droga sąsiaduje z chodnikiem, a piesi poruszają się kursem teoretycznie kolidującym z kursem samochodu. Samochody Googla pokonują też ciaśniejsze zakręty po torze, który potrafi bardzo skutecznie dezorientować innych kierowców. Do tego ich wypadki z najechaniem na ich tył przez inne (ludzkie) pojazdy wynikają często ze zbyt gwałtownego hamowania w sytuacjach, które człowiek przewidziałby wyraźnie wcześniej i zaczął zwalniać - czego nie potrafi jakoby inteligentny i gotowy do rynkowej inwazji samochód z komputerem za kierownicą.

    Oczywiście autonomiczne samochody jeżdżące wszędzie, a nie tylko po wybranych, szczególnych odcinkach dróg, to przyszłość, ale nie taka znowu bliska. Do tej mety jest chyba wciąż dalej, niż bliżej.

  • pumb123

    Oceniono 7 razy 7

    Tak po pierwsze, to zarząd tylko jednej z wielu firm nie ma mocy ustawodawczej. To co oni wymyślą nie musi wejść w życie.
    Ja myślę, że takie sytuacje będą wyglądać dokładnie tak jak teraz. Każdy kierowca odpowiada za prowadzony przez siebie pojazd. Po włączeniu trybu autonomicznego dalej będzie odpowiadał prawnie za konsekwencje włączenia tego trybu. Ocena tego co się stanie w wypadku będzie oceniana przez sąd.

  • Kriss Karter

    Oceniono 9 razy 5

    Nikt im tych tańszych modeli ni kupi i nie zarobią! Kto kupi samochód-trumne który wybierze zabić właściciela niż potrącić lub zderzyć się z innym uczestnikiem ruchu?

  • jan.fils

    Oceniono 4 razy 4

    Autonomiczne auta to przyszłość - wg mnie nie ma co do tego żadnych wątpliwości. Natomiast uwierzę w takie auto jak zobaczę na własnego oczy jak wyjeżdża około 8 rano z podporządkowanej w lewo na DK79 w okolicach Piaseczna. Dla niewtajemniczonych - ciągły strumień auta, realnie brak możliwości wjechania. Trzeba liczyć na litość jadących lub "delikatnie" pomóc litości...

  • aa1000

    Oceniono 28 razy 4

    W ponad 30 letnim korzystaniu z samochodu nie miałem żadnego wypadku.
    Sytuacji, które mogłyby się skończyć wypadkiem było sporo.
    W wielu sytuacjach pomogło szczęście, moje umiejętności a i sporo też umiejętności tego drugiego a właściwie zdolność przewidzenia niekonwencjonalnych zachowań.
    Żadne Volva czy Google takich algorytmów nie będą w stanie ogarnąć.

  • hiszpan25

    Oceniono 2 razy 2

    jeli kierowca nie majacy wplywu na auto ma odpowiadac karnie za szkody spowodowane przez ten pojazd to marnie widze sprzedaz takich aut... albo producent gwarantuje niezawodnosc swojego produktu biorac za niego pelna odpowiedzialnosc albo zostawia kontrole w rekach kierowcy. Jak moge odpowiadac za wypadek ktoremu nie moglem zapobiec (bo auto autonomiczne nie mialo kierownicy ani innych urzadzen do kontroli np predkosci)? to jakby pasazer odpowiadal za wypadek spowodowany przez taksowkarza...

  • maxthebrindle

    Oceniono 2 razy 2

    Cóż, ja bym się tymi autonomicznymi pojazdami tak nie podniecał. Weźmy na przyklad popularne, rozwijane od dziesiecioleci i testowane przez miliony oprogramowanie, jakim jest... Windows. Ten system operacyjny jest coraz lepszy, coraz lepszy jest sprzęt, na którym go uruchamiamy a i tak wciąż zdzrza się, że Winda się 'wykrzacza' w jakiejs konkretnej sytuacji. Czemu? Bo jej twórcy NIE SĄ W STANIE przewidzieć WSZYSTKICH mozliwych scenariuszy, kombinacji sprzętu/aplikacji/zachowania użyszkodnika.
    Autonomiczny samochod, a ściślej jego 'system operacyjny' będą działać w zupełnie odmiennej, znacznie trudniejszej z punktu widzenia możliwości przewidzenia sytuacji krytycznych i ich odpowiedniego obsłuzenia przez oprogramowanie rzeczywistości. Tak długo, jak na drodze będzie choć 1 procent aut 'ludzkich', samochody autonomiczne będą musiały się zmierzyć z czynnikiem nieprzewidzialnym w swoim srodowisku. Podobnie rzecz się ma z pieszymi - jak dluga będą mieli oni dostęp do dróg, choćby w formie przechodzenia przez przejścia (o spacerze po poboczu nie wspominając), tak długo nie da się opracować dobego algorytmu reakcji na ich zachowania.
    A inne zmienne? Pozimowe dziury w drogach, ataki hakerskie na oprogramowanie samych maszyn, jak i to zarzadzajace infrastrukturą drogową, niedoskonalości oprogramowania będące następstwem oszczedności, chorych ambicji, ludzkiego błedu. Oprogramowanie fałszujące wyniki i zawyżajace/zaniżające jakieś parametry - dziś to 'tylko' pogorszenie parametrów spalin, w świecie aut 'inteligentnych' będą to dziesiatki, może setki tragedii, zanim o sprawie zrobi się głośno a koncern przestanie płacić prawnikom, by zamykali usta tzw. opinii publicznej i przzna sie do błędu.
    Przypomina mi się historia Airbusa, ktory wprowadził do maszyn pasażerskich system FBW nadzorowany przez komputer, który miał korygować błędy lub nieodpowiedzialne zachowanie pilotow. Kiedy okazało sie, że czasem zdarzaja sie sytuacje, w ktorych to wlasnie brawurowa, sprzeczna z procedurami reakcja pilota mogła uratować samolot i psazerów, ale komputer ją 'korygował', doprowadzajac do traedii, koncern zdecydował, że jednak trzeba zostawić możliwość 'obejscia' komutera przez pilota. Technika poszła od tego zcasu do przodu, ale nadal 'inteligencja' samochodu jest tylo sumą inteligencji twórcow oprogramowania minus blędy...

Aby ocenić zaloguj się lub zarejestrujX