Poboczem idzie troje dzieci. A na ciebie pędzi rodzinny SUV. Co wybierze "inteligentny" samochód?

Samochody bez kierowców będą musiały podejmować decyzje. Najtrudniejsze decyzje - kogo zabić na drodze. To po prostu nieuniknione.

Automatyczne samochody jeżdżące bez kierowcy to nie przyszłość. To teraźniejszość. Te robione przez Google'a przejechały już niemal 3 miliony kilometrów. Tesla twierdzi, że mogłaby wprowadzić swoje modele na drogi już tego lata. Volvo zapowiada, że w 2017 roku ich autonomiczne pojazdy pojawią się na w Szwecji.

Jednym z najmocniejszych argumentów za wprowadzeniem samochodów, które prowadzą się same, jest bezpieczeństwo. Google twierdzi, że ich pojazdy w ciągu ostatnich 6 lat miały tylko 11 wypadków , a wszystkie zostały spowodowane przez innych uczestników ruchu. Można w to uwierzyć - pojazdy automatyczne jeżdżą z nakazaną prędkością, nie udowodniają innym kierowcom, że są debilami, nie bywają senne ani nie piją wódki.

To bezpieczeństwo będzie jeszcze większe, jeśli uda się opracować wspólny standard komunikacji, dzięki któremu wszystkie maszyny na drodze będą się porozumiewały informując się o awariach, problemach i zagrożeniach.

Ale takie automatyczne bezpieczeństwo ma swoją cenę . Wyobraź sobie, że w pełni zrelaksowany wracasz swoim automatycznym samochodem do domu. Przepisowe 85 na godzinę, jednopasmowa droga. Po poboczu idzie troje dzieci. Nagle z naprzeciwka na twój pas zjeżdża ciężarówka - może pękła jej opona?

Nadchodzi czas na decyzję. Nie, nie twoją. Twojego samochodu. Co ma zrobić? Czy jechać na czołowe, w którym niemal na pewno zginiesz? Uciekać na pobocze i zabić dzieci ratując ciebie?

Zobacz wideo

Kogo lepiej zabić?

Jeśli sądzisz, że to wydumana sytuacja to... OK. Wymyśliłem ją. Ale jest wystarczająco prawdopodobna, by trzeba ją było brać pod uwagę przy programowaniu maszyny. Pewnie wiele osób pomyśli, że trzeba uratować dzieci - ważniejsze jest życie trzech osób niż jednej .

No to skomplikujmy sytuację. Poboczem idzie troje dzieci. A na ciebie pędzi rodzinny SUV. W środku może być sam kierowca albo 5-osobowa rodzina z niemowlęciem. To gdzie jedziemy? To już nie decyzja o twoim życiu, a wybór między zabiciem ciebie i, potencjalnie, całej rodziny albo "tylko" trójki dzieci. Łatwo zdecydować?

W przypadku, gdy w takiej sytuacji staje kierowca, człowiek, dokonuje jakiegoś wyboru. Może jest bohaterem i poświęci siebie? Może zadziała instynkt samozachowawczy i zabije mnóstwo ludzi, ale sam ocaleje? A może jego decyzja jest tak naprawdę przypadkiem, bo w ciągu ułamków sekund ludzki mózg nie zdoła zebrać i przeanalizować danych oraz podjąć odpowiednich działań?

Wypadek na A2Wypadek na A2 Fot. Wojciech Królak / Agencja Wyborcza.pl Fot. Wojciech Królak / AG

Źle jest wiedzieć zbyt dużo

Automatyczne samochody nie mają tego komfortu. Tempo zbierania i analizy danych jest tak wysokie, że w chwili zaistnienia zagrożenia zdążą nie tylko zobaczyć, że jedzie na nie SUV, ale też zidentyfikują jego markę i model. Hej, to przecież Volvo! Bardzo bezpieczny samochód! Pewnie rodzina przeżyje, a więc wybieramy zderzenie z samochodem ratując dzieci na poboczu.

Ale ale! Co na to właściciele Volvo? Czy zgodzą się, aby w programie innych samochodów zrobić z nich tarcze, w które celują pojazdy w razie kolizji? A może tym Volvo jedzie nie urocza rodzina, a wielokrotnie karany morderca, który właśnie ukradł samochód i ucieka przed policją?

Według jednego scenariusza autonomiczne samochody powinny mieć zaprogramowane z góry decyzje , jakie trzeba podjąć w takich sytuacjach. A więc zgromadzić możliwie dużo danych, przetworzyć je i wybrać... no właśnie, co? Zmniejszenie za wszelką cenę liczny ofiar? To w prostej linii prowadzi do decyzji o zabiciu osoby, którą wiozą. Jeśli będą miały wybór między rozjechaniem na dwójki przebiegających pieszych a skierowaniem samych siebie z jednym pasażerem na betonową ścianę, to sprawa jest (matematycznie) prosta. Tylko kto chciałby wsiadać do samochodu, który ma zaprogramowane zabicie go w trudnej sytuacji?

Inny scenariusz mówi, że samochody nie powinny decydować na podstawie zbyt szczegółowych informacji . Wiedza o marce pojazdu, ocena liczby osób tylko komplikują decyzje. Ludzcy kierowcy nie mogą przeanalizować takich danych, więc są potem oceniania mniej surowo. Ale pojawia się pytanie - czy samochody mają nie zbierać tych danych (mogą być przydatne w normalnych drogowych sytuacjach) czy może raczej nie wolno im z nich skorzystać w razie zagrożenia. Jeśli to drugie, to nietrudno wyobrazić sobie procesy wytaczane producentom, których samochody nie wykorzystały danych i zabiły tę a nie inną osobę.

Zobacz wideo

Jest też trzecia droga. Najbardziej "ludzka". Losowanie. Samochód może "rzucać kostką" i część decyzji podejmować losowo - dzieci czy ciężarówka ? To byłoby najbardziej zbliżone do ludzkiej reakcji. Ale przecież staramy się właśnie wyeliminować najbardziej zawodny czynnik decyzyjny, człowieka. W tej sytuacji osłabianie sprawności samochodu losowaniem wydaje się głupotą. Tym bardziej, że maszyny nie potrafią losować. To, co daje pozornie losową liczbę nazywa się generatorem liczb pseudolosowych. No właśnie - "pseudo". W rzeczywistości to kolejny algorytm, który oblicza coś biorąc pod uwagę zmienne czynniki. Prawdziwie losowe generatory nie nadają się do zastosowania w samochodach.

Kto będzie decydował o śmierci?

Stajemy więc przed bardzo poważnymi dylematami. Kto ma decydować o scenariuszu zachowania pojazdu w razie wypadku? Czy każda firma ma opracować własny algorytm? Kto go skontroluje? Czy któryś producent nie zdecyduje potajemnie, że - ze względu na wizerunek firmy - ich samochody mają zawsze celować w pojazdy innych marek?

A może powinna powstać rządowa lub międzynarodowa komisja, która określi takie parametry dla wszystkich samochodów automatycznych na świecie ? Kierując się logiczną zasadą minimalizowania strat?

No dobrze, kolejny eksperyment myślowy. Krytyczna sytuacja, samochód musi uderzyć w motocyklistę - to nieuniknione. Ale motocyklistów jest dwóch - jeden w kasku, drugi bez niego. W którego wjechać? Oczywiście w tego w kasku, bo ma większe szanse przeżycia. Tym samym karzemy go za to, że włożył kask. W tej sytuacji, paradoksalnie, lepszą strategią może być jazda bez kasku.

Problem polega tu na tym, że decyzje o życiu i śmierci trzeba podjąć na długo zanim powstanie niebezpieczna sytuacja . To prawie jak "Raport mniejszości". Reakcje samochodu muszą być wcześniej zaprogramowane, etycy, dyrektorzy i programiści siedzący w klimatyzowanych biurowcach zdecydują zawczasu o tym, kto przeżyje a kto nie.

I nie, to nie jest wydumany problem. Autonomiczne samochody pojawią się na naszych drogach najpóźniej w ciągu pięciu lat. Dobrze byłoby wiedzieć, kto i wedle jakich wytycznych je zaprogramował.

źródła: 1 , 2 , 3 , 4

Więcej o: