W przeszłości pytano już nie raz ludzi o to, jak zaprogramować zachowanie autonomicznych samochodów w sytuacjach, kiedy pojawiają się moralne dylematy w rodzaju "lepiej rozjechać pieszego, czy uderzyć w betonowy mur, zabijając tym samym pasażerów samochodu?". Ale badanie MIT jest pierwszym, w którym ten problem przedstawiono przeszło dwóm milionom osób z ponad 200 krajów na świecie.
Okazało się, że generalnie mamy wszyscy dość podobne poglądy na to, jak ma zachować się maszyna w sytuacji, gdy musi dokonać wyboru, kogo ratować w pierwszej kolejności.
Ludzie chcą, by autonomiczne samochody starały się w sytuacjach rozpaczliwego wyboru chronić bardziej ludzi niż zwierzęta oraz zawsze większą grupę niż pojedynczego kierowcę lub przechodnia.
Na tym lista preferowanych zachowań się nie skończyła. Samochody autonomiczne mają też raczej ratować życie osób młodych niż staruszków i dodatkowo próbować ocalić tych, którzy przestrzegają przepisów ruchu drogowego. Mówiąc brutalnie, jeżeli ktoś wymusi pierwszeństwo przejazdu lub wejdzie na czerwonym świetle na pasy, to lepiej - zdaniem milionów - by zginął on, niż rodzina podróżująca samochodem.
Autorzy badania zauważyli pewne różnice w odpowiedziach pomiędzy osobami pochodzącymi z różnych kręgów kulturowych. Wśród nich np. okazało się, że we "wschodnich" - jak to ujęto - krajach, w tym w wielu z Azji, ankietowani nie oczekiwali od maszyn, by bardziej chroniły w trakcie wypadku życie ludzi młodszych kosztem starszych.
Ciekawe, czy w przyszłości te różnice spowodują, że autonomiczne samochody sprzedawane np. w Japonii będą się różniły oprogramowaniem od tych, które trafią do salonów w Niemczech lub w Polsce.
Tekst pochodzi z bloga PortalTechnologiczny.pl.