Stephen Hawking obawiał się, że dynamiczny rozwój prac nad sztuczną inteligencją może w przyszłości stać się poważnym zagrożeniem dla ludzi. Ostrzegał, że roboty mogą stać się "nową formą życia", która pod każdym względem będzie przewyższać nasz gatunek.
- podkreślił Hawking w rozmowie z serwisem "Wired" w listopadzie 2017 r.
Hawking wraz z Elonem Muskiem i grupą tysiąca naukowców podpisał się również pod listem otwartym w sprawie prac nad autonomicznymi systemami uzbrojenia. W liście naukowcy alarmują, że broń oparta na sztucznej inteligencji będzie "poza kontrolą człowieka".
Naukowcy obawiają się, że autonomiczna broń stanie się "Kałasznikowem jutra" - automaty sterowane sztuczną inteligencją, potencjalnie przez swoją skuteczność, mogłyby się stać najbardziej powszechną, a zatem najbardziej śmiercionośną bronią świata.
- podkreślił Stephen Hawking w rozmowie z ze "Storyline".
Gdy prezydent Donald Trump zdecydował o wycofaniu się USA z porozumienia paryskiego w sprawie klimatu, Hawking ostrzegał, że ta decyzja będzie miała poważne konsekwencje.
- powiedział brytyjski naukowiec w rozmowie z BBC News.
Stephen Hawking obawiał się, że ludzka agresja i pogłębiające się konflikty militarne mogą doprowadzić ludzkość do samozagłady - na przykład w wyniku wojny nuklearnej.
- podkreślił Hawking w rozmowie z dziennikiem "The Independent".
W ubiegłym roku w czasie konferencji Tencent WE Summit Earth prof. Stephen Hawking zwrócił uwagę na problem przeludnienia. Jego zdaniem dalszy wzrost liczby ludności na Ziemi w takim tempie, jak dotychczas, może doprowadzić nasz gatunek na skraj zagłady.
Stephen Hawking ostrzegał również przez genetycznie modyfikowanymi wirusami. Brytyjski astrofizyk zwracał uwagę na fakt, że wciąż do końca nie rozumiemy, w jaki sposób działają geny, a modyfikowanie DNA może doprowadzić do nieprzewidzianych konsekwencji.
Zdaniem Hawkinga stworzenie wirusa, który będzie odporny na szczepionki, to tylko kwestia czasu. Do zagłady ludzkości mógłby doprowadzić np. sztucznie wyhodowany wirus grypy.
W 2016 roku podczas spotkania Oxford Union Stephen Hawking podkreślił, że wymienione wyżej zagrożenia mogą doprowadzić do zniszczenia ludzkości w ciągu najbliższego 1000 lat.
Później naukowiec zmienił jednak zdanie. W maju ub. roku w programie BBC "Tomorrow's World" prof. Hawking stwierdził bowiem, że ludzkość ma zaledwie 100 lat na opuszczenie Ziemi i skolonizowanie innej planety. To - jego zdaniem - jedyny ratunek dla ludzi.
Hawking powtórzył tę prognozę na Starmus International Festival w norweskim Trondheim.
- wyjaśnił Hawking.
W jego opinii, powinniśmy dążyć do kolejnego lądowania na Księżycu do 2020 roku, a w ciągu następnych 30 lat zbudować bazę księżycową. Byłby to etap na drodze do wysłania ludzi na Marsa w 2025 roku.
Naukowiec był zdania, że sposobem na efektywne podróże międzygwiezdne może być okiełznanie promieni światła. Popchnąć statek kosmiczny mogłyby żagle świetlne.