Sztuczna inteligencja jak wojna nuklearna. Może doprowadzić do wyginięcia ludzkości

Eksperci zajmujący się sztuczną inteligencją ostrzegają przed jej dynamicznym rozwojem. Zagrożenia związane z AI porównują m.in. do pandemii. Wśród sygnatariuszy znaleźli się szefowie OpenAI i Google DeepMind.

Politycy, eksperci z całego świata i zwyczajni internauci coraz częściej dyskutują na temat zagrożeń, jakie może przynieść sztuczna inteligencja. Niezwykle dynamiczny rozwój generatywnej AI, który nastąpił w ostatnich miesiącach, okazał się dla wielu zaskoczeniem, a możliwości narzędzi tj. ChatGPT przerosły oczekiwania nawet ich twórców.

Zobacz wideo Słuchawki Huawei FreeBuds 5 to dzieło projektantów, którzy puścili wodze fantazji [TOPtech]

Eksperci zajmujący się AI ostrzegają przed zagrożeniami

Teraz eksperci zajmujący się tematem sztucznej inteligencji ponownie zabrali głos w sprawie zagrożeń, jakie może nieść jej rozwój. W nowym oświadczeniu, które opublikowano na stronie Center for AI Safety (CAIS) AI zostało porównane do pandemii i wojny nuklearnej. "Zmniejszenie ryzyka wyginięcia z powodu sztucznej inteligencji powinno być globalnym priorytetem na równi z innymi zagrożeniami na skalę społeczną, takimi jak pandemie i wojna nuklearna" - napisano w oświadczeniu.

CAIS zaznacza, że dyskusja na temat zagrożeń ze strony sztucznej inteligencji zatacza coraz szersze kręgi, dotykając coraz szerszego spektrum pilnych tematów związanych z AI. Pomimo to publiczne "wyrażanie obaw dotyczących niektórych najpoważniejszych zagrożeń" może być trudne - czytamy. Oświadczenie ma na celu "ominięcie tych przeszkód" i "otwarcie dyskusji". Autorzy zaznaczają, że chcą stworzyć "powszechną bazę wiedzy" branżowych ekspertów oraz postaci publicznych, którzy podzielają takie obawy. Pod oświadczeniem podpisało się wielu kluczowych osób związanych z rozwojem AI, m.in. Sam Altman, szef OpenAI, Demis Hassabis, szef Google DeepMind, Dario Amodei z Anthropic, liczni profesorowie i założyciele firm przedsiębiorstw technologicznych.

Elon Musk nie podpisał się pod oświadczeniem ws. AI. Zmienił zdanie? 

Na liście zabrakło Elona Muska, który przez ostatnie lata wielokrotnie wypowiadał się na temat zagrożeń płynących z niekontrolowanego rozwoju AI. W marcu miliarder podpisał jednak w tej sprawie oświadczenie opublikowane na stronie Future of Life Institute. Eksperci stwierdzili w nim, że szybki i niekontrolowany rozwój AI może w końcu wymknąć się spod kontroli oraz namawiali do zrobienia przerwy w opracowywaniu bardziej zaawansowanych modeli generatywnej AI. Jednocześnie istnieją podejrzenia, że Musk sam planuje zwiększyć potencjał Twittera w zakresie AI. O sprawie pisaliśmy tutaj

AI daje nowe technologiczne możliwości, by poprawić nasz byt. 14 i 15 czerwca odbędzie się międzynarodowy hackathon Hack To The Rescue, którego patronem jest Next.Gazeta.pl. Więcej znajdziecie w poniższym artykule:

Więcej o: