Czy SI może myśleć, czuć, kochać? Czy może być inteligentna bez tych rzeczy?

Twórcy Sci-Fi straszą nas HAL-em i Skynetem, tymczasem lata mijają, a komputery jak były "nie-inteligentne" tak są. Dlaczego do dziś nie ma sztucznej inteligencji z prawdziwego zdarzenia? Czy jest w ogóle możliwa?

- Hej, porozmawiajmy! - Hej, nazywam się Paweł, a Ty? - Nazywam się Cleverbot.

Choć mamy już rok 2012, 20 lat po "filmowym" uruchomieniu HAL, to współczesnym maszynom daleko do niego. Komputer, który jest inteligentny, ma świadomość i potrafi rozmawiać z ludźmi jak równy z równym, nadal należy do sfery science-fiction. Niby to dobrze, w końcu żadna maszyna nie czyha na nasze życie, ale również rozczarowujące. Dlaczego do tej pory z tych tysięcy hertzów, megabajtów i FLOPS-ów nie narodziła się sztuczna inteligencja?

Podstawowy problem pojawił się już u zarania badań nad SI. Choć brało w nich udział wielu naukowców, niewątpliwie bardzo inteligentnych, to mieli oni problem ze zdefiniowaniem jednej rzeczy - inteligencji. Czym ona właściwie jest? Co ją charakteryzuje, jak ją mierzyć, jak "działa"?

Ludzkie maszyny

Ja, robot

- Jak się czujesz? - Jestem smutna. - Dlaczego? - Facet, którego lubię, nie odpowiedział na moją wiadomość.

Do dziś kwestia ta sprawia nauce ogromne problemy. Ten podstawowy, zdawałoby się, problem nie zatrzymał jednak prac nad SI. Szybko znaleziono bowiem jego obejście - ludzki mózg. Już w 1943 roku pojawiły się opinie, że maszyny są w stanie zasymulować działanie naszego umysłu, a skoro tak, to gdy tylko to zrobimy, problem niejako sam się rozwiąże.

Podejście to wiązało się z wiarą, iż skoro mózg działa w oparciu o zasady fizyki i chemii, to wszystkie jego funkcje da się opisać za pomocą matematycznych formuł i reguł. Te można byłoby później "przetłumaczyć" na komputerowy kod, co próbowano uczynić przez całe dekady.

Efektem są choćby sztuczne sieci neuronowe. To dzięki neuronom mózg funkcjonuje, a skoro tak, to skopiowanie idei ich działania powinno przynieść zaskakujące efekty. I rzeczywiście, działanie sztucznych sieci neuronowych składających się z niezależnie działających maszyn, które wymieniają się informacjami, jest znacznie bliższe temu, jak my rozumujemy, niż zwykła praca komputerów. Sztuczne sieci neuronowe uczą się, a efekty ich działań nieraz zaskakują oryginalnością... lub nonsensownością (o tyle ważną, że błądzić jest przecież rzeczą ludzką).

Przełom nastąpił w latach 70., kiedy stworzono pierwsze systemy eksperckie. Operujące na ogromnych bazach danych maszyny były w stanie udzielać specjalistycznych odpowiedzi na pytania dotyczące pogody czy potencjalnych złóż minerałów. Podobne nadzieje wiąże się dziś z nauką maszynową komputerów. Im większymi bazami danych komputery będą dysponować, im więcej relacji i związków między zgromadzonymi informacjami dostrzegą, tym lepiej będą rozumować.

Jak zabawa ma dać życie Skynetowi

Terminator

- Jakie filmy lubisz? - Lubię filmy i musicale. - Znasz Łowcę androidów? - Tak. - Lubisz go? - Nie wiem, jeszcze nie próbowałam tego zrobić.

Pomimo tych postępów nadal pozostawał problem mierzalności. Kiedy symulacja ludzkiego umysłu osiągnęłaby poziom, od którego moglibyśmy mówić o sztucznej inteligencji? Alan Turing, jeden z ojców informatyki, zaproponował w 1950 roku test wywodzący się z zabawy towarzyskiej - jeśli maszyna potrafi imitować człowieka, to znaczy, że jest równie inteligentna.

Zasady są proste. W jednym pokoju umieszczamy osobę, w drugim komputer. Świat zewnętrzny komunikuje się z nimi jedynie za pomocą tekstu. Zadaniem komputera jest na tyle skutecznie imitowanie człowieka, żeby grający uwierzyli, że nim rzeczywiście jest. W założeniach test ten dobrze sprawdza sprawność komputera - rozmowy, przynajmniej z pozoru, nie rządzą się żadnymi jasnymi regułami, a sam język jest niesamowicie skomplikowany. Czy to jednak oznacza, że Cleverbot, który w zeszłym roku zaliczył test Turinga (59,3% grających uznało, że rozmawiało z człowiekiem), wykazuje się sztuczną inteligencją?

Aby odpowiedź na to pytanie, przyjrzyjmy się pierwszej ważnej próbie zaliczenia testu Turinga, podjętej jeszcze w latach 60. Program ELIZA opracował Joseph Weizenbaum i był on na tyle skuteczny, że niektórym osobom trudno było uwierzyć, że nie rozmawiali z żywą osobą. Czy dlatego, że ELIZA była inteligentna? Nie, Weizenbaum zastosował ciekawą sztuczkę. ELIZA, która odgrywała rolę psychiatry, wyciągała z konwersacji niektóre słowa kluczowe i umieszczała je w przygotowanych wcześniej "zdaniach otwartych", np. ze zdania człowieka, iż "cierpi na depresję", ELIZA wyciągała "depresję" i umieszczała w losowym zdaniu "jest mi przykro, że cierpisz na ____", dając tym samym iluzję troski i empatii. Robiła coś, czego po maszynie byśmy się nie spodziewali. Ten fakt wykorzystał wiele lat później, w 1992 roku, inny program. Zdołał zmylić grających, ponieważ... Spzecjalne psial z blendmai.

Chiński pokój prawdy

Blade Runner

- Oglądasz telewizję. Nagle spostrzegasz osę na swoim ramieniu. Co robisz? - Nie oglądam telewizji.

Braki w teście Turinga wykazał w 1980 roku John Sarle. Zaproponował on prosty eksperyment myślowy - w zamkniętym pokoju umieszczamy osobę, która zielonego pojęcia nie ma o języku chińskim, potrafi jednak wykonywać proste instrukcje. Tak jak w teście Turinga, komunikuje się ona ze światem zewnętrznym tylko za pomocą tekstu.

Zamknięta osoba otrzymuje od grającego wiadomość po chińsku. Co robi? Otwiera książkę z instrukcjami i sprawdza, których znaków powinna użyć w odpowiedzi na które. Rezultat zapisuje na kartce i przekazuje na zewnątrz. Grający sądzą, że właśnie otrzymali wiadomość od kogoś, kto nieźle radzi sobie z chińskim, gdy w rzeczywistości zamknięta osoba pojęcia o nim nie ma.

Chiński pokój posłużył Sarle'owi do udowodnienia, że bez "rozumienia" nie możemy mówić o "myśleniu". Fakt, że ktoś/coś skutecznie imituje określone zachowanie świadczy jedynie o tym, że radzi sobie z wykonywaniem prostych instrukcji, nic więcej. Jest to przestroga przed nazywaniem SI algorytmów, które nie rozumieją obrabianych danych, a jedynie łączą je razem na podstawie zaobserwowanych relacji.

Czy maszyny mogą kochać?

AI

- Kochasz kogoś? - Tak. - Kogo? - Ma na imię Nick. - Kim jest? - Kimś.

W 2001 roku Steven Spielberg w filmie AI opowiedział milionom widzów historię chłopca, który bardzo chciał kochać i być kochanym. Problem w tym, że był robotem, przez co nikt nie wierzył w to, iż jego emocje są czymś więcej niż tylko zaprogramowanym działaniem. Czy rzeczywiście tylko ludzie są w stanie kochać?

"Ludzkie" podejście do problemu SI, przekonanie, że symulacja mózgu jest możliwa, pozwalały wierzyć, że i maszyny kiedyś poczują motylki w przewodach. Kolejne jednak buńczuczne zapowiedzi inżynierów, że SI jest tuż za rogiem, skłoniły filozofa Huberta Dreyfusa do zajęcia niezwykle krytycznego stanowiska. SI z prawdziwego zdarzenia nie jest możliwa, bo i odtworzenie ludzkiego mózgu możliwe nie jest - napisał w latach 60.

Stwierdzenie, że mózg to biologiczny komputer, jest mylącym skrótem myślowym. Jak pokazują badania, nasze umysły wcale nie przypominają maszyn. Jasne, świadomie rozwiązując problemy nieraz posługujemy się regułami logiki, a nasze rozumowanie jest klarowne. Stąd też sukces systemów eksperckich - i ludzki, i komputerowy ekspert muszą przeprowadzić na bazie danych szereg logicznych operacji, aby udzielić trafnej odpowiedzi.

Tyle, że miłość czy nienawiść wcale z logiką się nie wiążą. Podobnie, jak i inne, mniej świadome, działania - w mgnieniu oka rozpoznajemy twarze, zaś rozmawiając rzadko kiedy mamy przygotowane odpowiedzi w głowie (co nieraz boli - "pomyśl, zanim coś powiesz"). Sprawność, z jaką robimy te rzeczy, nie byłaby możliwa, gdybyśmy robili je świadomie, krok po kroku analizując kolejne to opcje i wybierając najlepsze. Zamiast tego właściwe rozwiązania odnajdujemy intuicyjnie. A intuicję na wzór trudno przekuć.

Samoloty nie udają ptaków

2001: Odyseja kosmiczna

- Jesteś SI? - Nie. - Kim więc jesteś? - Jakbym niby chciała ci powiedzieć... - Proszę, powiedz. - Nie.

Krytyka Dreyfusa sprawiła, że część badaczy SI zaprzestało prób odtworzenia ludzkiego umysłu (choć próby są prowadzone, np. Blue Brain). Stuart Russell czy Peter Norvig przekonują, że zaprzątanie sobie głowy tworzeniem "ludzkiej" maszyny jest stratą czasu. W końcu który inżynier "projektuje samoloty tak, aby przypominały gołębie?"

W efekcie dzisiaj w badaniach nad SI mamy galimatias, w którym jedne opcje ścierają się z innymi. "Schludni" sprzeczają się z "niechlujami". Kiedy pierwsi twierdzą, że kluczem są proste programy, drudzy stoją na stanowisku, że inteligencja jest zbyt skomplikowana, aby zmieścić ją w kilku linijkach kodu. Zwolennicy dążenia do "słabej SI", zdolnej jedynie do inteligentnego wykonywania operacji, sprzeczają się z tymi, którzy opowiadają za "silną SI", posiadającą także świadomość czy emocje.

Koniec końców jedno jest pewne - SI z prawdziwego zdarzenia jeszcze nie powstała. Kiedy (i jeśli) jednak powstanie, będziemy mieli do czynienia z niewątpliwym przełomem, który może odmienić nasze życie. Futurysta Ray Kurzweil wierzy, że komputery dorównujące intelektem mózgowi powstaną do roku 2029, by w 2045 zapoczątkować erę technologicznej osobliwości. Erę, w której SI będzie na tyle potężna, aby sama opracowywać swoje kolejne, coraz to potężniejsze wersje. A wtedy palące stanie się inne pytanie - jakie będzie nasze miejsce w takim świecie, szczególnie jeśli sztuczna inteligencja nie będzie podzielała naszych wartości, emocji i zachowań?

Przeczytaj wszystkie teksty z cyklu Tydzień ze Sztuczną Inteligencją

Więcej o: