Konferencja Infoshare 2023, której jednym z patronów jest Next.Gazeta.pl to największe w tej części Europy święto nowych technologii. Ponad 7 tysięcy uczestników, ponad 220 technologicznych startupów i korporacji oraz blisko 200 ekspertów z całego świata przyjechało do Gdańska, aby podzielić się tym, jak technologia może pomóc w biznesie. Obecnie jesteśmy świadkami ogromnej rewolucji związanej z rozwojem sztucznej inteligencji, dlatego nie dziwi, że to właśnie wokół tego tematu kręciła się cała konferencja. Infoshare 2023 to również rewelacyjna okazja, aby dowiedzieć się więcej na temat niezwykle szybkiego postępu w dziedzinie AI.
Serg Masis, Syngenta: Ona już teraz jest wszędzie. Możemy tego nawet nie zauważać, ale ona jest wszędzie dookoła nas już od dawna. Na przykład Netflix korzysta ze sztucznej inteligencji w swoim systemie rekomendacji [filmów – red.] od jakichś ośmiu lat. Podobnie robi Facebook w przypadku swojego feedu ["tablicy", na której wyświetlane są treści – red.]. Gdy pytasz o coś Alexę [asystenta głosowego firmy Amazon – red.], tam też pojawia się AI. Sztuczna inteligencja działa też na lotnisku, gdy jesteś skanowany przez kamery do rozpoznawania twarzy albo gdy robisz zakupy przez internet, to sztuczna inteligencja stoi za systemem rekomendacji, który podpowiada ci, co być może chciałbyś kupić w następnej kolejności.
Rzecz w tym, że nie jest to coś, w co jesteśmy bezpośrednio zaangażowani, co zauważamy. No, chyba że akurat piszesz maila, a Google podpowiada ci kolejne słowo. Uznajemy to już jednak za coś oczywistego. Moim zdaniem to, co poruszyło wyobraźnię ludzi, to rodzaj AI, który nazywamy generatywną sztuczną inteligencją. Generatywna AI nie przewiduje czegoś (np. pogody), ale tworzy nowe rzeczy, opierając się na tym, co wie. To dzięki temu możemy generować nowe zdjęcia np. w DALL-E lub Midjourney, czy nowy tekst na podstawie czegoś. To jest właśnie generatywna sztuczna inteligencja i to właśnie ona poruszyła nami bardziej niż cokolwiek, czego byłem świadkiem w ostatnich kilku latach.
To szerokie pojęcie. Składa się na nie wiele dróg i sposobów, na które próbujemy naśladować ludzką inteligencję, ale nasza uwaga skupia się teraz głównie na uczeniu maszynowym, a w szczególności na uczeniu nadzorowanym i uczeniu głębokim. Kiedy mówimy więc np. o ChacieGPT, mówimy o uczeniu głębokim.
Uczenie maszynowe zbliżone jest trochę do programowania. Tworzysz program, który w tym przypadku nazywany jest modelem i który jest szkolony. Masz więc algorytm, którym kieruje się komputer, aby optymalizować przewidywania. Wspomniany ChatGPT został wytrenowany, aby przewidywać kolejne słowo. Dajesz mu więc fragment tekstu oraz słowo, które pojawia się jako następne. Program zaczyna łączyć kropki. Gdy dostarczysz mu całe mnóstwo różnych przykładów, zaczyna rozumieć, że to zdanie zawsze łączy się z tym słowem.
Dokładnie. I wtedy program zaczyna rozumieć, jak trafnie przewidywać następne słowo. Sposób uczenia polega zatem na ocenianiu, jak dokładne będzie to połączenie i znajdowaniu odpowiedniego słowa.
Tak jakby. Ona próbuje łączyć dane wejściowe z wyjściowymi, czyli dane szkoleniowe z jakąś etykietą, w tym przypadku tym słowem, które pojawia się na końcu. Przeglądając wiele różnych przykładów, w końcu zaczyna widzieć odpowiednie połączenia. Ale mówimy tu o tysiącach lub milionach przykładów. W przypadku ChataGPT były to prawdopodobnie nawet miliardy.
Tak, zresztą Sam Altman, CEO OpenAI, sam to przyznał. Tak jak wspomniałem wcześniej, model, na którym opiera się ChatGPT, przewiduje następne słowo. To nic rewolucyjnego. Ale dysponuje taką ilością danych, że może to robić z niezłą dokładnością. Na tym budujesz kolejny model, który już może odpowiadać na pytania. To coś, co stoi już nieco bliżej chatbota. Ale wtedy bierzesz te pytania i odpowiedzi [wygenerowane przez AI – red.] i dajesz ludziom do oceny. Niech zdecydują, czy są poprawne, czy nie. I to właśnie jest klucz w tym rozwoju. A rezultat jest trochę magiczny. Oni nawet nie rozumieją, w jaki sposób stworzyli rzeczy, których nie byli w stanie wcześniej przewidzieć.
Tak. Ale dla mnie jest to jak ostatnia rewolucja, kiedy to internet zaczynał się liczyć. Byłem wtedy twórcą stron internetowych i czułem się tak samo jak teraz. Ludzie nagle budzą się z taką nowością i próbują wykorzystać ją wszędzie. Oczywiście początkowo - przynajmniej w tamtym przypadku [internetu – red.] - to nie zadziałało we wszystkich branżach. Na przykład wtedy ktoś wpadł na pomysł, aby sprzedawać karmę dla zwierząt przez internet, ale nikt nie chciał kupować jej online. Teraz się to zmieniło.
Możemy zauważyć, że takie same rzeczy dzieją się w przypadku AI. Wiele branż chce wprowadzić ją na różny sposób. Czasem ludzie nie są jednak zainteresowani tą konkretną aplikacją, ale być może spodoba im się inna. Wciąż przechodzimy zatem przez taką fazę testów, odkrywając, w jakich celach ludzie chcą korzystać z technologii. Na razie [AI – red.] nie rozwiąże wszystkich problemów.
Być może. W tym rzecz, że to technologia ogólnego przeznaczenia, podobnie jak internet. Korzystając z niej, możesz rozwiązać wiele problemów. Ale wciąż widzę tu ogrom pracy, jaki trzeba wykonać nad kwestiami prywatności, wiarygodności i wieloma innymi. Jeśli będziemy w ogóle w stanie się z tym uporać, będziemy mogli udoskonalić nasze możliwości.
Mógłbym na przykład rozmawiać z tobą teraz po polsku, gdybym tylko miał urządzenie, które tłumaczy w sposób natychmiastowy. W zasadzie odpowiednie technologie już istnieją, bo mamy na przykład Google Translate, mamy zamianę tekstu na mowę i mowy na tekst, ale potrzebujemy jakiegoś urządzenia, które to połączy, dodając do tego np. rozpoznawanie mowy ciała. Jest więc wiele sposobów, na które możemy jeszcze ulepszać technologie, ale to wymaga dalszej pracy.
Oczywiście. Właśnie o to mi chodziło, gdy mówiłem o zwiększaniu naszych możliwości. Obecnie nawet mając najlepszego chirurga, wciąż jest doza niepewności przy operacjach, które są ryzykowne i wymagają ogromnej precyzji. Technologia mogłaby znacząco uprościć takie operacje, zwiększając zdolności chirurga.
Nie sądzę, aby obecnie było to możliwe. Sam Altman przyznał ostatnio w wywiadzie, że nie byłby zaskoczony, gdyby GPT-10 [obecnie najnowszym modelem jest GPT-4 - red.] dotarł do takiego poziomu. Ja jestem jednak skłonny myśleć, że przy obecnej architekturze to raczej niemożliwe. Nie wyobrażam sobie sztucznej inteligencji jako czegoś więcej niż programu, który przewiduje następne słowo. Przewidywanie to faktycznie część ludzkiej inteligencji i każdej w ogóle. Ale brakującym elementem jest wyjątkowa "fizyczna" świadomość, której maszyna po prostu nie może mieć. Nie ma świadomości i możliwości oceniania własnych odpowiedzi. Zna je dopiero po fakcie [po przyznaniu oceny przez człowieka – red.].
Tworząc jeden model, który ocenia odpowiedzi drugiego modelu, bylibyśmy nieco bliżej. Choć oczywiście w rzeczywistości byłoby to znacznie bardziej skomplikowane. Być może wtedy bylibyśmy w stanie dotrzeć do jakiegoś poziomu [samoświadomości – red.], ale nie przy obecnej architekturze.
To byłoby możliwe, ale, szczerze mówiąc, myślę, że nie mamy czym się martwić. Dlatego, że, nawet gdybyśmy stworzyli samoświadome maszyny, one wciąż będą tylko maszynami i możemy je wyłączyć. Czy nawet gdybyśmy mieli technologię zdolną zniszczyć nas samych, nie bylibyśmy w stanie jej powstrzymać? Jestem skłonnym myśleć, że raczej byśmy sobie z nią poradzili. Widzieliśmy, co się stało podczas pandemii i myślę, że bardzo wiele się wtedy nauczyliśmy. Mamy wiele sposobów na to, by odpowiednio wcześnie wcisnąć hamulec, aby AI nie mogła posunąć się dalej.
---
AI daje nowe technologiczne możliwości, by poprawić nasz byt. 14 i 15 czerwca odbędzie się międzynarodowy hackathon Hack To The Rescue, którego patronem jest Next.Gazeta.pl. Więcej znajdziecie w poniższym artykule: