We wtorek podczas konferencji Google I/O 2018 prezes internetowego giganta Sundar Pichai zaprezentował eksperymentalną wersję usługi Duplex, która przenosi sposób komunikowania się przez sztuczną inteligencję na zupełnie nowy poziom. Dzięki nowej technologii asystent Google'a może prowadzić z człowiekiem niemal naturalny dialog - przytakiwać, reagować na pytania, wyciągać wnioski z przebiegu konwersacji.
Czytaj też: Nie będziesz stać w korkach, a telefon zamówi ci kawę. Musisz tylko sprzedać swą cyfrową duszę diabłu
Pichai nie tylko opowiedział o Duplex, ale pokazał również, jak technologia radzi sobie w praktyce. Odtworzył fragment rozmowy telefonicznej między Google Duplex, a pracowniczką salonu fryzjerskiego. Bot bez najmniejszego problemu zarezerwował wizytę u fryzjera, a jego rozmówczyni nawet nie zorientowała się, że rozmawia z AI.
Gdy Pichai pokazywał możliwości nowej technologii, która prawdopodobnie jeszcze w tym roku może zostać udostępniona publicznie, przez salę przetoczyły się okrzyki zachwytu. Ten zachwyt bardzo szybko ustąpił jednak miejsca konsternacji.
Czy AI może udawać człowieka?
Nowy pomysł Google'a rodzi bowiem szereg pytań z pogranicza nowych technologii i etyki. Czy sztuczna inteligencja może podszywać się pod człowieka? Czy mamy prawo wiedzieć, że rozmawiamy z robotem, a nie z inną osobą?
Tuż po zakończeniu prezentacji na Google wylała się potężna fala krytyki - zarówno ze strony dziennikarzy, ekspertów zajmujących się AI, jak również zwykłych internautów.
Google Assistant prowadzi rozmowę telefoniczną i udaje człowieka, nie tylko nie informując, że jest botem, ale wtrącając zwroty 'ummm' i 'aah', aby zwieść swego rozmówcę, a to wszystko spotyka się z zachwytem, co jest... przerażające. Dolina Krzemowa jest etycznie zgubiona, i niczego się nie nauczyła.
- napisała na swoim profilu na Twitterze Zeynep Tufekci, znana turecka pisarka i wykładowczyni, która specjalizuje się w dziedzinie nowych technologii i AI.
Wątpliwości, co do nowego pomysłu Google wyraziła również m.in. prof. Joanna Byrson z University of Bath, specjalistka w dziedzinie etyki AI. W rozmowie z serwisem "The Verge" stwierdziła ona, że na Google spoczywa etyczny obowiązek zadbania o to, aby osoba rozmawiająca z botem wiedziała, że po drugiej stronie nie znajduje się człowiek.
Jeśli Google zaniedba ten obowiązek, to Duplex może stać się doskonałym narzędziem np. do manipulacji i oszustw na niespotykaną skalę. Trzeba bowiem pamiętać, że świat przestępczy doskonale radzi sobie z przyswajaniem technologicznych nowości
Google nie schował głowy w piasek i zareagował na słowa krytyki. Już we wtorek firma opublikowała na swoim blogu szereg wyjaśnień. Z tej obszernej notki dowiadujemy się m.in., że Duplex nie jest gotową usługą i znajduje się w fazie eksperymentalnej.
Asystent Google'a nie jest "wszechwiedzący". Może poruszać się w dość ograniczonym zakresie tematycznym. W tym momencie AI potrafi "jedynie" zarezerwować stolik w restauracji, umówić wizytę u fryzjera, a także poprosić w naszym imieniu o urlop.
Co więcej, Google wyposażył nową technologię w "bufor bezpieczeństwa". W sytuacji, gdy konwersacja wykroczy poza możliwości AI, bot poinformuje rozmówce, że aby dane zadanie zostało wykonane, niezbędna jest rozmowa za człowiekiem. Ten "bufor" wcale nie rozwiązuje jednak kwestii identyfikacji bota na samym początku takiej rozmowy.
Z tego powodu w czwartek Google ponownie zabrał głos w tej kontrowersyjnej kwestii.
Rozumiemy wartość dyskusji, która toczy się wokół Google Duplex - tak jak mówiliśmy od początku, transparentność w technologii jest ważna. Projektujemy tę usługę w taki sposób, aby mieć pewność, że system w odpowiedni sposób się zidentyfikuje.
- poinformował rzecznik Google.
Oświadczenie Google z pewnością nie zakończy dyskusji wokół Google Duplex. Warto przyglądać się też dalszemu rozwojowi tej technologii, która - z jednej strony - może fascynować i zachwycać, ale - z drugiej strony - powinna budzić uzasadnione obawy.