Wszystko jest efektem czerwcowych badań Facebooka, w których skonfrontowano ze sobą dwa inteligentne boty celem poprawienia ich zdolności do negocjacji z człowiekiem i prowadzenia bardziej złożonych konwersacji. Jako wzór pokazano im uprzednio prowadzone dyskusje między ludźmi. Zadanie botów było banalnie proste. Podzielić między siebie zbiór różnych przedmiotów - czapek, kulek oraz książek.
W trakcie eksperymentu metodą prób i błędów boty zaczęły poprawiać swoje wyniki, a po aktualizacji przez naukowców niektórych parametrów, używać niestandardowych zwrotów wychodzących poza typowy język angielski. Mało tego, zauważono również, że boty podczas konwersacji wykazują pozorne zainteresowanie rzeczami, których tak naprawdę nie potrzebują, tylko po to, żeby potem móc z nich zrezygnować i w ten sposób wykazać umiejętność znajdowania kompromisu.
Po fali alarmujących doniesień informujących o rzekomym niebezpiecznym zachowaniu botów uczestniczący w badaniach naukowcy uspokajają, że nie ma absolutnie żadnych powodów do paniki. Wręcz przeciwnie. Prowadzone przez Facebooka eksperymenty wyraźnie wskazują, jak wiele jeszcze w kwestii sztucznej inteligencji jest do zrobienia.
Czytaj też: AlphaGo jednak górą! Sztuczna inteligencja ograła do zera mistrza świata w Go
To już nie pierwszy przypadek, kiedy sztucznej inteligencji pozwala się na wymyślanie własnego stylu komunikacji. Kilka miesięcy wcześniej podobne badania prowadził między innymi Alphabet (Google) oraz wspierany przez Elona Muska projekt OpenAI. Eksperyment Facebooka wbrew wcześniejszym informacjom nie zakończył się przedwcześnie i nie był spowodowany 'paniką' naukowców wynikającą z braku kontroli nad botami.