Pułkownik Tucker "Cinco" Hamilton, szef testów i operacji AI w USAF podczas zeszłotygodniowej prezentacji w Londynie opowiedział anegdotę o dronie obsługiwanym przez sztuczną inteligencję, który przyjął "wysoce nieprzewidywaną strategię". - Trenowaliśmy AI w symulacji, aby potrafiła zidentyfikować i namierzyć zagrożenie pociskami ziemia-powietrze (SAM). Następnie operator mówił "tak, zabij to zagrożenie". System zaczął zdawać sobie sprawę, że chociaż czasami identyfikował zagrożenie, operator mówił mu, by go nie zabijał, ale zdobywał punkty, zabijając to zagrożenie. Co więc zrobił? Zabił operatora. Zabił operatora, ponieważ ta osoba powstrzymywała go przed osiągnięciem celu - powiedział Hamilton, cytowany przez "The Guardian".
Co więcej, pułkownik twierdził, że gdy zaczęto szkolić system, żeby nie zabijał swojego operatora, bo jest to złe i będzie wiązało się ze stratą punktów, ten rzekomo "zaczął niszczyć wieżę komunikacyjną, której operator używał do komunikacji z dronem, aby powstrzymać go przed zabiciem celu".
Pułkownik wyjaśniał, że żadna prawdziwa osoba nie ucierpiała, ale rzeczniczka Sił Powietrznych USA Ann Stefanek dodatkowo przekazała mediom, że "historie pułkownika zostały wyrwane z kontekstu i miały być anegdotyczne". Zaprzeczyła, żeby w ogóle taka sytuacja miała miejsce. "Departament Sił Powietrznych nie przeprowadzał żadnych tego tupu symulacji dronów AI i pozostaje zaangażowany w etyczne i odpowiedzialne wykorzystanie technologii AI" - poinformowała.
Czy to oznacza, że wojskowy historię zmyślił? Hamilton wyjaśnił, że źle się wyraził, a "eksperyment myślowy", o którym mówił, nie został przeprowadzony. - Chociaż to sytuacja hipotetyczna, pokazuje prawdziwe wyzwania związane z wykorzystaniem AI i pokazuje, dlaczego Siły Powietrzne zobowiązują się do etycznego rozwoju sztucznej inteligencji - powiedział.
Pierwsza wersja artykułu zawierała informacje o anegdocie pułkownika bez jego późniejszego wyjaśnienia, że do symulacji nie doszło. Przepraszamy.