ChatGPT powstał na ludzkim cierpieniu? "To były tortury". Tajemnica wyszła na jaw

ChatGPT może być odpowiedzialny za traumy pracujących przy nim Kenijczyków. Zostali oni zatrudnieni do moderacji treści pobieranych przez algorytm, który nie rozróżniał, co jest dobre, a co złe. Byli więc narażeni na bardzo przemocowe sceny, które odcisnęły się na ich psychice. Ponadto zarabiali za to nie więcej niż 2 dolary za godzinę.

Od początku roku furorę robi ChatGPT od Open AI. Algorytmy sztucznej inteligencji, na której bazuje program, dają możliwości rozmowy z nim jak z człowiekiem. Śledztwo dziennikarzy magazynu "Time" rzuca jednak na tę platformę zupełnie nowe światło.  

Zobacz wideo VR-em można leczyć, ale też wykorzystać do tortur. A wirtualna rzeczywistość wchodzi do mainstreamu

ChatGPT miał problem z przemocą

Swoją popularność ChatGPT zawdzięcza m.in. bardzo dużej bazie danych, które pobrał z internetu i na podstawie których odpowiada użytkownikom systemu. "Time" opisuje jednak, że na samym początku tworzenia Chatbota jego twórcy mieli problem z przemocowymi, seksistowskim i rasistowskimi treściami, które również pozyskał z internetu. Nawet z jego najmroczniejszych zakątków. Algorytm nie odróżniał tego, co jest "dobra a co złe". Potrzebni byli do tego ludzie.  

Z tego powodu OpenAI wynajęło firmę outsourcingową Sama w Kenii do moderacji treści pobranych przez algorytm. Zadaniem jej pracowników było ich ręczne przejrzenie i selekcjonowanie. "Time" opisuje, że musieli czytać m.in. drastyczne opisy nadużyć seksualnych wobec dzieci, gwałtów, morderstw, samobójstw, tortur i kazirodztwa.  

ChatGPT powstał na cierpieniu? 

Anonimowy pracownik firmy, który zajmował się moderacją, przyznał w rozmowie z "Time'em", że praca wykończyła go psychicznie. Opowiada, że wciąż nie może uwolnić się od obrazka aktu zoofilskiego z psem w obecności dziecka. - To były tortury - mówi. Co więcej, według informacji "Time'a" pracownicy mogli skorzystać z jedynie grupowego wsparcia psychicznego, choć Sama utrzymuje, że mogli oni skorzystać także z porad indywidualnych.  

Więcej informacji z Polski przeczytasz na stronie głównej Gazeta.pl

Traumatyczne doświadczenia pracowników firmy Sama doprowadziły do skrócenia przez nią kontraktu z OpenAI i zakończenia go osiem miesięcy przed czasem.  

Pracownicy w Kenii zarabiali grosze

Pracujący przy Chatbocie nie tylko byli narażeni na doświadczenia traumatyczne, ale również mieli nieludzko niską pensję, zwłaszcza w obliczu konsekwencji psychicznych jakie pociągała za sobą. W zależności od doświadczenia i produktywności zarabiali od 1,3 dolara do 2 dolarów za godzinę

"Time" opisuje, że swoim śledztwem zdradza "najlepiej strzeżone tajemnice firmy". Mowa nie tylko o tragicznych warunkach pracy, ale również przyznaniu się, że opracowany algorytm nie był doskonały i wymagał ludzkiej moderacji. OpenAI przyznało się bowiem do korzystania z usług Samy.

Więcej o: