Pojawienie się i popularyzacja generatywnej AI (takiej, które sama tworzy nowe treści z podanych jej danych) wstrząsnęło światem. ChatGPT wciąż jest ciekawostką, ale narzędzia do tworzenia obrazów zdążyły już nieco ugruntować swoją pozycję. I wywołać sporo zamieszania. We wrześniu 2022 roku Jason M. Allen wygrał stanowy konkurs ilustratorski w Kolorado. Okazało się jednak, że zgłoszony przez niego obraz stworzyła sztuczna inteligencja. Artystę oskarżono o oszustwo, ale Allen twierdzi, że nie złamał żadnych zasad.
W Chinach studio Anime Senpai, które tworzy filmy animowane zaczęło zlecać pracę AI, zamiast dotychczasowym pracownikom. Artyści mają jedynie wprowadzać poprawki, a jedną z osób, które to bezpośrednio dotknęło jest Amber Yu - czytamy w Comic Book Resources. W styczniu Netflix wypuścił animację "The Dog & The Boy", w której tła również stworzyła sztuczna inteligencja, za co spadła na nich krytyka. Manga "Cyberpunk: Peach John" autorstwa anonimowego Rootporta została w całości narysowana przy pomocy AI, informuje CBR. Mimo, że Rootport twierdził, że technologia ta nie jest zagrożeniem dla artystów, to jego komiks skopiował style znanych twórców mangi, m.in. Sui'ego Ishidy, odpowiedzialnego za popularne "Tokyo Ghoul".
Wątpliwości czy etyczne jest wykorzystywanie prac do karmienia sztucznej inteligencji ma też Greg Rutkowski, którego prace były masowo używane w promptach AI (poleceniach dla algorytmu), w celu stworzenia obrazów podobnych do jego dzieł. We wrześniu trafiły do 93 tys. promptów w Stable Diffusion, podczas, gdy Da Vinci, Michał Anioł czy Picasso zostali skopiowani w narzędziu ok. 2 tys. razy każdy. Jak wówczas mówił Rutkowski w rozmowie z MIT Technology Review, to "zdarzyło się tylko w miesiąc. Co będzie za rok? Prawdopodobnie nie będę mógł znaleźć swoich prac, bo internet będzie zalany sztuką AI".
Podobne obawy sformułowały też artystki zajmujące się ilustracjami do książek dla dzieci. Stało się to po tym, jak Ammaar Reshi stworzył właśnie taką pozycję w całości przy pomocy narzędzi AI, pochwalił się tym na Twitterze i sprzedawał ją na Amazonie.
Dla mnie największym problemem jest to, że AI była uczona na pracach artystów. To nasze dzieła, wyróżniający nas styl, który tworzyliśmy latami i co do których nie daliśmy zgody na wykorzystanie
- mówiła w rozmowie z Time.com Adriane Tsai, ilustratorka książek dla dzieci.
Są też artyści, którzy okrzepli, oswoili AI i zaczęli wykorzystywać ją w swojej pracy, jak chociażby Piotr Cieśliński, grafik oraz ilustrator prowadzący studio Dark Crayon. Wielu jednak uważa sztuczną inteligencję za zagrożenie. Na tyle, że "pod koniec 2022 roku, po fali niezadowolenia, która przetoczyła się przez profile graficznej części mediów społecznościowych, artyści zaczęli zbierać fundusze (...), by wynająć lobbystów walczących o ich prawa w stolicy USA" - pisał w lutym w "Nowej Fantastyce" Cieśliński.
Sprawa jest więc poważna i wykracza poza internetowe inby. Getty Images uznał, że "Stability AI bezprawnie skopiowało i przetworzyło miliony obrazów chronionych prawem autorskim ze szkodą dla twórców treści". Agencja twierdzi też, że autorzy generatywnej AI zignorowali kwestie ochrony prawnej dzieł fotografów i opłaty licencyjne, dlatego zdecydowała się pozwać firmę w Sądzie Najwyższym w Londynie.
Getty Images uważa, że zdjęcia zostały wykorzystane do stworzenia programu bez zgody i wiedzy fotografów, a prace te wciąż mogą stanowić "inspirację" dla sztucznej inteligencji. Przedstawiciel Stability AI w rozmowie z BBC broni się, twierdząc, że osoby uważające to za bezprawne użycie "nie rozumieją technologii i prawa".
Przeciwko Stability AI i dwóm innym oskarżonym toczy się już podobny proces w sprawie naruszenia praw autorskich w Kalifornii. Skargę wniosło trzech artystów, którzy uważają, że zostali pokrzywdzeni m.in. przez autorów generatora Stable Diffusion, czyli m.in. wspomniane Stability AI. Kwestia generatorów AI budzi więc wiele różnych emocji i problemów z zakresu prawa autorskiego, ale też etyki.
Kluczowa z punktu widzenia prawa może być kwestia "progu inspiracji", na który zwróciła uwagę radczyni prawna Elżbieta Figat-Michalak (prowadzi Kancelarię Prawną Idea Legal).
Z punktu widzenia praw autorskich problematyczne jest to, że sztuczna inteligencja może proponować wytwory kopiujące styl artysty lub ideę jego twórczości. Czyli nieprzekraczające progu inspiracji
- pisze Figat-Michalak.
Każdy taki przypadek zgłoszony do sądu byłby rozpatrywany osobno. Powstaje jednak pytanie, czy w ogóle powinniśmy się tym przejmować? Zdaniem Piotra Cieślińskiego artyści po prostu się przestraszyli i rozdmuchali sprawę.
Artysta swój artykuł w "NF" zaczyna od przypomnienia historii aparatu fotograficznego. "Przywołuję ją, ponieważ "w magazynach takich jak 'Brush and Pencil' czy 'The Crayon' wydawanych pod koniec XIX i na początku XX wieku można było przeczytać całe strony zapisanych drobnym drukiem 'faktów' dotyczących niedoskonałości fotografii w porównaniu z twórczością 'Prawdziwych Artystów' oraz na temat niebezpieczeństw dla rynku sztuki spowodowanych przez wzrost popularności fotografii".
Zdaniem Cieślińskiego sytuacja z AI jest dziś analogiczna. Uważa, że w tym problemie nie chodzi już o to, że do "trenowania" swoich modeli Stability AI wykorzystało ilustracje, do których użycia w sposób komercyjny trzeba mieć prawa autorskie. Artysta twierdzi, że AI generująca obrazy nie jest problematyczna, bo tworzy, a nie kopiuje.
Gdyby AI kopiowała, to w jego mniemaniu problem i tak nie byłby duży, bo prawo nie chroni stylu artysty, na którym przecież uczy się AI. Radczyni prawna Elżbieta Figat-Michalak potwierdza te słowa i wyjaśnia, że "prawo autorskie chroni utwory w granicach sposobu wyrażenia (art. 1 ust. 2 (1) Ustawy o prawie autorskim i prawach pokrewnych). Oznacza to, że nie są objęte ochroną idee, metody, pomysły czy styl".
Samej reprodukcji Cieśliński nie uważa więc za kłopot. W przeciwieństwie do fałszerstwa. Jak dodaje, jako że w prawie liczą się intencje, to przykładowo sprzedaż obrazu jako oryginalnego dzieła danego artysty byłaby "zła".
Artyści kopiują i naśladują innych artystów na co dzień, jednak szary człowiek z dostępem do AI... to niewyobrażalne. AI nie używa grafik, nie miksuje ich, nie wycina i nie składa w gotowy obraz
- uważa założyciel Dark Crayon.
Tak jak artysta uczy się, oglądając ilustracje innych, tak AI jest 'trenowana' w bardzo podobny sposób. AI nie odtwarza, a tworzy za pomocą modelu matematycznego, który przypomina układanie szumu telewizora przełączonego na nieistniejący kanał
- twierdzi Cieśliński.
Choć artysta stawia sprawę dość jasno, to nie jest ona tak przezroczysta. Nawet odstawiając na bok kwestię praw autorskich, już dzisiaj wiemy, że korzystanie z losowych obrazów z internetu może być bardzo problematyczne. Jak w przypadku artystki Lapine. Po tym, jak MidJourney przyznało, że korzystało z bazy przygotowanej przez Liaon, artyści zaczęli sprawdzać, czy ich sztuka nie została bezprawnie użyta do karmienia algorytmu. W tym celu stworzono specjalne narzędzie dostępne na stronie HaveIBeenTrained.com.
Lapine z pomocą wspomnianej strony odkryła, że w bazie, na której trenowano AI znalazło się jej zdjęcie. I to nie jakieś "zwykłe zdjęcie" z Facebooka czy Instagrama. Artystka odkryła bowiem, że algorytmy AI były uczone m.in. na zdjęciu, które było częścią jej dokumentacji medycznej. Po tym, jak doktor zmarł w 2018 roku jej fotografia trafiła do bazy Liaon, choć artystka wyrażała świadomą zgodę wykorzystania zdjęcia jedynie przez tego konkretnego lekarza.
Piotr Cieśliński w tekście dla "Nowej Fantastyki" formułuje hipotezę, że artyści kierowani strachem zapomnieli, iż nasz gatunek "nie istniałby bez genetycznie zaprogramowanej umiejętności i potrzeby przekazywania wiedzy z pokolenia na pokolenie oraz miksowania jej przez kolejną generację dla uzyskania nowej wiedzy". Cieśliński przypomina, że robili tak wszyscy artyści, odkąd obrali tę drogę.
On sam nie pozostaje tylko na płaszczyźnie filozoficznych i społecznych rozważań na temat natury sztuki oraz ludzkości. W swojej pracy w Dark Crayon korzysta z generatywnej AI, by tworzyć okładki czy projekty graficzne do książek, jak w ilustracjach do "Stacji Przypływu" Micheala Swanwicka.
Jak tłumaczy "aby stworzyć cokolwiek zdatnego do użycia (za pomocą AI - red.) potrzeba od kilku do kilkuset prób, a każda zmiana opisu to praca od nowa". Potem taką grafikę należy poddać odpowiedniej obróbce, ale "dzięki temu efekt jest ciekawszy, a pewne elementy graficzne można łatwiej i szybciej uzyskać niż podczas pracy w technikach klasycznych".
Tak więc nie działa to w ten sposób, że grafikę tworzy sama AI. Może to zrobić, ale dla mnie to po prostu generator materiałów, coś w rodzaju stocka. Tylko że do obsługi akurat tego stocka potrzebna jest wiedza na temat historii sztuki, technik stosowanych w grafice, malarstwie, projektowaniu, fotografii, a nawet filmie, bo wszystko trzeba dokładnie opisać w rodzimym języku AI (angielski). Jak te elementy zostaną później użyte zależy tylko i wyłącznie od twórcy
- uważa Cieśliński. Jego zdaniem, artyści mogliby używać AI "w sposób podobny do dawnych florenckich mistrzów, którzy zatrudniali pomocników pracujących pod ich nazwiskiem. (...). I dodaje, że "artyści boją się o swoje miejsca pracy, jednak w większości zamiast implementacji narzędzia jakim jest AI, wybierają protest".
Inaczej na tę kwestię patrzy Katarzyna "PannaN" Witerscheim ART. Jak wyjaśnia, oczywiste jest, że aby tworzyć sztukę, trzeba ją też oglądać, mieć z nią styczność.
Tyle, że twórca uczący się na pracach innych, przepuszcza to przez filtr własnej kreatywności. Nie jest to losowe generowanie obrazów imitujących cudzą sztukę. Zresztą, ludzie bawiący się AI nie mają zamiaru tworzyć nic nowego - oni kopiują z całkowitą świadomością już istniejący styl, by stworzyć coś, co ma przypominać pracę konkretnych artystów
- mówi Witerscheim. W takim postrzeganiu sztuki AI wtóruje jej w artykule dla Krytyki Politycznej Michał Ochnik, pisarz, publicysta, wideoeseista i komentator kultury popularnej, twórca bloga Mistycyzm Popkulturowy.
Witerscheim dodaje, że w procesie tworzenia AI bezpośrednio są wykorzystywane prace innych artystów, więc jej zdaniem mogą jak najbardziej czuć, że naruszono ich prawa autorskie. "Ich praca została wykorzystana przez korporacje do zarabiania pieniędzy na AI" - tłumaczy artystka.
Jej zdaniem, graficy jednak nie tyle boją się AI, a są zwyczajnie wściekli. Jak tłumaczy, wiele osób, które bronią AI uważa artystów za osoby uprzywilejowane, a generatory obrazów za bramę do tej branży, również dla osób, które nie mają tego "przywileju rysowania".
Tylko, że za tym są lata nauki, pracy za darmo, walka o zlecenia i problemy zdrowotne. Dlatego ludzie są po prostu wk*****ni
- twierdzi Witerscheim.
Spytana o to, czy da się nie postrzegać generatorów obrazów jako zagrożenia i zamiast tego wykorzystać AI w taki sposób jak Dark Crayon, tj. do pomocy, stwierdziła, że tylko teoretycznie. Artystka uważa, że takie korzystanie z AI będzie marginalne.
Skończy się tym, że korporacje będą wykorzystywać AI do tworzenia grafik, a artyści będą zatrudniani tylko do nanoszenia poprawek
- przewiduje Witerscheim.
Jej zdaniem, na rewolucji związanej z pojawieniem się generatywnej AI mało kto zyska. Bezpiecznie mogą się czuć artyści z wyrobionymi nazwiskami. Osoby, które dopiero wchodzą na ten rynek, będą miały natomiast trudniej, bo o zlecenia będą walczyć nie tylko między sobą, ale też z AI.
Podobnie uważa Michał Ochnik, który dla Krytyki Politycznej pisał: "Prawdopodobnie zawodowcy zajmujący się tworzeniem, powiedzmy, grafik koncepcyjnych na potrzeby wysokobudżetowych filmów i seriali nie mają się czym przejmować. Ale mniejsi lub początkujący artyści utrzymujący się z mało prestiżowych prac dla niszowych wydawców albo klientów, dla których priorytetem nie jest wysoka jakość czy artystyczna spójność produktu? Upowszechnienie się tej technologii może zmieść z powierzchni ziemi całe segmenty i tak już cienko przędącego rynku".
Ochnik twierdzi też, że w idealnym świecie technologia AI odciążyłaby przepracowanych ludzi. Ale w neoliberalnym kapitalizmie sprawia jedynie, że ludzie mogą stracić z dnia na dzień źródło utrzymania. Bo generatywna AI dostarcza obrazy dostatecznie dobre, co w wielu przypadkach będzie dla zleceniodawców w zupełności wystarczające - wyjaśnia Ochnik.
"Oczywiście za całą tą technologią ciągnie się długi warkocz moralnych, filozoficznych, politycznych i prawnych implikacji, których jeszcze długo nie będziemy w stanie rozplątać. Nieoczywista pozostaje choćby kwestia tego, kto właściwie może przypisać sobie autorstwo wygenerowanego w ten sposób dzieła - literackiego lub graficznego" - pisze Ochnik. I dodaje, że niektórzy określają generatory mianem wyrafinowanej formy plagiatu. O kwestię praw autorskich w AI spytaliśmy radczynię prawną Elżbietę Figat-Michalak, która stwierdziła, że korzystanie z dzieł AI jest naruszeniem praw autorskich, "o ile wytwory te stanowią opracowania utworów - tj. przekraczają granicę inspiracji".
Radczyni zwraca uwagę, że naturą praw autorskich jest wyznaczanie granic w sposób, który ma stanowić zachętę do twórczości artystycznej. Spytana o te granicę stwierdziła, że obowiązujące przepisy nie ograniczają wolności sztuki.
Należy sobie raczej odpowiedzieć na pytanie, czy rozwój technologii wymaga eksploatacji dzieł sztuki? Można również zadać pytanie, czy w zakresie, w którym eksploatacja dzieł sztuki jest niezbędna dla rozwoju technologii, możliwe jest ograniczenie tej eksploatacji do utworów znajdujących się w domenie publicznej?
- zastanawia się Figat-Michalak.
Katarzyna "PannaN" Witerscheim uważa, że blokowanie obrazów, by AI nie mogło się na nich uczyć, byłoby dobrym, acz mało możliwym do zrealizowania pomysłem. Radczyni prawna z kolei twierdzi, że blokowanie obrazów może być co najwyżej doraźnym rozwiązaniem. "Moim zdaniem skuteczne będą wyłącznie rozwiązania systemowe, ponieważ artysta nie zawsze będzie dysponował zasobami technicznymi do blokowania każdego przypadku bezprawnego użycia jego twórczości" - pisze Figat-Michalak.
Wróćmy do wspomnianego na początku artykułu "progu inspiracji", którego zdaniem radczyni prawnej AI zazwyczaj nie będzie przekraczała. "Sztuczna Inteligencja potrafi odszukać cechy charakterystyczne analizowanych prac artysty i przetworzyć je w sposób prowadzący do nowego sposobu wyrażenia. Dochodzi do eksploatacji stylu lub poetyki właściwej dla artysty lub wiodących motywów jego twórczości. To, co dla innych artystów mogłoby być niemożliwe do skopiowania, nie stanowi problemu dla sztucznej inteligencji. AI zawłaszcza zatem przestrzeń wolności twórczej zarezerwowanej dla swobodnej wymiany myśli i idei" - pisze Figat-Michalak.
Z powyższych powodów prawo autorskie nie znajduje zastosowania do naśladownictwa autorskiego stylu lub idei. Twórczość artystów trzeba by więc chronić na podstawie innych przepisów. Radczyni prawna proponuje zastosowanie zapisów Kodeksu cywilnego o ochronie dóbr osobistych, do których zalicza się twórczość artystyczna. "Natomiast ochronę zawodowej działalności artysty mogą zapewnić przepisy Ustawy z dnia 16 kwietnia 1993r. o zwalczaniu nieuczciwej konkurencji. Znajdą zastosowanie np. w przypadku, gdy przedsiębiorca oferuje wytwory sztucznej inteligencji oparte na działalności określonego artysty" - radzi Figat-Michalak.
Podstawową cechą działania Sztucznej Inteligencji jest to, że jej wytwory powstają jako wynik analizy treści i danych. Jeżeli analizowane treści i dane są utworami, to powstaje pytanie, czy ich wykorzystywanie do trenowania sztucznej inteligencji wymaga zgody autora?
- uważa radczyni.
"W tym zakresie specjalne regulacje wprowadza art. 4 DYREKTYWY PARLAMENTU EUROPEJSKIEGO I RADY (UE) 2019/790 z dnia 17 kwietnia 2019 r., zgodnie z którym uprawniony do treści, w tym utworów rozpowszechnianych w internecie mógłby za pomocą środków nadających się do odczytu maszynowego zastrzec brak zgody na ich wykorzystanie w celach eksploracji tekstów i danych (nauczanie maszynowe). Zgodnie z projektem nowelizacji Ustawy prawo autorskie i prawa pokrewne zostanie dodany art. 26 (3) ust. 1 o treści "wolno zwielokrotniać rozpowszechnione utwory w celu eksploracji tekstów i danych, chyba że uprawniony zastrzegł inaczej. De facto nowelizacja wprowadza nową formę dozwolonego użytku, wyłączaną na podstawie zastrzeżenia autora" - tłumaczy nam Elżbieta Figat-Michalak.
Według radczyni, umieszczenie utworu w internecie nie może być rozumiane jako zgoda na eksploatacje przez osoby trzecie w jakikolwiek sposób. Inną kwestią jest to, jakimi prawami objęte są obrazy, które generuje AI. Amerykański urząd ds. praw autorskich uznał, że nie są chronione, ponieważ nie zostały stworzone przez człowieka. Tak samo argumentuje radczyni prawna, z którą rozmawialiśmy.
Michał Ochnik oraz Katarzyna "PannaN" Witerscheim ART zwracają uwagę jeszcze na inne zagrożenie, jakie niesie za sobą generatywna AI. Znów trzeba odsunąć na bok kwestię praw autorskich i tak jak w przypadku Lapine - której zdjęcie z dokumentacji medycznej znalazło się w bazie treningowej jednego z generatorów obrazów - należy skupić się na etyce.
"Dla mnie AI to nie tylko zagrożenia dla pracy kreatywnej. Jakoś sobie poradzę, ja, moi koledzy, może nawet ci młodzi i dopiero zaczynający. AI mnie przeraża w innym znaczeniu - deep fake, wykorzystywanie AI do tworzenia revenge porn, sztuczna inteligencja naśladująca ludzkie głosy. Teraz dosłownie będzie można komuś włożyć słowa w usta. Dowody wideo i audio mogą przestać mieć znaczenie. Zacznie się koszmar wielu kobiet (a także i mężczyzn), którzy będą musieli walczyć z kolejnymi gwałtami i molestowaniem, które nabierze zupełnie innego wymiaru. Ofiary będą musiały walczyć ze sztucznie wygenerowanymi, fałszywymi filmami porno ze swoją twarzą. Będą o to walczyć w sądach, gdzie udowodnienie, czy coś jest prawdziwe, czy fałszywe zajmie kolejne tygodnie, miesiące, jak nie lata. I odwrotna sytuacja - kobiety mające dowody na gwałt czy molestowanie, będą poddawane narracji - 'no na pewno to sfałszowała z pomocą AI'" - pisze Witerscheim.
By zapobiec takim sytuacjom, twórcy MidJourney postanowili całkowicie kontrolować efekty pracy swojej AI. Wmontowali blokady, które uniemożliwiają generowanie treści gore oraz pornografii. Gdy Ochnik pisał swój tekst jesienią, Stable Diffusion pozwane przez Getty Images, nie ingerowało jeszcze w prace tworzone przez ich silnik AI, można było więc z jego pomocą tworzyć kontrowersyjne treści pornograficzne.
Naciski artystów przynoszą jednak skutki, ponieważ w drugiej wersji Stable Difusion utrudniono tworzenie pornografii, nagości, fotorealistycznych zdjęć celebrytów i sztuki, która naśladuje konkretnych artystów. Dzięki temu Stable Diffusion nie może już wzorować się m.in. na pracach Grega Rutkowskiego. Ponadto część banków zdjęć postanowiła już zbanować grafiki tworzone przez AI, inne oznaczają te, które stworzyli ludzie, a nie maszyna.
Mniejszy problem, gdy ktoś wrzuca obrazy nieżyjących artystów, gorzej, gdy wykorzystuje się treści tworzone przez współczesnych, wciąż żyjących twórców. To okradanie ludzi sztuki w białych rękawiczkach
- mówił Rutkowski październiku, w wywiadzie dla "Gazety Wyborczej".