Na forum blind - gdzie wpisy na temat pracy mogą zamieszczać tylko zweryfikowany pracownicy - pojawił się wpis, który poniósł się szerokim echem. Programistę z zagranicy kierownik spytał, czy korzysta w pracy z ChatGPT. Jak wyjaśnił, stał się podejrzliwy, gdy jakość i wydajność pracownika drastycznie wzrosła w ciągu kilku tygodni.
Programista przyznał, że korzysta z narzędzia AI i wytłumaczył, że wspierał się nim, by lepiej artykułować własne pomysły. Robił to, ponieważ angielski nie jest jego pierwszym językiem. Pracownik ponadto wyłożył kierownikowi użyteczność ChatGPT w pisaniu kodu. Dzięki narzędziu zwiększył swoją efektywność i skupia się na całym projekcie zamiast na poprawianiu drobiazgów.
Kierownik zabronił programiście korzystać z ChatGPT fot. blind.com
Kierownik uznał jednak, że jest to nie fair wobec zespołu i sprawia, że reszta wypada przy nim blado. Dodał, że korzystanie z ChatGPT jest nieetyczne i kazał mu zaprzestać używania. Zagroził także wysłaniem go na PIP (Performance Improvement Plan), czyli program poprawy wydajności.
Programista na forum spytał, czy takie działanie jest w ogóle legalne. Kilka osób stwierdziło, że wpis nie jest prawdziwy. Nie wiemy też, jaką umowę miał programista, co jest kluczowe w tej materii. Kwestia korzystania z ChatGPT w pracy będzie jednak coraz ważniejsza. Spytaliśmy więc o opinię Państwową Inspekcję Pracy.
Juliusz Głuski-Schimmer, rzecznik prasowy Głównego Inspektoratu Pracy, podkreśla, że ChatGPT to świeża sprawa, więc wszystko wokół niego też jest nowością. Na razie jednak widzi w nim przede wszystkim zagrożenia, bo ChatGPT często zmyśla i popełnia błędy. Choćby w pracy dziennikarza korzystanie z tego narzędzia może być więc ryzykowne.
Rzecznik GIP przyznał, że nie orientuje się w kwestii korzystania z narzędzi AI w branży IT. Zaznaczył jednak, że największą ochronę pracownikowi zapewnia umowa o pracę. A pracodawca w teorii zyskuje dzięki temu większą kontrolę (niż przy śmieciówkach) nad pracą zatrudnianych osób.
Jak wygląda to w praktyce? PiP zaznacza, że pracownik na etacie jest "zobowiązany wykonywać pracę sumiennie i starannie oraz stosować się do poleceń przełożonych, które dotyczą pracy, jeżeli nie są one sprzeczne z przepisami prawa lub umową o pracę (art. 100 § 1 ustawy z dnia 26.06.1974 r. Kodeks pracy, Dz. U. z 2022 r., poz. 1510).
Więcej informacji z kraju i ze świata na stronie głównej Gazeta.pl
Ponadto pracownik jest zobowiązany przestrzegać regulaminu pracy i ustalonego w zakładzie pracy porządku. Jednocześnie jednak pracodawca musi poinformować pracowników o zakresie obowiązków oraz o sposobie wykonywania pracy na wyznaczonych stanowiskach, a także o ich podstawowych uprawnieniach. Można to zrobić na piśmie lub ustnie.
"Zakres obowiązków pracownika może być ustalony w sposób ogólny w umowie o pracę lub bardziej szczegółowy poprzez wskazanie katalogu czynności, które pracownik może wykonać. Przepisy prawa pracy nie określają liczby zadań do wykonania na danym stanowisku pracy". Ponadto zadania nie mogą być sprzeczne z przepisami prawa, muszę być też adekwatne do charakteru pracy, stopnia jej złożoności oraz wykształcenia i doświadczenie zawodowego pracownika.
Przepisy powszechnie obowiązującego prawa nie regulują kwestii możliwości korzystania przez pracownika z ChatGPT. Takie zagadnienia powinny wynikać z regulaminu pracy obowiązującego u danego pracodawcy, umowy o pracę oraz zakresu obowiązków danego pracownika
- informuje PIP.
Inspekcja pracy zaznacza też, że pracodawca lub osoba upoważniona przez pracodawcę ma prawo wydawać pracownikowi polecenia związane z wykonywaną przez niego pracą. Byleby zakres pracy był zgodny z prawem, z umową o pracę oraz z zakresem obowiązków.
Należy podkreślić, że to pracodawca - jako podmiot organizujący pracę - decyduje o tym, w jaki sposób i z użyciem jakich narzędzi praca ma być wykonywana przez pracownika. Obowiązkiem pracownika zaś jest dostosować się do obowiązującego w zakładzie pracy sposobu jej organizacji
- zauważa rzecznik GIP.
Na umowie o pracę sytuacja wydaje się klarowna. Pracodawca ma prawo wymagać, by pracownik nie korzystał z ChatGPT i może stosować kary, jeśli pracownik się nie dostosuje. Sprawa komplikuje się jednak przy umowach cywilnoprawnych. A te nie są rzadkością w całej Polsce i cieszą się sporą popularnością również w branży IT.
W teorii na kontrakcie B2B, umowie o dzieło lub umowie zlecenie (w tym przypadku w nieco ograniczonym stopniu) zatrudniona osoba ma po prostu wykonać zlecenie. To, jak to zrobi, nie powinno już być przedmiotem zainteresowania zleceniodawcy. Teoretycznie wiec zleceniodawca nie może zakazać zleceniobiorcy korzystania z ChatGPT, jeśli nie ustalili wcześniej tego w umowie. Inaczej niestety wygląda praktyka.
Umowy cywilnoprawne miały zapewnić na polskim rynku większą elastyczność pracy i swobodę jej organizacji. Pracodawcy zaczęli ich jednak nadużywać, rynek się zderegulował, a do takich umów przylgnęła nazwa "śmieciowe". W rzeczywistości bowiem najczęściej zleceniobiorca pełni rolę pracodawcy, a zleceniobiorca - pracownika. To natomiast jest niezgodne z prawem.
Jeśli zleceniobiorca zapewnia nam sprzęt, wyznacza godziny pracy i wydaje nam polecenia, to w praktyce pozostajemy z nim w stosunku pracy. Państwowa Inspekcja Pracy może nakłonić pracodawcę, by zmienił nam umowę na etat, jeśli udowodnimy, że wypełnialiśmy swoje obowiązki w stosunku pracy, a nie w ramach B2B, umowy o dzieło lub zlecenie, mimo że taką podpisaliśmy. Trzeba dostarczyć na to jednak dowody.
Zamiast jednak zapewniać nam większą elastyczność, pracodawcy wykorzystują takie umowy, by zmniejszyć koszty zatrudnienia. Pracownik może stracić w takim wypadku składki emerytalne czy ubezpieczenie ZUS i NFZ. Przede wszystkim nie jest jednak chroniony przepisami z Kodeksu pracy.
W teorii więc gdy zleceniodawca (w praktyce najczęściej pracodawca) zakaże nam korzystać z ChatGPT, możemy odmówić. Nie jesteśmy jednak w żaden sposób chronieni przed zerwaniem umowy, czyli w gruncie rzeczy przed zwolnieniem. Bo jeśli jesteśmy zatrudnieni na śmieciówce, pracodawca ma w takim wypadku możliwości zerwania umowy tak po prostu - bez wypowiedzenia, bez odprawy, bez uzasadnienia. Możliwości bronienia się w sądzie pracy przy umowie śmieciowej są w zasadzie żadne. Dlatego tak ważne jest, by wymagać od pracodawców etatu, jeśli mają zamiar zatrudnić nas w stosunku pracy - podkreśla rzecznik GIP.
W przypadku umów cywilnoprawnych nie jesteśmy narażeni na kary, jeśli te nie zostały do nich wpisane. Jednak, jak już wspominaliśmy, pracodawca może bez problemu nas zwolnić. Umowa o pracę chroni nas przed tym, ale daje też pracodawcy większe możliwości dyscyplinowania pracowników.
Samo korzystanie w pracy z AI nie jest niezgodne z prawem, bo kwestia ta nie została w ogóle uregulowana. Pracownik musi jednak przestrzegać poleceń pracodawcy, stosować się do regulaminu oraz dostosować się do obowiązującego w zakładzie pracy sposobu jej organizacji.
Jeśli osoba na etacie tego nie zrobi, pracodawca może zastosować:
"Ponadto za nieprzestrzeganie przez pracownika przepisów bezpieczeństwa i higieny pracy lub przepisów przeciwpożarowych, opuszczenie pracy bez usprawiedliwienia, stawienie się do pracy w stanie nietrzeźwości lub spożywanie alkoholu w czasie pracy - pracodawca może również stosować karę pieniężną" - informuje PIP.
"Kara pieniężna za jedno przekroczenie, jak i za każdy dzień nieusprawiedliwionej nieobecności, nie może być wyższa od jednodniowego wynagrodzenia pracownika, a łącznie kary pieniężne nie mogą przewyższać dziesiątej części wynagrodzenia przypadającego pracownikowi do wypłaty, po dokonaniu potrąceń, o których mowa w art. 87 § 1 pkt 1-3" - przekazał nam rzecznik GIP Juliusz Głuski-Schimmer.
Część osób z branży IT może zdziwić pracodawca, który zakazuje korzystania z narzędzi AI. W końcu to ta branże je rozwija, więc naturalne wydaje się, że w tym sektorze będą one używane organicznie. I tak rzeczywiście w niektórych miejscach się dzieje.
Zanim ChatGPT zyskał tak dużą popularność, na rynku były już wcześniej dostępne narzędzia, które dzięki algorytmom sztucznej inteligencji (a żeby być dokładnym - algorytmom uczenia maszynowego) sprawdzały, przewidywały i poprawiały kod. Wśród nich są IntelliCode, DeepCode czy GitHub Copilot.
Są zresztą też firmy, które wspierają korzystanie z AI. - U nas w firmie już po pierwszych testach okazało się, że dział kontentu może produkować dwa razy więcej treści. I to na dobrym poziomie - mówił w rozmowie z Grzegorzem Sroczyńskim na Next Gazeta.pl Michał Sadowski, założyciel Brand24, narzędzia zajmującego się monitoringiem marek w internecie.
Mamy w firmie przypadek dziewczyny zaraz po studiach, która pilotuje nowe aktywności związane z naszym produktem. Za pięć lat może będzie w swojej działce najlepsza, ale na razie jest juniorką. Tak się obudowała narzędziami AI do tworzenia wizualizacji, że dostarcza projekty na poziomie seniora. Czyli w jej przypadku rozbiegówka do wyższego poziomu kariery będzie krótsza. Korzystając z GPT-3, mnóstwo się uczy, bo to trochę tak, jakby stał przy tobie cały czas bardziej doświadczony pracownik, poprawiał twoje błędy i miał dla ciebie czas przez 24 godziny na dobę
- podaje kolejny przykład ze swojej firmy Sadowski.