Pracodawcy powinni już zastanowić się nad uregulowaniem używania rozwiązań sztucznej inteligencji

Podziel się z innymi

Zasadniczo to już jest dobry moment, aby pracodawcy na poważnie zastanowili się nad uregulowaniem zasad dotyczących używania sztucznej inteligencji w miejscu pracy. Problem bowiem w tym, iż posiłkowaniu się przez pracowników rozwiązaniami sztucznej inteligencji nie towarzyszą odpowiednie przepisy, a wielu pracodawców nie ma świadomości, iż w tym względzie brak narzędzi minimalizujących ryzyko sprawić może, iż będziemy mieć do czynienia z niekontrolowanym wyciekiem danych, czy też szkodami materialnymi. Tak naprawdę rozwiązania takie powinny na stałe zagościć już w regulaminach pracy.

Co zatem jest istotne w kontekście uregulowania zasad korzystania i używania rozwiązań sztucznej inteligencji w miejscu pracy?

Niebywale istotnym jest, iż rozwiązania wykorzystujące systemy sztucznej inteligencji stają się obecnie codziennością dla wielu przedsiębiorców, ale też i dla ich pracowników. Rozwiązania te na pewno minimalizują koszty, zwiększają szybkość działania i pozwalają na bardziej wydajną organizację pracy. Niestety korzyściom wynikającym z zastosowania rozwiązań sztucznej inteligencji towarzyszy również pewne ryzyko prawne, o czym nie wszyscy pracodawcy, jak i również pracownicy, wiedzą.

Z obecnych doświadczeń wynika, iż popularność takich narzędzi jak chociażby ChatGPT, nie oznacza, iż pracodawcy w sposób pełni świadomy i oficjalny dopuszczają ich stosowanie. W praktyce wielu pracowników może wspomagać swą pracę powszechnie dostępnymi systemami sztucznej inteligencji, co dla pracodawców oznacza, iż powinni oni rozważyć w jaki sposób zminimalizować ryzyka związane z efektami takiej pracy i odpowiedzialnością za jej wynik. Chodzi tutaj zarówno o przypadki, gdy pracodawcy akceptują wykorzystanie rozwiązań sztucznej inteligencji, jak i o takie, gdy pracownicy samowolnie wykorzystują te narzędzia przy wykonywaniu obowiązków pracowniczych. Wskazać można już obecnie główne problemy związane z użyciem sztucznej inteligencji i wprowadzić pewne środki zaradcze, aby zapobiec potencjalnym negatywnym skutkom.

Zasadniczo zarówno sam ChatGPT, jak i podobne konkurencyjne narzędzia, wykorzystują dane dostępne powszechnie w Internecie. Już samo to w sobie może sprawić, iż podawane przez niego informacje są nieprawdziwe, nieaktualne bądź też nieodpowiednie do danej sytuacji. Obserwowane jest wręcz zjawisko tak zwanej halucynacji, czyli podawania informacje zmyślonych, które jednak wyglądają na wiarygodne, co może prowadzić do błędów w pracy, bądź też planowania decyzji na podstawie fałszywych informacji.

Niestety narzędzia sztucznej inteligencji nie zawsze dobrze odczytują pełen kontekst i mogą interpretować pytania w sposób nieodpowiadający intencjom pytającego. To z kolei prowadzić może do błędnych odpowiedzi, bądź też niewłaściwego wykonania zadań. Ważne jest też, iż w przypadku pracy w dziedzinach wymagających specjalistycznej wiedzy czat boty oparte na ogólnych modelach językowych mogą nie być wystarczająco kompetentne w generowaniu precyzyjnych odpowiedzi.

Jednocześnie nie mogąc jednak zmienić właściwości narzędzia, pracodawcy mogą wymusić ludzką kontrolę wyników działań pracowników korzystających z rozwiązań sztucznej inteligencji. W tym celu niezbędnym jest jednak zmodyfikowanie regulaminu pracy czy też innego aktu określającego prawa i obowiązki pracownika, przez wprowadzenie obowiązku samodzielnej i kompleksowej weryfikacji źródeł pozyskiwanych informacji. Tym samym pracodawca może dopuścić wspomaganie pracownika w codziennych obowiązkach ogólnie dostępną wersją narzędzia ChatGPT, bądź też innych modeli generatywnych, lecz z jednoczesnym obowiązkiem weryfikacji uzyskanych w ten sposób informacji.

Warto zauważyć, iż jednoznaczne określenie takiego obowiązku pozwoli uniknąć problemów, które dotyczą ewentualnej odpowiedzialności za nieprawidłowe wykonywanie zadań przez pracownika. W tym kontekście wartym jest również przeprowadzenie odpowiednich szkoleń warsztatowych z pracownikami, które pokazują problem halucynacji i sposobów radzenia sobie z tym zjawiskiem.

Jednocześnie część przedsiębiorców może po prostu zakazać stosowania rozwiązań typu ChatGPT, jednak zakładać należy, iż będzie to mniejszość, bowiem unikanie stosowania rozwiązań związanych ze sztuczną inteligencją jest nieopłacalne. Jednakże, gdy pracodawca ze względu na szczególne okoliczności wprowadzi zakaz stosowania takowych rozwiązań, wówczas możliwe jest skuteczne stosowanie kontroli zachowania pracowników poprzez programy typu bossware. Niestety nie ma jednak narzędzi informatycznych, które pozwalałyby jednoznacznie określić, czy dany tekst czy też analiza statystyczna stworzony został przez rozwiązania sztucznej inteligencji czy też przez pracownika.

Co jeszcze ma znaczenie w kontekście stosowania rozwiązań sztucznej inteligencji w pracy?

Otóż kolejne zagadnienie, którym powinni zainteresować się pracodawcy, związane jest z jakością informacji uzyskiwanych za pomocą ChatGPT. W tym kontekście bowiem brak odpowiedzialności, jak i umiejętności podejmowania moralnych lub etycznych decyzji, prowadzić może do wygenerowania treści nieodpowiednich bądź też nieprawdziwych. To zaś rodzi pytanie o odpowiedzialność, zarówno samego pracownika oraz jego efekty pracy, jak i pracodawcy wobec swych kontrahentów.

W tym zakresie wyróżnić można wiele niebezpiecznych zagadnień, począwszy od odpowiedzialności materialnej pracowników, po mechanizmy zawarte w odpowiednio ukształtowanym regulaminie pracy, zmniejszające ryzyko szkody. Niewątpliwie trudno opisać wszystkie możliwe rozwiązania, jednak wystarczy chociażby wspomnieć, iż zasygnalizowana już wcześniej możliwość uczestnictwa w szkoleniu na temat korzystania z modeli generatywnych sztucznej inteligencji wpłynąć może na odpowiedzialność pracownika za szkodę. Zgodnie bowiem z art. 117 par. 1 kodeksu pracy pracownik nie ponosi odpowiedzialności za szkodę w takim zakresie, w jakim pracodawca bądź też inna osoba przyczyniły się do jej powstania albo zwiększenia przyczynienia się pracodawcy. W tym momencie może to polegać właśnie na tym, iż mając sygnały o korzystaniu przez pracowników z ChatGPT zaniechał on przeprowadzenia odpowiednich szkoleń.

Kolejne zagadnienie niebywale istotne dla pracodawców to bezpieczeństwo danych osobowych oraz informacji w kontekście wykorzystania ChatGPT. Na pewno przetwarzanie danych osobowych stwarzać może ryzyko naruszenia prywatności i bezpieczeństwa danych pracowników oraz klientów, jak i uchybia zasadom bezpieczeństwa informacji. W praktyce pracownik, który zechce skorzystać z rozwiązań sztucznej inteligencji, może chociażby wpisać dane osobowe kontrahentów pracodawcy, bądź też podać informacje będące tajemnicą przedsiębiorstwa. Wówczas powstaje bardzo wysokie ryzyko utraty kontroli nad danymi, a w konsekwencji mamy do czynienia z potencjalnym incydentem w zakresie bezpieczeństwa, zarówno danych osobowych, jak i informacji. Tym samym pracodawcy winni rozważyć wprowadzenie w regulaminie pracy bezwzględnego zakazu wpisywania przez pracowników danych osobowych i innych danych wrażliwych w okna dialogowe sztucznej inteligencji. W takiej sytuacji bowiem dane przesyłane są innym podmiotom niż te, które mają uprawnienia do ich przetwarzania, a pracownicy powinni być w tym zakresie odpowiednio przeszkoleni.

Pracodawcy winni też zweryfikować politykę ochrony danych osobowych oraz politykę ochrony informacji pod kątem kolejnej możliwości incydentów w postaci wycieku danych.

Na co jeszcze pracodawcy winni zwrócić uwagę w kontekście stosowania rozwiązań sztucznej inteligencji?

Istotnym jest, iż zupełnie niezależnie od wdrożenia nowych zasad w ramach wewnętrznych polityk, pracownicy powinni być równocześnie odpowiednio przeszkoleni w zakresie korzystania z narzędzi typu ChatGPT, by uniknąć błędów oraz wykorzystać je we właściwym zakresie. Na pewno samo stworzenie szkoleń i materiałów edukacyjnych może wymagać czasu i zasobów, lecz w kontekście potencjalnych strat wynikających z nieprawidłowego wykonywania zadań, bądź incydentów naruszenia bezpieczeństwa, koszt ten nie powinien być blokadą przed podjęciem takich działań. Same szkolenia winny być przeprowadzone przez podmiot specjalizujący się w prawie pracy, a wykorzystanie rozwiązań sztucznej inteligencji w sposób nie rozłączny wiąże się z prawami i obowiązkami pracownika oraz odpowiedzialnością pracowniczą.

Niewątpliwie zatem nim pracownik zostanie dopuszczony do wykorzystywania w środowisku pracy rozwiązań typu ChatGPT powinna być wykonana analiza prawna. Jeśli pracodawca po jej wykonaniu dojdzie do wniosku, że wykorzystanie takich narzędzi jest dopuszczalne, to następnie powinna zostać przeprowadzona analiza w jakim zakresie technologia ta może być używana przy wykonywaniu obowiązków pracowniczych.

Następnie pracodawca winien zweryfikować wewnętrzne akty prawne, a szczególnie regulaminy pracy, polityki ochrony danych i informacji oraz wszelkie dokumenty towarzyszące. Dopiero po przeprowadzeniu takich kompleksowych działań pracodawcy mogą podjąć odpowiedzialną decyzję o dopuszczeniu wykorzystania w ramach zadań pracowniczych takich narzędzi jak ChatGPT, bowiem bez tego rodzaju analizy wykorzystywanie narzędzi przez pracowników stanowi znaczące zagrożenie dla funkcjonowania przedsiębiorstwa.

Podsumowując, rozwiązania sztucznej inteligencji coraz częściej towarzyszą pracownikom i pracodawcom, stąd też jest to już odpowiedni moment na to, aby zawrzeć odpowiednie uregulowania w wewnątrzzakładowych aktach prawnych. Niestety obecnie pracownicy posiłkują się tymi rozwiązaniami, lecz nie towarzyszą temu odpowiednie przepisy i wielu pracodawców nawet nie ma świadomości, iż brak narzędzi minimalizujących ryzyko spowodować może chociażby wyciek danych czy też szkody materialne. Tak naprawdę należy wykonać analizę prawną, jak i technologiczną i w oparciu o nie podjąć racjonalną decyzję na temat korzystania z rozwiązań sztucznej inteligencji bezpiecznie oraz zgodnie z prawem.