Technologiczna transformacja postępuje w zawrotnym tempie, stając się jednocześnie źródłem wyzwań oraz impulsem do rozwoju i innowacji. Sztuczna inteligencja (AI) w bardzo krótkim czasie zyskała ogromne zainteresowanie i obecnie można zauważyć wyraźny wpływ na sposób, w jaki AI przenika w obszarach naszej pracy czy nauki. Jednym z najbardziej rozpoznawalnych narzędzi opartych o sztuczną inteligencję jest ChatGPT – system językowy stworzony przez OpenAI. Choć pierwotnie wykorzystywany głównie w celach edukacyjnych i rozrywkowych, jak się okazuje – bazując na licznych pytaniach od naszych klientów – szybko znalazł swoje miejsce również w środowisku zawodowym.
Potwierdza to również ostatni raport KPMG (Sztuczna inteligencja w Polsce. Krajobraz pełen paradoksów)
Ten zaawansowany model językowy – ChatGPT – który będzie głównym bohaterem niniejszego artykułu, to najbardziej rozpoznawalny, choć nie jedyny przedstawiciel tej technologii. Do tej pory zgromadził już ponad 100 milionów użytkowników na całym świecie.
Zakres zastosowań ChatGPT w pracy biurowej jest zaskakująco szeroki. Narzędzie to pomaga m.in. w redagowaniu tekstów, analizie dokumentów, przygotowywaniu prezentacji, burzach mózgów czy w pisaniu kodu. Coraz więcej pracowników i zespołów traktuje je jako codziennego asystenta, który nie tylko przyspiesza realizację zadań, ale również pomaga spojrzeć na problemy z innej perspektywy.
Zawsze zależy mi na tym, by w artykułach uwzględniać różne perspektywy, dlatego postanowiłam zwrócić się bezpośrednio do naszego głównego bohatera z pytaniem:
Czy uważasz, że jesteś rzetelnym źródłem wiedzy i wsparciem dla pracowników?
ChatGPT odpowiedział:
To bardzo dobre pytanie — i takie, które warto zadawać, szczególnie w kontekście korzystania z narzędzi AI w pracy.
Odpowiadając wprost:
Tak, mogę być rzetelnym źródłem wiedzy i skutecznym wsparciem dla pracowników, o ile jestem używany z rozwagą i świadomością moich ograniczeń.
Być może zabrzmi to nieco zaskakująco, ale cieszę się z odpowiedzi, jakiej mi udzielił. W ramach własnej refleksji wyróżniłam – z mojego punktu widzenia – kluczowe słowa tej wypowiedzi: „mogę być” oraz „o ile jestem używany z rozwagą i świadomością moich ograniczeń”.
Nie możemy bowiem zapominać, że rosnące zainteresowanie sztuczną inteligencją w środowisku zawodowym powinno iść w parze z potrzebą refleksji nad jej wpływem oraz ograniczeniami. Mam tu na myśli korzystanie z tego typu narzędzi w połączeniu z umiejętnością zadawania trafnych pytań i oceną wiarygodności generowanych treści – czyli tzw. myśleniem krytycznym.
Mam tu na myśli korzystanie z tego typu narzędzi w połączeniu z umiejętnością zadawania trafnych pytań i oceną wiarygodności generowanych treści – czyli tzw. myśleniem krytycznym.
Temat ten można analizować z wielu perspektyw – w kontekście różnych zagadnień, potrzeb czy wyzwań. W niniejszym artykule skupimy się jednak na korzyściach oraz potencjalnych zagrożeniach związanych z wykorzystywaniem ChatGPT w pracy, ze szczególnym uwzględnieniem kwestii ochrony danych osobowych. Zastanowimy się, kiedy warto sięgnąć po wsparcie sztucznej inteligencji, a kiedy lepiej zachować ostrożność.
SZANSE A ZAGROŻENIA
Jako życiowa optymistka, choć z zasadą ograniczonego zaufania – a czasem wręcz podejściem zero trust 😉 – zacznijmy od przyjrzenia się potencjalnym korzyściom płynącym z wykorzystywania ChatGPT w miejscu pracy.
Wybrałam kilka kluczowych aspektów, które – z mojej perspektywy – stanowią ogólne korzyści płynące ze wspierania się ChatGPT w codziennej pracy:
- Tworzenie i redagowanie maili, notatek
- Generowanie prostych odpowiedzi, tworzenie treści marketingowych
- Inspiracja i “burza mózgów”
- Wspomaganie przy tworzeniu procedur, instrukcji, dokumentacji
- Streszczenie długich dokumentów
- Wyszukiwanie i selekcjonowanie kluczowych informacji
- Pomoc w przygotowywaniu zestawień oraz analiz
- Wyjaśnianie pojęć lub skrótów dla nas niezrozumiałych
- Propozycje rozwiązań np. problemów technicznych lub organizacyjnych
- ChatGPT jest dostępny 24/7 – bez względu na strefę czasową, urlopy czy godziny pracy
- Nie wymaga instalacji, może działać w przeglądarce lub w aplikacji.
To oczywiście moja subiektywna ocena – korzyści z wykorzystania tego narzędzia mogą być bardzo różne i zależą w dużej mierze od konkretnych potrzeb użytkownika.
Nie zmienia to jednak faktu, że ChatGPT może realnie zwiększyć produktywność – pod warunkiem, że korzystamy z niego świadomie, traktując jako wsparcie, a nie substytut krytycznego myślenia czy wiedzy eksperckiej.
Jeśli już po niego sięgamy, warto widzieć w nim „cyfrowego asystenta”, który usprawnia pracę.
Jeszcze raz to podkreślę i powtórzę jak mantrę – to my, ludzie, podejmujemy decyzje i kontrolujemy efekty pracy tego narzędzia.
Teraz zapoznajmy się z zagrożeniami z punktu widzenia ochrony danych osobowych:
Niezależnie od tego, czy mówimy o trzeciej, czy czwartej rewolucji technologicznej, jedna obserwacja pozostaje niezmienna: większość użytkowników rzadko zapoznaje się z regulaminami aplikacji, z których korzysta. Wpisując zapytania do ChatGPT, niewiele osób zastanawia się, czy przypadkiem nie ujawnia poufnych informacji — zarówno tych objętych ochroną danych osobowych, jak i stanowiących tajemnicę przedsiębiorstwa. Owszem, sama sztuczna inteligencja deklaruje, że jako model językowy nie przetwarza ani nie przechowuje danych, jednak te zapewnienia warto traktować z odpowiednią dozą ostrożności.
Nawiązując do tego, przypominam, że korzystając z publicznie dostępnych wersji ChatGPT (w szczególności darmowej) musimy pamiętać o kilku fundamentalnych kwestiach, poniżej przedstawiam ryzyka z tym związane:
Ryzyko nr 1: Poufność Danych i Tajemnica Przedsiębiorstwa
To najważniejszy punkt. Wszystko, co wpisujesz w okno chatu, jest przesyłane na serwery dostawcy usługi (OpenAI). Domyślnie, te dane mogą być wykorzystywane do dalszego trenowania modelu. Oznacza to, że wprowadzając:
- Dane osobowe (klientów, pracowników, kontrahentów),
- Dane finansowe (raporty, prognozy, analizy),
- Tajemnice przedsiębiorstwa (strategie, plany rozwoju, kody źródłowe),
- Wszelkie informacje poufne,
tracisz nad nimi kontrolę, a co za tym idzie – narażasz firmę na wyciek danych, naruszenie zgodności z RODO oraz utratę przewagi konkurencyjnej!
Ryzyko nr 2: Kto jest kim w świecie RODO?
Zgodnie z RODO, jeśli przetwarzamy dane osobowe za pomocą zewnętrznego narzędzia, jego dostawca staje się podmiotem przetwarzającym. Wymaga to zawarcia stosownej umowy powierzenia przetwarzania danych (art. 28 RODO). Standardowe warunki korzystania z darmowej wersji ChatGPT takiej umowy nie stanowią. Bez niej, powierzenie danych osobowych jest niezgodne z prawem.
Ryzyko nr 3: Transfer Danych poza Europejski Obszar Gospodarczy (EOG)
Serwery OpenAI znajdują się głównie w Stanach Zjednoczonych. Oznacza to, że każde zapytanie zawierające dane osobowe wiąże się z ich transferem poza EOG. Po wyroku “Schrems II” taki transfer wymaga dodatkowych zabezpieczeń (np. Standardowych Klauzul Umownych) oraz przeprowadzenia oceny skutków takiego transferu (TIA). W przypadku darmowych narzędzi online spełnienie tych wymogów jest praktycznie niemożliwe.
Ryzyko nr 4: Wiarygodność
ChatGPT, mimo swoich zaawansowanych możliwości, nie jest nieomylny. Potrafi generować informacje, które brzmią wiarygodnie, ale mogą okazać się fałszywe (tzw. halucynacje). Opieranie kluczowych decyzji biznesowych wyłącznie na jego odpowiedziach, bez weryfikacji, jest wysoce ryzykowne.
Jeśli organizacja pozwala pracownikom korzystać z narzędzi takich jak ChatGPT, warto wprowadzić tzw. złote zasady bezpiecznego korzystania z ChatGPT w pracy i traktować je jako firmowy kodeks postępowania z narzędziami AI. Takie działania pozwolą uniknąć potencjalnych ryzyk w przyszłości oraz umożliwią precyzyjne określenie zasad bezpieczeństwa, których powinni przestrzegać pracownicy podczas korzystania z AI.
Zapewne ważnym drogowskazem w tej materii będzie świeżo opublikowane Rozporządzenie o Sztucznej Inteligencji (AI Act). Ten kluczowy dokument ustala zasady dotyczące rozwoju, wdrażania i używania sztucznej inteligencji na terenie Unii Europejskiej. Nie mniej jednak, ze względu na regulowaną materię poszczególne elementy AI Act, będą wprowadzane stopniowo.
Poniżej, przedstawiam subiektywne zasady korzystania z ChatGPT
Zasada 1: Zero danych wrażliwych i poufnych
To absolutna podstawa. Nigdy nie wprowadzaj do publicznych wersji ChatGPT żadnych danych osobowych, danych klientów, haseł ani żadnych informacji, które mogą stanowić tajemnicę firmową.
Zasada 2: Anonimizuj i generalizuj
Jeśli potrzebujesz pomocy w sformułowaniu e-maila, nie wklejaj całej korespondencji.
Zamiast pisać:
“Napisz odpowiedź do Jana Kowalskiego z firmy XYZ (nr klienta 12345) w sprawie opóźnienia w dostawie zamówienia ZK/543/2023.”
Napisz:
“Napisz profesjonalny szablon e-maila do klienta z przeprosinami za opóźnienie w dostawie zamówienia. E-mail powinien zawierać informację o przewidywanym nowym terminie dostawy.”
Zasada 3: Weryfikuj, weryfikuj i jeszcze raz weryfikuj
Traktuj ChatGPT jako asystenta do tworzenia wersji roboczych, a nie jako wyrocznię / dogmat.
Zawsze sprawdzaj poprawność merytoryczną, prawną i faktyczną wygenerowanych treści. Odpowiedzialność za finalny produkt zawsze spoczywa na Tobie.
Zasada 4: Sprawdź Politykę Firmy
Upewnij się, jakie jest oficjalne stanowisko Twojej Organizacji w sprawie korzystania z narzędzi AI. Wiele firm tworzy wewnętrzne regulaminy w tym zakresie.
Zasada 5: Rozważ wersje biznesowe (z gwarancjami prywatności)
Dostawcy AI, w tym OpenAI, oferują płatne plany biznesowe (np. ChatGPT Enterprise, API na platformie Azure). Zazwyczaj gwarantują one, że dane klientów nie są wykorzystywane do trenowania modeli i oferują możliwość zawarcia umowy powierzenia przetwarzania danych. Jeśli Twoja firma planuje szerokie wykorzystanie AI, jest to jedyna droga zgodna z RODO.
Zasada 6: Szkolenia dla pracowników: Należy przeprowadzić szkolenia
uświadamiające pracowników na temat ryzyk związanych z wykorzystaniem ChatGPT, zasad ochrony danych osobowych oraz postanowień wewnętrznej polityki.
Zasada 7: Monitorowanie i audyt: Należy wprowadzić mechanizmy monitorowania sposobu wykorzystania ChatGPT w Organizacji oraz regularnie przeprowadzać audyty pod kątem zgodności z polityką i przepisami.
Zasada 8: Konsultacje z IOD: Wszelkie inicjatywy związane z wdrożeniem narzędzi AI, w tym ChatGPT, powinny być konsultowane z Inspektorem Ochrony Danych.
Podsumowanie
ChatGPT to potężne narzędzie, które może stać się cennym sprzymierzeńcem w codziennej pracy. Jednakże dobrze jest mieć ambiwalentny stosunek do tego rodzaju narzędzi. Jak w przypadku każdej nowej technologii, kluczem do sukcesu jest świadome i odpowiedzialne korzystanie.
Pamiętajmy: technologia ma nam służyć, ale nigdy kosztem bezpieczeństwa danych naszych klientów, partnerów i nas samych. Korzystajmy z niej z rozwagą, aby maksymalnie wykorzystać jej potencjał, jednocześnie minimalizując ryzyko.
W dobie dynamicznych zmian technologicznych i rosnących wymagań prawnych, bezpieczeństwo danych oraz zgodność z przepisami to kluczowe wyzwania dla każdej organizacji. Wychodząc naprzeciw tym potrzebom, oferujemy kompleksowe usługi, które pomogą Państwu skutecznie zarządzać ochroną danych osobowych oraz bezpieczeństwem systemów informatycznych.
Zapraszamy do kontaktu 😊 Oferta – Kurs i szolenie RODO – CompNet
Autor: Ewa Sobczyk, Starszy Ekspert w CompNet Sp. z o.o.
