ChatGPT to coraz popularniejsze narzędzie, z którego korzysta już ponad 100 mln użytkowników na całym świecie. Okazuje się jednak, że używanie sztucznej inteligencji może budzić również wiele obaw, zwłaszcza jeśli używa się jej do pracy.


Choć ChatGPT może ułatwić pracę, a jego możliwości wciąż budzą ciekawość kolejnych użytkowników, eksperci od cyberbezpieczeństwa ostrzegają, że niesie on ze sobą wiele zagrożeń.
ChatGPT zbiera prywatne informacje
Podobnie jak w przypadku każdej usługi cyfrowej bezpieczeństwo podczas korzystania z ChatGPT zależy od tego, jakie dane są udostępniane przez użytkownika. Może to bowiem bardzo wpłynąć na cyfrową prywatność.
Zwykle narzędzie to ma dostęp do informacji o koncie, które jest wprowadzane podczas rejestracji lub płacenia za plan premium, a zatem imię i nazwisko, dane kontaktowe, dane uwierzytelniające konto czy informacje o karcie płatniczej. Uzyskuje również dostęp do danych identyfikacyjnych pobieranych z urządzenia lub przeglądarki, takie jak adres IP, lokalizacja i dane dotyczące użytkowania. To również informacje, które użytkownik wpisuje w samym chatbocie, czyli dane wejściowe, przesyłane pliki lub przekazywane informacje zwrotne.
Lepiej nie podawać zbyt wielu danych
Jak twierdzi Mariusz Politowicz z firmy Marken Systemy Antywirusowe, firma Open AI, twórca ChatGPT, udostępnia dane dostawcom, usługodawcom, innym firmom, podmiotom stowarzyszonym, podmiotom prawnym i trenerom AI, którzy przeglądają rozmowy użytkowników.
– Pomimo tego, że zebrane dane są przechowywane tylko tak długo, jak jest to konieczne, aby świadczyć usługi lub w innych uzasadnionych celach biznesowych firmy, która stworzyła ChatGPT, to warto unikać wpisywania danych, dzięki którym można nas zidentyfikować – radzi.
Biorąc pod uwagę, że transkrypcje rozmów użytkowników są przechwytywane i przechowywane oraz udostępniane wielu podmiotom, można chronić prywatność tylko wtedy, gdy nie podaje się zbyt wielu danych o sobie. Dlatego eksperci do spraw cyberbezpieczeństwa zalecają, aby nie wpisywać w czacie takich informacji, jak wszelkie dane osobowe, m.in. imię i nazwisko, adres, oraz dane, które mogą zidentyfikować jakiekolwiek osoby, informacji zdrowotnych zawartych w pytaniach o choroby i ich leczenia, a także wczytywania dokumentów zawierające dane osobowe.
Z ChatGPT korzystają również cyberprzestępcy
Podobne zasady obowiązują podczas korzystania z ChatGPT w pracy. Eksperci radzą nie wpisywać poufnych informacji ani nie przesyłać prezentacji, raportów ani dokumentów zawierających dane o firmie, współpracownikach i klientach.
Aby skutecznie chronić firmowe dane, najlepiej przeczytać dwa razy swoje monity, zanim się kliknie „Prześlij”. Warto również wyłączyć historię czatu, dzięki czemu rozmowy będą przechowywane jedynie przez 30 dni. Można również zrezygnować z wykorzystywania rozmów do celów szkoleniowych, pisząc wiadomość e-mail do zespołu OpenAI. Najlepiej też unikać używania ChatGPT w publicznych sieciach Wi-Fi. Zamiast tego lepiej korzystać z bezpiecznej sieci prywatnej lub VPN.
Trzeba też pamiętać, że z ChatGPT korzystają nie tylko zwykli internauci czy specjaliści od nowoczesnych technologii, ale również cyberprzestępcy, którzy przygotowują przy jego pomocy fałszywe wiadomości e-mail i SMS mające na celu wyłudzenie danych od nieświadomych użytkowników.
Według ekspertów zabezpieczenia można ominąć, także te zastosowane w modelu językowym ChatGPT. Twórcy takich programów zdają sobie z tego sprawę i robią wszystko, aby łatać znalezione przez cyberprzestępców luki. Z każdą kolejną próbą wykorzystania AI do celów niezgodnych z prawem złamanie mechanizmów ochronnych staje się więc trudniejsze.
Sztuczna inteligencja kłamie?
Jak przekonuje Chester Wisniewski, dyrektor ds. technologii w firmie Sopho, trzeba też uważać na informacje generowane przez ChatGPT.
– Sztuczna inteligencja jest naprawdę przekonującym, ale i zapatrzonym w siebie kłamcą – twierdzi Chester Wisniewski. – Do szkolenia modelu bez wątpienia wykorzystano także informacje, które nie są prawdziwe. Dlatego nie da się przewidzieć, w którym momencie ChatGPT wykorzysta je do udzielenia odpowiedzi na zadane mu pytanie. Przewagą człowieka nad AI jest prawdziwa kreatywność i to, że ma możliwość podjęcia świadomej decyzji, czy chce skłamać, czy nie.
Jednak według Chestera Wiskiewskiego wszystkich zalet wynikających z używania sztucznej inteligencji będzie prawdopodobnie znacznie więcej niż potencjalnych niebezpieczeństw, a właściwe wykorzystanie tych narzędzi może uczynić wiele dobrego.
























































