REKLAMA
PROMOCJA CITI I BANKIER.PL

(Nie)bezpieczna sztuczna inteligencja. Czy 100 milionów osób może się mylić? Lepiej być czujnym

Katarzyna Wiązowska2023-07-11 06:00redaktor Bankier.pl
publikacja
2023-07-11 06:00

ChatGPT to coraz popularniejsze narzędzie, z którego korzysta już ponad 100 mln użytkowników na całym świecie. Okazuje się jednak, że używanie sztucznej inteligencji może budzić również wiele obaw, zwłaszcza jeśli używa się jej do pracy.

(Nie)bezpieczna sztuczna inteligencja. Czy 100 milionów osób może się mylić? Lepiej być czujnym
(Nie)bezpieczna sztuczna inteligencja. Czy 100 milionów osób może się mylić? Lepiej być czujnym
fot. Tara Winstead / / Pexels

Choć ChatGPT może ułatwić pracę, a jego możliwości wciąż budzą ciekawość kolejnych użytkowników, eksperci od cyberbezpieczeństwa ostrzegają, że niesie on ze sobą wiele zagrożeń.

ChatGPT zbiera prywatne informacje

Podobnie jak w przypadku każdej usługi cyfrowej bezpieczeństwo podczas korzystania z ChatGPT zależy od tego, jakie dane są udostępniane przez użytkownika. Może to bowiem bardzo wpłynąć na cyfrową prywatność.

Zwykle narzędzie to ma dostęp do informacji o koncie, które jest wprowadzane podczas rejestracji lub płacenia za plan premium, a zatem imię i nazwisko, dane kontaktowe, dane uwierzytelniające konto czy informacje o karcie płatniczej. Uzyskuje również dostęp do danych identyfikacyjnych pobieranych z urządzenia lub przeglądarki, takie jak adres IP, lokalizacja i dane dotyczące użytkowania. To również informacje, które użytkownik wpisuje w samym chatbocie, czyli dane wejściowe, przesyłane pliki lub przekazywane informacje zwrotne.

Lepiej nie podawać zbyt wielu danych

Jak twierdzi Mariusz Politowicz z firmy Marken Systemy Antywirusowe, firma Open AI, twórca ChatGPT, udostępnia dane dostawcom, usługodawcom, innym firmom, podmiotom stowarzyszonym, podmiotom prawnym i trenerom AI, którzy przeglądają rozmowy użytkowników.

– Pomimo tego, że zebrane dane są przechowywane tylko tak długo, jak jest to konieczne, aby świadczyć usługi lub w innych uzasadnionych celach biznesowych firmy, która stworzyła ChatGPT, to warto unikać wpisywania danych, dzięki którym można nas zidentyfikować – radzi.

Biorąc pod uwagę, że transkrypcje rozmów użytkowników są przechwytywane i przechowywane oraz udostępniane wielu podmiotom, można chronić prywatność tylko wtedy, gdy nie podaje się zbyt wielu danych o sobie. Dlatego eksperci do spraw cyberbezpieczeństwa zalecają, aby nie wpisywać w czacie takich informacji, jak wszelkie dane osobowe, m.in. imię i nazwisko, adres, oraz dane, które mogą zidentyfikować jakiekolwiek osoby, informacji zdrowotnych zawartych w pytaniach o choroby i ich leczenia, a także wczytywania dokumentów zawierające dane osobowe.

Z ChatGPT korzystają również cyberprzestępcy

Podobne zasady obowiązują podczas korzystania z ChatGPT w pracy. Eksperci radzą nie wpisywać poufnych informacji ani nie przesyłać prezentacji, raportów ani dokumentów zawierających dane o firmie, współpracownikach i klientach.  

Aby skutecznie chronić firmowe dane, najlepiej przeczytać dwa razy swoje monity, zanim się kliknie „Prześlij”. Warto również wyłączyć historię czatu, dzięki czemu rozmowy będą przechowywane jedynie przez 30 dni. Można również zrezygnować z wykorzystywania rozmów do celów szkoleniowych, pisząc wiadomość e-mail do zespołu OpenAI. Najlepiej też unikać używania ChatGPT w publicznych sieciach Wi-Fi. Zamiast tego lepiej korzystać z bezpiecznej sieci prywatnej lub VPN.

Trzeba też pamiętać, że z ChatGPT korzystają nie tylko zwykli internauci czy specjaliści od nowoczesnych technologii, ale również cyberprzestępcy, którzy przygotowują przy jego pomocy fałszywe wiadomości e-mail i SMS mające na celu wyłudzenie danych od nieświadomych użytkowników.

Według ekspertów zabezpieczenia można ominąć, także te zastosowane w modelu językowym ChatGPT. Twórcy takich programów zdają sobie z tego sprawę i robią wszystko, aby łatać znalezione przez cyberprzestępców luki. Z każdą kolejną próbą wykorzystania AI do celów niezgodnych z prawem złamanie mechanizmów ochronnych staje się więc trudniejsze.

Sztuczna inteligencja kłamie?

Jak przekonuje Chester Wisniewski, dyrektor ds. technologii w firmie Sopho, trzeba też uważać na informacje generowane przez ChatGPT.

– Sztuczna inteligencja jest naprawdę przekonującym, ale i zapatrzonym w siebie kłamcą – twierdzi Chester Wisniewski. – Do szkolenia modelu bez wątpienia wykorzystano także informacje, które nie są prawdziwe. Dlatego nie da się przewidzieć, w którym momencie ChatGPT wykorzysta je do udzielenia odpowiedzi na zadane mu pytanie. Przewagą człowieka nad AI jest prawdziwa kreatywność i to, że ma możliwość podjęcia świadomej decyzji, czy chce skłamać, czy nie.

Jednak według Chestera Wiskiewskiego wszystkich zalet wynikających z używania sztucznej inteligencji będzie prawdopodobnie znacznie więcej niż potencjalnych niebezpieczeństw, a właściwe wykorzystanie tych narzędzi może uczynić wiele dobrego.

Źródło:
Katarzyna Wiązowska
Katarzyna Wiązowska
redaktor Bankier.pl

Dziennikarka prasowa i internetowa. Z wykształcenia ekonomistka, PR-owiec i psycholog komunikacji medialnej. Bliskie jej są tematy dotyczące rynku pracy, przedsiębiorczości i kreatywności. Lubi rozmawiać z ludźmi, poznawać ich historie, również biznesowe. Z pasji – kinomanka.

Tematy
Orange Nieruchomości
Orange Nieruchomości
Advertisement

Komentarze (13)

dodaj komentarz
caesar_m
Minęło parę tysięcy lat od powstania mitu o puszce Pandory a ciągle jest masa super-inteligentnych przemądrzałych głupców którzy MUSZĄ spróbować. Choć jest miliony rzeczy do zrobienia i poprawienia to ONI zawsze MUSZĄ sprawdzać czy się jednak nie uda zrobić nowego Big Bangu. Pascal uważał że z bilansu strat (zbawienie i życie wieczne Minęło parę tysięcy lat od powstania mitu o puszce Pandory a ciągle jest masa super-inteligentnych przemądrzałych głupców którzy MUSZĄ spróbować. Choć jest miliony rzeczy do zrobienia i poprawienia to ONI zawsze MUSZĄ sprawdzać czy się jednak nie uda zrobić nowego Big Bangu. Pascal uważał że z bilansu strat (zbawienie i życie wieczne vce satysfakcja z robienia draństwa w życiu doczesnym) korzystniej nieskończenie jest założyć istnienie Boga i przeżyć życie przyzwoicie...Sztuczna inteligencja o ile powstanie z definicji zlikwiduje homo sapiens , chyba że będzie utrzymywana na łańcuchu przez zawsze odpowiedzialnych ludzi. Otóż o ile powstanie AI jest bardzo prawdopodobne to skuteczny i odpowiedzialny zawsze i wszędzie nadzór jest po prostu niemożliwy i nigdy od mitu o Pandorze się nie udał. Kto ma nadzorować ? Kaczyński ? Tusk? Putin? Trump?Hitler? Stalin?Pol Pot ?
Zresztą dyskusja jest jałowa, bo AI powstanie jak tylko będzie to możliwe...Zbyt wielu co ma kasę lub władzę chce takiego narzędzia.Nawet jeśli 99,99% się cofnie to znajdzie się co najmniej kilkudziesięciu którzy spróbują. A potem z górki.
xqwztsa
To nie tych robotów szukacie...
zoomek
"ChatGPT zbiera prywatne informacje "
Ojeku, jeku!
Mokroszty Apple i inne rybuki z googlami nie zbierjooo!
inwestor.pl
100 milionów osób nie może się mylić, miliard też nie, bo tyle ludzi przetestowało 'super skuteczny' preparat na covido-grypę w fazie alfa. xD
jas2
"Czy 100 milionów osób może się mylić?"

Co ma znaczyć to zdanie w kontekście całego artykułu?
wizytator
Oj joj! Za to cała reszta Googli itp. nie szpieguje i nie wymusza naszych danych przy logowaniu. A żeby dostać zniżkę 30gr na paliwie to ile trzeba danych podać żeby uzyskać kartę? To nie jest wyłudzanie danych?
infinityhost
Osoba która napisała ten artykuł pominęła najwaszniejszy czas - szybkość dostępu do informacji dzięki AI - i tutaj faktycznie mamy rewolucję.
infinityhost
Jestem członkiem grupy pracującej nad AI. Kompletnie nie wierzę w projekt, reszta się zachwyca. Ja robię stronę techniczną komunikacji, więc - ale wierzyć w te uczące się ify to nie wierzę.
xqwztsa
Też przy tym robię i też nie wierzę, ale setnie mnie bawi, że ludzie wpisują co leci, gadają o sobie i pokazują na nagraniach, a to wszystko od razu się kopiuje w tyle miejsc, że w sumie nikt nie wie w ile.

Powiązane: Sztuczna inteligencja

Polecane

Najnowsze

Popularne

Ważne linki