REKLAMA

Szef OpenAI, twórca ChatGPT: Sztuczna inteligencja też może być wykorzystana w zły sposób

2023-05-27 14:00
publikacja
2023-05-27 14:00

Oddanie ChatGPT4 na wczesnym etapie w ręce społeczeństwa ma sens, bo pomaga zauważyć błędy, zanim urosną w siłę i staną się niebezpieczne. Również instytucje nadzorujące bezpieczeństwo mają w ten sposób czas na stworzenie ram prawnych – powiedział szef OpenAI podczas spotkania na Uniwersytecie Warszawskim.

Szef OpenAI, twórca ChatGPT: Sztuczna inteligencja też może być wykorzystana w zły sposób
Szef OpenAI, twórca ChatGPT: Sztuczna inteligencja też może być wykorzystana w zły sposób
fot. ELIZABETH FRANTZ / /  Reuters / Forum

Szef OpenAI - Sam Altman, Wojciech Zaręba – współzałożyciel firmy Open AI, oraz Szymon Sidor – naukowiec, wybrali się w podróż po świecie, by – jak sami zrelacjonowali – porozmawiać z użytkownikami, programistami i przedstawicielami instytucji rządowych o możliwościach i zagrożeniach wynikających z rozwoju sztucznej inteligencji (SI). Stworzone przez nich narzędzie – ChatGPT4, zyskało ogromną popularność na całym świecie i stało się przedmiotem poważnych debat.

Spotkanie na Uniwersytecie Warszawskim obyło się w ramach inicjatywy IDEAS NCBiR. Prowadząca spotkanie dziennikarka zapytała, czy twórcy ChatGPT nie żałują, że udostępnili narzędzie szerokiemu gronu odbiorców zbyt szybko, jeszcze przed wprowadzeniem jakichkolwiek regulacji szykowanych, np. przez Unię Europejską.

„Częściej spotykaliśmy się z zarzutem, że działamy zbyt wolno; że zbyt długo – bo aż 8 miesięcy trzymamy ChatGPT w laboratorium. Oddanie ChatGPT4 na wczesnym etapie w ręce społeczeństwa ma sens, bo pomaga zauważyć błędy, zanim urosną w siłę i staną się niebezpieczne. Również instytucje nadzorujące bezpieczeństwo mają w ten sposób czas na stworzenie ram prawnych. Ten proces uczenia się musi odbywać się w ścisłej współpracy ze społeczeństwem” – powiedział szef OpenAI Sam Altman.

Podkreślił też, że „jak każda znacząca dla rozwoju ludzkości technologia, SI też może być wykorzystana w zły sposób”. Jako przykład podał energię atomową.

„Na całym świecie musimy pochylić się nad szukaniem rozwiązań, żeby się zabezpieczyć. Może SI nie będzie aż tak niebezpieczna jak energia atomowa, która wpadnie w niepowołane ręce, ale dopóki nie poznamy jej bliżej, powinniśmy się zachowywać tak, jakby była podobnie niebezpieczna” – przestrzegał Altman.

Zapytany, czy nie boi się, że stworzone przez firmę OpenAI rozwiązanie oparte na sztucznej inteligencji może zagrażać demokracji przez szerzenie dezinformacji podczas kampanii wyborczych w różnych krajach, przytaknął.

„Obawiamy się. Jedną z rzeczy, którą staramy się robić podczas naszej podróży po świecie, są rozmowy z ludźmi, którzy tworzą regulacje prawne. Potrzebny jest system monitorowania firm takich jak nasza, by użytkownicy wiedzieli, że rozmawia z nimi sztuczna inteligencja, a nie człowiek” - zaznaczył. Dodał, że jednocześnie część pracy zawsze będzie w tzw. otwartym dostępie (open access) i „tego nie da się zatrzymać”, więc „trzeba pomyśleć o adaptacji społeczeństw do tego stanu rzeczy”.

Na pytanie publiczności: „skąd czerpiecie wiedzę na temat – co jest etyczne w obszarze sztucznej inteligencji?” – Altman, Zaręba i Sidor nie potrafili odpowiedzieć żadnym konkretem.

„Chcemy, żeby jakość życia ludzi na świecie zmieniała się na lepsze. Robimy też wszystko, by rozwiązywać problemy związane z bezpieczeństwem, dlatego rozmawiamy z wieloma instytucjami” – powiedział Altman.

Autorka: Urszula Kaczorowska

Źródło:PAP
Tematy
Orange Nieruchomości
Orange Nieruchomości
Advertisement

Komentarze (3)

dodaj komentarz
ministerprawdy
Nawet widelec może być wykorzystany w zły sposób.............
prawda_
Jego nazwisko Altman mowi wszystko, nie mozna ufac temu czlowiekowi tak samo jak Zuckerbergowi. Pochodzenie robi swoje.
zoomek
"Oddanie ChatGPT4 na wczesnym etapie w ręce społeczeństwa ma sens..."
Nikt tego społeczeństwu nie oddaje - no bez jaj!
Właściciele są i oni będą zawsze tym manipulować zgodnie z wolą mocodawców a nie społeczeństw. Wciskanie kitu też powinno mieć granice.

Powiązane: Sztuczna inteligencja

Polecane

Najnowsze

Popularne

Ważne linki