REKLAMA

Rozwój sztucznej inteligencji już się nie zatrzyma. To wymaga zajęcia się jej stroną moralną i etyczną

2023-06-18 14:00
publikacja
2023-06-18 14:00

Eksperci zauważają, że choć o sztucznej inteligencji mówi się na razie głównie w kontekście biznesowym i rozrywkowym, to w debacie coraz częściej pojawia się też wątek etyki i społecznej odpowiedzialności AI, która może się przyczynić do rozwiązania globalnych problemów.

Rozwój sztucznej inteligencji już się nie zatrzyma. To wymaga zajęcia się jej stroną moralną i etyczną
Rozwój sztucznej inteligencji już się nie zatrzyma. To wymaga zajęcia się jej stroną moralną i etyczną
fot. kung_tom / / Shutterstock

Według 46 proc. dyrektorów i menedżerów pojawienie się ChatGPT przyczyniło się do zwiększenia inwestycji w AI w ich organizacji. 70 proc. z nich jest w fazie eksperymentowania z tą technologią, a blisko co piąta przeszła już do etapu pilotażu lub wdrożenia - wynika z majowego badania firmy doradczej Gartner.

 - Musimy się zastanowić, co możemy zrobić, żeby AI była odpowiedzialna, etyczna i brała pod uwagę dobro całej ludzkości, a nie tylko właścicieli - mówi Edi Pyrek, współzałożyciel Global Artificial Intelligence Association.

ChatGPT - generatywna sztuczna inteligencja opracowana przez laboratorium badawcze OpenAI i wypuszczona na rynek w listopadzie ub.r. - jest nazywana kamieniem milowym w rozwoju tej technologii. Od kilku miesięcy cieszy się też rekordową popularnością. Według analityków UBS w zaledwie dwa miesiące przekroczyła symboliczny próg 100 mln użytkowników miesięcznie, co czyni ją najszybciej rosnącą aplikacją w historii. W połowie marca tego roku pojawił się też znacznie ulepszony następca - ChatGPT4, którego większość dotychczasowych użytkowników zgodnie nazywa rewolucją na miarę wynalezienia internetu czy maszyny parowej.

- To, co wydarzyło się od momentu wejścia na rynek ChatGPT4, to jest już kompletna rewolucja w myśleniu o sztucznej inteligencji. Wreszcie zaczęliśmy szerzej rozmawiać o tym, że sztuczna inteligencja to nie jest telefon, czatbot czy samochód, który będzie poruszał się obok nas. To jest coś o wiele większego, o czym powinniśmy zacząć inaczej myśleć - mówi agencji Newseria Biznes Edi Pyrek, współzałożyciel Global Artificial Intelligence Association oraz iMIND Institute.

Wokół narzędzia stworzonego przez OpenAI błyskawicznie wyrósł już cały nowy rynek usług cyfrowych. ChatGPT - ale też m.in. Dall-E czy Midjourney - są powszechnie wykorzystywane w ramach tzw. sztucznej twórczości (ang. artificial creativity), a tysiące podmiotów zaczęło oferować oparte na nich nowe usługi i aplikacje.

- Nie wiem, czy większość z nas zdaje sobie z tego sprawę, ale w momencie kiedy na rynku pojawił się ChatGPT4, historia człowieka na Ziemi zaczęła się w pewien sposób zmieniać. Stanęliśmy w momencie, kiedy singularity, osobowość technologiczna - czyli moment, kiedy sztuczna inteligencja będzie właściwie rządziła naszym życiem - jest już tuż za rogiem. To nie jest coś, co wydarzy się za kilkadziesiąt lat. Dlatego powinniśmy się zastanowić, czy ta sztuczna inteligencja może być odpowiedzialna społecznie. Stworzyliśmy sytuację, w której to ogon kieruje psem, mamy narzędzie, które zaczyna nami sterować. Musimy się zastanowić, co możemy zrobić, żeby ono było etyczne, odpowiedzialne i brało pod uwagę dobro całej ludzkości - mówi ekspert.

W majowym badaniu firmy doradczej Gartner blisko połowa (46 proc.) menedżerów wskazała też, że pojawienie się ChatGPT przyczyniło się do zwiększenia inwestycji w AI w ich organizacji. 70 proc. z nich jest w fazie eksperymentowania z tą technologią, a 19 proc. przeszło już do etapu pilotażu lub wdrożenia. Lawinowo rosnąca liczba zastosowań tej technologii powoduje, że debatę dotyczącą jej rozwoju zdominowały do tej pory głównie aspekty biznesowe i rozrywkowe. Jednak coraz częściej mówi się też o koncepcji AI for social impact, czyli etyce, społecznej odpowiedzialności i wykorzystaniu sztucznej inteligencji do rozwiązywania palących globalnych wyzwań.

- Do tej pory w zasadzie jedynym, ale bardzo istotnym przejawem tego, że przynajmniej część naukowców, badaczy, polityków, biznesmenów i technologów zajmowała się bardziej ludzkimi cechami AI, był projekt stworzony dla Unii Europejskiej, czyli Trustworthy AI. Zgodnie z tym konceptem powinniśmy stworzyć taką sztuczną inteligencję, której będziemy mogli zaufać, z założeniem, że ona będzie podtrzymywała takie cechy jak godność ludzka - mówi współzałożyciel fundacji GAIA.

Jak wskazuje, problemem wciąż pozostaje zdefiniowanie tych „ludzkich” cech, które powinna wykazywać AI, żeby działać etycznie i na rzecz ogólnie pojętego dobra publicznego.

- Kiedy ze współzałożycielami fundacji myśleliśmy o etyce sztucznej inteligencji, natknęliśmy się na problem, bo zdaliśmy sobie sprawę, że nie ma czegoś takiego jak jedna etyka dla wszystkich. Inna etyka jest muzułmańska, inna jest buddyjska, inna jest żydowska, inna jest w Polsce, inna w Ameryce, a jeszcze inna gdzieś w Rosji czy Chinach. Ona jest osadzona w kontekście religijnym i kulturowym. Dlatego też pierwsza rzecz, jaka w tej chwili przychodzi do głowy, jeśli chodzi o „proludzkie” cechy AI, to compassion, czyli współodczuwanie. To jest cecha wspólna dla wszystkich kultur i religii - mówi Edi Pyrek. - Jestem głęboko przekonany, że stoimy właśnie w momencie, kiedy na świecie pojawia się nowy gatunek, czyli androidy obdarzone sztuczną inteligencją. Jeżeli chcemy żyć z nimi obok, to musimy nauczyć tę sztuczną inteligencję współodczuwania, rozumienia naszych bolączek i potrzeb, żeby one były w odpowiedni sposób zabezpieczone.

Przyczynienie się do stworzenia tzw. compassion AI, czyli współodczuwającej sztucznej inteligencji, jest właśnie celem konkursu „Join the Rebels! Impact the Future”, zainicjowanego przez GAIA i Dictador - pierwszą na świecie i jedyną jak dotąd markę, której prezesem jest algorytm AI. 

- Cały koncept tego zadania, które stawiamy w naszym konkursie, opiera się na stworzeniu platformy, która będzie pozwalała nie tylko uczyć sztuczną inteligencję, ale także uczyć się od sztucznej inteligencji. Chcemy, żeby sztuczna inteligencja nauczyła ludzi tego, czego sami siebie nie potrafiliśmy nauczyć, czyli współodczuwania - mówi pomysłodawca konkursu. - Ten konkurs jest skierowany do naukowców, start-upów, przedsiębiorców i osób indywidualnych chcących razem z nami stworzyć compassion AI, która w sposób psychologicznie bezpieczny będzie potrafiła nauczyć ludzi zachowań moralnych, etycznych, myślenia propublicznego, nauczyć ludzi empatii i współczucia.

Pula nagród wynosi 200 tys. euro, a organizatorzy na zgłoszenia będą czekać do 31 lipca br. Ogłoszenie wyników nastąpi na początku października.

Źródło:
Tematy
Załóż konto osobiste w apce Moje ING i zgarnij do 600 zł w promocjach od ING
Załóż konto osobiste w apce Moje ING i zgarnij do 600 zł w promocjach od ING

Komentarze (12)

dodaj komentarz
(usunięty)
(wiadomość usunięta przez moderatora)
hfjdj
Teorie spiskowe tworzą ludzie którzy nie rozumieją czemu w Ameryce i Azji 10 tys. Lat temu ludzie polowali na dziki. Twierdzą że to zmowa jakaś, spisek.
infinityhost odpowiada hfjdj
Popatrz ile zwierze je, taki kot, ile jest zwierząt w otoczeniu, i twierdzisz, że bez człowieka by przeżyło? Dla mnie to nie jest oczywiste. Miałem kota, jadł kilka razy dziennie, nie sądzę żeby dał radę upolować w lesie tyle jedzenia, żeby przeżyć. Dla mnie to jest mało wykonalne.
xqwztsa odpowiada infinityhost
Może byłeś w ruskim lesie, gdzie nawet kora poobgryzana z drzew? Rozejrzyj się dokładniej wokół siebie, a zdziwisz się ile zwierząt jest tuż pod nogami i nad głową. Samymi ptakami kot nażarłby się pod korek. O myszach i ryjówkach nie wspominam nawet.
(usunięty)
(wiadomość usunięta przez moderatora)
zoomek
https://pl.wikipedia.org/wiki/Golem
infinityhost odpowiada (usunięty)
ale potem kopacz je zatłuka kamieniami i żydzi przesiedli się na gojów he he

Powiązane: Sztuczna inteligencja

Polecane

Najnowsze

Popularne

Ważne linki