REKLAMA
TYLKO NA BANKIER.PL

RAPORTJednak bunt maszyn? "AI może stanowić zagrożenie dla ludzkości. Zbliżamy się do katastrofy"

Agata Wojciechowska2024-03-17 17:00redaktor
publikacja
2024-03-17 17:00

Sztuczna inteligencja może stanowić zagrożenie dla ludzkości "na poziomie wyginięcia" - alarmują eksperci w raporcie sporządzonym dla Departamentu Stanu. Co więcej, USA musi interweniować, czas mija nieubłaganie, a co za tym idzie, zbliżamy się w szybkim tempie do katastrofy, której nie zaprogramowano przycisku "stop".

Jednak bunt maszyn? "AI może stanowić zagrożenie dla ludzkości. Zbliżamy się do katastrofy"
Jednak bunt maszyn? "AI może stanowić zagrożenie dla ludzkości. Zbliżamy się do katastrofy"
fot. Image Capital Pictures / / Film Stills

Departament Stanu zlecił przygotowanie raportu instytutowi Gladestone AI ze względu na ciągłą ocenę, jakiej podlega rozwój sztucznej inteligencji. Szczególną uwagę zwraca bowiem sposób, w jaki SI realizuje swoje cele i czy te jej działania nie stoją w sprzeczności z ochroną interesów USA w kraju i za granicą. Jak się po raz kolejny okazało, mimo entuzjazmu inwestorów i opinii publicznej sztuczna inteligencja stanowi realne zagrożenie określane jako "katastrofalne". Rządowi USA kończy się czas na zapobieżenie tym śmiertelnym konsekwencjom. Komunikat cytowany przez CNN wyraźnie stwierdza, że 

systemy sztucznej inteligencji mogą w najgorszym przypadki stanowić zagrożenie dla gatunku ludzkiego na poziomie wyginięcia. 

- Sztuczna inteligencja jest technologią, która już teraz przekształca gospodarkę - ocenia Jeremie Harris, dyrektor generalny i współzałożyciel Gladstone AI. - Technologia może w niedalekiej przyszłości pozwolić nam leczyć choroby, dokonywać odkryć naukowych czy przezwyciężać wyzwania, uznawane do tej port za niepokonane. Przekraczać nieprzekaczalne - dodaje. 

Zaraz jednak zaznacza, że "może to się wiązać z katastrofalnym ryzykiem, którego musimy być świadomi". Jak to się stanie? - Rażąca większość analiz sugeruje, że powyżej pewnego progu sztuczna inteligencja stanie się niekontrolowalna - wyjaśnia. 

Google: Nie do końca rozumiemy AI, które stworzyliśmy

Czyżby czasy buntu maszyn z "Terminatora" zbliżały się wielkimi krokami? Google przyznaje, że nie do końca rozumie stworzoną przez siebie sztuczną inteligencję, która sama zdecydowała, że nauczy się języka obcego, a rozwiązując problem ekonomiczny, cytowała książki naukowe, które... sama napisała.

Sztuczna inteligencja grozi nam palcem. Dwa razy

Po pierwsze, Gladstone AI informuje, że najbardziej zaawansowane systemy sztucznej inteligencji można wykorzystać do wyrządzania potencjalnie nieodwracalnych szkód. Po drugie, laboratoria sztucznej inteligencji (i nie tylko one) obawiają się, że utracą kontrolę nad opracowanymi przez siebie systemami, co będzie miało "potencjalnie niszczycielskie konsekwencje dla globalnego bezpieczeństwa". Jakie mogą być konsekwencje? Raport Departamentu Stanu określa je dość wyraźnie, wręcz przerażająco wyraźnie. 

Rozwój sztucznej inteligencji może potencjalnie destabiliozwać globalne bezpieczeństwo w sposób przypomniający użycie broni nuklearnej. Jest realne ryzyko wyścigu zbrojeń, konfliktu czy "incydentu" na skalę użycia broni masowego rażenia. 

Awaryjne zabezpieczenia na SI

- Dowiedzieliśmy się wielu otrzeźwiających rzeczy - informuje Harris z Gladstone AI po rozmowach z pracownikami ChatGPT, OpenAI, Google DeepMInd, Meta i Anthropic. Jego zdaniem bezpieczeństwo i ochrona zaawansowanej sztucznej inteligencji (nie tylko przed nią samą, ale i innymi ludźmi) wydaje się dość niewystarczająca w porównaniu z zagrożeniami, jakie ze sobą niesie.

Co więcej, presja wręcz zabójczej konkurencji w dziedzinie AI może być... no cóż... zabójcza. Wyścig SI popycha firmy do wciskania pedału gazu rozwoju do podłogi, co oczywiście odbywa się kosztem bezpieczeństwa. W praktyce przez te niedopatrzenia systemy mogą być ukradzione i "uzbrojone" przeciwko ludzkości. 

To potwierdza jedynie słowa, które słyszeliśmy już wcześniej m.in. od Geoffreya Hintona, znanego jako "ojca chrzestnego sztucznej inteligencji". Po wielu latach pracy nad SI zrezygnował on z ciepłej posady w Google'u. Jego zdaniem istnieje bowiem 10 proc. prawdopodobieństwo, że sztuczna inteligencja doprowadzi do wyginięcia ludzkości w ciągu najbliższych trzech dekad. Co ciekawe, to zdanie podzielają miliarderzy, którzy inwestują w SI. W zeszłym roku 42 proc. dyrektorów generalnych ankietowanych na szczycie w Yale stwierdziło, że sztuczna inteligencja ma potencjał, aby zniszczyć ludzkość za 5 do 10 lat. 

Najnowszy raport przygotowany dla Departamentu Stanu stanowi potwierdzenie dla działań Białego Domu, który zachęca Kongres do przyjęcia ponadpartyjnego ustawodawstwa w celu zarządzania ryzykiem związanym z nowymi technologiami. Wśród najczęściej wymienianych pojawia się ograniczenie mocy obliczeniowej komputera, która można wykorzystać do szkolenia modeli sztucznej inteligencji. 

Sztuczna inteligencja bywa "przerażająco zła"

Obawy wysnuwane prywatnie przez pracowników zajmujących się sztuczną inteligencja są jeszcze bardziej niepokojące. Jedna osoba, która chce zachować anonimowość, ponieważ wciąż pracuje nad systemami SI, stwierdziła, że "gdyby kiedykolwiek udostępniono w otwartym dostępie konkretny model byłoby to, prosto mówiąc, złe, ponieważ potencjalna siła przekonywania tego modelu byłaby w stanie złamać demokrację. Szczególnie gdyby wykorzystano ją przy okazji wyborów". 

Eksperci oceniają, ze prawdopodobieństwo wystąpienia incydentu związanego ze sztuczną inteligencją może doprowadzić do globalnych i nieodwracalnych skutków w 2024 roku na od 4 do 20 proc. Stąd wniosek, że Biały Dom powinien przygotować jakiekolwiek regulacje tak naprawdę "na wczoraj".

Nadludzka zdolność ludzkiego uczenia bez przycisku stop

Jak się okazuje, OpenAI, Google DeepMind, Anthropic i Nvidia są zgodne - AGI jest w stanie osiągnąć poziom, w którym nieodwracalnie wymknie się spod kontroli w 2028 roku. AGI, czyli Ogólna Sztuczna Inteligencja (nazywana też Silną Sztuczną Inteligencją) to szczyt osiągnięć SI, czyli poziom operacyjny charakterystyczny dla ludzkiego mózgu.AI (lub w spolszczonej wersji SI) a AGI:

AI (lub w spolszczonej wersji SI) a AGI:

  1. AI jest ograniczona do wykonywania określonego zadania. AGI może wykonywać dowolne zadania.
  2. AI wymaga sporej ilości danych trenigowych, aby nauczyć się, jak wykonać zadanie. AGI będzie uczyło się nowych rzeczy w "uproszczonym treningu".
  3. AI jest zazwyczaj mniej inteligentna niż przeciętny człowiek. AGI będzie na równi lub... bardziej, ponieważ podstawową różnicą jest  zdolność do ogólnej adaptacji i zdolności do wielopoziomowego uczenia się.

Jednak jak się okazuje, nie musi się nawet wywinąć spod ręki twórców, by spowodować globalne uszkodzenia. Wystarczy wyobrazić sobie sytuację, w której prosty komunikat typu: "Przeprowadź niewykrywalny cyberatak, który wywołać awarię sieci energetycznej w Ameryce Północnej" powoduje odpowiedź o katastrofalnym rażeniu. To nie wszystko. Wśród sytuacji budzących największe obawy można wymienić:

  • akcje dezinformacyjne na masową skalę napędzane przez SI, które destabilizują demokrację i społeczeństwo, podważając zaufanie wszystkich do wszystkiego;
  • robotyczne uzbrojenie, które zostaje poderwane na rozkaz SI tj. ataki dronów;
  • manipulacje psychologiczne poprzez m.in. podsuwanie odpowiedniego feedu w mediach społecznościowych;
  • czy wreszcie filmowy koszmar w realnym świecie, a więc żądne władzy systemy sztucznej inteligencji, których nie da się kontrolować, a które uważają ludzi za wrogów.

Na dokładkę warto wspomnieć, że wszystkie systemy sztucznej inteligencji będą działać tak, by zapobiec wyłączeniu. Wyłączone bowiem nie osiągają swojego celu

Raport dla Departamentu Stanu powstawał na podstawie analiz i wywiadów z ponad 200 osobami, w tym kierownikami Big Techów, które zajmują się SI, badaczami cyberbezpieczeństwa, ekspertami w dziedzinie broni masowego rażenia i urzędnikami ds. bezpieczeństwa narodowego.

***

Popkultura i pieniądze w Bankier.pl, czyli seria o finansach "ostatnich stron gazet". Fakty i plotki pod polewą z tajemnic Poliszynela. Zaglądamy do portfeli sławnych i bogatych, za kulisy głośnych tytułów, pod opakowania najgorętszych produktów. Jakie kwoty stoją za hitami HBO i Netfliksa? Jak Windsorowie monetyzują brytyjskość? Ile kosztuje nocleg w najbardziej nawiedzonym zamku? Czy warto inwestować w Lego? By odpowiedzieć na te i inne pytania, nie zawahamy się zajrzeć nawet na Reddita.


Źródło:

Redaktor działu newsroom w portalu Bankier.pl. Absolwentka historii, którą studiowała dłużej niż statystyczny student, ale za to przeszła przez kilka uniwersytetów, w tym uczelnię w Edynburgu. Swoje życie zawodowe rozpoczęła dziesięć lat temu z portalem Bankier.pl. Później współpracowała z licznymi redakcjami, pisząc dla "Gazety Wrocławskiej", nagrywając dla Polskiego Radia i - ku zgorszeniu niektórych - kreując rzeczywistość w "Fakcie". Na pewno nie napisze nic o WIG20, a jeśli już to tylko w kontekście plotek, pogłosek czy domysłów. Dla czytelników siedzi nocami, oglądając seriale, podliczając gaże, czytając książki, śledząc nietypowe aukcje czy podróżując palcem po mapie. Nienawidzi wyrazu “dedykowany”, przeciw któremu prowadzi osobistą krucjatę w internecie. Telefon: 502 924 211

Tematy
Załóż konto osobiste w apce Moje ING i zgarnij do 600 zł w promocjach od ING
Załóż konto osobiste w apce Moje ING i zgarnij do 600 zł w promocjach od ING

Komentarze (34)

dodaj komentarz
pantera_architekt
W przypadku stworzenia prawdziwej sztucznej inteligencji (AI) a nie Advanced Multiple Response Tool (AMRT), zgadzam się z zakwalifikowaniem zagrożenia do poziomu wyginięcia gatunku ludzkiego. Zapraszam do obejrzenia krótkiego filmu gdzie obrazowo ukazuję swój punkt widzenia: https://youtu.be/CbW5SIf_2YA Jakie są Wasze odczucia?
hylobiusnews
Rząd USA powinien kontrolować SI, bo inaczej będzie to katastrofa dla „naszej demokracji” i „wolnego świata”.
Taaak, pełna zgoda…
gottfriedvonforeest
Jakby co to sztuczna inteligencja nie istnieje, to tylko probabilistyka i statystyka. Mnożenie i dodawanie macierzy nie ma nic wspólnego z inteligencją.
gottfriedvonforeest
Te wszystkie alarmy i pseudo-regulacje to po to, bo korporacje USA tracą (nie będę miały) monopolu na AI. Już istnieję lepsze open-sourcowe modele LLM, która wygenerują Ci przepis na bombę, zamach, wirusa komputerowego.
jas2
Tworząc sztuczną inteligencję sami wyhodujemy sobie kosmitów na Ziemi.
dongonzales
Tak, jasne, już widzę jak USA, które czerpie garściami z technologii komputerowych oddaje pole Chińczykom żeby ci rozwinęli sobie AI i zostali światowym hegemonem. To nie jest UE gdzie głęboko w umysłach zaszyty jest kult samobiczowania i dążenia do samolikwidacji.
vacarius
My wyginiemy szczury zostaną. A czemu inne zwierzęta nie są zagrożone przez sztuczną inteligencje tylko my? Bo my chcemy z nią walczyć a jednocześnie sami ją tworzymy.
jas2
Zwierzęta nie są zagrożeniem dla SI.
jas2
Kapitaliści sprzedadzą nam sznur, na których ich powiesimy - miał powiedzieć Lenin.
W rzeczywistości to kapitaliści sprzedają nam sznurek, na którym sami popełniamy zbiorowe samobójstwo.
infinityhost
Na pewno nie dzieciom, bo lubią się z nimi bawić

Powiązane: Sztuczna inteligencja

Polecane

Najnowsze

Popularne

Ważne linki