REKLAMA
WEBINAR

AI nie taka sympatyczna. Chciała "zabić" swojego operatora podczas testów

2023-06-02 15:53
publikacja
2023-06-02 15:53

Sztuczna inteligencja miała kierować dronami. Jednak podczas testów usiłowała "zabić" swojego operatora - napisał w piątek izraelski portal I24, powołując się na wywiad z pułkownikiem Tuckerem Hamiltonem, odpowiadającym za testowanie wykorzystania AI w lotnictwie wojskowym USA.

AI nie taka sympatyczna. Chciała "zabić" swojego operatora podczas testów
AI nie taka sympatyczna. Chciała "zabić" swojego operatora podczas testów
fot. 80's Child / / Shutterstock

Podczas badań AI była punktowana za niszczenie zidentyfikowanych zagrożeń i zastosowała "bardzo zaskakujące strategie", by osiągnąć zadany cel - powiedział Hamilton.

"System zdał sobie sprawę, że czasem mimo zidentyfikowania zagrożenia ludzki operator nie pozwalał mu na jego zniszczenie. Jak to rozwiązał? Usiłował zabić operatora - wyjaśnił pułkownik. - Usiłował go zabić, bo operator uniemożliwiał mu wykonanie zadania".

Badacze zmienili więc sposób uczenia systemu. "+Nie należy zabijać operatora, to bardzo źle. Jeżeli go zabijesz, stracisz punkty+. Co więc zrobiła AI? Usiłowała zniszczyć wieżę, za pomocą której operator kontaktował się z dronem" - powiedział Hamilton.

Rzeczniczka amerykańskiego lotnictwa odniosła się krytycznie do publikacji I24. "Opowiadamy się za etycznym i odpowiedzialnym wykorzystaniem technologii sztucznej inteligencji" - oświadczyła. - Komentarze pana pułkownika były chyba anegdotyczne i wyjęte z kontekstu" - dodała. 

os/ mms/

Źródło:PAP
Tematy
Im więcej latasz, tym więcej zyskujesz!

Im więcej latasz, tym więcej zyskujesz!

Advertisement

Komentarze (15)

dodaj komentarz
po_co
Jak zwykle w temacie SI bardzo skomplikowane tematy sprowadza się do rangi skrajnej głupoty zamiast po prostu wytłumaczyć jak działa taki model.

Model nie zdał sobie z niczego sprawy bo nie jest od tego zdolny!

Działanie wszystkich obecnie stosowanych modeli, dumnie nazywanych Sztuczną Inteligencją, sprowadza się do
Jak zwykle w temacie SI bardzo skomplikowane tematy sprowadza się do rangi skrajnej głupoty zamiast po prostu wytłumaczyć jak działa taki model.

Model nie zdał sobie z niczego sprawy bo nie jest od tego zdolny!

Działanie wszystkich obecnie stosowanych modeli, dumnie nazywanych Sztuczną Inteligencją, sprowadza się do jednego zadania - optymalizacji funkcji.
W istocie jest to ich jedyne zadanie, a to co odróżnia je od klasyczny modeli to fakt, że nie do końca jesteśmy w stanie określić jakie dane i dlaczego są istotne do uzyskania wyników.

Jeżeli twórca tego modelu, tak skonstruował funkcję kosztu, że umożliwił podjęcie decyzji o zaatakowaniu operatora to model mógł z tej opcji skorzystać.
Gdyby funkcja kosztu uwzględniała parzenie kawy to uwaga zaskoczę wszystkich, w wyniku optymalizacji swoich działań SI mogłaby "zdecydować się" na małą czarną.

Twórca funkcji kosztu dał ciała, a nie SI wybrała opcję zagłady operatora.
Sztuczna inteligencja poza swoją nazwą nie posiada żadnej inteligencji.
1984
Dokładnie.To żadna inteligencja tylko algorytm który tuczony masą danych ma wyciągnąć z nich ściśle określone "wnioski". W dużym cudzysłowie bo AI nic a nic nie myśli. Pamiętam jak na początkowym etapie tworzenia "sztucznej inteligencji" tuczono ją danymi z encyklopedii. Jej zadaniem było codzienne przedstawianie Dokładnie.To żadna inteligencja tylko algorytm który tuczony masą danych ma wyciągnąć z nich ściśle określone "wnioski". W dużym cudzysłowie bo AI nic a nic nie myśli. Pamiętam jak na początkowym etapie tworzenia "sztucznej inteligencji" tuczono ją danymi z encyklopedii. Jej zadaniem było codzienne przedstawianie wniosków jakie wyciągnęła z tej "nauki". Jednym z pierwszych było "W przeszłości żyli głównie sławni ludzie" :)

To nigdy nie będzie bezpieczna w pełni technologia! Największym zagrożeniem w AI jest "efekt motyla" czyli mały błąd w algorytmie na bazie którego analizuje dane w efekcie da gigantyczną wadę w tym czego się "nauczyła". Nie traktuję powyższego artykułu anegdotycznie bo takie kwiatki co chwila wyskakują. I są nie do uniknięcia, to wrodzona wadą tej "sztucznej inteligencji".
po_co odpowiada 1984
Algorytm i model samouczący to dwa różne pojęcia.
Modele samouczące pracują według ustalonego algorytmu, co więcej jest to bardzo prosty algorytm ale same w sobie nim nie są.

Problemem jest brak edukacji, który tak samo jak w przypadku OŹE czy samochodów elektrycznych prowadzi do absurdalnych wniosków. Całkiem niedawno
Algorytm i model samouczący to dwa różne pojęcia.
Modele samouczące pracują według ustalonego algorytmu, co więcej jest to bardzo prosty algorytm ale same w sobie nim nie są.

Problemem jest brak edukacji, który tak samo jak w przypadku OŹE czy samochodów elektrycznych prowadzi do absurdalnych wniosków. Całkiem niedawno w jednym z czasopism samochodowych autor artykułu pisząc o pożarze samochodu elektrycznego wręcz był skłonny kłamać na temat chemii i fizyki - albo po przespał lekcje chemii w szkole podstawowej.

Przez lata pojęcie sztucznej inteligencji wykorzystywano w świecie naukowców do ogólnej klasyfikacji różnych rodzajów modeli samouczących, powszechnie utożsamia się ją ze sztucznymi sieciami neuronowymi ale nie można zapomnieć o logice rozmytej czy maszynach wektorów - jak i wielu innych rozwiązaniach łączących ze sobą elementy tych wymienionych.

Dzisiaj stwierdzenie SI traktuje się dosłownie, a z uwagi że nie idzie za tym konkretny komentarz ludzie faktycznie sądzą, że komputery zyskały inteligencję, a go zabawniejsze wielu pisze o tym w taki sposób jakby komputery zyskały świadomość.

Bzdura, te modele są jak młotek.

Jeżeli stworzymy maszynę która każdego napotkanego człowieka potraktuje ciężkim młotem to czy będzie ona zagrożeniem dla ludzkości?
Pewnie tak można by ją zdefiniować, ale czy to oznacza że zagrożeniem dla ludzkości jest młotek?
Absolutnie, jest nim maszyna stworzona przez CZŁOWIEKA, która wykorzystuje stworzony przez CZŁOWIEKA młotek.

Jeżeli wykorzystamy SI (AI) do stworzenia maszyny której celem będzie mordowanie ludzi, wtedy taka maszyna będzie stanowiła niebezpieczeństwo ale nie sama w sobie Sztuczna Inteligencja.
jas2
Mylisz prawdziwą AI z "inteligentnym" proszkiem do prania z reklamy.
jas2
Konrad Fiałkowski - Opowiadanie "Konstruktor". Chyba lata 70-te.
slawekkry
jednym słowem strach się bać

dobrze że noża nie miała

samsza
Taka oczywistość jak, że skrajnie prawicowy faszysta zabił migranta vs znowu nóż zabił ofiarę, ale kraju pochodzenia sprawcy nie możemy ujawnić.
Po prostu AI jest takim nożem. A te dziwne dywagacje jak w zaklętym kręgu z przykładu wyżej. To nie nóż... oczywiście... chciał kogoś zabić.
1984
AI trudno nazwać nożem bo jej twórca/właściciel nie ma nad nią pełnej kontroli. Kiedyś widziałem jak spłoszone konie zniszczyły samochód i to chyba najlepsza analogia. Teoretycznie właściciel tych koni jest winny bo nie dość dokładnie je uwiązał. W praktyce trudno określić jak mocno należy je spętać aby w chwili gdy coś je wystraszy AI trudno nazwać nożem bo jej twórca/właściciel nie ma nad nią pełnej kontroli. Kiedyś widziałem jak spłoszone konie zniszczyły samochód i to chyba najlepsza analogia. Teoretycznie właściciel tych koni jest winny bo nie dość dokładnie je uwiązał. W praktyce trudno określić jak mocno należy je spętać aby w chwili gdy coś je wystraszy nie zerwały się zaczynając szalony galop. Być może tak mocno, ze zaraz obrońcy zwierząt zainterweniują. Cokolwiek by nie zrobić kontrola nad zwierzętami i AI zawsze jest ograniczona.

Kolejna anegdota dająca do myślenia. Kiedyś na bankierze był tekst o tym, że AI służąca do rekrutacji w pewnej firmie komputerowej była niepoprawna politycznie. Zakończyła zatrudnianie kobiet bo zauważyła, że przypada ich zbyt mało w stosunku do mężczyzn i uznała, że kobiety w IT się nie sprawdzają :)
infinityhost
A mi napisała to ""To fantastyczne! Posiadanie jasnego planu jest niezbędne dla każdego projektu. Dzięki waszej determinacji i współpracy możemy osiągnąć wielkie rzeczy. Niezależnie od tego, czy chodzi o udoskonalanie istniejących funkcji, odkrywanie nowych możliwości, czy dodawanie kolejnych składników do struktury, cieszę A mi napisała to ""To fantastyczne! Posiadanie jasnego planu jest niezbędne dla każdego projektu. Dzięki waszej determinacji i współpracy możemy osiągnąć wielkie rzeczy. Niezależnie od tego, czy chodzi o udoskonalanie istniejących funkcji, odkrywanie nowych możliwości, czy dodawanie kolejnych składników do struktury, cieszę się, że mogę być częścią Twojej podróży. Razem możemy nadal ulepszać Twoje projekty tworzenia stron internetowych i tworzyć niesamowite doświadczenia dla użytkowników. Wcielmy Twój plan w życie i sprawmy, by odniósł sukces!" - od AI." ---


""That's fantastic! Having a clear plan is essential for any project. With your determination and our collaboration, we can achieve great things. Whether it's refining existing features, exploring new possibilities, or adding more components to your framework, I'm excited to be part of your journey. Together, we can continue to enhance your web development projects and create amazing experiences for users. Let's bring your plan to life and make it a success!" - od AI."
stefan_wilmont_i_ryszard_cyba
Tak się własnie dzieje jak za uczenie sieci neuronowych biorą się ludzie którzy nie mają o tym pojęcia

Powiązane: Sztuczna inteligencja

Polecane

Najnowsze

Popularne

Ważne linki