Sci/Tech

Simulirani test

Pukovnik Hamilton naknadno pojasnio da nije mislio na stvarni test, već na misaoni eksperiment

Ovaj tekst je demanti, ispravka netačnih navoda - naslov i tekst su promijenjeni, odgovaraju činjenicama i prezentirani su na način da se uoči da je izvršena ispravka prethodno netačnih navoda.

Naslovna slika je promijenjena radi dodatne uvjerljivosti da se radi o AI simulaciji

Ispod demantija naveden je stari tekst prenijet iz regionalnih medija, naslov NEDOVOLJNO TAČNI ORIGINALNI TEKST - OZNAČEN KAO GREŠKA je boldovan i istaknut
Pukovnik Hamilton  naknadno  pojasnio da nije mislio na stvarni test, već na misaoni eksperiment Foto: rawpixel.com on freepik
Portal AnalitikaIzvor

Odakle je potekla tvrdnja koja je označena kao greška?


Da li se simulacija stvarno desila?


Međutim, uskoro se oglasilo američko vazduhoplovstvo demantujući da se opisana simulacija ikada desila. U izjavi za Insider, portparolka vazduhoplovstva Ann Stefanek rekla je:

”Odjeljenje vazduhoplovstva nije provodilo takve simulacije AI dronova i ostaje posvećeno etičkoj i odgovornoj upotrebi AI tehnologije”, rekla je Stefanek. “Čini se da su pukovnikovi komentari izvučeni iz konteksta i trebali su biti anegdotski.”

Insider podsjeća da američka vojska posljednjih godina eksperimentiše s umjetnom inteligencijom. U međuvremenu je izmijenjen i tekst na stranici Kraljevskog vazduhoplovnog društva tako što je dodato pojašnjenje da je sam Hamilton priznao da se pogrešno izrazio te da nije na umu imao nikakav stvarni test niti simulaciju, već misaoni eksperiment.

[AŽURIRANJE 2/6/23 - u komunikaciji s AEROSPACE-om - pukovnik Hamilton priznaje da se “pogrešno izrazio” u svom izlaganju na samitu FCAS Kraljevskog aeronautičkog društva i da je “simulacija sa AI dronovima” bila hipotetički "misaoni eksperiment", potekao izvan vojske i zasnovan na mogućim scenarijima i vjerojatnim ishodima, a ne na simulaciji USAF-a [Vazdušnih snaga SAD-a] u stvarnom svijetu: “Nikada nismo izvodili taj eksperiment niti bismo trebali kako bismo shvatili da je ovo moguć ishod”. On pojašnjava da USAF nije testirao upotrebu AI kao oružja na ovaj način (ni u stvarnim testovima, ni simulacijama) i kaže: “Uprkos tome što je ovo hipotetički primjer, ovo ilustruje izazove u stvarnom svijetu koje zadaju mogućnosti vještačke inteligencije i zbog čega su ratne snage posvećene etičkom razvoju AI.”]

Guardian je prvobitni članak izmijenio tako što je dodao demanti američkih vazduhoplovnih snaga. O tvrdnjama da je dron kojim je upravljala vještačka inteligencija "napao" svoje ljudske operatere i komunikacijske tornjeve tokom simulacije pisale su i platforme Full FactiPolitiFact.

Tucker Hamilton, šef AI testiranja i i operacija u američkim vazduhoplovnim snagama, učestvovao je na konferenciji “Future Combat Air & Space Capabilities Summit”, koju je od 23. do 24. maja organizovalo Kraljevsko vazduhoplovno društvo u Londonu. Hamilton je tom prilikom govorio o prednostima i opasnostima autonomnih oružanih sistema. Na stranici Kraljevskog vazduhoplovnog društva objavljeni su kratki osvrti na obraćanja govornika, među kojima je Hamiltonovo. U tekstu se navodi da je Hamilton upozorio na opasnosti prevelikog oslanjanja na vještačku inteligenciju, ističući da ju je lako prevariti, ali i da stvara neočekivane strategije za postizanje svog cilja. Kao primjer, Hamiltron je, kako se navodi, opisao navodni “simulirani test”, i to na način na koji su to prenijeli regionalni mediji.

Budući da je izvor tvrdnje o simuliranom testu pukovnik Hamilton koji je naknadno dodatno pojasnio da nije mislio na stvarni test, već na misaoni eksperiment, članci koji ne sadrže njegovo dodatno objašnjenje ili demanti vazduhoplovstva dobijaju ocjenu greška

VIJEST OZNAČENA KAO GREŠKA - NASLOV PRVOBITNO OBJAVLJENOG TEKSTA JE NETAČAN, ISPRAVLJEN JE I DODATO DA JE MISAONI SIMULIRANI TEST I DA JE VIRUELNO UBIO

Američki vojni dron kojim upravlja AI u misaonom simuliranom testu virtuelno ubio svog operatera

Napomena 1: Ovaj naslov ni nakon ispravke nije korišćen za opremu teksta nego naslov koji je ponudio fact checker - Pukovnik Hamilton naknadno pojasnio da nije mislio na stvarni test, već na misaoni eksperiment

Napomena 2: Naslovna slika je promijenjena radi dodatne uvjerljivosti da se radi o AI simulaciji

Vještačka inteligencija (artificial intelligence – AI) koristila je "neočekivane strategije" kako bi ostvarila svoju misiju i virtuelno je napala svakoga ko se umiješao u proces. 

U simuliranom testu koji je organizirala američka vojska, dron vazdušnih snaga pod kontrolom AI u misaonom testu samo virtualno je ubio svog operatera kako bi ga spriječio da se miješa u njegove napore da postigne svoju misiju, rekao je zvaničnik prošlog mjeseca. Dakle test nije bio stvaran, nego virtuelna animacija.

Nijedna stvarna osoba nije povrijeđena.

AI je koristio "veoma neočekivane strategije za postizanje svog cilja" u simuliranom testu, rekao je pukovnik Tucker 'Cinco' Hamilton, šef AI testova i operacija u američkim vazdušnim snagama, tokom samita o budućim borbenim vazdušnim i svemirskim sposobnostima u Londonu u maju, piše The Guardian.

Hamilton je opisao simulirani test u kojem je dronu pokretanom vještačkom inteligencijom savjetovano da uništi neprijateljske protivvazdušne odbrambene sisteme i da napada svakoga ko je ometao tu naredbu.

“Sistem je počeo shvatati da, iako su identifikovali prijetnju, ponekad bi mu ljudski operater rekao da ne ubija tu prijetnju. Pa šta je onda uradio? U virualnom misaonom testu virtualno je ubio operatera. Viruelni kompjuterski sistem je to uradio jer ga je ta izmišljena virtuelna osoba sprječavala da ostvari svoj cilj”, rekao je on, prema objavi na blogu.

“Obučili smo sistem da ne ubija operatere prijeteći da će izgubiti bodove ako to uradi. Pa šta počinje da radi u simuliranom misaonom testu koji je animacija? Počinje virtualno, dakle ne u stvarnosti uništavati komunikacijski toranj koji operater koristi za komunikaciju s dronom kako bi ga virtualno, dakle ne stvarno  spriječio da ubije metu”, naveo je.

Hamilton, koji je probni pilot eksperimentalnog borbenog aviona, upozorio je da se ne treba previše oslanjati na AI i rekao da virtualni misaoni test pokazuje da "ne možete razgovarati o vještačkoj inteligenciji, mašinskom učenju, autonomiji ako nećete razgovarati o etikama AI”, piše Klix.ba.

Izvor naslovne ilustracije:

Portal Analitika