SVET

Lažna vest o „zločinu“ veštačke inteligencije potpirila priče o zastrašujućem scenariju

Vest američke vojske da je tokom simulacije dron kojim upravlja veštačka inteligencija „ubio“ operatera, iako je demantovana, uzbunila je svetsku javnost. Da li se veštačka inteligencija već odmetnula od tvorca, ko je kriv za njene greške i preti li nam scenario iz „Terminatora“, za Sputnjik otkriva filozof Nikola Tanasić.
Sputnik
Vest koja je uzbunila svetsku javnost da je u simuliranom testu američke vojske dron pod kontrolom veštačke inteligencije ubio operatera kako bi ga sprečio da se meša u napore da postigne misiju, ekspresno je demantovana.
Američko ratno vazduhoplovstvo saopštilo je da se pukovnik Taker Hamilton „pogrešno izrazio“ kada je opisivao eksperiment i da su njegovi komentari, koji su trebalo da budu anegdotski, „izvučeni iz konteksta“.
Bez obzira na demanti, posle „anegdotske priče“ pukovnika Hamiltona širom planete pojavio se strah da se veštačka inteligencija (AI) već otrgla kontroli i da bi nas u skoroj budućnosti moga zadesiti kataklizmičan scenario kakav smo viđali u filmskoj sagi o Terminatoru.

Zloupotreba veštačke inteligencije u marketinške svrhe

Veštačka inteligencija danas je termin koji se umeće u bilo koju korporativnu priču zato što privlači pažnju, marketinški je jako eksponiran, skače na vrhove svih pretraživača i generiše veliku pažnju, kaže za Sputnjik filozof Nikola Tanasić.
Pogotovo što se tiče visokotehnoloških kompanija koje su u prethodnih godinu dana u sve živo čime se bave počele na svaki mogući način da guraju AI jer privlači pažnju investitora, podiže im akcije na berzi i tako generiše veću pažnju za svoj proizvod koji u najvećem broju slučajeva nema nikakve veze s onim što mi podrazumevamo pod AI.
Najjednostavniji primer primene AI su autonomna vozila koja se testiraju već decenijama. Cilj je da se naprave automobili koji će moći potpuno samostalno da se puste u saobraćaj i budu jednako bezbedni ukoliko ne i bezbedniji nego automobili koje voze obučeni vozači.
Međutim, ta tehnologija nije zaživela jer i tako jednostavna grupa operacija koje ljudi rutinski obavljaju nije nešto što se lako može programirati zato što postoji čitav niz odluka koje jednostavno zavise od moralne autonomije samog vozača, objašnjava Tanasić.

Oružje budućnosti ne donosi odluke

Stvari postaju višestruko komplikovanije kad je reč o vojnoj tehnologiji u kojoj postoji ogromno interesovanje za automatizovane dronove.
„Moderni ratovi pokazali su da su dronovi oružje budućnosti. Dronovi u velikoj meri zavise od satelitske veze sa operaterom, a upravljanje satelitskom vezom može da se ometa što se već pokazalo u Ukrajini. Jedan od efikasnih načina da se zaustavi napad dronovima jeste da se prekine njihova veza sa operaterom i naravno da su vojne industrije širom sveta zainteresovane za autonomne dronove koji bi imali onu vrstu autonomije i sposobnosti za adaptiranje koju imaju piloti u avionima“.
SVET
Ratno vazduhoplovstvo SAD o simulaciji: Pukovnik se pogrešno izrazio, AI ne ubija operatera
Dron koji nema pilota mogao bi imati određene tehničke performanse koje avion sa pilotom ne bi, ali je sposobnost adaptacije i prilagođavanja opet ljudska stvar. Vojne industrije se bave mogućnošću prilagođavanja i adaptacije dronova, ali ne sa nekim naročito impresivnim uspehom.
„Obično vojna tehnologija ide nekoliko generacija ispred civilne, tako da možemo biti sigurni da samoupravljajući dronovi u vojsci imaju bolju tehnologiju od samoupravljajućih automobila. Ali i dalje je to daleko od onoga kako to naučna fantastika zamišlja, od robota koji su samosvesni i u stanju da sami donose konkretne moralne odluke. A to je ne na koji način pogoditi cilj, nego treba li ili ne treba pogoditi cilj. Dakle, to je nešto što je još isključivo u nivou ljudskog moralnog autoriteta. To se može uprogramirati u mašinu, ali opet donosilac odluke nije sama mašina, nego onaj ko ju je programirao.“

Pilatovsko pranje ruku – etička pitanja vojne industrije

A to je tema o kojoj se veoma široko raspravljalo u okvirima etike kad je bila reč o autonomnim vozilima, jer ukoliko bi ona nekog povredila, postavilo bi se pitanje odgovornosti. A ta filozofska začkoljica postaje još komplikovanija ako se stavi u uslove vojne tehnike.
Ali ni tu se nije nešto daleko otišlo jer i u vojnom kompleksu ima mnogo tehnologije koja se brendira kao AI, ali to je najčešće samo „marketinška fora za privlačenje investitora“, naglašava Tanasić.
Samo učitavanje etičkih pitanja u vojnu industriju je bizarno po sebi i može da posluži kao jedan „elegantan način pilatovskog pranja ruku“. Međutim, između programirane vojne mašine u koju je unesen određeni protokol i antiterorističke jedinice nema neke velike razlike, smatra Tanasić.

Odgovornost čoveka za greške veštačke inteligencije

Ukoliko se prilikom akcije specijalne jedinice dogodi nešto nepredviđeno, odgovornost snosi konkretan oficir koji je doneo konkretnu odluku na osnovu protokola, a ako on može dokazati da se u potpunosti pridržavao protokola i instrukcija koje je imao, neće snositi nikakvu odgovornost, i onda se poteže pitanje ko je pravio taj protokol.
Slična je stvar sa nekim hipotetičkim dronom koji u nekoj kriznu situaciji može da bombarduje civile.
„Onda je odgovorna ili osoba koja ga je programirala, ili osoba koja je osobi koja ga je programirala dala naređenje da je tako programira. I stvar se opet samo u nekoliko instanci vraća do konkretne osobe, oficira, vojnog stratega ili političara koji je doneo odluku da se takva konkretna vojna doktrina učita u celi vojno-tehnološki kompleks“, zaključio je Tanasić.
SVET
Američki dron kojim je upravljala veštačka inteligencija „ubio“ operatera tokom simulacije
NAUKA I TEHNOLOGIJA
Veštačkoj inteligenciji prvo ubili moral: Nova epoha po meri „gospodara svemira“ iz Davosa
Komentar