00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
OD ČETVRTKA DO ČETVRTKA
20:00
30 min
SPUTNJIK INTERVJU
20:30
30 min
MOJ POGLED NA RUSIJU
21:00
30 min
VESTI
Sukob u Ukrajini posle napada zapadnim raketama na Rusiju
06:30
30 min
MOJ POGLED NA RUSIJU
Autorska emisija Ljubinke Milinčić
07:00
30 min
SPUTNJIK INTERVJU
Bez saradnje Srba i Rusa nema ostvarenja slovenskog sna
16:00
30 min
OD ČETVRTKA DO ČETVRTKA
Hoće li biti Trećeg svetskog rata
17:00
30 min
SPUTNJIK INTERVJU
„Dualnost Milene Pavlović Barili“
17:30
30 min
JučeDanas
Na programu
Reemiteri
Studio B99,1 MHz, 100,8 MHz i 105,4 MHz
Radio Novosti104,7 MHz FM
Ostali reemiteri
 - Sputnik Srbija, 1920
SVET
Najnovije vesti iz sveta

Lažna vest o „zločinu“ veštačke inteligencije potpirila priče o zastrašujućem scenariju

© Foto : Sony Pictures Releasing CIS / Uđi u bazu fotografijaFotografija iz filma Terminator Spasenje: Budućnost počinje
Fotografija iz filma Terminator Spasenje: Budućnost počinje - Sputnik Srbija, 1920, 04.06.2023
Pratite nas
Vest američke vojske da je tokom simulacije dron kojim upravlja veštačka inteligencija „ubio“ operatera, iako je demantovana, uzbunila je svetsku javnost. Da li se veštačka inteligencija već odmetnula od tvorca, ko je kriv za njene greške i preti li nam scenario iz „Terminatora“, za Sputnjik otkriva filozof Nikola Tanasić.
Vest koja je uzbunila svetsku javnost da je u simuliranom testu američke vojske dron pod kontrolom veštačke inteligencije ubio operatera kako bi ga sprečio da se meša u napore da postigne misiju, ekspresno je demantovana.
Američko ratno vazduhoplovstvo saopštilo je da se pukovnik Taker Hamilton „pogrešno izrazio“ kada je opisivao eksperiment i da su njegovi komentari, koji su trebalo da budu anegdotski, „izvučeni iz konteksta“.
Bez obzira na demanti, posle „anegdotske priče“ pukovnika Hamiltona širom planete pojavio se strah da se veštačka inteligencija (AI) već otrgla kontroli i da bi nas u skoroj budućnosti moga zadesiti kataklizmičan scenario kakav smo viđali u filmskoj sagi o Terminatoru.

Zloupotreba veštačke inteligencije u marketinške svrhe

Veštačka inteligencija danas je termin koji se umeće u bilo koju korporativnu priču zato što privlači pažnju, marketinški je jako eksponiran, skače na vrhove svih pretraživača i generiše veliku pažnju, kaže za Sputnjik filozof Nikola Tanasić.
Pogotovo što se tiče visokotehnoloških kompanija koje su u prethodnih godinu dana u sve živo čime se bave počele na svaki mogući način da guraju AI jer privlači pažnju investitora, podiže im akcije na berzi i tako generiše veću pažnju za svoj proizvod koji u najvećem broju slučajeva nema nikakve veze s onim što mi podrazumevamo pod AI.
Najjednostavniji primer primene AI su autonomna vozila koja se testiraju već decenijama. Cilj je da se naprave automobili koji će moći potpuno samostalno da se puste u saobraćaj i budu jednako bezbedni ukoliko ne i bezbedniji nego automobili koje voze obučeni vozači.
Međutim, ta tehnologija nije zaživela jer i tako jednostavna grupa operacija koje ljudi rutinski obavljaju nije nešto što se lako može programirati zato što postoji čitav niz odluka koje jednostavno zavise od moralne autonomije samog vozača, objašnjava Tanasić.

Oružje budućnosti ne donosi odluke

Stvari postaju višestruko komplikovanije kad je reč o vojnoj tehnologiji u kojoj postoji ogromno interesovanje za automatizovane dronove.
„Moderni ratovi pokazali su da su dronovi oružje budućnosti. Dronovi u velikoj meri zavise od satelitske veze sa operaterom, a upravljanje satelitskom vezom može da se ometa što se već pokazalo u Ukrajini. Jedan od efikasnih načina da se zaustavi napad dronovima jeste da se prekine njihova veza sa operaterom i naravno da su vojne industrije širom sveta zainteresovane za autonomne dronove koji bi imali onu vrstu autonomije i sposobnosti za adaptiranje koju imaju piloti u avionima“.
Američki dron Predator - Sputnik Srbija, 1920, 02.06.2023
SVET
Ratno vazduhoplovstvo SAD o simulaciji: Pukovnik se pogrešno izrazio, AI ne ubija operatera
Dron koji nema pilota mogao bi imati određene tehničke performanse koje avion sa pilotom ne bi, ali je sposobnost adaptacije i prilagođavanja opet ljudska stvar. Vojne industrije se bave mogućnošću prilagođavanja i adaptacije dronova, ali ne sa nekim naročito impresivnim uspehom.
„Obično vojna tehnologija ide nekoliko generacija ispred civilne, tako da možemo biti sigurni da samoupravljajući dronovi u vojsci imaju bolju tehnologiju od samoupravljajućih automobila. Ali i dalje je to daleko od onoga kako to naučna fantastika zamišlja, od robota koji su samosvesni i u stanju da sami donose konkretne moralne odluke. A to je ne na koji način pogoditi cilj, nego treba li ili ne treba pogoditi cilj. Dakle, to je nešto što je još isključivo u nivou ljudskog moralnog autoriteta. To se može uprogramirati u mašinu, ali opet donosilac odluke nije sama mašina, nego onaj ko ju je programirao.“

Pilatovsko pranje ruku – etička pitanja vojne industrije

A to je tema o kojoj se veoma široko raspravljalo u okvirima etike kad je bila reč o autonomnim vozilima, jer ukoliko bi ona nekog povredila, postavilo bi se pitanje odgovornosti. A ta filozofska začkoljica postaje još komplikovanija ako se stavi u uslove vojne tehnike.
Ali ni tu se nije nešto daleko otišlo jer i u vojnom kompleksu ima mnogo tehnologije koja se brendira kao AI, ali to je najčešće samo „marketinška fora za privlačenje investitora“, naglašava Tanasić.
Samo učitavanje etičkih pitanja u vojnu industriju je bizarno po sebi i može da posluži kao jedan „elegantan način pilatovskog pranja ruku“. Međutim, između programirane vojne mašine u koju je unesen određeni protokol i antiterorističke jedinice nema neke velike razlike, smatra Tanasić.

Odgovornost čoveka za greške veštačke inteligencije

Ukoliko se prilikom akcije specijalne jedinice dogodi nešto nepredviđeno, odgovornost snosi konkretan oficir koji je doneo konkretnu odluku na osnovu protokola, a ako on može dokazati da se u potpunosti pridržavao protokola i instrukcija koje je imao, neće snositi nikakvu odgovornost, i onda se poteže pitanje ko je pravio taj protokol.
Slična je stvar sa nekim hipotetičkim dronom koji u nekoj kriznu situaciji može da bombarduje civile.
„Onda je odgovorna ili osoba koja ga je programirala, ili osoba koja je osobi koja ga je programirala dala naređenje da je tako programira. I stvar se opet samo u nekoliko instanci vraća do konkretne osobe, oficira, vojnog stratega ili političara koji je doneo odluku da se takva konkretna vojna doktrina učita u celi vojno-tehnološki kompleks“, zaključio je Tanasić.
Američki dronovi Gremlins  - Sputnik Srbija, 1920, 02.06.2023
SVET
Američki dron kojim je upravljala veštačka inteligencija „ubio“ operatera tokom simulacije
Veštačka inteligencija - Sputnik Srbija, 1920, 18.03.2023
NAUKA I TEHNOLOGIJA
Veštačkoj inteligenciji prvo ubili moral: Nova epoha po meri „gospodara svemira“ iz Davosa
Sve vesti
0
Da biste učestvovali u diskusiji
izvršite autorizaciju ili registraciju
loader
Ćaskanje
Zagolovok otkrыvaemogo materiala