Veštačka inteligencija (AI), u svom najširem smislu, je sposobnost računara da obavlja zadatke slične onim koje obavljaju ljudi, a koji zahtevaju analizu, generalizaciju, učenje iz prošlih iskustava i donošenje odluka.
„Napredak u računarskoj tehnologiji u poslednjoj deceniji, algoritmi za obuku neuronskih mreža i akumulacija velikih podataka omogućili su nam da rešavamo sve teže probleme: obradu i prepoznavanje slika, govornih signala, tekstova na prirodnom jeziku“, rekao je Konstantin Voroncov, doktor fizičkih i matematičkih nauka i profesor na Katedri za matematičke metode prognoze Fakulteta računarske matematike i kibernetike (CMC) Moskovskog državnog univerziteta.
"Do sada nije stvoreno ništa holističko što bismo mogli nazvati veštačkom inteligencijom. Ovo je samo skup odvojenih tehnologija i alata za rešavanje različitih problema predviđanja i automatizacije donošenja odluka", naglasio je naučnik.
Voroncov priznaje da razvoj veštačke inteligencije skokovito napreduje, ukazujući na najnoviji proboj u oblasti „modela velikih jezika“ (LLM) – ČetGPT.
U računarskoj nauci, LLM je opisan kao algoritam dubokog učenja koji može da obavlja različite zadatke obrade prirodnog jezika (NLP). NLP je sposobnost računara da „razume“ ljudski jezik, kako govorni tako i pisani.
„Proboj je toliko revolucionaran da su krajem marta istraživači koji stoje iza najnovije verzije GPT-4 rekli da su po prvi put videli ’naznake opšte veštačke inteligencije‘“, rekao je Voroncov.
„Model, obučen na terabajtima tekstova, stekao je sposobnosti koje nikada nije učio, koje su bile brojne, netrivijalne i neočekivane.“
Opasnosti veštačke inteligencije
Prema OpenAI, organizaciji koja se bavi proučavanjem veštačke inteligencije sa sedištem u SAD, za GPT-4 se kaže da može da „generiše, uređuje i ponavlja sa korisnicima kreativne i tehničke zadatke pisanja, kao što su komponovanje pesama, pisanje scenarija ili učenje stila pisanja korisnika“,
Naučnik tvrdi da veličina modela i njegovi parametri još uvek ne odgovaraju zapremini ljudskog mozga.
„Čini se da još nije inteligentno, iako je već blizu toga“, primetio je on. Ipak, opasnost leži u tome da sposobnost modela da generiše potpuno smislen tekst može da obmane ljude.
„Čini nam se da bi čet-bot mogao da misli, da je pametan i da zna mnogo, da ima „karakter“ i „ličnost“, da donosi odluke. Sve ovo nije tačno. On ne donosi odluke osim one koju reč da proizvede sledeću. Ne može da 'misli'", rekao je profesor.
„Dok generiše tekst, AI može da iskrivi i pomeša činjenice na bizarne načine“, kaže Voroncov.
„Kada je ovo prvi put otkriveno, Gugl programeri su se uplašili da bi mreža mogla da se koristi za generisanje 'okeana laži', u kome bi se kap istine konačno izgubila.“
Rusija nudi odgovornu upotrebu tehnologija za očuvanje civilizacije
Voroncov kaže da kada se stvara nešto novo — bilo da je u pitanju tehnologija, posao ili zakoni — što može uticati na mnoge ljude ili oblikovati budućnost čovečanstva, mora se postaviti pitanje: „Zašto ovo radim?“
„Potrebno je novo civilizacijsko razmišljanje da bi se zamenilo čisto tehnokratsko i individualističko“, napominje naučnik.
„Stvorili smo gomilu egzistencijalno opasnih tehnologija, preuzeli smo ogroman teret odgovornosti za očuvanje jedinstvenog rezultata milijardi godina evolucije.“
Ruska vlada pridaje najveći značaj održavanju tehnološkog suvereniteta u oblasti veštačke inteligencije, posebno imajući u vidu nove dokaze da bi globalno dostupni alati LLM mogli biti zloupotrebljeni.
Prošlog novembra, ruski predsednik Vladimir Putin učestvovao je na plenarnoj sednici „Putovanja veštačke inteligencije 2023“ međunarodne konferencije o veštačkoj inteligenciji i mašinskom učenju.
Predsednik je upozorio da je monopol zapadne veštačke inteligencije „opasan“, pozivajući na stvaranje „pouzdanih, transparentnih i bezbednih sistema veštačke inteligencije za ljude“.
"Rusija je sada jedna od retkih zemalja koje imaju sopstvene tehnologije generativne i veštačke inteligencije i velikih jezičkih modela“, rekao je Putin.
„Moramo da povećamo našu konkurentsku prednost, da stvorimo nova tržišta zasnovana na takvim tehnologijama i čitavu konstelaciju proizvoda i usluga.“
Rusija može ponuditi novi pristup razvoju novih i poboljšanju postojećih AI modela koji proizilaze iz nacionalne tehnološke ekspertize i tradicionalnih vrednosti.
Voroncov je naglasio da programeri veštačke inteligencije treba da usvoje odgovoran „civilizacijski pristup“ kako bi svoje proizvode učinili bezbednim i pouzdanim. Da bi ilustrovao svoju tezu, stručnjak se osvrnuo na nedostatke ČetGPT-a i naveo načine da se oni uklone.
„Prvo, čet-bot ne bi trebalo da podstiče ljudske sukobe, pa otuda i princip neutralne pozicije“, objasnio je profesor. "Ako govorimo o nekom društvenom sukobu, čet-bot treba da pokaže razumne stavove svih strana. U suprotnom, postaje oruđe za zaoštravanje sukoba... Jezičke modele treba naučiti da identifikuju oprečna ili polarizovana mišljenja. Možemo ići dalje i postaviti zadatak depolarizacije javnog mnjenja i uništavanja ’informacionih mehurova’“.
„Drugo, čet-bot ne bi trebalo da obmanjuje ljude. Ako ga koriste milioni ljudi, onda zablude mogu postati široko rasprostranjene. A ovo je anticivilizacijski fenomen“, upozorio je Voroncov. „Model [AI] bi trebalo da bude u stanju da citira, proverava činjenice, utvrđuje pouzdanost izvora, identifikuje laži i obmane. Istraživanja u ovim oblastima su u toku već dugi niz godina. Njihovo spajanje sa većim jezičkim modelima izgleda neizbežno.“
Pitanje odgovorne upotrebe tehnologije, upravljanje njom na bezbedan način, s poštovanjem i etički ostaje visoko na globalnoj agendi. S obzirom na sve veći uticaj AI tehnologija na čovečanstvo, potrebno je preduzeti mere za očuvanje postojećih civilizacijskih vrednosti, smatra Voroncov.
„Usudiću se da formulišem zakon očuvanja civilizacije“, rekao je naučnik. „Verovatnoća samouništenja civilizacije proporcionalna je proizvodu tri veličine: količini proizvedene energije, količini egzistencijalno opasnih tehnologija i količini ljudi spremnih da učine sve zarad lične moći i dominacije.“
Pogledajte i: