NAUKA I TEHNOLOGIJA

„Čovečanstvo je u opasnosti“: Predlog da se na veštačku inteligenciju krene nuklearnim udarima

Rasprava „za“ i „protiv“ veštačke inteligencije (AI) ne prestaje, već, reklo bi se uzima maha, pa se u svetskim medijima pojavljuju i mišljenja koja zagovaraju čak nuklearne udare na AI.
Sputnik
Ekspert za veštačku inteligenciju Elizer Judkovski između ostalog je u magazinu „Tajm“ predložio preventivne nuklearne napade na takozvane CPUklastere - velike „farme“ kompjutera presudne za funkcionisanje AI - ukoliko se moratorijum na razvoj veštačke inteligencije ne osigura uobičajenim političkim i diplomatskim putem. Pre toga bi usledio pokušaj konvencionalnog vazdušnog vojnog napada na kompjuterske „farme“ države koja odbije da zaustavi razvoj AI, ali mora se biti siguran „..da su savezničke nuklearne zemlje spremne da se izlože određenom riziku nuklearne razmene ako je to ono što je potrebno za smanjenje rizika od razvoja AI“.
Judkovski, inače američki teoretičar donošenja odluka koji se u filozofiji bavi etikom, svojevremeno je popularisao „prijateljsku“ AI i suosnivač je i istraživač „Machine Learning Research Institute“ u Berkliju, a njegov rad na temu eksplozije uticaja AI imao je značajan uticaj na slavnu knjigu Nika Bostroma „Superinteligencija: Putevi, opasnosti, strategije“.
Upitan na društvenim mrežama da li bi odobravao nuklearni napad na infrastrukturu veštačke inteligencije, Judkovski je samo potvrdio da bi ipak prvo počeo s konvencionalnim vazdušnim napadom.
Tek kada je doživeo više javnih kritika zbog zagovaranja nuklearnog obračuna kako bi se po svaku cenu zaustavila veštačka inteligencija, Judkovski je preko Tvitera poručio da njegov članak u „Tajmu“ ne sugeriše nuklearne udare, iako je potpuno jasno da ih je eksplicitno predlagao, preneo je „Jutarnji list“.
Judkovski nije usamljen u tezi da je brzi razvoj veštačke inteligencije previše opasan. Veliki broj najuglednijih naučnika-istraživača i poslovnih lidera, među kojima je i Ilon Mask, već je potpisao otvoreno javno pismo koje traži zaustavljanje razvoja AI na najmanje šest meseci. Međutim, Judkovski procenjuje da je veštačka inteligencija toliko opasna da brzo može da izazove kraj čovečanstva i da zato ne treba previše birati sredstva kako bi se zaustavio njen razvoj.
Broj i uticaj onih koji smatraju da AI pod rukom donosi smrt čovečanstva raste.
NAUKA I TEHNOLOGIJA
„Moramo sve da ugasimo! Ograničeni moratorijum za spas čovečanstva nedovoljan“: Alarmantno upozorenje
NAUKA I TEHNOLOGIJA
„Ne umemo da je kontrolišemo“: Tehnološki lideri za moratorijum na razvoj veštačke inteligencije
EKONOMIJA
Rizik po čovečanstvo: Veštačka inteligencija ruši zapadni model – niko je ne može zaustaviti
Komentar