- Sputnik Srbija, 1920
NAUKA I TEHNOLOGIJA

„Čovečanstvo je u opasnosti“: Predlog da se na veštačku inteligenciju krene nuklearnim udarima

CC0 / Pixabay / Veštačka inteligencija
Veštačka inteligencija - Sputnik Srbija, 1920, 04.04.2023
Pratite nas
Rasprava „za“ i „protiv“ veštačke inteligencije (AI) ne prestaje, već, reklo bi se uzima maha, pa se u svetskim medijima pojavljuju i mišljenja koja zagovaraju čak nuklearne udare na AI.
Ekspert za veštačku inteligenciju Elizer Judkovski između ostalog je u magazinu „Tajm“ predložio preventivne nuklearne napade na takozvane CPUklastere - velike „farme“ kompjutera presudne za funkcionisanje AI - ukoliko se moratorijum na razvoj veštačke inteligencije ne osigura uobičajenim političkim i diplomatskim putem. Pre toga bi usledio pokušaj konvencionalnog vazdušnog vojnog napada na kompjuterske „farme“ države koja odbije da zaustavi razvoj AI, ali mora se biti siguran „..da su savezničke nuklearne zemlje spremne da se izlože određenom riziku nuklearne razmene ako je to ono što je potrebno za smanjenje rizika od razvoja AI“.
Judkovski, inače američki teoretičar donošenja odluka koji se u filozofiji bavi etikom, svojevremeno je popularisao „prijateljsku“ AI i suosnivač je i istraživač „Machine Learning Research Institute“ u Berkliju, a njegov rad na temu eksplozije uticaja AI imao je značajan uticaj na slavnu knjigu Nika Bostroma „Superinteligencija: Putevi, opasnosti, strategije“.
Upitan na društvenim mrežama da li bi odobravao nuklearni napad na infrastrukturu veštačke inteligencije, Judkovski je samo potvrdio da bi ipak prvo počeo s konvencionalnim vazdušnim napadom.
Tek kada je doživeo više javnih kritika zbog zagovaranja nuklearnog obračuna kako bi se po svaku cenu zaustavila veštačka inteligencija, Judkovski je preko Tvitera poručio da njegov članak u „Tajmu“ ne sugeriše nuklearne udare, iako je potpuno jasno da ih je eksplicitno predlagao, preneo je „Jutarnji list“.
Judkovski nije usamljen u tezi da je brzi razvoj veštačke inteligencije previše opasan. Veliki broj najuglednijih naučnika-istraživača i poslovnih lidera, među kojima je i Ilon Mask, već je potpisao otvoreno javno pismo koje traži zaustavljanje razvoja AI na najmanje šest meseci. Međutim, Judkovski procenjuje da je veštačka inteligencija toliko opasna da brzo može da izazove kraj čovečanstva i da zato ne treba previše birati sredstva kako bi se zaustavio njen razvoj.
Broj i uticaj onih koji smatraju da AI pod rukom donosi smrt čovečanstva raste.
Veštačka inteligencija - Sputnik Srbija, 1920, 02.04.2023
NAUKA I TEHNOLOGIJA
„Moramo sve da ugasimo! Ograničeni moratorijum za spas čovečanstva nedovoljan“: Alarmantno upozorenje
Veštačka inteligencija - Sputnik Srbija, 1920, 30.03.2023
NAUKA I TEHNOLOGIJA
„Ne umemo da je kontrolišemo“: Tehnološki lideri za moratorijum na razvoj veštačke inteligencije
Veštačka inteligencija - Sputnik Srbija, 1920, 01.04.2023
EKONOMIJA
Rizik po čovečanstvo: Veštačka inteligencija ruši zapadni model – niko je ne može zaustaviti
Sve vesti
0
Da biste učestvovali u diskusiji
izvršite autorizaciju ili registraciju
loader
Ćaskanje
Zagolovok otkrыvaemogo materiala