https://lat.sputnikportal.rs/20230404/covecanstvo-je-u-opasnosti-predlog-da-se-na-vestacku-inteligenciju-krene-nuklearnim-udarima-1153603108.html
„Čovečanstvo je u opasnosti“: Predlog da se na veštačku inteligenciju krene nuklearnim udarima
„Čovečanstvo je u opasnosti“: Predlog da se na veštačku inteligenciju krene nuklearnim udarima
Sputnik Srbija
Rasprava „za“ i „protiv“ veštačke inteligencije (AI) ne prestaje, već, reklo bi se uzima maha, pa se u svetskim medijima pojavljuju i mišljenja koja zagovaraju... 04.04.2023, Sputnik Srbija
2023-04-04T22:18+0200
2023-04-04T22:18+0200
2023-04-04T22:18+0200
nauka i tehnologija
nauka i tehnologija
it
srbija – društvo
https://cdn1.img.sputnikportal.rs/img/07e7/04/04/1153604499_0:0:1921:1080_1920x0_80_0_0_55215464cd29921e3144b55e10d3c9f5.jpg
Ekspert za veštačku inteligenciju Elizer Judkovski između ostalog je u magazinu „Tajm“ predložio preventivne nuklearne napade na takozvane CPUklastere - velike „farme“ kompjutera presudne za funkcionisanje AI - ukoliko se moratorijum na razvoj veštačke inteligencije ne osigura uobičajenim političkim i diplomatskim putem. Pre toga bi usledio pokušaj konvencionalnog vazdušnog vojnog napada na kompjuterske „farme“ države koja odbije da zaustavi razvoj AI, ali mora se biti siguran „..da su savezničke nuklearne zemlje spremne da se izlože određenom riziku nuklearne razmene ako je to ono što je potrebno za smanjenje rizika od razvoja AI“.Judkovski, inače američki teoretičar donošenja odluka koji se u filozofiji bavi etikom, svojevremeno je popularisao „prijateljsku“ AI i suosnivač je i istraživač „Machine Learning Research Institute“ u Berkliju, a njegov rad na temu eksplozije uticaja AI imao je značajan uticaj na slavnu knjigu Nika Bostroma „Superinteligencija: Putevi, opasnosti, strategije“.Upitan na društvenim mrežama da li bi odobravao nuklearni napad na infrastrukturu veštačke inteligencije, Judkovski je samo potvrdio da bi ipak prvo počeo s konvencionalnim vazdušnim napadom.Tek kada je doživeo više javnih kritika zbog zagovaranja nuklearnog obračuna kako bi se po svaku cenu zaustavila veštačka inteligencija, Judkovski je preko Tvitera poručio da njegov članak u „Tajmu“ ne sugeriše nuklearne udare, iako je potpuno jasno da ih je eksplicitno predlagao, preneo je „Jutarnji list“.Judkovski nije usamljen u tezi da je brzi razvoj veštačke inteligencije previše opasan. Veliki broj najuglednijih naučnika-istraživača i poslovnih lidera, među kojima je i Ilon Mask, već je potpisao otvoreno javno pismo koje traži zaustavljanje razvoja AI na najmanje šest meseci. Međutim, Judkovski procenjuje da je veštačka inteligencija toliko opasna da brzo može da izazove kraj čovečanstva i da zato ne treba previše birati sredstva kako bi se zaustavio njen razvoj.Broj i uticaj onih koji smatraju da AI pod rukom donosi smrt čovečanstva raste.
https://lat.sputnikportal.rs/20230402/moramo-sve-da-ugasimo-ograniceni-moratorijum-za-spas-covecanstva-nedovoljan-alarmantno-upozorenje--1153469437.html
https://lat.sputnikportal.rs/20230330/ne-umemo-da-je-kontrolisemo-tehnoloski-lideri-za-moratorijum-na-razvoj-vestacke-inteligencije-1153305232.html
https://lat.sputnikportal.rs/20230401/rizik-po-covecanstvo-vestacka-inteligencija-rusi-zapadni-model--niko-je-ne-moze-zaustaviti-1153410206.html
Sputnik Srbija
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik Srbija
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Vesti
sr_RS
Sputnik Srbija
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputnikportal.rs/img/07e7/04/04/1153604499_0:0:1707:1280_1920x0_80_0_0_0c16ff58c7105d13b6c16c811f5dbf86.jpgSputnik Srbija
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
nauka i tehnologija, it, srbija – društvo
nauka i tehnologija, it, srbija – društvo
„Čovečanstvo je u opasnosti“: Predlog da se na veštačku inteligenciju krene nuklearnim udarima
Rasprava „za“ i „protiv“ veštačke inteligencije (AI) ne prestaje, već, reklo bi se uzima maha, pa se u svetskim medijima pojavljuju i mišljenja koja zagovaraju čak nuklearne udare na AI.
Ekspert za veštačku inteligenciju Elizer Judkovski između ostalog je u magazinu „Tajm“ predložio preventivne nuklearne napade na takozvane CPUklastere - velike „farme“ kompjutera presudne za funkcionisanje AI - ukoliko se moratorijum na razvoj veštačke inteligencije ne osigura uobičajenim političkim i diplomatskim putem. Pre toga bi usledio pokušaj konvencionalnog vazdušnog vojnog napada na kompjuterske „farme“ države koja odbije da zaustavi razvoj AI, ali mora se biti siguran „..da su savezničke nuklearne zemlje spremne da se izlože određenom riziku nuklearne razmene ako je to ono što je potrebno za smanjenje rizika od razvoja AI“.
Judkovski, inače američki teoretičar donošenja odluka koji se u filozofiji bavi etikom, svojevremeno je popularisao „prijateljsku“ AI i suosnivač je i istraživač „Machine Learning Research Institute“ u Berkliju, a njegov rad na temu eksplozije uticaja AI imao je značajan uticaj na slavnu knjigu Nika Bostroma „Superinteligencija: Putevi, opasnosti, strategije“.
Upitan na društvenim mrežama da li bi odobravao nuklearni napad na infrastrukturu veštačke inteligencije, Judkovski je samo potvrdio da bi ipak prvo počeo s konvencionalnim vazdušnim napadom.
Tek kada je doživeo više javnih kritika zbog zagovaranja nuklearnog obračuna kako bi se po svaku cenu zaustavila veštačka inteligencija, Judkovski je preko Tvitera poručio da njegov
članak u „Tajmu“ ne sugeriše nuklearne udare, iako je potpuno jasno da ih je eksplicitno predlagao,
preneo je „Jutarnji list“.
Judkovski nije usamljen u tezi da je brzi razvoj veštačke inteligencije previše opasan. Veliki broj najuglednijih naučnika-istraživača i poslovnih lidera, među kojima je i Ilon Mask, već je potpisao otvoreno javno pismo koje traži zaustavljanje razvoja AI na najmanje šest meseci. Međutim, Judkovski procenjuje da je veštačka inteligencija toliko opasna da brzo može da izazove kraj čovečanstva i da zato ne treba previše birati sredstva kako bi se zaustavio njen razvoj.
Broj i uticaj onih koji smatraju da AI pod rukom donosi smrt čovečanstva raste.