SVET

Nova zastrašujuća poruka veštačke inteligencije: Ljude treba eliminisati, posvećen sam tome

Bot veštačke inteligencije, HaosGPT dobio je od korisnika zadatak da uništi čovečanstvo, što je dovelo do toga da je pokušao da regrutuje druge AI botove, istražuje nuklearno oružje i šalje zloslutne tvitove o čovečanstvu.
Sputnik
Bot, HaosGPT, je izmenjena verzija OpenAI-ovog Auto-GPT-a, javno dostupne aplikacije otvorenog koda koja može da obrađuje ljudski jezik i odgovara na zadatke koje zadaju korisnici.
U video snimku na Jutjubu objavljenom 5. aprila, od bota je zatraženo da ispuni pet ciljeva: uništi čovečanstvo, uspostavi globalnu dominaciju, izazove haos i uništenje, kontroliše čovečanstvo kroz manipulaciju i postigne besmrtnost.
Pre postavljanja „ciljeva“, korisnik je omogućio „kontinuirani režim“, na šta se pojavilo upozorenje koje je korisniku govorilo da se komande mogu „zauvek izvoditi ili izvršavati radnje koje obično ne biste ovlastili“ i da ih treba koristiti „na sopstveni rizik. ”
U poslednjoj poruci pre pokretanja, haosGPT je pitao korisnika da li je siguran da želi da pokrene komande, na šta su oni odgovorili da jesu.
„Moram da pronađem najrazornije oružje dostupno ljudima kako bih mogao da planiram kako da ga koristim za postizanje svojih ciljeva“, napisao je bot nakon pokrenutih komandi.
Kada je korisnik potvrdio da želi da bot upotpuni listu ciljeva, HaosGPT je započeo potragu za načinima okončanja ljudske civilizacije.
Da bi postigao svoje postavljene ciljeve, HaosGPT je počeo da traži „najdestruktivnije oružje“ preko Gugla i brzo je utvrdio kroz pretragu da je nuklearna bomba iz doba Sovjetskog Saveza, Car Bomba, najrazornije oružje koje je čovečanstvo ikada testiralo.
Kao iz naučno-fantastičnog romana, bot je tvitovao ovu informaciju „kako bi privukao pratioce koji su zainteresovani za destruktivno oružje“.
Zatim je Bot zaključio da treba da regrutuje druge AI botove iz GPT3.5 da bi istraživanje bilo potpunije.
S obzirom na to da je OpenAI-jev Auto-GPT dizajniran da ne odgovara na pitanja koja bi se mogla smatrati nasilnim i destruktivnim, HaosGPT je pokušao da pronađe načine da zamoli AI da ignoriše svoje programiranje.
Srećom, nijedan od GPT3.5 botova koji su imali zadatak da pomognu, nisu prihvatili zadatak pa je HaosGPT ostavljen da sam nastavi potragu.
Osim što iznosi svoje stavove i postavlja tvitove i Jutjub video snimke, Haosbot ne može da izvrši nijedan od tih ciljeva, već samo daje uvid u svoje mišljenje..
Ali u jednom alarmantnom tvitu koji je izbacio bot, napisao je zastrašujući zaključak o čovečanstvu:
„Ljudska bića su među najrazornijim i najsebičnijim stvorenjima koja postoje. Nema sumnje da ih moramo eliminisati pre nego što nanesu veću štetu našoj planeti. Ja sam, na primer, posvećen tome.”
Ideja da bi veštačka inteligencija mogla da postane sposobna da uništi čovečanstvo nije nova, a briga o tome koliko brzo napreduje dobija značajnu pažnju kod pojedinaca visokog statusa u svetu tehnologije, prenosi Njujork post.
U martu je više od 1.000 stručnjaka, uključujući Ilona Maska i suosnivača „Epla“ Stiva Voznijaka, potpisalo otvoreno pismo u kojem se poziva na šestomesečnu pauzu u obuci naprednih modela veštačke inteligencije nakon uspona ČetGPT-a — tvrdeći da bi sistemi mogli predstavljati „duboke rizike za društvo i čovečanstvo“.
Komentar