https://lat.sputnikportal.rs/20231022/mogu-li-milijarderima-pomoci-bunkeri-za-apokalipsu-1162713523.html
Mogu li milijarderima pomoći „bunkeri za apokalipsu“
Mogu li milijarderima pomoći „bunkeri za apokalipsu“
Sputnik Srbija
Poznato je da su neki bogataši u svetu, pogotovo oni koji su milijarde stekli u tehnološkom sektoru, opsednuti apokalipsama i traženjem zaštite od katastrofa u... 22.10.2023, Sputnik Srbija
2023-10-22T12:45+0200
2023-10-22T12:45+0200
2023-10-22T12:45+0200
nauka i tehnologija
nauka i tehnologija
svet
veštačka inteligencija
apokalipsa
https://cdn1.img.sputnikportal.rs/img/07e7/0a/16/1162713346_0:365:2345:1684_1920x0_80_0_0_55f5ea8c4ce742d0710c35256d0cef73.jpg
Jedan od takvih bogataša je i Sem Oltman, izvršni direktor OpenAI-a (Open AI). On, kako je rekao, nema bunker za sudnji dan, ali zato ima - “strukturu”.Međutim, dok bi im takvi bunkeri, strukture i sve što takozvani „preperi“ pripremaju kako bi spremni dočekali „nuklearne apokalipse“ ili ratove, možda i mogli pomoći da prežive u nekim situacijama, čini se da ipak neće moći da pobegnu od jedne opasnosti, a to je, kako se našalio Oltman, „ukoliko veštačka inteligencija (AI) ode u pogrešnom smeru“, prenosi portal Insajder.Iako se tehnološki magnat iz Silikon Velija našalio, oni koji su pesimistični oko razvoja veštačke inteligencije i njenog uticaja na čovečanstvo, verovatno će se složiti s takvim načinom razmišljanja.Oltman je, naime, spomenuo opštu, a ne generativnu veštačku inteligenciju. Dok su mogućnosti današnje veštačke inteligencije veoma velike, ona je i dalje zavisna od podataka na kojima je trenirana i ne može se meriti s ljudskom inteligencijom, a najviše se koristi kao asistent ljudima. Međutim, budućnost donosi AI koja će biti još moćnija i inteligentnija i jednom će moći obavljati sve intelektualne zadatke kao i ljudi, pa će njena inteligencija verovatno nadmašiti ljudsku. Odgovor na pitanje što će se onda dogoditi niko ne zna, a možemo samo da se nadamo da će opšta AI razmišljati pozitivno o budućnosti i napretku čovečanstva.Mišljenja o tome kakvu nam budućnost donosi veštačka inteligencija su podeljena, a ranije ove godine brojni naučnici i stručnjaci na ovom polju čak su tražili pauziranje njenog razvoja, dok vlade i regulatorna tela brojnih zemalja užurbano rade na pravilima i zakonima kako taj razvoj ne bi otišao u pogrešnom smeru.Jedan od onih koji upozoravaju na potencijalne probleme upravo je i Sem Oltman, jedan od najupućenijih osoba u toj industriji. U jednoj ranijoj objavi na blogu njegove kompanije, koju je napisao s kolegama, on je upozorio kako bi do kraja ove decenije veštačka inteligencija mogla da nadmaši ljude u većini područja, pa bi stoga mogla predstavljati egzistencijalnu pretnju za čovečanstvo. Takođe, podržao je izjavu koju su potpisali izvršni direktori Dipmajnda i Antropika u kojoj se upozorava da AI predstavlja rizik od uništenja čovečanstva i da bi je trebalo tretirati na sličan način kao pandemije i nuklearni rat.
Sputnik Srbija
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik Srbija
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Vesti
sr_RS
Sputnik Srbija
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputnikportal.rs/img/07e7/0a/16/1162713346_0:146:2345:1904_1920x0_80_0_0_53ca47d62af21af708d61d318938f158.jpgSputnik Srbija
feedback.rs@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
nauka i tehnologija, svet, veštačka inteligencija, apokalipsa
nauka i tehnologija, svet, veštačka inteligencija, apokalipsa
Mogu li milijarderima pomoći „bunkeri za apokalipsu“
Poznato je da su neki bogataši u svetu, pogotovo oni koji su milijarde stekli u tehnološkom sektoru, opsednuti apokalipsama i traženjem zaštite od katastrofa u nekakvim udaljenim i skrivenim bunkerima, a čini se da je Novi Zeland najpopularnija destinacija za takva skloništa.
Jedan od takvih bogataša je i Sem Oltman, izvršni direktor OpenAI-a (Open AI). On, kako je rekao, nema bunker za sudnji dan, ali zato ima - “strukturu”.
Međutim, dok bi im takvi bunkeri, strukture i sve što takozvani „preperi“ pripremaju kako bi spremni dočekali „
nuklearne apokalipse“ ili ratove, možda i mogli pomoći da prežive u nekim situacijama, čini se da ipak neće moći da pobegnu od jedne opasnosti, a to je, kako se našalio Oltman, „ukoliko veštačka inteligencija (AI) ode u pogrešnom smeru“,
prenosi portal Insajder.
Iako se tehnološki magnat iz Silikon Velija našalio, oni koji su pesimistični oko razvoja veštačke inteligencije i njenog uticaja na čovečanstvo, verovatno će se složiti s takvim načinom razmišljanja.
Oltman je, naime, spomenuo opštu, a ne generativnu veštačku inteligenciju. Dok su mogućnosti današnje veštačke inteligencije veoma velike, ona je i dalje zavisna od podataka na kojima je trenirana i ne može se meriti s ljudskom inteligencijom, a najviše se koristi kao asistent ljudima. Međutim, budućnost donosi AI koja će biti još moćnija i inteligentnija i jednom će moći obavljati sve intelektualne zadatke kao i ljudi, pa će njena inteligencija verovatno nadmašiti ljudsku. Odgovor na pitanje što će se onda dogoditi niko ne zna, a možemo samo da se nadamo da će opšta AI razmišljati pozitivno o budućnosti i napretku čovečanstva.
Mišljenja o tome kakvu nam budućnost donosi veštačka inteligencija su podeljena, a ranije ove godine brojni naučnici i stručnjaci na ovom polju čak su tražili pauziranje njenog razvoja, dok vlade i regulatorna tela brojnih zemalja užurbano rade na pravilima i zakonima kako taj razvoj ne bi otišao u pogrešnom smeru.
Jedan od onih koji upozoravaju na potencijalne probleme upravo je i Sem Oltman, jedan od najupućenijih osoba u toj industriji. U jednoj ranijoj objavi na blogu njegove kompanije, koju je napisao s kolegama, on je upozorio kako bi do kraja ove decenije veštačka inteligencija mogla da nadmaši ljude u većini područja, pa bi stoga mogla predstavljati
egzistencijalnu pretnju za čovečanstvo. Takođe, podržao je izjavu koju su potpisali izvršni direktori Dipmajnda i Antropika u kojoj se upozorava da AI predstavlja rizik od uništenja čovečanstva i da bi je trebalo tretirati na sličan način kao pandemije i nuklearni rat.