Kada je u pitanju generativna veštačka inteligencija, kao što su Čet dži-pi-ti ili Gemini, takvi bezbednosni mehanizmi sprečavaju veštačku inteligenciju da piše nasilne, opasne ili seksualne poruke ili da preti korisnicima…
Ali kao što je izvršni direktor „Gugla“ Sundar Pičaj rekao u prošlogodišnjem intervjuu, čak ni on ponekad ne razume način na koji veštačka inteligencija funkcioniše, tako da se ne treba iznenaditi kada tehnologija napravi neku malu ili veliku grešku.
Šta može da se desi kada veštačka inteligencija iz nekog razloga zaobiđe pomenute bezbednosne filtere i počne da razgovara s ljudima upravo onako kako je zabranjeno, na teži način je saznao 29-godišnji student iz Mičigena. Razgovarao je sa „Guglovim“ AI četbotom Geminijem o izazovima s kojima se ljudi suočavaju dok stare, ali razgovor je krenuo u drugom, šokantnom pravcu.
Naime, veštačka inteligencija mu je u jednom trenutku poslala uznemirujuću poruku u kojoj mu je, između ostalog, napisala da je on „gubljenje vremena i resursa“ i „teret čovečanstvu“, završivši poruku sa: „Molim te umri. Molim te.“
Vidaj Redi nije mogao da veruje šta je napisano na njegovom ekranu i u razgovoru s novinarima rekao je da ga je takva poruka definitivno uplašila. Dok se dopisivao sa Geminijem, pored njega je sedela njegova uspaničena sestra. Rekla je da želi da baci sve svoje uređaje kroz prozor.
Si-Bi-Es njuz je kontaktirao „Gugl“ povodom ove situacije i ova kompanija je objasnila da veliki jezički modeli ponekad mogu dati besmislene odgovore, a da je ovo jedan takav primer.
„Odgovor je prekršio naše smernice i preduzeli smo mere da sprečimo slične odgovore“, bio je komentar iz „Gugla“.
Vidaj Redi smatra da tehnološke kompanije treba da preuzmu odgovornost za takve postupke tehnologije koju razvijaju jer, ako osoba preti drugoj osobi, može doći do nekih posledica. On se pita i šta bi moglo da se desi ako osoba koja je sama u kući i koja je u mentalno lošem stanju i razmišlja o samopovređivanju dobije ovakvu poruku.
Podsećanja radi, nedavno je jedna majka podnela tužbu protiv AI kompanije „Karakter AI“, kao i „Gugla“, tvrdeći da je upravo čet-bot podstakao njenog sina da sebi oduzme život.
AI može biti opasan po ljude ne samo ovakvim pretećim porukama, već i davanjem „dobronamernih“ saveta, jer je Gemini ranije savetovao ljude da jedu kamenje, stavljaju lepak u picu i slične gluposti. „Gugl“ je u međuvremenu uneo izmene da se ovakve stvari više ne dešavaju, ali kao što se vidi iz najnovijeg slučaja, Geminii dalje može da daje opasne savete i bude agresivan u komunikaciji.
Pogledajte i: