00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00
OD ČETVRTKA DO ČETVRTKA
20:00
30 min
SPUTNJIK INTERVJU
20:30
30 min
MOJ POGLED NA RUSIJU
21:00
30 min
MOJ POGLED NA RUSIJU
07:00
30 min
OD ČETVRTKA DO ČETVRTKA
17:00
30 min
SPUTNJIK INTERVJU
„Dualnost Milene Pavlović Barili“
17:30
30 min
MILJANOV KORNER
Realnost je da se Partizan i Zvezda bore za mesto u plej-inu
20:00
30 min
SPUTNJIK INTERVJU
„Rozanov“
20:30
30 min
JučeDanas
Na programu
Reemiteri
Studio B99,1 MHz, 100,8 MHz i 105,4 MHz
Radio Novosti104,7 MHz FM
Ostali reemiteri
 - Sputnik Srbija, 1920
NAUKA I TEHNOLOGIJA

Veštačka inteligencija u službi medicine: Halucinacije, izmišljotine i lažni lekovi

© Foto : Pexels/Photo by Negative Space veštačka inteligencija
veštačka inteligencija - Sputnik Srbija, 1920, 27.10.2024
Pratite nas
OpenAI-ov alat veštačke inteligencije (AI) za transkripciju suočava se sa negativnim reakcijama jer stručnjaci otkrivaju ozbiljne nedostatke, uključujući izmišljeni tekst i lekove, koji ugrožavaju tačnost u kritičnim oblastima kao što je zdravstvo.
„Visper“, OpenAI-ov alat za transkripciju, hvaljen zbog svoje robusnosti i tačnosti na nivou čoveka, pokazao je značajnu manu: ponekad pravi fraze ili čitave rečenice, poznate u industriji veštačke inteligencije kao „halucinacije“. Više od deset stručnjaka, uključujući softverske inženjere, programere i akademske naučnike, potvrdilo je da „Visper“ povremeno ubacuje lažne informacije, koje mogu da variraju od rasnih komentara do izmišljenih medicinskih saveta.
Problem je posebno zabrinjavajući s obzirom na široku upotrebu ovog alata u svim industrijama za prevođenje intervjua, generisanje teksta i titlovanje videa.

Niko ne želi pogrešnu dijagnozu

Medicinski centri su čak počeli da integrišu „Visper“ u interakcije lekara i pacijenta, uprkos savetu OpenAI-a da se alatka ne koristi u domenima visokog rizika. Prema istraživačima, njegove halucinacije se često pojavljuju u njihovom radu, a jedan istraživač sa Univerziteta u Mičigenu primetio je da osam od deset transkripata koje je pregledao sadrži takve netačnosti.
U drugom slučaju, inženjer mašinskog učenja je otkrio halucinacije u skoro polovini od više od 100 sati analiziranih podataka transkripta, dok ih je drugi programer pronašao u skoro svih 26.000 transkripata koje je analizirao.
Čak ni uzorci čistog zvuka nisu imuni na greške. Nedavna studija sa više od 13.000 audio snimaka otkrila je 187 slučajeva halucinacije teksta, što je izazvalo zabrinutost u vezi sa pouzdanošću Vispera u velikim razmerama, piše AP.
Alondra Nelson, bivša direktorka Kancelarije za nauku i tehnologiju Bele kuće, izrazila je zabrinutost zbog potencijalnih posledica grešaka u transkripciji, posebno u zdravstvenoj zaštiti.
„Niko ne želi pogrešnu dijagnozu... trebalo bi da postoji viši stepen, rekao je Kristijan Vogler, profesor na Univerzitetu Galade i upozorio na rizik za gluve i nagluve, koji ne mogu lako da otkriju greške u transkribovanom sadržaju.
Usred ovih zabrinutosti, stručnjaci i zagovornici pozivaju OpenAI i američke savezne agencije da se pozabave tim pitanjem i razmotre regulisanje veštačke inteligencije. Vilijam Saunders, bivši istraživački inženjer koji je napustio OpenAI u februaru, sugerisao je da je problem rešiv, ali da mu OpenAI mora dati prioritet.
„Problematično je ako ga stavite tamo i ljudi su previše sigurni u ono što može da uradi i integrišu ga u sve ove druge sisteme“, rekao je Saunders.

Uvredljiv jezik, nepostojeći lek...

Kao odgovor, OpenAI je rekao da aktivno istražuje načine za smanjenje halucinacija i redovno integriše povratne informacije od svoje korisničke zajednice. „Visper“ je integrisan u različite tehnologije, uključujući OpenAI Čet dži-pi-ti, Majkrosoft i Orakl klaud usluge i platforme otvorenog koda kao što je Haging Fejs, gde je preuzet više od 4,2 miliona puta samo u poslednjih mesec dana.
Akademici Alison Keneke sa Univerziteta Kornell i Mona Sloan sa Univerziteta Virdžinije analizirale su hiljade audio-snimaka i otkrile da je skoro 40 odsto „Visperovih“ halucinacija potencijalno štetno, uključujući fraze koje pogrešno predstavljaju govornike. Jedan uznemirujući primer ogledao se u činjenici dodavanja nasilnog jezik u bezazlenu izjavu, dok je drugi ubacio rasne uvrede, a treći je izmislio nepostojeći lek.
Programeri spekulišu da se „Visperove“ halucinacije često javljaju tokom pauza ili pozadinske buke. OpenAI-jeva dokumentacija savetuje da ne koristite „Visper“ u kontekstu donošenja odluka zbog zabrinutosti oko njegove tačnosti. Bez obzira na to, zdravstvene ustanove kao što su Klinika Mankato u Minesoti i Dečja bolnica u Los Anđelesu usvajaju alatku zasnovanu na ovoj tehnologiji koju je razvila kompanija „Nabla“ za prepisivanje lekarskih konsultacija.
„Nablin“ AI alat zapravo briše originalni audio-snimak iz bezbednosnih razloga i korišćen je u više od sedam miliona medicinskih konsultacija.
Saunders je upozorio da bi brisanje moglo biti rizično ako se transkripti ne pregledaju temeljno, jer kliničarima onemogućava da potvrde tačnost.
„Ne možete uhvatiti greške ako oduzmete osnovnu istinu“, rekao je on.
„Nabla“ priznaje mogućnost halucinacija i, iako zahteva ručni pregled transkripata, predviđa budućnost u kojoj bi automatizovani transkripti mogli da rade bez provere.
Pogledajte i:
Sve vesti
0
Da biste učestvovali u diskusiji
izvršite autorizaciju ili registraciju
loader
Ćaskanje
Zagolovok otkrыvaemogo materiala