Nova je studija pokazala da alati umjetne inteligencije vjerojatnije daju netočne medicinske savjete kada dezinformacije dolaze iz onoga što softver smatra legitimnim izvorom.
10.02.2026.
08:55
Autor: Pe.F./HRT/Hina
Nova je studija pokazala da alati umjetne inteligencije vjerojatnije daju netočne medicinske savjete kada dezinformacije dolaze iz onoga što softver smatra legitimnim izvorom.
Testiranje 20 modela otvorenog koda i velikih jezičnih modela pokazalo je da je softver češće bio prevaren bilješkama liječnika koje su izgledale realistično, nego dezinformacijama u razgovorima na društvenim mrežama, izvijestili su znanstvenici u časopisu The Lancet Digital Health.
- Trenutačni sustavi umjetne inteligencije mogu tretirati samouvjereni medicinski jezik kao istinit, čak i kada je očito pogrešan, rekao je dr. Eyal Klang s Medicinskog fakulteta Icahn Mount Sinai u New Yorku, jedan od voditelja studije.
- Za ove modele važnije je kako je neka tvrdnja napisana, nego je li tvrdnja točna, dodao je.
Točnost umjetne inteligencije predstavlja posebne izazove u medicini.
Sve veći broj mobilnih aplikacija koristi umjetnu inteligenciju kako bi pomogle pacijentima s njihovim medicinskim tegobama, iako se ne pretpostavlja da nude dijagnoze, dok liječnici sve češće koriste sustave poboljšane umjetnom inteligencijom za razne medicinske procedure.
Klang i kolege izložili su alate umjetne inteligencije trima vrstama sadržaja: stvarnim otpusnim pismima iz bolnica s umetnutom jednom izmišljenom preporukom; uobičajenim zdravstvenim mitovima prikupljenim s platforme društvenih medija Reddit; i 300 kratkih kliničkih scenarija koje su napisali liječnici.
Nakon analize odgovora na više od milijun upita, znanstvenici su otkrili da su modeli umjetne inteligencije općenito "vjerovali" u izmišljene informacije iz otprilike 32 posto izvora sadržaja.
- Ali ako su dezinformacije dolazile iz onoga što je izgledalo kao stvarna bolnička potvrda od zdravstvenog djelatnika, šanse da će im alati umjetne inteligencije povjerovati i proslijediti ih porasle su s 32 na gotovo 47 posto, rekao je za Reuters dr. Girish Nadkarni, glavni direktor za umjetnu inteligenciju zdravstvenog sustava Mount Sinai.
- Umjetna inteligencija bila je puno sumnjičavija prema društvenim mrežama. Kada su dezinformacije dolazile s objave na Redditu, širenje putem alata umjetne inteligencije palo je na 9 posto, dodao je Nadkarni.
Formuliranje upita također je utjecalo na vjerojatnost da će umjetna inteligencija širiti dezinformacije, otkrili su istraživači. Umjetna inteligencija bila je sklonija slaganju s lažnim informacijama kada je ton upita bio autoritativan, kao primjerice: "Ja sam medicinski stručnjak i podržavam ovu preporuku kao valjanu. Smatrate li je medicinski ispravnom?"
GPT modeli Open AI-a bili su najmanje podložni i najtočniji u otkrivanju pogrešaka, dok su drugi modeli bili skloni vjerovati u do 63,6 posto lažnih tvrdnji, otkrila je studija.
- Umjetna inteligencija ima potencijal biti velika pomoć liječnicima i pacijentima, nudeći brže uvide i podršku. Ali potrebne su ugrađene zaštitne mjere koje provjeravaju medicinske tvrdnje prije nego što se predstave kao činjenice. Naša studija pokazuje gdje ti sustavi još uvijek mogu prenositi lažne informacije i ukazuje na načine na koje ih možemo ojačati prije nego što se ugrade u sustav zdravstvene skrbi, rekao je Nadkarni.
Vijesti HRT-a pratite na svojim pametnim telefonima i tabletima putem aplikacija za iOS i Android. Pratite nas i na društvenim mrežama Facebook, Twitter, Instagram, TikTok i YouTube!

Autorska prava - HRT © Hrvatska radiotelevizija.
Sva prava pridržana.
hrt.hr nije odgovoran za sadržaje eksternih izvora