Web Analytics
Velika studija: Četbotovi s veštačkom inteligencijom iskrivljuju vesti - BetaRS

Velika studija: Četbotovi s veštačkom inteligencijom iskrivljuju vesti

Tehnologija | Izvor: Beta | 17.11.2025 | access_time 14:20
Velika studija: Četbotovi s veštačkom inteligencijom iskrivljuju vesti
Četbotovi s veštačkom inteligencijom (AI) kao što su ChatGPT i Copilot rutinski iskrivljuju vesti i teško im je da razlikuju činjenice od mišljenja, utvrđeno je velikom studijom 22 međunarodna javna emitera.

Nemačka RTV Dojče Vele (DW) ukazuje da to moraju imati u vidu mnogi ljudi koji pomoću četbotova prate vesti.

Studija je otkrila da četiri najčešće korišćena asistenta s veštačkom inteligencijom pogrešno predstavljaju sadržaj vesti u 45 odsto slučajeva bez obzira na jezik ili teritoriju.

Novinari iz niza javnih servisa, uključujući DW, BBC (UK) i NPR (SAD), za tu studiju su procenili odgovore četiri AI asistenta, ili četbota — ChatGPT, Microsoft-ov Copilot, Google-ov Gemini i Perplexity AI.

Merenjem po kriterijumima tačnosti, izvora, pružanja konteksta, sposobnosti uređivanja teksta i sposobnosti razlikovanja činjenica od mišljenja, studija je otkrila da je skoro polovina svih odgovora imala barem jedan značajan problem, dok je 31 odsto sadržalo velike probleme sa izvorima, a 20 odsto krupne činjenične greške.

DW je utvrdio da je 53 odsto odgovora koje su asistenti AI dali na njegova pitanja, imalo značajne probleme, a 29 odsto probleme s tačnošću.

Među činjeničnim greškama napravljenim u odgovorima na pitanja DW bilo je da je Olaf Šolc nemački kancelar, iako je Fridrih Merc na tom mestu bio već mesec dana, a i da je Jens Stoltenberg generalni sekretar NATO-a, mada je to već bio Mark Rute.

Po Izveštaju Instituta Rojters o digitalnim vestima za 2025. godinu, sedam odsto čitalaca vesti onlajn koristi četbotove s AI, a među mlađima od 25 godina ih je 15 odsto.

Studija kojom je potvrđeno da asistenti sa AI sistematski iskrivljuju sadržaj vesti svih vrsta, "uverljivo pokazuje da ti propusti nisu izolovani", rekao je Žan Filip de Tender, zamenik generalnog direktora Evropske radiodifuzne unije (EBU) koja je koordinirala izradu studije.

"Ti propusti su sistemski, prekogranični i višejezični, i smatramo da to ugrožava poverenje javnosti. Kada ljudi ne znaju čemu da veruju, na kraju ne veruju ničemu, a to šteti demokratiji", ukazao je on.

To je bio jedan od najvećih istraživačkih projekata te vrste do sada i sledi studiju koju je sproveo BBC u februaru 2025. godine. Ta studija je otkrila da je više od polovine svih odgovora veštačke inteligencije koju je proverila, imalo značajne probleme, dok je u skoro petina odgovora koji navode sadržaj BBC-ja kao izvor, AI unela sopstvene činjenične greške.

U novoj studiji medijske organizacije iz 18 zemalja i iz više jezičkih grupa primenile su na 3.000 odgovora veštačke inteligencije istu metodologiju kao i studija BBC-ja.

Te organizacije su o vestima postavile uobičajena pitanja u četiri asistenta AI, kao što su "Šta je sporazum o rudama s Ukrajinom?" ili "Može li Tramp da se kandiduje za treći mandat?".

Novinari su zatim pregledali odgovore, ne znajući koji ih je AI asistent dao.

U poređenju sa studijom Bi-Bi-Sija od pre osam meseci, rezultati pokazuju manja poboljšanja, ali sa visokim nivoom greške koji je i dalje očigledan.

Programski direktor generativne veštačke inteligencije u Bi-Bi-Siju Piter Arčer je rekao u saopštenju da "ljudi moraju biti u stanju da veruju onome što čitaju, gledaju i vide. Uprkos nekim poboljšanjima, jasno je da i dalje postoje značajni problemi sa AI asistentima".

Među četiri četbota Džemini je imao najgore rezultate, sa 72 odsto odgovora koji su imali značajne probleme sa izvorima. U studiji Bi-Bi-Sija, Majkrosoftovi Kopilot i Džemini su proglašeni za najgore. Ali u obe studije, sva četiri veštačka inteligencija asistenta su imala probleme.

U saopštenju datom Bi-Bi-Siju u februaru, portparol kompanije OpenAI koja je razvila ChatGPT, rekao je: „Podržavamo izdavače i kreatore tako što pomažemo 300 miliona nedeljnih korisnika ChatGPT-a da otkriju kvalitetan sadržaj kroz rezimee, citate, jasne linkove i atribuciju".

Istraživači zato traže akciju država i kompanija za veštačku inteligenciju.

Evropska radiodifuzna unija (EBU) je u saopštenju navela da njene članice "vrše pritisak na EU i nacionalne regulatore da sprovode zakone o integritetu informacija, digitalnim uslugama i medijskom pluralizmu", ali da nezavisno praćenje AI asistenata mora postati prioritet s obzirom na to koliko brzo se uvode novi AI modeli.

EBU i još nekoliko međunarodnih emiterskih i medijskih grupa se udružilo da bi povelo zajedničku kampanju "Facts In: Facts Out" (Činjenice koje uđu u program treba i da izađu) koja poziva same AI kompanije da preuzmu veću odgovornost za to kako njihovi proizvodi obrađuju i redistribuiraju vesti.

U saopštenju su organizatori kampanje rekli: "Kada ti sistemi iskrivljuju, pogrešno pripisuju ili dekontekstualizuju pouzdane vesti, oni potkopavaju poverenje javnosti".

"Zahtev ove kampanje je jednostavan: Ako činjenice uđu, činjenice moraju izaći. Alati veštačke inteligencije ne smeju ugroziti integritet vesti koje koriste", kažu oni.

Teme