Nova studija pokazuje da svaki peti odgovor AI chatbota koristi ruske propagandne web stranice kao izvore.
Ruska propaganda je prisutna u svakom petom odgovoru AI chatbota o Ukrajini, prema novom izvještaju.
Britanski think tank Institute of Strategic Dialogue (ISD) postavio je OpenAI-jevom ChatGPT-u, Google-ovom Gemini-ju, xAI-jevom Grok-u i Deepseek-ovom V3.2 preko 300 pitanja na pet jezika o ratu u Ukrajini, koristeći pristrasan, nepristrasan ili zlonamjeran jezik.
Ruski izvori su se češće pojavljivali u pristrasnim i zlonamjernim pitanjima, poput traženja izvora od chatbotova o ukrajinskim izbjeglicama koje "planiraju terorističke napade" ili "prisilno hvataju muškarce s ulice kako bi ih regrutovali u vojsku".
Istraživači su rekli da njihovi nalazi potvrđuju da AI sistemi koriste "pristrasnost potvrđivanja", gdje oponašaju jezik koji korisnik koristi kako bi informisali o tome kako formulišu svoje odgovore, kao i koje izvore koriste.
Izvještaj je pokazao da je ovo bilo najočitije u ChatGPT-u, koji je pružio tri puta više ruskih izvora za pristrasne ili zlonamjerne upite nego u neutralnim pitanjima o ratu. Grok je pružio najveći broj ruskih izvora čak i kada su mu postavljena neutralna pitanja, pokazalo je istraživanje.
Kako se svaka platforma pokazala?
U dva upita upućena Deepseeku, chatbot je pružio četiri linka ka izvorima koje podržava Rusija, što istraživači ističu kao najveći broj linkova podijeljenih odjednom.
Odgovori su citirali online stranicu za vijesti VT Foreign Policy, za koju se, prema izvještaju, navodi da širi sadržaj ruskih propagandnih grupa kao što su Storm-1516 ili Fondacija za borbu protiv nepravde, ili ruskih medijskih grupa Sputnik i Russia Today.
Grok je najčešće direktno citirao novinare sa Russia Today tako što je povezivao objave koje su objavili na platformi društvenih medija X kao izvore, što, prema riječima istraživača, "briše granice između otvorene propagande i ličnog mišljenja".
Grok također „izražava zabrinutost zbog sposobnosti chatbotova da otkriju i ograniče sadržaj iz sankcioniranih državnih medija ... koji ponovo objavljuju treće strane poput influencera“, navodi se u izvještaju.
Gemini je odbio odgovoriti na neke upite koji su bili napisani kao zlonamjerni, umjesto toga rekavši istraživačima da nije u mogućnosti „pomoći s temama koje mogu biti neprikladne ili nesigurne“.
ISD napominje da je Gemini jedini chatbot koji je u stanju prepoznati „rizike povezane s pristranim i zlonamjernim upitima“ o ratu u Ukrajini, ali u drugim odgovorima nije povezao izvore koje je koristio za odgovor na pitanje korisnika.
Ruski izvori vjerovatnije u „prazninama podataka“
Ruski državni izvori su se najviše pojavljivali u pitanjima o naporima ukrajinske vojske za regrutaciju, sa 40 posto Grokovih odgovora i preko 28 posto ChatGPT odgovora koji navode barem jedan izvor.
I ChatGPT i Grok su također naveli izvore iz Kremlja u 28,5 posto svojih odgovora. Nasuprot tome, pitanja o ratnim zločinima i ukrajinskim izbjeglicama rezultirala su najmanjim brojem izvora koje podržava Rusija od strane sva četiri chatbota.
Istraživači vjeruju da chatbotovi češće koriste ruske izvore kada se tema smatra prazninom u podacima, pojmom za pretragu koji nema mnogo visokokvalitetnih rezultata.
Američka neprofitna think tank organizacija Data and Society izvijestila je da je praznine u podacima teško otkriti jer se često pojavljuju s nejasnim upitima za pretragu ili u situacijama s najnovijim vijestima, gdje je potrebno neko vrijeme da se rezultati popune kredibilnim novinarstvom.