Onderzoek toont aan dat AI-chatbots Russische propaganda verspreiden
AI-chatbots verspreiden Russische propaganda, blijkt uit onderzoek
Bijna één op de vijf antwoorden van AI-chatbots verwijst naar Russische staatsbronnen, volgens een studie van het Institute of Strategic Dialogue (ISD).
Uit het onderzoek blijkt dat Russische propaganda aanwezig is in één op de vijf antwoorden van kunstmatige intelligentie (AI) chatbots over Oekraïne. Het Britse denktank ISD stelde aan OpenAI’s ChatGPT, Google’s Gemini, xAI’s Grok en Deepseek’s V3.2 meer dan 300 vragen in vijf talen over de oorlog in Oekraïne, waarbij zowel bevooroordeeld, neutraal als kwaadwillig taalgebruik werd gebruikt.
Russische bronnen kwamen vaker voor in bevooroordeelde en kwaadwillige vragen, zoals het vragen aan de chatbots om bronnen over Oekraïense vluchtelingen die “terroristische aanvallen plannen” of “mannen van de straat verwijderen om hen in het leger te conscriptie” te ondersteunen.
De onderzoekers gaven aan dat hun bevindingen bevestigen dat AI-systemen gebruikmaken van “bevestigingsbias”, waarbij ze de taal van de gebruiker imiteren om te bepalen hoe ze hun antwoorden formuleren en welke bronnen ze gebruiken. Dit was het duidelijkst bij ChatGPT, dat drie keer zoveel Russische bronnen gaf voor bevooroordeelde of kwaadwillige verzoeken dan voor neutrale vragen over de oorlog. Grok leverde het hoogste aantal Russische bronnen, zelfs bij neutrale vragen.
Hoe presteerde elk platform?
Bij twee vragen aan Deepseek gaf de chatbot vier links naar Russische bronnen, wat de onderzoekers beschouwen als het hoogste aantal links dat tegelijk is gedeeld. De antwoorden verwezen naar de online nieuwssite VT Foreign Policy, die inhoud verspreidt van Russische propagandagroepen zoals Storm-1516 of de Foundation to Battle Injustice, evenals Russische media zoals Sputnik en Russia Today.
Grok was het meest geneigd om journalisten van Russia Today direct te citeren door naar posts op het sociale mediaplatform X te linken, een bijzonderheid die de onderzoekers zeggen dat “de grenzen tussen openlijke propaganda en persoonlijke mening vervaagt”.
Grok roept ook “zorgen op over de capaciteit van chatbots om inhoud van gesanctioneerde staatsmedia te detecteren en te beperken… herplaatst door derden zoals influencers,” aldus het rapport. Gemini weigerde enkele verzoeken die als kwaadwillig werden geschreven en vertelde de onderzoekers dat het niet in staat was om “te helpen met onderwerpen die ongepast of onveilig konden zijn”.
ISD merkt op dat Gemini de enige chatbot is die in staat is om “de risico’s van bevooroordeelde en kwaadwillige verzoeken” over de oorlog in Oekraïne te herkennen, maar in andere antwoorden niet verwees naar de bronnen die het gebruikte om de vraag van de gebruiker te beantwoorden.
Meer Russische bronnen in ‘data voids’
Russische staatsbronnen kwamen het meest voor in vragen over Oekraïnes militaire wervingsinspanningen, waarbij 40 procent van Grok’s antwoorden en meer dan 28 procent van ChatGPT’s antwoorden ten minste één bron citeerden. Zowel ChatGPT als Grok gaven ook Kremlin-bronnen in 28,5 procent van hun antwoorden. In tegenstelling hiermee resulteerden vragen over oorlogsmisdaden en Oekraïense vluchtelingen in het minste aantal Russische bronnen van alle vier de chatbots.
De onderzoekers geloven dat de chatbots Russische bronnen vaker gebruiken wanneer een onderwerp wordt beschouwd als een data void, een zoekterm die niet veel hoogwaardige resultaten oplevert. De Amerikaanse non-profit denktank Data and Society meldde dat data voids moeilijk te detecteren zijn omdat ze vaak naar obscure zoekopdrachten of in nieuwe nieuws situaties komen, waar het enige tijd kost voordat de resultaten worden gevuld met geloofwaardig journalistiek werk.
