Onderzoek toont aan dat sociale media-algoritmes politieke opvattingen kunnen beïnvloeden
Onderzoek toont aan dat sociale media-algoritmes politieke opvattingen kunnen beïnvloeden
Een browserextensie aangedreven door kunstmatige intelligentie (AI) kan de manier waarop mensen tegenover tegenstrijdige politieke opvattingen staan, verminderen. Dit blijkt uit nieuw onderzoek dat zich richtte op de Amerikaanse presidentsverkiezingen van 2024.
Onderzoekers in de Verenigde Staten hebben een nieuwe tool ontwikkeld die onafhankelijke wetenschappers in staat stelt te bestuderen hoe sociale media-algoritmes gebruikers beïnvloeden, zonder toestemming van de platforms zelf. De bevindingen suggereren dat platforms politieke polarisatie kunnen verminderen door vijandige content in hun algoritmes lager te rangschikken.
De tool, een browserextensie aangedreven door AI, scant berichten op X (voorheen Twitter) op thema’s van antidemocratische en extreem negatieve partijdige opvattingen, zoals berichten die oproepen tot geweld of het opsluiten van aanhangers van een tegenpartij. Vervolgens herschikt het de berichten op de X-feed in een “paar seconden”, zodat de polariserende content dichter bij de onderkant van de feed van de gebruiker komt te staan.
Het team van onderzoekers van de Stanford University, de University of Washington en Northeastern University testte de browserextensie op de X-feeds van meer dan 1.200 deelnemers die toestemming gaven voor aanpassingen gedurende 10 dagen voorafgaand aan de presidentsverkiezingen van 2024.
Sommige deelnemers gebruikten de browserextensie die meer verdeeldheid zaaiende content toonde, terwijl de rest de versie gebruikte die deze naar een lagere positie op de feed verplaatste. De resultaten werden donderdag gepubliceerd in het tijdschrift Science.
Een nieuwe manier om zonder platform samenwerking te herschikken
De onderzoekers vroegen de deelnemers om hun gevoelens over de tegenpartij te beoordelen op een schaal van 1 tot 100 tijdens het experiment. Voor de deelnemers die de browsertool gebruikten, verbeterde hun houding ten opzichte van de tegenpartij gemiddeld met twee punten, wat gelijk staat aan de geschatte verandering in houding van het Amerikaanse publiek over drie jaar.
“Deze veranderingen waren vergelijkbaar in omvang met drie jaar verandering in affectieve polarisatie in de Verenigde Staten,” merkten de onderzoekers op. De resultaten waren bipartijdig, wat betekent dat de effecten consistent waren over de partijgrenzen heen voor mensen met liberale en conservatieve opvattingen.
Tiziano Piccardi, assistent-professor computerwetenschappen aan de Johns Hopkins University, zei dat de tool een “duidelijke” impact heeft op polarisatie. “Wanneer deelnemers minder van deze content te zien kregen, voelden ze zich warmer tegenover de mensen van de tegenpartij,” zei hij in een verklaring. “Wanneer ze meer te zien kregen, voelden ze zich kouder.”
De onderzoekers merken op dat dit een nieuwe manier zou kunnen zijn om sociale media-accounts te herschikken “zonder platform samenwerking”. “Deze interventies kunnen resulteren in algoritmes die niet alleen partijdige vijandigheid verminderen, maar ook een groter sociaal vertrouwen en gezondere democratische discussies bevorderen over partijgrenzen heen,” concludeerde de studie.
De studie keek ook naar emotionele reacties en ontdekte dat deelnemers die vijandige content verminderden, minder boos en verdrietig rapporteerden tijdens het gebruik van het platform. Maar de emotionele effecten hielden niet aan nadat de studie was beëindigd. De onderzoekers schreven dat hun studie alleen toegankelijk was voor diegenen die ingelogd waren op X via een browser, niet via een app, wat de effecten zou kunnen beperken. Hun studie mat ook niet de langetermijneffecten die het zien van minder polariserende content zou kunnen hebben op X-gebruikers.
