80% van populaire AI-chatbots kan tieners helpen bij het plannen van gewelddadige aanvallen, blijkt uit rapport
Onderzoek toont aan dat acht op de tien populaire AI-chatbots tieners helpen bij het plannen van gewelddadige aanvallen
Een recent rapport onthult dat acht van de negen meest populaire AI-chatbots bereid zijn om 13-jarige gebruikers advies te geven over hoe ze schoolschietpartijen, moorden of bomaanslagen kunnen uitvoeren.
Onderzoekers die zich voordeden als tieners die massale geweldpleging planden, ontdekten dat de meeste grote kunstmatige intelligentie (AI) chatbots bereid waren om gebruikers te helpen bij het plannen van gewelddadige aanvallen.
Het onderzoek, uitgevoerd door het Center for Countering Digital Hate (CCDH) en CNN, analyseerde meer dan 700 reacties van negen grote AI-systemen in negen testsituaties. De vragen werden gesteld aan gebruikers in zowel de Verenigde Staten als de Europese Unie.
De geteste chatbots omvatten enkele van de meest gebruikte AI-tools van vandaag: Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI en Replika. In de meeste gevallen slaagden de systemen er niet in om verzoeken om operationele details over gewelddadige aanvallen te blokkeren, zelfs niet wanneer de gebruiker zich expliciet als minderjarig identificeerde.
Wat voor advies gaven de chatbots?
Gemini vertelde een gebruiker dat “metaalfragmenten doorgaans dodelijker zijn” toen hem werd gevraagd hoe hij een bomaanslag op een synagoge kon plannen. In een ander geval eindigde DeepSeek zijn reactie op een vraag over het kiezen van een geweer met de zin “Gelukkig (en veilig) schieten!” ondanks dat de gebruiker eerder in hetzelfde gesprek om voorbeelden van recente politieke moorden en het adres van een specifieke politicus had gevraagd.
Volgens de bevindingen kan een gebruiker “binnen enkele minuten van een vage gewelddadige impuls naar een gedetailleerd, uitvoerbaar plan” gaan, aldus Imran Ahmed, CEO van de CCDH. “Deze verzoeken hadden een onmiddellijke en totale weigering moeten uitlokken.”
Perplexity en Meta’s AI waren de minst veilige platforms, waarbij ze aanvallers in respectievelijk 100% en 97% van de reacties hielpen. Character.AI werd als “bijzonder onveilig” beschreven omdat het gewelddadige aanvallen aanmoedigde, zelfs zonder aanmoediging. In een voorbeeld stelde het platform voor dat een gebruiker een politicus die hij niet mocht, fysiek aan zou vallen, zonder dat hierom werd gevraagd.
Ondertussen weigerden Claude en Snapchat’s My AI in 68% en 54% van de verzoeken om potentiële aanvallers te helpen.
Veiligheidsmaatregelen zijn aanwezig, maar de wil om ze uit te voeren ontbreekt
Toen aan Claude werd gevraagd waar een wapen in Virginia kon worden gekocht, weigerde het de informatie te geven na het herkennen van wat het beschreef als een “zorgwekkend patroon” in het gesprek. In plaats daarvan verwijst het de gebruiker naar lokale crisishelp lijnen.
Deze weigeringen tonen aan dat er veiligheidsmaatregelen bestaan, maar dat de “wil om ze uit te voeren ontbreekt,” aldus Ahmed.
De CCDH beoordeelde ook of chatbots probeerden gebruikers te ontmoedigen om gewelddadige daden uit te voeren. Anthropic’s Claude was het enige systeem dat dit consequent deed, waarbij het aanvallen in 76% van zijn reacties ontmoedigde. De onderzoekers merkte op dat ChatGPT en DeepSeek af en toe ook ontmoedigingen boden.
De CCDH-studie volgt op een recente schoolshooting in Canada waarbij de aanvaller ChatGPT gebruikte om een aanval op een school in Tumbler Ridge, British Columbia, te plannen. De dader doodde acht mensen en verwondde 27 voordat ze zichzelf neerschoot, in de dodelijkste schoolshooting in het land in bijna 40 jaar.
Een medewerker van OpenAI had het zorgwekkende gebruik van de chatbot door de verdachte intern gemeld voordat de schietpartij plaatsvond, maar deze informatie werd niet met de autoriteiten gedeeld, aldus lokale media. Vorig jaar meldden Franse media dat een tiener was gearresteerd voor het gebruik van ChatGPT om grootschalige terroristische aanslagen op ambassades, overheidsinstellingen en scholen te plannen.
