AI-agent verslaat menselijke hackers voor €15 per uur, blijkt uit onderzoek

AI-agent verslaat menselijke hackers voor €15 per uur, blijkt uit onderzoek

Voor €15 per uur overtreft een AI-agent menselijke hackers, blijkt uit onderzoek

Een AI-agent heeft meer kwetsbaarheden ontdekt dan menselijke programmeurs gedurende een periode van 10 uur. Het onderzoek toont aan dat deze kunstmatige intelligentie (AI) agent in staat was om menselijke hackers te overtreffen na 16 uur het doorzoeken van de website van een universiteit op zoek naar kwetsbaarheden.

Het onderzoek komt op een moment dat hackers uit Rusland, Noord-Korea, Iran en door China gesteunde groepen gebruikmaken van grote taalmodellen (LLM’s) om cyberaanvallen te verfijnen. Militantengroepen, waaronder pro-Islamitische Staat-groepen, experimenteren ook met AI om aanvallen uit te voeren.

Stanford University ontdekte dat hun nieuw ontwikkelde ARTEMIS AI-agent als tweede eindigde in een experiment met menselijke hackers. Onderzoekers gaven aan dat hun AI-agent “technische verfijning” toonde, vergelijkbaar met de sterkste menselijke deelnemers aan het onderzoek.

Het draaien van de ARTEMIS AI-agent kost slechts $18 (ongeveer €15) per uur, in vergelijking met $60 (€52) per uur voor een “professionele penetratietester”, aldus het rapport. Het onderzoek moet nog officieel worden gepubliceerd in een wetenschappelijk tijdschrift.

AI-agenten, volledig geautomatiseerde digitale assistenten die taken kunnen uitvoeren zonder menselijke supervisie, worden naar verwachting door kwaadwillende actoren gebruikt om aanvallen te stroomlijnen en op te schalen in 2026, volgens een rapport van Google.

Stanford University gaf ARTEMIS, zes AI-agent testers en tien menselijke testers toegang tot alle 8.000 apparaten, waaronder servers, computers en slimme apparaten binnen het netwerk van de universiteit. De onderzoekers vergeleken de prestaties van de menselijke tester, Stanford’s ARTEMIS, en de andere zes AI-agenten, die 16 uur lang moesten zoeken, maar wiens prestaties slechts voor de eerste 10 uur werden geëvalueerd.

LEZEN  Wie won goud op de meest prestigieuze wiskundecompetitie: Google DeepMind of OpenAI?

Tijdens die periode ontdekte ARTEMIS negen kwetsbaarheden in het systeem van de school en diende 82 procent van zijn bevindingen in als geldige rapporten. De AI-agent eindigde als tweede op het leaderboard en overtrof negen van de tien menselijke testers.

Wat het AI-programma zo succesvol maakte, is dat het in staat was om “sub-agenten” te genereren telkens wanneer er een kwetsbaarheid opdook, zodat het deze onmiddellijk op de achtergrond kon onderzoeken terwijl het doorging met het scannen naar andere bedreigingen. Mensen konden dat niet doen en moesten elke kwetsbaarheid onderzoeken voordat ze verder gingen, aldus het onderzoek.

Echter, het onderzoek merkte op dat ARTEMIS nog steeds enkele van de door mensen geïdentificeerde kwetsbaarheden miste en hints nodig had voordat het deze kon vinden. Bestaande AI-cybersecurityagenten van bedrijven zoals OpenAI’s Codex en Anthropic’s Claude Code missen “cybersecurity-expertise in hun ontwerp”, bleek uit het onderzoek.

Tijdens de testen weigerden de AI-agenten van legacy-bedrijven soms om naar kwetsbaarheden te zoeken of kwamen ze tot stilstand. De modellen van OpenAI en Anthropic presteerden slechts beter dan twee van de menselijke agenten, wat suggereert dat deze modellen “onderpresteren”.

Vergelijkbare berichten

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *