Cybercriminelen Proberen AI en Komen Teleurgesteld Terug, Volgens Studie

Cybercriminelen Proberen AI en Komen Teleurgesteld Terug, Volgens Studie

Cybercriminelen experimenteerden met AI, maar zijn teleurgesteld, blijkt uit een studie

Cybercriminelen zijn geïnteresseerd in kunstmatige intelligentie (AI), maar zien nog geen echte voordelen in hun werkzaamheden door het gebruik ervan, volgens een nieuw onderzoek van de Universiteit van Edinburgh.

De studie analyseerde meer dan 100 miljoen forumberichten van cybercriminelen met behulp van de database CrimeBB, die gegevens verzamelt van ondergrondse forums. De data werd zowel handmatig als met een groot taalmodel (LLM) geanalyseerd.

Hoewel cybercriminelen interesse hebben getoond in het leren gebruiken van AI-tools, heeft de technologie hun manier van “werken” niet significant veranderd. In de studie wordt opgemerkt: “Veel van de recensies en discussies beschrijven [AI] tools als niet bijzonder nuttig.”

De onderzoekers vonden “geen significante aanwijzingen” dat hackers succesvol waren in het verbeteren van hun hackactiviteiten door AI te gebruiken, hetzij als leermiddel of bij het ontwikkelen van effectievere tools. AI-codesassistenten zijn voornamelijk nuttig voor degenen die al vaardig zijn in programmeren, waardoor AI-modellen die programmeerhulp bieden geen significante “boost” geven bij pogingen om in apparaten door te dringen of beveiligingsmaatregelen te omzeilen.

Een geciteerd bericht in de studie zegt: “Je moet eerst zelf de basis van programmeren leren voordat je AI kunt gebruiken en er ECHT voordeel uit kunt halen.”

De belangrijkste impact die AI tot nu toe heeft gehad op minder legale online activiteiten, is te vinden in gemakkelijk te automatiseren gebieden, zoals het creëren van sociale media-bots, sommige romance-scams en zoekmachineoptimalisatie (SEO) fraude, of de creatie van nepwebsites die hoger in de zoekresultaten worden gepusht om geld te verdienen met advertenties.

LEZEN  De Rol van Machine Learning in de Klimagegevens: Kunstmatige Intelligentie en Klimaatfysica Onderzocht

Recensies suggereren dat zelfs de meest ervaren hackers chatbots gebruiken om programmeervragen te beantwoorden of om “cheatsheets” te genereren die hen helpen bij het coderen.

De AI die daadwerkelijk wordt gebruikt, valt onder “mainstream en legitieme producten”, zoals Claude van Anthropic of Codex van OpenAI, in plaats van specifieke AI-modellen voor cybercriminaliteit zoals WormGPT, die hackers hebben ontworpen om malwarecode of phishing-e-mails te produceren. Veel van de geanalyseerde berichten gaan over cybercriminelen die technieken vragen om de beveiligingsregels van die mainstream modellen te omzeilen, maar het lijkt moeilijk voor hen om de AI-systemen hun veiligheidsinstellingen te laten negeren.

In plaats daarvan zijn cybercriminelen genoodzaakt om over te schakelen naar oudere, lagere kwaliteit open-source AI-modellen die gemakkelijker te jailbreaken zijn. De onderzoekers ontdekten dat deze modellen minder nuttig zijn en “significante middelen vereisen.”

Hun studie suggereert dat de veiligheidsmaatregelen die door AI-bedrijven zijn ingevoerd, tot nu toe effectief zijn.

Vergelijkbare berichten

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *