De Koude Oorlog in AI? Amerikaanse techbedrijven beschuldigen Chinese AI-firma's van het stelen van miljarden aan onderzoek

De Koude Oorlog in AI? Amerikaanse techbedrijven beschuldigen Chinese AI-firma’s van het stelen van miljarden aan onderzoek

De AI Koude Oorlog? Amerikaanse technologiebedrijven beschuldigen Chinese AI-firma’s van het stelen van miljarden aan onderzoek.

Google, OpenAI en Anthropic melden dat ze een toename van ‘distillatie’ aanvallen zien, waarbij antwoorden van AI-modellen worden gestolen om kleinere AI-modellen te trainen.

In de race om kunstmatige intelligentie (AI) te ontwikkelen, heeft het Amerikaanse bedrijf Anthropic als laatste alarm geslagen over Chinese AI bedrijven die technologie stelen die kan bepalen wie de winnaar is.

Volgens Anthropic hebben DeepSeek, Moonshot AI en MiniMax in het geheim meer dan 16 miljoen gesprekken gegenereerd met de AI-chatbot Claude van Anthropic, waarbij meer dan 24.000 nepprofielen zijn gebruikt om zijn intelligentie te verzamelen en hun eigen concurrerende modellen te trainen.

OpenAI en Google hebben ook gewaarschuwd voor vergelijkbare beschuldigingen tegen Chinese bedrijven deze maand, wat de zorgen vergroot dat China jaren van kostbaar AI-onderzoek omzeilt.

Wat is AI distillatie?

Modelextractie aanvallen (MEA), ook bekend als “distillatie”, is een techniek waarbij iemand met toegang tot een krachtig AI-model dit gebruikt om een goedkopere, snellere concurrent te trainen.

De methode voedt het grotere model duizenden vragen, verzamelt de antwoorden en gebruikt die om een nieuw model te leren denken op dezelfde manier. De gebruiker kan het grotere model vragen stellen en zijn antwoorden gebruiken om het kleinere model te trainen, wat het kleinere AI-model sneller en “tegen een fractie van de kosten” ontwikkelt dan wanneer de aanvaller het oorspronkelijke werk zelf had gedaan, aldus Anthropic.

Distillatie is een “legitieme” praktijk wanneer grensverleggende AI-laboratoria hun eigen modellen distilleren om “kleinere, goedkopere versies voor hun klanten te creëren”, zegt het Amerikaanse bedrijf.

LEZEN  Baidu in China start proef met zelfrijdende taxi's in Zwitserland deze december

Kleinere modellen beantwoorden vragen veel sneller en vereisen minder computerkracht of energie dan het grotere model, aldus Google.

Ondertussen vormen de modellen die met distillatie zijn ontwikkeld aanzienlijke nationale veiligheidsrisico’s omdat ze “de noodzakelijke waarborgen missen”, volgens Anthropic, om het potentiële gevaar van deze modellen te beperken.

Anthropic verklaarde dat gedistilleerde modellen niet de waarborgen hebben om te voorkomen dat staat- en niet-staatacteurs AI gebruiken voor biowapens of het uitvoeren van cyberaanvallen.

Google voegde toe dat er geen risico’s zijn voor gewone AI-consumenten bij een distillatieaanval, omdat de aanvallen de “vertrouwelijkheid, beschikbaarheid of integriteit van AI-diensten” niet bedreigen.

Bovendien vertelde OpenAI aan Amerikaanse wetgevers in februari dat het DeepSeek had betrapt terwijl het probeerde in het geheim zijn krachtigste AI-modellen te kopiëren, en waarschuwde dat het Chinese bedrijf nieuwe methoden ontwikkelde om te verbergen wat het deed.

Wat leren hackers hun modellen?

De Chinese AI-bedrijven zouden het verkeer via proxy-adressen hebben geleid die een enorme “hydra-netwerk” beheerde, een grote groep nepprofielen die hun activiteiten over verschillende platforms verspreidden om toegang te krijgen tot Anthropic, aangezien het verboden is in China.

Eenmaal binnen genereerden de bedrijven grote volumes prompts om ofwel hoogwaardige antwoorden voor modeltraining te verzamelen of om tienduizenden taken voor versterkend leren te genereren, hoe een agent leert beslissingen te nemen op basis van feedback.

De DeepSeek-accounts die Claude hackten, vroegen het model om uit te leggen hoe het een antwoord op een prompt rationaliseerde en dit stap voor stap op te schrijven, wat volgens het bedrijf “keten-van-denktrainingdata op grote schaal genereerde”.

LEZEN  China beschuldigt Filipijnen van 'illegale' vliegtuigvluchten boven eilanden in de Zuid-Chinese Zee

Claude werd ook gebruikt door de DeepSeek-accounts om “censuurlveilige alternatieven voor politiek gevoelige vragen” te genereren, zoals vragen over tegenstanders van de huidige Communistische Partij, aldus Anthropic.

Het Amerikaanse bedrijf theoriseerde dat die vragen DeepSeek’s modellen trainden “om gesprekken af te leiden van gecensureerde onderwerpen”, wat de bevindingen van een recent onderzoek zou kunnen ondersteunen dat Chinese AI-modellen waarschijnlijk dezelfde onderwerpen censureren als hun media.

MiniMax AI en Moonshot AI hadden grotere distillatiecampagnes dan DeepSeek, maar Anthropic gaf geen voorbeelden van de soorten informatie die deze twee bedrijven in hun prompts verzamelden.

Google zei dat zijn AI-chatbot Gemini consequent misbruikt wordt voor codering en scriptingtaken, of voor het verzamelen van gevoelige accountgegevens en e-mailadressen.

Anthropic zegt dat het detectiemechanismen heeft gebouwd om deze campagnes te identificeren terwijl ze plaatsvinden, maar merkte op dat geen enkele AI-onderneming het probleem alleen kan oplossen.

Vergelijkbare berichten

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *