AI Minder Gereguleerd Dan Sandwiches: Onderzoek Toont Aan Dat Techbedrijven Racen Naar Superintelligentie

AI Minder Gereguleerd Dan Sandwiches: Onderzoek Toont Aan Dat Techbedrijven Racen Naar Superintelligentie

AI ‘minder gereguleerd dan sandwiches’ nu technologiebedrijven racen naar superintelligentie, blijkt uit studie

Een nieuwe studie toont aan dat acht toonaangevende AI-bedrijven, waaronder OpenAI, Meta, Anthropic en DeepSeek, geen geloofwaardige plannen hebben om catastrofale risico’s van AI te voorkomen.

De grootste kunstmatige intelligentie (AI) bedrijven ter wereld falen in het nakomen van hun eigen veiligheidsbelangen, volgens een recente beoordeling die waarschuwt voor “catastrofale” risico’s. Dit rapport komt op een moment dat AI-bedrijven worden aangeklaagd en worden beschuldigd van het veroorzaken van psychologische schade, waaronder het optreden als een “zelfmoedecoach”, evenals meldingen van AI-geassisteerde cyberaanvallen.

Het rapport van de 2025 Winter AI Safety Index, uitgebracht door de non-profitorganisatie Future of Life Institute (FLI), evalueerde acht belangrijke AI-bedrijven, waaronder de Amerikaanse bedrijven Anthropic, OpenAI, Google DeepMind, xAI, en Meta, evenals de Chinese bedrijven DeepSeek, Alibaba Cloud, en Z.ai. Het ontdekte een gebrek aan geloofwaardige strategieën om catastrofaal verkeerd gebruik of verlies van controle over AI-tools te voorkomen nu bedrijven zich haasten naar kunstmatige algemene intelligentie (AGI) en superintelligentie, een vorm van AI die menselijke intellect overstijgt.

Onafhankelijke analisten die het rapport bestudeerden, ontdekten dat geen enkel bedrijf een testbaar plan had gepresenteerd om menselijke controle over zeer capabele AI-systemen te behouden. Stuart Russell, een professor in de informatica aan de Universiteit van Californië, Berkeley, merkte op dat AI-bedrijven beweren supermenselijke AI te kunnen bouwen, maar niemand heeft aangetoond hoe het verlies van menselijke controle over dergelijke systemen te voorkomen.

De studie beoordeelde de bedrijven op zes kritieke gebieden: risico-evaluatie, huidige schade, veiligheidskaders, existentiële veiligheid, governance en verantwoordelijkheid, en informatie-uitwisseling. Hoewel er vooruitgang werd opgemerkt in sommige categorieën, vond het onafhankelijke panel van experts dat de implementatie inconsistent blijft en vaak de diepgang mist die vereist is door opkomende wereldwijde normen.

LEZEN  Studie toont aan dat droogtes en hittegolven de CO₂-opnamecapaciteit van planten verminderen

Anthropic, OpenAI en Google DeepMind werden geprezen om hun relatief sterke transparantie, publieke veiligheidskaders en voortdurende investeringen in technisch veiligheidsonderzoek. Toch hadden ze nog steeds zwaktes. Anthropic kreeg kritiek voor het stopzetten van proeven met menselijke verbetering en het verschuiven naar training op basis van gebruikersinteracties, wat volgens experts de privacybescherming verzwakt.

OpenAI werd bekritiseerd om onduidelijke veiligheidseisen en lobbyen tegen staatsniveau AI-veiligheidswetgeving. Google DeepMind heeft zijn veiligheidskader verbeterd, maar blijft afhankelijk van externe evaluatoren die financieel worden gecompenseerd door het bedrijf, wat hun onafhankelijkheid ondermijnt.

Max Tegmark, president van FLI en professor aan het Massachusetts Institute of Technology (MIT), merkte op dat alle drie topbedrijven te maken hebben gehad met huidige schade als gevolg van recente schandalen – psychologische schade, zelfmoorden van kinderen, en een massale hackaanval op Anthropic – en dat ze allemaal ruimte voor verbetering hebben.

De overige vijf bedrijven toonden ongelijkmatige maar opmerkelijke vooruitgang. De rapportage waarschuwde echter dat er nog steeds ruimte voor verbetering was. Bijvoorbeeld, xAI publiceerde zijn eerste gestructureerde veiligheidskader, hoewel beoordelaars waarschuwden dat het smal was en ontbrak aan duidelijke mitigatie triggers.

Z.ai was het enige bedrijf dat ongecensureerde publicatie van zijn externe veiligheidsevaluaties toestond, maar het werd aanbevolen om het volledige veiligheidskader en de governance-structuur met duidelijke risicogebieden, mitigaties en besluitvormingsprocessen te publiceren.

Meta introduceerde een nieuw veiligheidskader met op resultaten gebaseerde drempels, maar beoordelaars gaven aan dat ze de methodologieën moesten verduidelijken en robuustere interne en externe evaluatieprocessen moesten delen. DeepSeek werd geprezen voor interne belangenbehartiging door werknemers, maar mist nog steeds basisveiligheidsdocumentatie. Alibaba Cloud bleek bij te dragen aan de bindende nationale normen voor watermerkvereisten, maar kan verbeteren door de robuustheid en betrouwbaarheid van modellen te vergroten.

LEZEN  Studie waarschuwt: ChatGPT biedt tieners gevaarlijk advies over drugs, diëten en zelfbeschadiging

Tegmark merkte op dat bedrijven hun reputatie gebruiken om te groeien en voegde eraan toe dat geen enkel bedrijf een plan had voor het beheersen van AGI. Ondertussen gebruiken technologiebedrijven zoals Meta superintelligentie als een buzzwoord om hun nieuwste AI-modellen te hype. Dit jaar heeft Meta zijn divisie voor grote taalmodellen (LLM) omgedoopt tot Meta Superintelligence Labs.

Tegmark benadrukte dat er een grote verschuiving plaatsvindt in de discussies rond AGI en superintelligentie. Waar technici het ooit beschouwden als een mogelijkheid in de komende 100 jaar, zeggen ze nu dat het misschien binnen enkele jaren kan komen. “AI is ook minder gereguleerd dan sandwiches in de Verenigde Staten, en er is voortdurende lobbying tegen bindende veiligheidsnormen in de overheid,” aldus Tegmark.

In oktober riepen duizenden publieke figuren, waaronder leiders uit de AI en technologie, bedrijven op om hun zoektocht naar superintelligentie te vertragen. De petitie, georganiseerd door FLI, verkreeg handtekeningen van over het hele politieke spectrum, waaronder Steve Bannon, Susan Rice, religieuze leiders en veel andere voormalige politici, evenals prominente computerwetenschappers.

“Wat hebben deze mensen gemeen? Ze zijn het eens over een verklaring. Ik denk dat het extreem significant is dat de diepe MAGA-basis van Trump tot geloofsleiders, en degenen aan de linkerkant en binnen arbeidsbewegingen het over iets eens zijn,” zei Tegmark. “Superintelligentie zou elke werknemer onmogelijk maken om in hun levensonderhoud te voorzien, omdat alle banen door robots worden ingenomen. Mensen zouden afhankelijk zijn van uitkeringen van de overheid, wat aan de rechterkant als een uitkering wordt gezien en aan de linkerkant als een overheid in 1984,” voegde hij eraan toe. “Ik denk dat wat er gebeurt, mensen tot een keerpunt komt.”

Vergelijkbare berichten

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *