Elon Musk Wil AI Gebruiken voor Het Bestuur van de Amerikaanse Overheid, Maar Experts Waarschuwen Voor Slechte Ideeën
Elon Musk wil AI gebruiken om de Amerikaanse overheid te runnen, maar experts zeggen dat het een ‘zeer slecht’ idee is
Is Elon Musk van plan om kunstmatige intelligentie (AI) in te zetten voor het runnen van de Amerikaanse overheid? Dat lijkt zijn plan te zijn, maar experts waarschuwen dat dit een “zeer slecht idee” is.
Musk heeft tienduizenden federale overheid werknemers ontslagen via zijn Department of Government Efficiency (DOGE), en hij zou van de overgebleven werknemers eisen dat ze wekelijks een e-mail sturen met vijf opsommingstekens over wat ze die week hebben bereikt.
Aangezien dit ongetwijfeld DOGE zal overspoelen met honderden duizenden van dit soort e-mails, vertrouwt Musk op kunstmatige intelligentie om de antwoorden te verwerken en te helpen bepalen wie in dienst moet blijven. Een deel van dat plan is ook om veel overheidspersoneel te vervangen door AI-systemen.
Het is nog niet duidelijk hoe deze AI-systemen eruitzien of hoe ze functioneren—iets waar democraten in het Amerikaanse Congres meer informatie over eisen—maar experts waarschuwen dat het gebruik van AI in de federale overheid zonder grondige tests en verificatie van deze tools desastreuze gevolgen kan hebben.
“Om AI-tools verantwoord te gebruiken, moeten ze met een specifiek doel worden ontworpen. Ze moeten getest en gevalideerd worden. Het is niet duidelijk of dat hier gebeurt,” zegt Cary Coglianese, een professor in recht en politieke wetenschap aan de Universiteit van Pennsylvania.
Coglianese zegt dat als AI wordt gebruikt om beslissingen te nemen over wie ontslagen moet worden, hij daar “zeer sceptisch” over zou zijn. Hij wijst op de reële kans op fouten, vooringenomenheid en andere potentiële problemen.
“Het is een zeer slecht idee. We weten niets over hoe een AI dergelijke beslissingen zou nemen [inclusief hoe het is getraind en de onderliggende algoritmes], de gegevens waarop dergelijke beslissingen zijn gebaseerd, of waarom we zouden moeten geloven dat het betrouwbaar is,” zegt Shobita Parthasarathy, een professor in publieke beleidsvorming aan de Universiteit van Michigan.
Deze zorgen lijken de huidige overheid niet tegen te houden, vooral met Musk—een miljardair en nauwe adviseur van de Amerikaanse president Donald Trump—die deze inspanningen leidt.
Bijvoorbeeld, het Amerikaanse Ministerie van Buitenlandse Zaken is van plan om AI te gebruiken om de sociale media-accounts van buitenlandse nationals te scannen om iedereen te identificeren die mogelijk een Hamas-ondersteuner is, in een poging hun visa in te trekken. Tot nu toe is de Amerikaanse overheid niet transparant geweest over hoe dit soort systemen zouden kunnen werken.
Onopgemerkte schade
“De Trump-administratie is echt geïnteresseerd in het nastreven van AI tegen elke prijs, en ik zou willen zien dat AI op een eerlijke, rechtvaardige en billijke manier wordt gebruikt,” zegt Hilke Schellmann, een professor in journalistiek aan de New York University en een expert op het gebied van kunstmatige intelligentie. “Er kunnen veel schadegevallen zijn die onopgemerkt blijven.”
AI-experts zeggen dat er veel manieren zijn waarop het gebruik van AI door de overheid mis kan gaan, wat de reden is waarom het voorzichtig en gewetensvol moet worden aangenomen. Coglianese merkt op dat regeringen over de hele wereld, waaronder Nederland en het Verenigd Koninkrijk, problemen hebben gehad met slecht uitgevoerde AI die fouten kan maken of vooringenomenheid kan vertonen, waardoor inwoners ten onrechte sociale uitkeringen zijn ontzegd.
In de VS had de staat Michigan een probleem met AI die werd gebruikt om fraude in het werkloosheidssysteem te detecteren, toen het duizenden gevallen van vermeende fraude onterecht identificeerde. Veel van degenen die uitkeringen waren ontzegd, werden hard aangepakt, inclusief het krijgen van meerdere straffen en beschuldigingen van fraude. Mensen werden gearresteerd en dienden zelfs een faillissementsaanvraag in. Na een periode van vijf jaar gaf de staat toe dat het systeem gebrekkig was en een jaar later werd $21 miljoen terugbetaald aan bewoners die onterecht van fraude waren beschuldigd.
“Meestal weten de ambtenaren die deze technologieën aankopen en implementeren weinig over hoe ze werken, hun vooringenomenheden en beperkingen, en fouten,” zegt Parthasarathy. “Omdat laag inkomen- en anderszins gemarginaliseerde gemeenschappen de meeste contact hebben met de overheid via sociale diensten [zoals werkloosheidsuitkeringen, pleegzorg, wetshandhaving], worden zij vaak het meest getroffen door problematische AI.”
AI heeft ook problemen veroorzaakt in de overheid wanneer het is gebruikt in de rechtbanken om beslissingen te nemen over bijvoorbeeld de voorwaarden van iemands voorwaardelijke vrijlating of in politieafdelingen wanneer het is gebruikt om te proberen te voorspellen waar criminaliteit waarschijnlijk zal optreden.
Schellmann merkt op dat de AI die door politieafdelingen wordt gebruikt, doorgaans is getraind op historische gegevens van die afdelingen, wat kan leiden tot aanbevelingen voor overmatige politie-inzet in gebieden die al lang overbelast zijn, vooral in kleurengemeenschappen.
AI begrijpt niets
Een van de problemen met het mogelijk gebruiken van AI om werknemers in de federale overheid te vervangen, is dat er zoveel verschillende soorten banen zijn binnen de overheid die specifieke vaardigheden en kennis vereisen. Een IT-persoon in het Ministerie van Justitie kan bijvoorbeeld een heel andere functie hebben dan iemand in het Ministerie van Landbouw, ook al hebben ze dezelfde functietitel. Een AI-programma zou daarom complex en hoogopgeleid moeten zijn om zelfs maar een middelmatige vervanging voor een menselijke werknemer te bieden.
“Ik denk niet dat je zomaar mensen hun baan kunt afnemen en ze dan [met elke AI] kunt vervangen,” zegt Coglianese. “De taken die die mensen uitvoerden zijn vaak zeer gespecialiseerd en specifiek.”
Schellmann stelt voor dat je AI kunt gebruiken om delen van iemands werk uit te voeren die voorspelbaar of repetitief zijn, maar je kunt iemand niet gewoon volledig vervangen. Dat zou theoretisch mogelijk zijn als je jaren zou besteden aan het ontwikkelen van de juiste AI-tools voor veel verschillende soorten banen—een zeer moeilijke taak en niet wat de overheid momenteel lijkt te doen.
“Deze werknemers hebben echte expertise en een genuanceerd begrip van de problemen, wat AI niet heeft. AI begrijpt feitelijk niets,” zegt Parthasarathy. “Het is een gebruik van computationele methoden om patronen te vinden, gebaseerd op historische gegevens. Daarom zal het waarschijnlijk beperkte nut hebben en zelfs historische vooroordelen versterken.”
De administratie van de voormalige Amerikaanse president Joe Biden gaf in 2023 een uitvoerend bevel uit dat gericht was op het verantwoord gebruik van AI in de overheid en hoe AI zou worden getest en gevalideerd, maar dit bevel werd in januari door de Trump-administratie ingetrokken. Schellmann zegt dat dit het minder waarschijnlijk maakt dat AI op een verantwoorde manier in de overheid zal worden gebruikt of dat onderzoekers zullen begrijpen hoe AI wordt ingezet.
Dat gezegd zijnde, als AI op een verantwoorde manier wordt ontwikkeld, kan het zeer nuttig zijn. AI kan repetitieve taken automatiseren, zodat werknemers zich op belangrijkere zaken kunnen concentreren of hen helpen problemen op te lossen waar ze mee worstelen. Maar het moet wel de tijd krijgen om op de juiste manier te worden ingezet.
“Dat betekent niet dat we AI-tools niet verstandig zouden kunnen gebruiken,” zegt Coglianese. “Maar overheden gaan de mist in wanneer ze proberen te haasten en dingen snel te doen zonder de juiste publieke input en grondige validatie en verificatie van hoe het algoritme daadwerkelijk werkt.”