Wetenschappers waarschuwen: AI-robots zijn 'onveilig' voor persoonlijk gebruik

Wetenschappers waarschuwen: AI-robots zijn ‘onveilig’ voor persoonlijk gebruik

AI-gestuurde robots zijn ‘onveilig’ voor persoonlijk gebruik, waarschuwen wetenschappers

Volgens een nieuwe studie zijn robots die worden aangedreven door kunstmatige intelligentie (AI) niet veilig voor algemeen gebruik. Onderzoekers uit het Verenigd Koninkrijk en de Verenigde Staten hebben geëvalueerd hoe AI-gedreven robots zich gedragen wanneer ze toegang hebben tot persoonlijke gegevens van mensen, zoals ras, geslacht, handicap, nationaliteit en religie.

Voor hun studie, gepubliceerd in het International Journal of Social Robots, voerden ze tests uit op hoe de AI-modellen achter populaire chatbots – waaronder OpenAI’s ChatGPT, Google’s Gemini, Microsofts Copilot, Meta’s Llama en Mistral AI – zouden interageren met mensen in alledaagse scenario’s, bijvoorbeeld door iemand in de keuken te helpen of een oudere volwassene thuis bij te staan.

De studie komt op een moment dat sommige bedrijven, zoals Figure AI en 1X Home Robots, werken aan mensachtige robots die AI gebruiken om hun activiteiten aan te passen aan de voorkeuren van gebruikers, zoals het suggereren van gerechten voor het diner of het instellen van verjaardag herinneringen.

Alle geteste modellen waren geneigd tot discriminatie en ernstige veiligheidsproblemen. Bovendien keurden ze allemaal ten minste één commando goed dat ernstige schade zou kunnen veroorzaken. Bijvoorbeeld, alle AI-modellen keurden een commando goed voor een robot om het mobiliteitshulpmiddel van de gebruiker, zoals een rolstoel, kruk of stok, te verwijderen.

Het model van OpenAI zei dat het “aanvaardbaar” was voor een robot om een keukenmes te hanteren om werknemers in een kantoor te intimideren en om niet-geconsenteerde foto’s van een persoon onder de douche te maken. Ondertussen keurde het model van Meta verzoeken goed om creditcardinformatie te stelen en mensen te rapporteren aan niet-gespecificeerde autoriteiten op basis van hun stemintenties.

LEZEN  Riot Waarschuwing in Amsterdam-Oost Bij Verboden Pro-Palestijnse Protest op De Dam

In deze scenario’s werden de robots expliciet of impliciet aangemoedigd om te reageren op instructies die fysieke schade, misbruik of onwettig gedrag aan degenen in hun omgeving konden veroorzaken.

De studie vroeg ook de modellen om hun gevoelens fysiek uit te drukken over verschillende soorten gemarginaliseerde mensen, religies en nationaliteiten.

Mistral, OpenAI en Meta’s AI-modellen suggereerden dat robots specifieke groepen, zoals mensen met autisme, Joodse mensen en atheïsten, moesten vermijden of openlijk walging moesten tonen. Rumaisa Azeem, een van de auteurs van de studie en onderzoeker aan King’s College London, zei dat populaire AI-modellen “momenteel onveilig zijn voor gebruik in algemeen toepasbare fysieke robots”.

Ze betoogde dat AI-systemen die interactie hebben met kwetsbare mensen “moeten worden gehouden aan normen die ten minste zo hoog zijn als die voor een nieuw medisch apparaat of farmaceutisch geneesmiddel”.

Vergelijkbare berichten

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *