Experts Waarschuwen: AI Karikatuur Trends op Social Media van ChatGPT Kunnen Fraudeurs Voordelen Bieden
Trend van AI-karikaturen op sociale media kan een kans zijn voor oplichters, waarschuwen experts
De trend van AI-gecreëerde karikaturen, die alles laat zien wat een chatbot over iemand weet in een kleurrijke afbeelding, kan ernstige beveiligingsrisico’s met zich meebrengen, volgens cyberbeveiligingsexperts.
Gebruikers uploaden een foto van zichzelf met een bedrijfslogo of details over hun rol en vragen ChatGPT van OpenAI om een karikatuur van hen en hun werk te maken op basis van wat de chatbot over hen weet. Cyberbeveiligingsexperts hebben aangegeven dat sociale media-uitdagingen, zoals AI-karikaturen, oplichters een schat aan waardevolle informatie kunnen bieden. Een enkele afbeelding, gecombineerd met persoonlijke details, kan onthullender zijn dan gebruikers beseffen.
Bob Long, vice-president bij het leeftijdsverificatiebedrijf Daon, zei: “Je doet het werk voor oplichters door ze een visuele representatie van wie je bent te geven.” De formulering zelf zou al alarmsignalen moeten afgeven, aangezien het “klinkt alsof het opzettelijk is gestart door een oplichter die het werk gemakkelijk wil maken.”
Wat gebeurt er met afbeeldingen zodra ze zijn geüpload?
Wanneer een gebruiker een afbeelding uploadt naar een AI-chatbot, verwerkt het systeem de afbeelding om gegevens te extraheren, zoals de emotie van de persoon, de omgeving of informatie die hun locatie kan onthullen, aldus cybersecurityconsultant Jake Moore. Die informatie kan vervolgens voor een onbekende periode worden opgeslagen.
Long merkte op dat de afbeeldingen die van gebruikers worden verzameld, kunnen worden gebruikt en bewaard om AI-afbeeldinggeneratoren te trainen als onderdeel van hun datasets. Een datalek bij een bedrijf zoals OpenAI kan betekenen dat gevoelige gegevens, zoals geüploade afbeeldingen en persoonlijke informatie die door de chatbot zijn verzameld, in handen van kwaadwillenden kunnen vallen die deze kunnen misbruiken.
In verkeerde handen kan een enkele, hoge-resolutie afbeelding worden gebruikt om nepaccounts op sociale media te creëren of realistische AI-deepfakes te maken die kunnen worden gebruikt om een oplichting te organiseren, volgens Charlotte Wilson, hoofd ondernemingen bij Check Point, een Israëlisch cyberbeveiligingsbedrijf. “Selfies helpen criminelen om van generieke oplichtingen over te schakelen naar gepersonaliseerde, hoogconvictieve impersonaties,” zei ze.
De privacy-instellingen van OpenAI geven aan dat geüploade afbeeldingen kunnen worden gebruikt om het model te verbeteren, wat kan inhouden dat het wordt getraind. Toen er naar de privacy-instellingen van het model werd gevraagd, verduidelijkte ChatGPT dat dit niet betekent dat elke foto in een openbare database wordt geplaatst. In plaats daarvan zei de chatbot dat het patronen uit gebruikersinhoud gebruikt om te verfijnen hoe het systeem afbeeldingen genereert.
Wat te doen als je wilt deelnemen aan AI-trends
Voor degenen die toch aan de trend willen deelnemen, raden experts aan om te beperken wat je deelt. Wilson adviseerde gebruikers om afbeeldingen te vermijden die identificerende informatie onthullen. “Snijd strak in, houd de achtergrond eenvoudig en sluit geen badges, uniformen, werkhangtags, locatie-indicatoren of iets dat je aan een werkgever of routine verbindt in,” zei ze. Wilson waarschuwde ook tegen het overmatig delen van persoonlijke informatie in de prompts, zoals hun functietitel, stad of werkgever.
Moore raadde aan om de privacy-instellingen te controleren voordat je deelneemt, inclusief de optie om gegevens uit AI-training te verwijderen. OpenAI heeft een privacyportaal waarmee gebruikers zich kunnen afmelden voor AI-gegevenstraining door op “train niet op mijn inhoud” te klikken. Gebruikers kunnen zich ook afmelden voor training van hun tekstgesprekken met ChatGPT door een instelling voor “verbeter het model voor iedereen” uit te schakelen.
Volgens de EU-wetgeving kunnen gebruikers verzoeken om verwijdering van persoonlijke gegevens die door het bedrijf zijn verzameld. OpenAI merkt echter op dat het enkele informatie kan behouden, zelfs na verwijdering, om fraude, misbruik en beveiligingsproblemen aan te pakken.
