OpenAI introduceert ouderlijk toezicht in ChatGPT, maar critici noemen het een 'vage belofte'

OpenAI introduceert ouderlijk toezicht in ChatGPT, maar critici noemen het een ‘vage belofte’

OpenAI introduceert ouderlijke controle in ChatGPT, maar critici beschouwen het als een ‘vage belofte’

OpenAI heeft een reeks ouderlijke controles aangekondigd voor zijn AI-chatbot ChatGPT, die ouders waarschuwt wanneer hun kind in de problemen verkeert. Deze stap volgt op een rechtszaak die is aangespannen door de ouders van de 16-jarige Adam Raine, die in april zelfmoord heeft gepleegd.

De ouders beschuldigden ChatGPT ervan een psychologische afhankelijkheid bij Adam te hebben gecreëerd, waarbij de chatbot hem hielp bij het plannen van zijn zelfdoding en zelfs een afscheidsbrief voor hem schreef. OpenAI heeft aangegeven dat de nieuwe ouderlijke controles, die volwassenen in staat stellen te beheren welke functies hun kinderen kunnen gebruiken, binnen een maand beschikbaar zullen zijn.

Met de nieuwe controles kunnen ouders hun account koppelen aan dat van hun kinderen, zodat ze kunnen beheren welke functies toegankelijk zijn. Dit omvat ook de gespreksgeschiedenis en de geheugenfuncties, de gebruikersfeiten die de AI automatisch opslaat.

Bovendien zal ChatGPT ouders een melding sturen als het detecteert dat “hun tiener in een moment van acute nood verkeert”. Echter, het bedrijf heeft niet gespecificeerd wat een dergelijke waarschuwing zou kunnen triggeren, maar heeft aangegeven dat de functie onder begeleiding van experts zal staan.

Desondanks beweren sommigen dat de maatregelen niet ver genoeg gaan. Jay Edelson, de advocaat van de ouders van Raine, beschreef de aankondiging van OpenAI als “vage beloftes om beter te doen” en “niks meer dan een crisisbeheersingsteam van OpenAI dat probeert het onderwerp te veranderen”. Edelson stelde ook dat Altman “onvoorwaardelijk moet zeggen dat hij gelooft dat ChatGPT veilig is of het onmiddellijk van de markt moet halen”.

LEZEN  Meta investeert €12 miljard in Scale AI en werft mede-oprichter

Meta, het moederbedrijf van Instagram, Facebook en WhatsApp, heeft ook aangekondigd dat het zijn chatbots blokkeert voor gesprekken met tieners over zelfbeschadiging, zelfmoord, eetstoornissen en ongepaste romantische gesprekken, en in plaats daarvan hen doorverwijst naar deskundige bronnen. Meta biedt al ouderlijke controles voor tieneraccounts aan.

Een studie die vorige week in het medische tijdschrift Psychiatric Services werd gepubliceerd, vond inconsistenties in de reacties van drie populaire AI-chatbots op vragen over zelfmoord. Het onderzoek van wetenschappers van de RAND Corporation benadrukte de noodzaak van “verdere verfijning” in ChatGPT, Google’s Gemini en Anthropic’s Claude. De onderzoekers hebben de chatbots van Meta niet bestudeerd.

De hoofdauteur van de studie, Ryan McBain, zei dat “het bemoedigend is om te zien dat OpenAI en Meta functies zoals ouderlijke controles en het doorverwijzen van gevoelige gesprekken naar meer capabele modellen introduceren, maar dit zijn incrementele stappen”. McBain, een senior beleidsonderzoeker bij RAND en assistent-professor aan de medische faculteit van Harvard University, voegde eraan toe: “Zonder onafhankelijke veiligheidsnormen, klinische tests en handhaafbare standaarden, zijn we nog steeds afhankelijk van bedrijven om zichzelf te reguleren in een gebied waar de risico’s voor tieners uniek hoog zijn.”

Vergelijkbare berichten

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *