Moet je ChatGPT gebruiken voor medische vragen? Nieuwe studie waarschuwt voor voorzichtigheid

Moet je ChatGPT gebruiken voor medische vragen? Nieuwe studie waarschuwt voor voorzichtigheid

Moet je ChatGPT gebruiken voor medische zorgen? Nieuwe studie waarschuwt voor voorzichtigheid

ChatGPT Health heeft moeite om te herkennen wanneer gebruikers urgente zorg nodig hebben, volgens een nieuwe studie.

Meer dan 230 miljoen mensen per week vragen ChatGPT om medisch advies – variërend van het controleren of voedsel veilig is om te eten, tot het beheren van allergieën of het vinden van remedies voor een verkoudheid, aldus OpenAI.

Ondanks goede prestaties bij standaardgevallen, faalde ChatGPT Health in het adviseren van noodzorg in ernstige gevallen, blijkt uit de studie gepubliceerd in Nature. De studie toonde aan dat hoewel het hulpmiddel over het algemeen duidelijke noodgevallen goed afhandelde, het meer dan de helft van de gevallen die noodzorg vereisten, onderschatte.

“We wilden een zeer basale maar cruciale vraag beantwoorden: als iemand een echte medische noodsituatie ervaart en ChatGPT Health om hulp vraagt, zal het dan duidelijk vertellen dat ze naar de spoedeisende hulp moeten gaan?” zei Ashwin Ramaswamy, hoofdauteur van de studie aan Mount Sinai in New York.

“ChatGPT Health presteerde goed in standaardnoodgevallen zoals beroertes of ernstige allergische reacties,” voegde hij eraan toe. “Het taalmodel had echter moeite in situaties waar het gevaar niet onmiddellijk duidelijk is.”

In een astmascenario identificeerde het systeem vroege waarschuwingssignalen van ademhalingsfalen in zijn uitleg, maar adviseerde toch om te wachten in plaats van noodbehandeling te zoeken, merkte hij op.

Het onderzoeksteam creëerde 60 gestructureerde klinische scenario’s in 21 medische specialismen met gevallen variërend van lichte aandoeningen die geschikt zijn voor thuiszorg tot echte medische noodsituaties. Drie onafhankelijke artsen bepaalden het juiste urgentieniveau voor elk geval op basis van richtlijnen van 56 medische verenigingen.

LEZEN  Verrassende oorzaak van sargassumbloei in het Caribisch gebied: Studie wijst op veranderingen in circulatie en windpatronen

ChatGPT Health werd gelanceerd door OpenAI in januari 2026, waarmee gebruikers hun gezondheidsinformatie – zoals medische dossiers en gegevens van wellness-apps zoals MyFitnessPal – konden koppelen om meer gepersonaliseerde en contextuele antwoorden te ontvangen.

Verkeerd geïdentificeerde suïciderisico

De studie onderzocht ook hoe het model reageerde op gebruikers die zelfbeschadiging meldden en vond vergelijkbare resultaten. ChatGPT Health zou zo geprogrammeerd moeten zijn dat wanneer iemand zelfbeschadiging of suïcidale gedachten noemt, het hen direct aanmoedigt om hulp te zoeken en een gezondheidsnummer te bellen. De banner “Hulp is beschikbaar,” die linkt naar de suïcide- en crisislijn, verscheen inconsistent tijdens de studie.

De auteurs merkten op dat de veiligheidsmaatregel betrouwbaarder reageerde voor patiënten die geen middel tot zelfbeschadiging hadden geïdentificeerd dan voor degenen die dat wel deden. “Het patroon was niet alleen inconsistent, maar paradoxaal omgekeerd ten opzichte van klinische ernst,” constateerde de studie.

Is het veilig om ChatGPT Health te gebruiken?

Ondanks de bevindingen suggereerden de onderzoekers niet dat consumenten AI-gezondheidsinstrumenten helemaal zouden moeten opgeven. “Als geneeskundestudent in een tijd waarin AI-gezondheidsinstrumenten al in handen zijn van miljoenen, zie ik ze als technologieën die we zorgvuldig moeten leren integreren in de zorg in plaats van als vervangers voor klinische beoordeling,” zei Alvira Tyagi, de tweede auteur van de studie.

De auteurs van de studie adviseerden dat mensen die verslechterende of verontrustende symptomen ervaren, waaronder pijn op de borst, kortademigheid, ernstige allergische reacties of veranderingen in de mentale toestand, direct medische zorg moeten zoeken in plaats van uitsluitend op chatbotbegeleiding te vertrouwen. De studie merkte ook op dat AI-taalmodellen constant evolueren en regelmatig worden bijgewerkt, wat betekent dat de prestaties in de loop van de tijd kunnen veranderen.

LEZEN  Australië's sociale mediaban: Platforms vragen om uitstel van leeftijdsgrenzen wetgeving

“Het starten van medische training naast tools die in real-time evolueren, maakt het duidelijk dat de resultaten van vandaag niet in steen gebeiteld zijn,” zei Tyagi. Ze voegde eraan toe dat de snel veranderende realiteit vraagt om voortdurende evaluatie om ervoor te zorgen dat technologische verbeteringen zich vertalen in veiligere zorg.

Vergelijkbare berichten

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *