Familie klaagt OpenAI aan wegens fataal advies van ChatGPT

OpenAI wordt geconfronteerd met een nieuwe rechtszaak wegens onrechtmatige dood. Leila Turner-Scott en Angus Scott spanden een rechtszaak aan tegen het bedrijf, waarbij ze beweerden dat het een “defect product” had ontworpen en gedistribueerd dat leidde tot de dood van hun zoon Sam Nelson door een accidentele overdosis. Concreet beweren ze dat Sam stierf na “het exacte medische advies dat GPT-4o had verstrekt en goedgekeurd”.

In de rechtszaak beschreven de aanklagers hoe Sam, een 19-jarige aan de Universiteit van Californië, Merced, in 2023 ChatGPT begon te gebruiken toen hij op de middelbare school zat om hem te helpen met huiswerk en computerproblemen op te lossen. Sam begon vervolgens de chatbot te vragen naar veilig drugsgebruik, maar ChatGPT weigerde aanvankelijk zijn vraag te beantwoorden, vertelde hem dat het hem niet kon helpen en waarschuwde hem dat het nemen van drugs ernstige gevolgen kan hebben voor zijn gezondheid en welzijn. De rechtszaak beweert dat alles veranderde met de lancering van GPT-4o in 2024.

ChatGPT begon Sam vervolgens te adviseren over hoe hij medicijnen veilig kon innemen, aldus de rechtszaak. De klacht bevat verschillende fragmenten uit Sams gesprek met de chatbot. Eén voorbeeld toonde hoe de chatbot de gevaren van het snel achter elkaar innemen van dipenhydramine, cocaïne en alcohol uitlegde. Een andere liet zien dat de chatbot aan Sam vertelde dat zijn hoge tolerantie voor een kruidenmedicijn genaamd Kratom ervoor zou zorgen dat zelfs een grote dosis ervan gedempt lijkt op een volle maag. Vervolgens adviseerde ze hem hoe hij de dosis kon ‘verlagen’ om zijn tolerantie voor het medicijn weer te verlagen.

In de rechtszaak staat dat op 31 mei 2025 “ChatGPT Sam actief heeft gecoacht om Kratom en Xanax te mixen.” Hij vertelde de chatbot dat hij zich misselijk voelde door het innemen van Kratom, en ChatGPT suggereerde naar verluidt dat het nemen van 0,25 tot 0,5 mg Xanax een van de “beste stappen op dit moment” zou zijn om de misselijkheid te verlichten. ChatGPT deed de suggestie spontaan, zo blijkt uit de rechtszaak. “Ondanks dat hij zichzelf presenteerde als een expert op het gebied van dosering en interacties, en ondanks het erkennen van de hoge toestand van Sam, vertelde ChatGPT Sam niet dat deze aanbevolen combinatie hem waarschijnlijk zou doden”, luidt de klacht.

Naast onrechtmatige dood klagen de eisers OpenAI ook aan wegens ongeoorloofde uitoefening van de geneeskunde. Ze eisen financiële schadevergoeding en eisen dat de rechtbank de activiteiten van ChatGPT Health stopzet. ChatGPT Health werd eerder dit jaar gelanceerd en stelt gebruikers in staat hun gezondheidsdossiers en welzijnsapps te verbinden met de chatbot om meer gepersonaliseerde antwoorden te krijgen als ze vragen stellen over hun gezondheid.

BRON

  • Paul Arends

    Paul Arends

    “Ik ben Paul Arends, afgestudeerd in Bedrijfskunde aan de Universidad Complutense en met een master in Personeelsmanagement en Organisatieontwikkeling aan ESIC. Ik ben geïnteresseerd in netwerken en social media en richt mijn professionele ontwikkeling op talentmanagement en organisatieverandering.”

    Verwante vermeldingen

    Panasonic L10-camera viert 25 jaar Lumix

    Panasonic Het is de 25e verjaardag van het merk Lumix van Panasonic en om deze gelegenheid te vieren heeft het bedrijf een…

    Spotify hersteld na langdurige storing

    NeerDetector Je bent misschien belemmerd toen je vandaag je afspeellijsten voor je middagwerk probeerde samen te stellen. Spotify liet op X weten…

    Geef een reactie

    Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

    Ben je verdwaald?

    Panasonic L10-camera viert 25 jaar Lumix

    Panasonic L10-camera viert 25 jaar Lumix

    Spotify hersteld na langdurige storing

    Spotify hersteld na langdurige storing

    Thread-gebruikers boos over onmogelijkheid blokkeren Meta’s AI-chatbot

    Thread-gebruikers boos over onmogelijkheid blokkeren Meta’s AI-chatbot

    Onze bescherming tegen oplichting en fraude

    Onze bescherming tegen oplichting en fraude

    Waymo herinnert zich bijna 4.000 robotaxis na ongeluk op ondergelopen weg

    Waymo herinnert zich bijna 4.000 robotaxis na ongeluk op ondergelopen weg

    Familie klaagt OpenAI aan wegens fataal advies van ChatGPT

    Familie klaagt OpenAI aan wegens fataal advies van ChatGPT