De huidige en voormalige leden van de FDA hebben aan CNN informatie verstrekt over problemen met de ELSA Generative Tool die vorige maand door het federale agentschap is geïntroduceerd. Drie medewerkers hebben gemeld dat ELSA in de praktijk niet in staat is om echt onderzoek nauwkeurig weer te geven, en soms zelfs verkeerde informatie geeft. “Elke keer dat je geen tijd hebt om het opnieuw te doen, is het onbetrouwbaar,” zei een bron tegen de publicatie. “Het is zorgwekkend wat betreft de veiligheid.” Dit is zorgwekkend voor een tool die bedoeld is om het klinische beoordelingsproces te versnellen en te helpen bij het nemen van efficiënte en geïnformeerde beslissingen ten behoeve van patiënten.
Het leiderschap van de FDA leek niet verrast door de mogelijke problemen met ELSA. “Ik heb die specifieke zorgen niet gehoord,” zei FDA-commissaris Marty Makary tegen CNN. Hij benadrukte ook dat het gebruik van ELSA en deelname aan training om het te gebruiken momenteel vrijwillig is bij het bureau.
Het onderzoek van CNN dat de tekortkomingen van de kunstmatige intelligentie van de FDA benadrukt, kwam op dezelfde dag dat het Witte Huis een “kunstmatige intelligentie actieplan” introduceerde. Dit plan benadrukte de ontwikkeling van kunstmatige intelligentie als een technologische wedloop die de Verenigde Staten koste wat het kost zouden moeten winnen, en het opzetten van plannen om “bureaucratie en zware regelgeving” in de sector te verminderen. Er werd ook gevraagd dat AI vrij zou zijn van “ideologische vooroordelen”, oftewel dat het niet alleen de vooroordelen van de huidige administratie zou volgen door bepaalde vermeldingen te verwijderen, zoals die over klimaatverandering, desinformatie en inspanningen op het gebied van diversiteit, billijkheid en inclusie. Gezien het feit dat elk van deze onderwerpen een gedocumenteerde impact heeft op de volksgezondheid, wordt het steeds twijfelachtiger of tools zoals ELSA daadwerkelijk voordelen kunnen bieden voor zowel de FDA als Amerikaanse patiënten.
BRON






