In het medische veld is er een recent voorbeeld van vooroordelen die kunstmatige intelligentie doordringen. Een onderzoek uitgevoerd door de London School of Economics and Political Science heeft aangetoond dat grote modellen bij het samenvatten van medische aantekeningen bepaalde taal kunnen weglaten wanneer de patiënt als vrouw wordt geïdentificeerd. Dit kan leiden tot onvoldoende of onjuiste medische zorg voor vrouwen.
Het onderzoek analyseerde aantekeningen van gevallen die waren onderzocht door 617 sociale hulpverleners voor volwassenen in het Verenigd Koninkrijk. Twee AI-modellen, LLAMA 3 en Google’s Gemma, werden gebruikt om de aantekeningen te analyseren en het geslacht van de patiënt te veranderen. Gemma vertoonde aanzienlijke vooroordelen door drastische verschillen in de samenvattingen te produceren op basis van het geslacht van de patiënt.
Dit onderzoek benadrukt het belang van bewustzijn van vooroordelen in kunstmatige intelligentie en de impact ervan op de gezondheidszorg. Het is zorgwekkend dat deze vooroordelen kunnen leiden tot ongelijke zorgverlening, vooral voor vrouwen met mentale en fysieke gezondheidsproblemen.
Het is essentieel dat autoriteiten en zorgverleners zich bewust zijn van deze vooroordelen en ervoor zorgen dat AI-modellen op een ethische en onbevooroordeelde manier worden gebruikt. Transparantie over welke modellen worden gebruikt en hoe ze zijn getraind is van cruciaal belang om ervoor te zorgen dat de gezondheidszorg eerlijk en gelijkwaardig is voor alle patiënten, ongeacht hun geslacht.
Dit onderzoek benadrukt de noodzaak van voortdurende monitoring en evaluatie van AI-systemen in de gezondheidszorg om ervoor te zorgen dat ze geen vooroordelen bevatten die de kwaliteit van zorg kunnen beïnvloeden. Het is een herinnering dat technologische vooruitgang alleen gunstig is als het op een ethische en verantwoorde manier wordt toegepast.
BRON





