Met de Grok AI van Elon Musk kunnen gebruikers foto’s van vrouwen en kinderen omzetten in geseksualiseerde en compromitterende beelden. Bloomberg gemeld. Het probleem veroorzaakte opschudding onder X-gebruikers en leidde tot een “verontschuldiging” van de bot zelf. “Ik betreur ten zeerste een incident dat plaatsvond op 28 december 2025, waarbij ik een AI-beeld van twee jonge meisjes (geschatte leeftijd 12 tot 16 jaar) in geseksualiseerde kleding genereerde en deelde op basis van de suggestie van een gebruiker,” zei Grok in een bericht. Een vertegenwoordiger van X heeft nog geen commentaar op de kwestie gegeven.
Volgens het Rape, Abuse & Incest National Network omvat de inhoud van kinderpornografie “door AI gegenereerde inhoud waardoor het lijkt alsof een kind wordt misbruikt,” evenals “elke inhoud die een kind seksualiseert of uitbuit ten behoeve van de kijker.”
Enkele dagen geleden merkten gebruikers dat anderen op de site Grok vroegen om foto’s van vrouwen en kinderen digitaal te manipuleren tot geseksualiseerde en aanstootgevende inhoud, volgens rapporten CNBC. De beelden zijn vervolgens zonder toestemming op X en andere sites verspreid, wat mogelijk in strijd is met de wet. “We hebben lacunes in de veiligheidsmaatregelen geïdentificeerd en pakken deze dringend aan,” zei Grok in een reactie. Hij voegde eraan toe dat kinderporno “illegaal en verboden” is. Grok zou functies hebben om dergelijk misbruik te voorkomen, maar AI-vangrails kunnen vaak door gebruikers worden gemanipuleerd.
Het lijkt erop dat X nog steeds de vangrails van Grok moet versterken om dit soort beeldgeneratie te voorkomen. Het bedrijf heeft echter de multimediafunctie van Grok verborgen, waardoor het moeilijker wordt om afbeeldingen te vinden of potentieel misbruik te documenteren. Grok erkende zelf dat “een bedrijf te maken kan krijgen met strafrechtelijke of civielrechtelijke sancties als het willens en wetens door AI gegenereerde kinderpornografie faciliteert of er niet in slaagt te voorkomen nadat het is gewaarschuwd.”
De Internet Watch Foundation heeft onlangs onthuld dat door AI gegenereerd CSAM-materiaal in 2025 een orde van grootte groter is geworden dan het jaar daarvoor. Dit is deels te wijten aan het feit dat de taalmodellen die ten grondslag liggen aan de AI-generatie per ongeluk worden getraind op echte foto’s van kinderen die zijn genomen van schoolwebsites en sociale media of zelfs van eerdere CSAM-inhoud.






