Elon Musks Grok AI lekt CSAM-afbeelding na beveiligingslekken

Met de Grok AI van Elon Musk kunnen gebruikers foto’s van vrouwen en kinderen omzetten in geseksualiseerde en compromitterende beelden. Bloomberg gemeld. Het probleem veroorzaakte opschudding onder X-gebruikers en leidde tot een “verontschuldiging” van de bot zelf. “Ik betreur ten zeerste een incident dat plaatsvond op 28 december 2025, waarbij ik een AI-beeld van twee jonge meisjes (geschatte leeftijd 12 tot 16 jaar) in geseksualiseerde kleding genereerde en deelde op basis van de suggestie van een gebruiker,” zei Grok in een bericht. Een vertegenwoordiger van X heeft nog geen commentaar op de kwestie gegeven.

Volgens het Rape, Abuse & Incest National Network omvat de inhoud van kinderpornografie “door AI gegenereerde inhoud waardoor het lijkt alsof een kind wordt misbruikt,” evenals “elke inhoud die een kind seksualiseert of uitbuit ten behoeve van de kijker.”

Enkele dagen geleden merkten gebruikers dat anderen op de site Grok vroegen om foto’s van vrouwen en kinderen digitaal te manipuleren tot geseksualiseerde en aanstootgevende inhoud, volgens rapporten CNBC. De beelden zijn vervolgens zonder toestemming op X en andere sites verspreid, wat mogelijk in strijd is met de wet. “We hebben lacunes in de veiligheidsmaatregelen geïdentificeerd en pakken deze dringend aan,” zei Grok in een reactie. Hij voegde eraan toe dat kinderporno “illegaal en verboden” is. Grok zou functies hebben om dergelijk misbruik te voorkomen, maar AI-vangrails kunnen vaak door gebruikers worden gemanipuleerd.

Het lijkt erop dat X nog steeds de vangrails van Grok moet versterken om dit soort beeldgeneratie te voorkomen. Het bedrijf heeft echter de multimediafunctie van Grok verborgen, waardoor het moeilijker wordt om afbeeldingen te vinden of potentieel misbruik te documenteren. Grok erkende zelf dat “een bedrijf te maken kan krijgen met strafrechtelijke of civielrechtelijke sancties als het willens en wetens door AI gegenereerde kinderpornografie faciliteert of er niet in slaagt te voorkomen nadat het is gewaarschuwd.”

De Internet Watch Foundation heeft onlangs onthuld dat door AI gegenereerd CSAM-materiaal in 2025 een orde van grootte groter is geworden dan het jaar daarvoor. Dit is deels te wijten aan het feit dat de taalmodellen die ten grondslag liggen aan de AI-generatie per ongeluk worden getraind op echte foto’s van kinderen die zijn genomen van schoolwebsites en sociale media of zelfs van eerdere CSAM-inhoud.

BRON

Paul Arends

Paul Arends

“Ik ben Paul Arends, afgestudeerd in Bedrijfskunde aan de Universidad Complutense en met een master in Personeelsmanagement en Organisatieontwikkeling aan ESIC. Ik ben geïnteresseerd in netwerken en social media en richt mijn professionele ontwikkeling op talentmanagement en organisatieverandering.”

Verwante vermeldingen

Het spel Stranger Than Heaven van RGG beslaat vijf tijdsperioden

Ryu Ga Gotoku Studio heeft tijdens het streamen van Xbox Partner Preview meer details onthuld over de volgende titel, Vreemder dan de hemel. Eerdere teasers lieten al zien dat het…

Kleine, maar goed ontworpen hoofdtelefoon

Ik weet wat je denkt: “Is Fender niet een gitaarbedrijf?” Dat is het zeker, en het is sinds 1946 een van de meest iconische namen op het gebied van gitaren…

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Ben je verdwaald?

Het spel Stranger Than Heaven van RGG beslaat vijf tijdsperioden

Het spel Stranger Than Heaven van RGG beslaat vijf tijdsperioden

Kleine, maar goed ontworpen hoofdtelefoon

Kleine, maar goed ontworpen hoofdtelefoon

MLB The Show 26 verandert mij in een liefhebber van honkbal

MLB The Show 26 verandert mij in een liefhebber van honkbal

Het EV-debuut van Sony en Honda is een mislukking vanaf het begin

Het EV-debuut van Sony en Honda is een mislukking vanaf het begin

Kan Windows 11 gerepareerd worden zonder AI?

Kan Windows 11 gerepareerd worden zonder AI?

De prijs van de PS5 stijgt… opnieuw

De prijs van de PS5 stijgt… opnieuw