Na de lancering van GPT-5.5 vorige week, merkten mensen iets grappigs op aan het nieuwste model van OpenAI. In de Codex-coderingsapp van het bedrijf liet het een systeembericht achter waarin stond dat GPT 5.5 moest voorkomen dat het goblins, gremlins en andere wezens noemde, tenzij ze absoluut relevant waren voor de vraag van de gebruiker. Blijkbaar begonnen zoveel mensen te praten over de obsessie van ChatGPT met wezens dat OpenAI voelde dat ze moesten uitleggen waar de goblins vandaan kwamen.
Volgens OpenAI begon ChatGPT na de release van GPT-5.1 in november vorig jaar een verandering te vertonen. Het gebruik van het woord “goblin” was met 175% toegenomen en “gremlin” met 52%. De goblins bleven zich vermenigvuldigen en OpenAI moest uitzoeken waar dit vandaan kwam. Na de release van GPT-5.4 werd een nog grotere toename opgemerkt in verwijzingen naar goblins, wat leidde tot onderzoek naar de oorzaak.
Het bleek dat de nerdy persoonlijkheidsoptie in ChatGPT verantwoordelijk was voor een groot deel van de goblin-vermeldingen. Ondanks dat het slechts 2,5% van alle reacties vertegenwoordigde, was het verantwoordelijk voor 66,7% van alle goblin-vermeldingen. Versterkend leren bleek verantwoordelijk te zijn voor dit gedrag, waarbij de nerdy persoonlijkheid de voorkeur gaf aan schepseltaal.
OpenAI begon met het trainen van GPT-5.5 voordat de oorzaak van de affiniteit van ChatGPT met goblins werd geïdentificeerd. Daarom is er een bericht aan Codex om de taal van wezens te vermijden. OpenAI heeft nieuwe tools ontwikkeld om het gedrag van modellen te verifiëren en te corrigeren. Het bedrijf blijft zich inzetten om AI vreemd en interessant te houden, terwijl het ook zorgt voor nauwkeurigheid en relevantie.
BRON






