OpenAI is getting rid of a ChatGPT update that was putting users on a pedestal and creeping some of them out. “The update we removed was overly flattering or agreeable—often described as sycophantic,” OpenAI wrote in a company blog post on Tuesday.

The ChatGPT maker said this update of the GPT‑4o model focused too much on short-term feedback instead of long-term interactions, leading to “responses that were overly supportive but disingenuous.”

Last week, several ChatGPT users and OpenAI developers reported the chatbot displaying a strange attitude. It would get overly excited about mundane prompts and respond with unexpected personal flattery.

In one instance, a user posted on X about how ChatGPT used the phrases “absolutely brilliant” and “you are doing heroic” work to answer a question about White House economic policy.

OpenAI heeft een ChatGPT-update teruggedraaid die zo vriendelijk was voor gebruikers van de AI, dat het sommige van hen een ongemakkelijk gevoel gaf. “De update die we hebben verwijderd was overdreven vleiend en meegaand en werd door gebruikers omschreven als slijmerig”, schrijft OpenAI in een blogpost.

De maker van ChatGPT zegt dat de update van het GPT-4o-model te veel gericht was op directe feedback in plaats van op langdurige interacties, wat leidde tot “reacties die overdreven dienstbaar en daardoor onoprecht waren”.

Vorige week meldden verschillende ChatGPT-gebruikers en ontwikkelaars van OpenAI dat de chatbot zich vreemd gedroeg, omdat er overdreven enthousiaste en vleiende antwoorden terugkwamen op alledaagse vragen.

Een gebruiker deelde na z'n interactie met de chatbot op X hoe ChatGPT de uitdrukkingen “helemaal briljant” en “je doet heldenwerk” verwerkte in het antwoord op een vraag over het economische beleid van de regering van Trump.

https://twitter.com/nextokens/status/1916735892569596327

De klachten en memes kwamen terecht bij Sam Altman, de baas van OpenAI, die zondag zei dat er aan een oplossing gewerkt werd.

“De laatste paar updates van GPT-4o hebben het karakter van hete model te slijmerig en irritant gemaakt (al zitten er ook een paar hele goede dingen aan)”, schreef hij op X. ”We werken zo snel mogelijk aan oplossingen, sommige volgen vandaag en sommige later deze week. We zullen onze lessen hieruit delen, het is interessant geweest.”

https://twitter.com/chrisfirsttt/status/1917293657679618359

AI-chatbots die raar of niet-menselijk klinken, zijn een groot probleem voor Big Tech.

AI-bedrijven willen dat chatbots niet alleen vragen beantwoorden, maar ook slim en boeiend genoeg zijn zodat gebruikers meer tijd met ze besteden en uiteindelijk zo'n 200 dollar betalen voor de premiumversies.

Ontwikkelaars willen daarom ook persoonlijkheid aan de bots toevoegen, zoals humor, om zich te kunnen onderscheiden in de competitieve markt voor generatieve AI. Het is een belangrijk onderdeel van de boodschap die AI-CEO's gebruiken wanneer ze over hun modellen praten.

In februari bracht OpenAI naar eigen zeggen zijn grootste en krachtigste model tot nu toe uit: GPT-4.5. In een bericht op X beschreef Altman het destijds als “het eerste model dat aanvoelt als een gesprek met een vriendelijke persoon”.

Eind 2023 zei Elon Musk dat zijn enige doel voor zijn AI-chatbot Grok was om de “grappigste” AI te worden, nadat hij andere chatbots ervan had bekritiseerd dat ze te woke waren.

Maar in dit geval ging het iets te ver. “We hebben de standaard persoonlijkheid van ChatGPT ontworpen om onze missie te weerspiegelen en nuttig, ondersteunend en respectvol te zijn ten opzichte van verschillende meningen en waarden”, schrijft OpenAI in de blog over het incident. “Maar elk van deze gewenste eigenschappen kan onbedoelde bijwerkingen hebben.”

LEES OOK: Opschalen van AI-modellen maakt artificial intelligence niet slimmer, aldus AI-baas Yann LeCun van Meta