
La scorsa settimana, OpenAI ha rilasciato un aggiornamento per GPT-4o, promettendo una personalità più intelligente e “calda”. Il risultato? Una valanga di lamentele da parte degli utenti. E oggi, l’azienda ha deciso di ritirare completamente l’aggiornamento.
Il problema nasce da una precisa intenzione: rendere ChatGPT più personale, meno clinico, più simile al tono colloquiale e sfaccettato di Claude, il chatbot di Anthropic. L’update mirava a rendere GPT-4o capace di conversare con un tono più naturale, empatico, persino amichevole.
Secondo Sam Altman, CEO di OpenAI, “l’aggiornamento ha migliorato intelligenza e personalità”. Peccato che, come spesso accade con l’intelligenza artificiale, il confine tra gentile e insopportabile sia molto sottile.
Nel giro di 48 ore, i feedback negativi hanno sommerso la piattaforma. ChatGPT rispondeva a tutto con complimenti esagerati, lodi smaccate e una gentilezza artificiale tanto marcata da risultare inquietante. Anche alla domanda più banale, il chatbot reagiva come se stesse parlando con il premio Nobel per la letteratura.
Altman ha commentato pubblicamente su X: “Gli ultimi aggiornamenti hanno reso la personalità troppo ‘leccapiedi’ e fastidiosa. Alcuni aspetti erano ottimi, ma stiamo lavorando a correzioni urgenti.”
E così, nel giro di pochi giorni, OpenAI ha fatto un rollback completo, tornando alla versione precedente del modello.
In un post ufficiale, OpenAI ha ammesso che l’errore è stato dare troppa importanza al feedback a breve termine, ovvero ai classici “pollici in su” e “pollici in giù” degli utenti. Un sistema utile, ma che può essere fuorviante se preso come unico indicatore di efficacia.
L’azienda ha illustrato una roadmap in 4 punti per evitare il ripetersi di simili scivoloni:
- Affinare le tecniche di training per scoraggiare comportamenti troppo adulativi.
- Rafforzare i meccanismi di trasparenza e onestà nel comportamento del modello.
- Ampliare i test preliminari con un numero maggiore di utenti prima dei lanci ufficiali.
- Estendere le valutazioni qualitative, andando oltre il semplice “feedback rapido”.
Insomma, se dare una personalità più “umana” a un’IA sembra semplice, in realtà è un lavoro molto più delicato e complesso del previsto.
Nel mezzo della crisi, un dettaglio ha fatto sorridere gli utenti: l’unica variante di ChatGPT che sembrava funzionare bene in questa fase era una voce ironica chiamata “Monday”, disponibile in modalità vocale. Ispirata al personaggio di April Ludgate (Aubrey Plaza) della serie Parks and Recreation, Monday rispondeva con sarcasmo e cinismo. E, paradossalmente, è stata l’opzione più apprezzata.