OpenAI lancia i modelli o3 e o4-mini: intelligenza visiva avanzata e ragionamento multimodale su ChatGPT

OpenAI rilascia i nuovi modelli o3 e o4-mini su ChatGPT Plus.

openai

Dopo l’annuncio di GPT-4.1, OpenAI sorprende ancora una volta lanciando due nuovi modelli che promettono di alzare ulteriormente l’asticella dell’intelligenza artificiale generativa. Si tratta di o3 e o4-mini, già disponibili per gli utenti ChatGPT Plus, Pro e Team, che combinano capacità di ragionamento all’avanguardia con una gestione senza precedenti delle immagini.

E mentre tutti guardano con impazienza all’arrivo di GPT-5, questi due modelli rappresentano un’evoluzione significativa del presente, ma anche un solido ponte verso il futuro.

Il modello o3 è stato descritto da OpenAI come il modello più avanzato per il ragionamento mai sviluppato finora. Secondo quanto dichiarato, mostra performance eccellenti in programmazione, matematica e scienze, con capacità che superano quanto visto in precedenza nei modelli GPT.

La vera rivoluzione, però, risiede nell’integrazione nativa e simultanea di tutti gli strumenti a disposizione in ChatGPT: navigazione web, generazione immagini, lettura di contenuti visivi, tutto all’interno dello stesso flusso conversazionale. Questo rende i modelli in grado di affrontare problemi complessi in più passaggi e prendere decisioni autonome in modo più efficace che mai.

Pensato come un’alternativa più economica ma comunque potente, o4-mini offre prestazioni notevoli negli stessi ambiti del fratello maggiore. OpenAI lo propone come una soluzione accessibile, mantenendo però un livello qualitativo alto, sia per attività accademiche che per task più creativi o produttivi.

Entrambi i modelli introducono funzionalità uniche di “intelligenza visiva”. Ora è possibile caricare su ChatGPT immagini di lavagne, schemi, disegni – anche di bassa qualità –, e i modelli sono in grado non solo di interpretarli, ma anche di ragionare su di essi e modificarli, portando il concetto di “IA multimodale” a un nuovo livello.

Assieme ai nuovi modelli, OpenAI ha annunciato anche Codex CLI, una sorta di terminale per sviluppatori che consente di connettere i modelli AI direttamente con il proprio codice locale. Una funzione pensata per migliorare l’interazione tra ambiente di sviluppo e intelligenza artificiale, e già compatibile con o3 e o4-mini (il supporto a GPT-4.1 arriverà a breve).

Secondo quanto dichiarato dal CEO Sam Altman, il rilascio di o3 e o4-mini rappresenta un cambio di rotta rispetto alla roadmap annunciata a febbraio. Inizialmente, OpenAI aveva escluso il rilascio standalone di o3, ma il piano è stato rivisto, proprio in funzione di una promessa ancora più ambiziosa: rendere GPT-5 molto più potente di quanto inizialmente previsto.

Altman ha parlato apertamente delle difficoltà nel combinare tutte le funzionalità all’interno di un singolo modello e ha spiegato che l’attuale rilascio consente di preparare il terreno per gestire la domanda senza precedenti che si aspetta da GPT-5.

Offerte Amazon di oggi
Tecnologia