Signori e signore, il sipario si è sollevato e il protagonista delle chiacchere davanti alla macchinetta del caffè di tutti gli sviluppatori è arrivato: ChatGPT-5!
In una live di circa un’ora aperta da Sam Altman in uno studio che ricordava vagamente un allestimento Ikea, si è scritto un nuovo pezzo di storia, un nuovo passo verso un futuro inevitabile, tanto affascinante quanto pericoloso.
In questo articolo non voglio entrare nel dettaglio di ogni aspetto ma mi piacerebbe darci un’idea generale di quanto è emerso dalla live.
Migliorie rispetto ai precedenti modelli
La prima fase della diretta si è concentrata sui miglioramenti rispetto ai precedenti modelli OpenAI e sono stati mostrati alcuni grafici di confronto. In generale si è parlato di una maggiore velocità nel rispondere, ma l’aspetto che più interessante riguarda le allucinazioni, in quanto dai grafici si vede un miglioramento davvero significativo rispetto agli altri modelli di confronto (o3 / gpt-4o)

Ne sapremo sicuramente di più nei prossimi giorni quando ChatGPT5 verrà lanciato nell’arena dei benchmark.
Sviluppo
Lo sviluppo merita probabilmente un articolo dedicato, ma cercherò di essere conciso 😀
Sono stati mostrati diversi esempi di live-coding/vibe-coding, tutti ben riusciti e per nulla scontati. Da sviluppatore non creerei nulla di definitivo in vibe coding, per il semplice motivo che un prodotto creato dalle “vibe” del mio modello in un determinato momento può creare un accumulo di debito tecnico paragonabile al PIL dell’America. Al netto di questo però, penso che sia un ottimo strumento per creare mockup veloci e prendere spunto per eventuali implementazioni reali.
Nelle demo è stato mostrato che lo stesso prompt su tab differenti del browser produceva webapp differenti (tra l’altro non banali), da tenere a mente se siamo a corto di ispirazione e vogliamo avere qualche modello di partenza tra cui scegliere.




Voce
Le risposte vocali dell’agente sono migliorate, nella demo è stato simulata una conversazione con lo scopo di imparare a parlare il koreano. La naturalezza nella rispondere ha raggiunto un ottimo livello (mi ha ricordato molto il progetto sesame) e lo switch tra lingue differenti è avvenuto molto velocemente.
Nella demo è anche stato chiesto di diminuire o aumentare la velocità con il quale l’assistente parlava.

Ad oggi io utilizzo Claude come modello, ma uno dei suoi grandi difetti è che non può rispondere a voce, un aspetto decisamente interessante, presente ormai sia su Gemini che qui.
Personalizzazioni
Sono stati fatti dei passi avanti nel rendere più “personale” GPT5. La cosa più importante di tutte è ovviamente la possibilità di cambiare il colore alla chat con il nostro assistente 😅

Come tutti gli sviluppatori sapranno, questa sarà probabilmente la modifica più impattante ed impressionante sulla vita dell’utente medio 🙃
Tralasciando i colori, è stato aggiunta l’integrazione con Gmail e Google Calendar, in modo tale che GTP5 possa leggere i nostri impegni e pianificarci la giornata (solo per account pro).

Infine è stato accennato anche al fatto che sarà possibile cambiare la personalità, in modo tale da rendere le risposte più vicine al nostro modo di comunicare.
Compagno di studio
Come anticipato nel capitolo della voce, sono state migliorate le abilità di questo modello nel supportarci durante lo studio: che si tratti di una lingua straniera o di capire l’architettura di NgRx, GPT5 sarà sempre disponibile a rispondere alle vostre domande in modo paziente.
In uno dei primi talk dell’evento è stato chiesto di spiegare l’effetto Bernoulli (grazie al quale gli aerei possono volare) e non contenti han chiesto di creare una rappresentazione SVG per comprendere meglio il concetto: ChatGPT ha creato un’applicazione in 2 minuti nel quale era possibile visualizzare una sezione di un’ala e vedere che effetto aveva cambiando l’inclinazione. Decisamente incredibile se pensiamo a quanto è semplice ora comprendere un concetto complesso. Avrei tanto voluto ChatGPT durante le lezioni di fisica alle superiori 😥

Focus sulla salute
Un’altro aspetto molto enfatizzato riguarda il ruolo del IA in ambito medicale. Nella vita spendo parte del mio tempo a bordo delle ambulanze come soccorritore volontario e questo aspetto suscita in me un’infinita serie di applicazioni.
Durante la live ha parlato una donna che ha dovuto affrontare un cancro e ha parlato di come ChatGPT5 l’abbia aiutata a capire il contesto, le diagnosi, i verbali ed i referti per poi prendere delle decisioni appropriate in funzione delle risposte fornite. Da un lato questo aspetto mi affascina, intravvedo un futuro dove ognuno di noi avrà un “primo livello” medico sempre con sè, oppure l’efficienza dei soccorritori sarà “amplificata” dal supporto di un’AI medico sempre a disposizione. Dall’altra vedo i possibili “pericoli”: ci fideremo di più del nostro assistente o di cosa ci dirà il medico?
Ad oggi – soprattutto gli adolescenti – utilizzano i modelli di IA come uno psicologo e come supporto per prendere decisioni importanti e tra qualche anno, quando saranno più grandi, avranno imparato ad affidarsi sempre di più a questi strumenti per prendere delle decisioni
Sicurezza e addestramento
I processi “neuronali” nella black-box di GPT5 sono stati migliorati e viene valutato di volta in volta se la risposta può essere pericolosa oppure no. Nel caso in cui facessimo una domanda che ci potrebbe mettere in pericolo (o che potrebbe danneggiare altri) il modello NON ci risponderà e ci motiverà il perchè.
Nell’evento è stato mostrato come, a fronte di una domanda pericolosa, il modello o3 rispondeva mentre il nuovo modello non rispondeva e motivava il perchè.


Modelli
Questa parte della presentazione mi ha ricordato molto i Google I/O di pochi mesi fa, dove anche casa G aveva presentato diversi modelli quasi tascabili.
I modelli svelati sono i seguenti:
- GPT-5-mini – più leggero, ottimizzato per l’uso quotidiano e meno dispendioso;
- GPT-5-nano – progettato per applicazioni locali o mobile, con latenza minima;
- GPT-5-chat – pensato per le conversazioni naturali, il customer service, le interfacce vocali

Non dimentichiamoci che qualche giorno fa sono stati presentati dei modelli open sorce – GPT-OSS – Se ti sei perso la notizia puoi leggere questo mio articolo in cui ne parlo.
I prezzi
Il nuovo modello è già disponibile da oggi, 7 agosto, sia gratuitamente che sugli account a pagamento (con limiti di utilizzo differenti). Per quanto riguarda i prezzi vi rimando alla pagina ufficiale,


Conclusioni
Viviamo in un’epoca di cambiamenti epocali e radicali, e ogni evento di questo tipo è un piccolo pezzo di storia che viene scritta. Tutti noi siamo nati in un’epoca dove il computer è considerato un qualcosa di “normale”, cosa che invece era pura fantascienza per le persone di 100 anni fa.
Che ci piaccia o no, le nuove generazioni cresceranno a fianco dell’IA e sempre più questo aspetto entrerà nelle nostre vite. Agli esordi i computer erano solo per pochi, oggi tutti ne hanno uno. Un domani probabilmente ognuno di noi avrà a disposizione una propria IA dedicata e personale, sempre disponibile, sempre informata: se un domani tutto questo sarà “normalità” lo dobbiamo a tanti piccoli “passi”, uno di questi è sicuramente l’evento al quale abbiamo assistito oggi.
Ogni progresso in questo campo è un passo verso una normalità del nostro domani e molti di noi saranno gli sviluppatori che lo hanno reso possibile.