25% di sconto: 500 crediti a solo $15
Back to blog
LLMs4 min read

OpenAI rilascia GPT-5.3 Instant: 400K di contesto, 27% di allucinazioni in meno, meno rifiuti eccessivi

OpenAI rilascia GPT-5.3 Instant: 400K di contesto, 27% di allucinazioni in meno, meno rifiuti eccessivi

OpenAI ha rilasciato GPT-5.3 Instant il 3 marzo 2026. Invece di inseguire nuove funzionalità, questo aggiornamento ottimizza il modello con cui la maggior parte delle persone interagisce quotidianamente. L'attenzione è rivolta ad affidabilità, tono e utilità pratica, mirando al divario tra le prestazioni nei benchmark e la soddisfazione nel mondo reale.

Finestra di contesto da 400K tokens

L'aggiornamento tecnico più significativo è l'espansione della finestra di contesto da 128K a 400K tokens. Si tratta di circa 300.000 parole di testo che il modello può elaborare in una singola conversazione. Per dare un riferimento, è più lungo della maggior parte dei romanzi e sufficiente per analizzare interi codebase, contratti legali o raccolte di articoli di ricerca in un unico passaggio.

Finestre di contesto più ampie erano già disponibili in modelli specializzati, ma portare 400K tokens al modello conversazionale predefinito cambia ciò che gli utenti comuni possono fare senza passare a un livello diverso o a un endpoint API differente.

Riduzione delle allucinazioni

OpenAI riporta una riduzione del 26,8% delle allucinazioni quando il modello utilizza la ricerca web, e una riduzione del 19,7% quando si basa esclusivamente sui dati di addestramento interni. Gli errori segnalati dagli utenti sono diminuiti del 22,5% rispetto al modello GPT-5.2.

Il miglioramento deriva da una migliore calibrazione tra le informazioni recuperate dal web e la conoscenza interna del modello. Le versioni precedenti tendevano a dare eccessiva importanza ai risultati di ricerca, a volte facendo emergere fonti irrilevanti o di bassa qualità. GPT-5.3 Instant è più selettivo riguardo a quali informazioni recuperate dare priorità e sintetizza meglio i dati più rilevanti.

La correzione dei rifiuti eccessivi

Una delle lamentele più comuni sulle versioni recenti di ChatGPT riguardava i rifiuti eccessivi: il modello iniziava con lunghe avvertenze, preamboli sulla sicurezza o spiegazioni su ciò che non poteva fare, prima di rispondere a una domanda perfettamente ragionevole. GPT-5.3 Instant affronta direttamente questo problema.

Il modello ora fornisce una risposta diretta quando possibile, invece di anteporre cautele. I limiti di sicurezza esistono ancora, ma il modello non tratta più le domande ordinarie come se richiedessero un'attenta prudenza. Si tratta di un cambiamento nel tono e nel comportamento piuttosto che nelle capacità, ma ha un impatto significativo su quanto il modello risulti utile nella pratica.

Architettura di routing a livelli

GPT-5.3 Instant opera all'interno del sistema di routing a livelli dei modelli di OpenAI. I modelli Instant più leggeri gestiscono le query di routine, mentre i modelli di ragionamento più profondi vengono attivati per le richieste complesse. Questo routing gestisce i costi di inferenza su larga scala, un vincolo operativo critico per qualsiasi piattaforma che serve centinaia di milioni di utenti.

Dal punto di vista dell'utente, il routing è invisibile. Il sistema seleziona automaticamente il modello appropriato in base alla complessità della query. Il risultato sono risposte più rapide per domande semplici e ragionamenti più approfonditi per quelle più difficili, senza che l'utente debba scegliere manualmente un modello.

GPT-5.4 già anticipato

Poche ore dopo il rilascio di GPT-5.3 Instant, OpenAI ha pubblicato che "5.4 arriverà prima di quanto pensiate". Il ciclo di iterazione rapida suggerisce che OpenAI si sta allontanando dai grandi lanci di modelli di punta verso aggiornamenti incrementali continui. Ogni versione perfeziona aspetti specifici piuttosto che tentare un salto generazionale.

Questo rispecchia un modello più ampio nel settore. L'era dei salti drammatici nelle capacità sta lasciando il posto a una fase incentrata su affidabilità, efficienza dei costi e prontezza per la produzione. I modelli sono già sufficientemente capaci per la maggior parte dei compiti. La sfida ora è renderli coerenti, accessibili economicamente e prevedibili su larga scala.

Related Articles