OpenAI выпускает GPT-5.3 Instant: 400K контекст, на 27% меньше галлюцинаций, снижение чрезмерных отказов

OpenAI выпустила GPT-5.3 Instant 3 марта 2026 года. Вместо погони за новыми возможностями это обновление оптимизирует модель, с которой большинство людей взаимодействует ежедневно. Акцент сделан на надёжности, тоне и практической полезности, закрывая разрыв между показателями бенчмарков и реальной удовлетворённостью пользователей.
Контекстное окно на 400K tokens
Самое значительное техническое обновление — расширение контекстного окна со 128K до 400K tokens. Это примерно 300 000 слов текста, которые модель может обработать в рамках одного разговора. Для сравнения, это длиннее большинства романов и достаточно для анализа целых кодовых баз, юридических контрактов или коллекций научных статей за один проход.
Большие контекстные окна были доступны и ранее в специализированных моделях, но появление 400K tokens в стандартной разговорной модели меняет возможности обычных пользователей без необходимости переключаться на другой уровень или API endpoint.
Снижение числа галлюцинаций
OpenAI сообщает о снижении числа галлюцинаций на 26,8% при использовании веб-поиска и на 19,7% при работе исключительно на основе внутренних обучающих данных. Число ошибок, отмеченных пользователями, снизилось на 22,5% по сравнению с моделью GPT-5.2.
Улучшение достигнуто за счёт лучшей калибровки между информацией из веб-поиска и внутренними знаниями модели. Предыдущие версии склонялись к чрезмерному использованию результатов поиска, иногда выдавая нерелевантные или низкокачественные источники. GPT-5.3 Instant более избирательно подходит к приоритизации полученной информации и лучше синтезирует наиболее релевантные данные.
Исправление чрезмерных отказов
Одной из самых частых жалоб на последние версии ChatGPT были чрезмерные отказы: модель начинала ответ с длинных оговорок, предупреждений о безопасности или объяснений того, чего она не может сделать, прежде чем наконец ответить на совершенно обычный вопрос. GPT-5.3 Instant решает эту проблему напрямую.
Теперь модель даёт прямой ответ, когда это возможно, вместо того чтобы предварительно нагружать текст оговорками. Границы безопасности сохраняются, но модель больше не обращается с рядовыми вопросами так, будто они требуют тщательных оговорок. Это изменение тона и поведения, а не возможностей, но оно значительно влияет на то, насколько полезной модель ощущается на практике.
Архитектура многоуровневой маршрутизации
GPT-5.3 Instant работает в рамках многоуровневой системы маршрутизации моделей OpenAI. Лёгкие Instant-модели обрабатывают рутинные запросы, а более глубокие модели рассуждения активируются для сложных задач. Такая маршрутизация позволяет управлять затратами на инференс в масштабе, что является критическим операционным ограничением для любой платформы, обслуживающей сотни миллионов пользователей.
С точки зрения пользователя маршрутизация незаметна. Система автоматически выбирает подходящую модель в зависимости от сложности запроса. В результате простые вопросы получают быстрые ответы, а для сложных задач применяется более тщательное рассуждение, и пользователю не нужно выбирать модель вручную.
GPT-5.4 уже анонсирована
Спустя несколько часов после выпуска GPT-5.3 Instant компания OpenAI опубликовала сообщение о том, что «5.4 появится раньше, чем вы думаете». Высокая скорость итераций говорит о том, что OpenAI отходит от крупных флагманских запусков в сторону непрерывных инкрементальных обновлений. Каждая версия оттачивает конкретные аспекты, а не претендует на скачок поколений.
Это отражает более широкую тенденцию в отрасли. Эпоха резких скачков возможностей уступает место эпохе, сосредоточенной на надёжности, экономичности и готовности к производственным нагрузкам. Модели уже достаточно способны для большинства задач. Теперь задача состоит в том, чтобы сделать их стабильными, доступными и предсказуемыми в масштабе.


