Разработка GPT-5 от OpenAI под кодовым названием Orion, как сообщается, отстает от графика и не оправдывает ожиданий. По данным The Wall Street Journal, 18-месячный проект еще не обеспечил достаточно значительных достижений, чтобы оправдать высокие затраты.
OpenAI провела два крупных тренировочных цикла для GPT-5. Первый был медленнее, чем ожидалось, а расширение масштаба оказалось трудоемким и дорогостоящим. Хотя GPT-5 и превосходит своих предшественников в некоторых областях, его улучшения не достигают того скачка вперед, который наблюдался в предыдущих версиях.
Чтобы улучшить свои обучающие данные, OpenAI использует новые подходы. Среди них — наем людей для написания кода и решения математических задач, а также использование синтетических данных, сгенерированных другой моделью, o1.
OpenAI отказалась от комментариев, но ранее заявила, что не будет выпускать GPT-5 в этом году.