GPT 4.5
Самая большая языковая модель OpenAI на февраль 2025 года. Улучшенная база знаний, эмоциональный интеллект и поддержка файлов.
Описание
GPT 4.5 — новейшая модель в семействе больших языковых моделей LLM, разработанная OpenAI. Представлена 27 февраля 2025 года и позиционируется как самая большая и наиболее информативная модель для чата в линейке компании на момент выпуска.
Что умеет нейросеть ChatGPT 4.5
Модель, известная внутри компании под кодовым названием Orion, является продолжением традиционного подхода OpenAI к масштабированию моделей через предобучение pre-training и дообучение post-training.
Чат-бот GPT 4.5 использует масштабирование вычислительных ресурсов и данных для улучшения производительности. OpenAI не раскрывает точное количество параметров, использованных для обучения, но утверждает, что рост масштаба от GPT-4o к GPT-4.5 сопоставим с переходом от GPT-3.5 к GPT-4o. Это делает GPT-4.5 самой большой моделью компании на данный момент, которая теперь ничем не должна уступать DeepSeek и Grok 3.
Что изменилось
Обновленная база знаний
- Модель имеет доступ к актуальной информации из интернета по состоянию на февраль 2025 года с функцией поиска в реальном времени.
Повышенная креативность
- GPT-4.5 демонстрирует улучшенные способности в написании текстов, создании историй и мозговых штурмах, обеспечивая более естественные и содержательные ответы.
Возможность загрузки файлов
- Принимает изображения и другие файлы для анализа и обработки.
Инструмент Canvas
- Используется для совместной работы над текстом и кодом.
Улучшенное понимание намерений
- Более точно понимает, анализирует и обрабатывает текстовые запросы.
Эмоциональный интеллект
- Генерирует ответы с более теплым и естественным тоном.
Меньше галлюцинаций
- По сравнению с GPT-4o вероятность выдумывания фактов снижена, хотя точные цифры не указаны.
Расширенные возможности распознавания паттернов
- Модель способна устанавливать более глубокие связи между различными темами, поэтому более эффективна для исследований и решения практических задач.
Однако модель ГПТ 4.5 все еще не поддерживает голосовой режим Voice Mode, видео или совместное использование экрана, которые присутствуют в других версиях ChatGPT.
Как использовать GPT 4.5
Нейросеть GPT 4.5 доступна в режиме исследовательского превью для пользователей ChatGPT Pro с 27 февраля. Через неделю после релиза доступ распространится на пользователей ChatGPT Plus и Team, а затем на Enterprise и Edu. Разработчики с платными уровнями API также могут использовать новый чат-бот с этого дня.
Сравнение с другими моделями
Нейросеть ЧатГПТ 4.5 демонстрирует улучшения в задачах, связанных с распознаванием закономерностей, установлением связей и генерацией творческих идей без применения явного рассуждения.
На внутреннем тесте OpenAI SimpleQA с простыми фактическими вопросами чат-бот превзошел GPT-4o, o1 и o3-mini по точности. Однако на некоторых бенчмарках, включая тесты на глубокое рассуждение, нейросеть уступает новым моделям конкурентов, таким как DeepSeek, и собственным разумным моделям OpenAI, таким как o3.
Несмотря на свои размеры и улучшения, нейросеть имеет ряд ограничений:
- Отсутствие цепочечного мышления снижает эффективность в сложных логических задачах по сравнению с o1 и o3.
- Высокие затраты на обучение и инференс, из-за чего OpenAI рассматривает возможность ограничения долгосрочного использования в API.
- Отсутствие поддержки голосового режима и других мультимодальных функций, которые доступны у GPT-4o.
OpenAI подчеркивает, что GPT-4.5 — последняя модель в классической линейке GPT, не использующая подходы рассуждения. Будущие релизы, включая GPT-5, ожидаемый летом 2025 года, будут интегрировать технологии o-серии и станут универсальными системами.
Модель не позиционируется как замена GPT-4o, который остается основным рабочим инструментом для API и большинства задач ChatGPT.
Особенности
- самая актуальная языковая модель OpenAI;
- улучшенное распознавание эмоций;
- меньше ошибок и неточностей;
- расширенные аналитические способности;
- повышенная креативность текста
- пока доступна пользователям ChatGPT Pro в месяц.
