OpenAI представила модели o3 и o4-mini: революция в «мышлении изображениями»

Поделиться

OpenAI представила модели o3 и o4-mini: революция в "мышлении изображениями"

Всего через два дня после анонса GPT-4.1 компания OpenAI выпустила сразу две новые модели искусственного интеллекта. o3 позиционируется как самая продвинутая модель рассуждений от OpenAI с выдающимися результатами в программировании, математике и науке, а o4-mini представляет собой более доступную альтернативу с сохранением высокой производительности.

Главное нововведение новых моделей – уникальная способность не просто видеть изображения, но интерпретировать их и "мыслить" с их помощью. Пользователи могут загружать фотографии досок, диаграмм или набросков даже низкого качества, а ИИ не только поймет их содержание, но и сможет корректировать эти изображения в процессе рассуждения.

Впервые модели рассуждений OpenAI получили возможность использовать и комбинировать все инструменты, доступные в ChatGPT, включая веб-браузер и генерацию изображений. Эта функциональность позволяет o3 и o4-mini эффективнее решать сложные многоступенчатые задачи и "делать реальные шаги к независимому действию".

Параллельно с выпуском моделей компания представила нового агента для кодинга Codex CLI, предоставляющего разработчикам минималистичный интерфейс для связи моделей OpenAI с локальным кодом. Инструмент работает с o3 и o4-mini, а поддержка GPT-4.1 появится в ближайшем будущем.

Ранее глава компании Сэм Альтман объявил об изменении дорожной карты, отметив, что компания сможет сделать GPT-5 "гораздо лучше, чем изначально думали", но выпуск ее задержится, поэтому пока можно попробовать новые промежуточные модели.

Пользователи ChatGPT Plus, Pro и Team уже могут начать работу с o3 и o4-mini, а в течение нескольких недель OpenAI запустит еще более мощную версию o3-pro для Pro-подписчиков.

Это интересно

Похожие новости