
Корпорация Google представила ряд новых решений в сфере агентского ИИ. Среди них: режим глубоких исследований в NotebookLM, «мозг для роботов» SIMA 2 и инструменты для шопинга.
Deep Research в NotebookLM
Google обновила ИИ-ассистента для заметок NotebookLM. Добавлен инструмент для упрощения сложных исследований и поддержка дополнительных типов файлов.
Сервис запустил Deep Research — решение для автоматизации онлайн-поиска. Компания утверждает, что он работает как отдельный исследователь: способен подготовить развернутый отчет или порекомендовать релевантные статьи, научные работы и сайты.
Deep Research получает вопрос, составляет исследовательский план и просматривает веб-ресурсы. Через несколько минут он предоставляет основанный на источниках отчет, который можно сразу добавить в блокнот.
Режим работает в фоне — параллельно есть возможность выполнять другие задачи.

Инструмент доступен через поиск. Можно выбрать стиль исследования: детальный Deep Research или быстрый Fast Research.
Дополнительно в NotebookLM добавлена поддержка Google Sheets, файлов из Drive в виде URL, PDF из Google Drive и документов Microsoft Word.
Обновления появятся в течение недели.
NotebookLM — ИИ-ассистент для заметок, исследований и работы с документами от Google. Он позволяет загружать материалы — PDF, статьи, таблицы, картинки, ссылки, юридические документы, лекции — и формировать структурированную базу знаний.
Сервис запустили в 2023 году. С тех пор его возможности постепенно расширяются за счет искусственного интеллекта. В начале 2025 года появилась функция Video Overviews, которая превращает сложный мультимедийный материал в понятные визуальные презентации.
В мае NotebookLM стал доступен на Android и iOS.
Будущее роботов
Google продолжает развивать направление «мозга» для робототехники.
Подразделение DeepMind представило SIMA 2 — новое поколение универсального ИИ-агента. Он «выходит за рамки простого выполнения инструкций», начинает понимать окружающую среду и взаимодействовать с ней.
Первая версия SIMA обучалась на сотнях часов геймплейных видеозаписей, чтобы научиться играть в различные 3D-игры как человек. Ее представили в марте 2024 года. Модель могла выполнять базовые команды в разных виртуальных мирах, но со сложными задачами лишь в 31% случаев.
SIMA 2 опирается на языковые и аналитические возможности Gemini и работает на базе версии 2.5 flash-lite. Точность выросла до 65%.
«SIMA 2 — качественный скачок по сравнению с SIMA 1. Это более универсальный агент. Он умеет выполнять сложные задачи в новой среде, в которой раньше не был», — сказал на пресс-брифинге старший научный сотрудник DeepMind Джо Марино.
Ассистент способен самообучаться — улучшать свои навыки на основе личного опыта. Это шаг в сторону более универсальных роботов и систем, отметил Марино.

Шаг к AGI
Исследователи ИИ-подразделения Google подчеркнули, что работа над так называемыми «воплощенными агентами» критически важна для развития общего интеллекта. Подобный помощник должен уметь взаимодействовать с физическим и виртуальными миром через тело — как человек или робот.
Невоплощенный ассистент может управлять календарем, делать заметки или выполнять код, объяснил Марино.

Старший научный сотрудник DeepMind с нейробиологическим бэкграундом Джейн Ван подчеркнула, что SIMA 2 выходит далеко за рамки обычного игрового поведения.
«Мы требуем от него действительно понимать, что происходит, что от него хотят, и реагировать здраво и по смыслу. Это на самом деле довольно сложно», — сказала она.
Интеграция Gemini позволила SIMA 2 удвоить показатели предыдущей версии. Модель сочетает развитые языковые и аналитические возможности ИИ с навыками «воплощенного» взаимодействия, полученными в процессе обучения.
Научили играть в видеоигры
Марино продемонстрировал SIMA 2 в игре No Man’s Sky. Агент описывал окружение — каменистую поверхность планеты — и определял свои следующие действия. Для внутренних рассуждений он использовал Gemini.
В другой игре помощника попросили подойти к дому цвета спелого томата. ИИ показал процесс анализа: «он красный, значит идти нужно к дому соответствующего цвета». Затем ассистент начал двигаться в нужном направлении.
Благодаря применению Gemini ИИ-агент понимает инструкции даже в виде эмодзи. Команда «🪓🌲» заставит его рубить дерево.
SIMA 2 ориентируется в сгенерированных с помощью Genie фотореалистичных мирах. Он корректно распознает объекты вроде скамеек, деревьев, бабочек и способен взаимодействовать с ними.
Процесс самообучения
Благодаря Gemini новая версия SIMA способна самообучаться почти без участия человека, используя предоставленные данные лишь как базовый ориентир.
Команда помещает агента в новую среду, а отдельная модель генерирует для него задания.
Generalization ☂️
SIMA 2 is now far better at carrying out detailed instructions, even in worlds it's never seen before.
It can transfer learned concepts like “mining” in one game and apply it to “harvesting” in another – connecting the dots between similar tasks.
It even… pic.twitter.com/ANldQVWFd4— Google DeepMind (@GoogleDeepMind) November 13, 2025
SIMA 2 анализирует свои недочеты и постепенно улучшает навыки. По сути, это обучение методом проб и ошибок, но без участия человека: роль наставника выполняет другая система искусственного интеллекта.
В DeepMind считают, что новое решение — шаг к созданию по-настоящему универсальных роботов.
«Системе для выполнения задач в реальном мире нужно два ключевых элемента: высокоуровневое понимание мира и способность к рассуждению», — отметил старший инженер-исследователь подразделения Фредерик Бесс.
Если человек попросит гуманоидного робота проверить, сколько банок фасоли осталось в шкафу, ему нужно понимать, что такое фасоль, шкаф, и уметь добраться до нужного места.
SIMA 2 как раз затрагивает этот «высокий уровень поведения», отметил Бесс.
Сроки интеграции нового решения в физических роботов пока неизвестны.
Шопинг
Еще одна интересующая поискового гиганта сфера — ИИ-покупки. Компания выпустила набор новых инструментов для онлайн-шопинга. Среди них:
- приобретения голосом в Google Search;
- покупки в приложении Gemini;
- агентский чек-аут;
- ИИ-инструмент, который способен сам позвонить в магазины и уточнить наличие нужных товаров.
«Мы считаем, что процесс покупок не должен быть таким утомительным. Идея в том, чтобы сохранить все приятные части процесса — просмотр товаров, случайные находки — и убрать скучные и трудные этапы», — отметила вице-президент и руководитель направления рекламы и коммерции в Google Видхья Срнивасан.
Один из апдейтов — разговорные покупки в режиме AI Mode. Пользователь может общаться с поисковиком как с чат-ботом, а тот покажет картинки товаров, добавит детали вроде цены, отзывов и наличия.

Приложение Gemini научили формировать развернутые идеи и подборки, а не ограничиваться короткими текстовыми советами по шопинг-запросам. Пока функция доступна только в США.
Агентский чек-аут — автоматическая проверка изменений касательно интересующего товара. Сервис способен присылать уведомления о снижении цены.
«Это полезно для покупателей — им не нужно постоянно проверять цену на нужный товар. И это полезно для продавцов — покупатели вернутся, хотя противном случае ушли бы», — сказала вице-президент по продуктам Google Shopping Лилиан Ринкон.
Еще одна новая функция позволяет ИИ звонить в магазины от имени пользователя и спрашивать о наличии товара, а также действующих акциях. Она основана на базе представленной в 2018 году технологии Google Duplex, Shopping Graph и платежной инфраструктуре Google.
Для применения инструмента нужно указать желаемый товар. ИИ обзвонит локальные магазины, спросит детали и предоставит краткий отчет.
Напомним, в ноябре Google добавила сводки сообщений, приоритизацию уведомлений и другие функции на базе искусственного интеллекта в смартфоны Pixel.