Google DeepMind выкатили SIMA 2. Это апгрейд игрового агента на ИИ. И это уже не просто исполнитель базовых команд. Это система, которая рассуждает о высокоуровневых целях, общается с игроком и играет в игры, которые никогда не видела. Плюс ориентируется в окружениях, созданных Genie 3.
Секрет в интеграции Gemini с более лёгкой агентной моделью, которая занимается управлением. Система 1 и Система 2 в действии. Одна думает, другая делает.
SIMA 2 умеет самообучаться. Агент сам набивает опыт, оценивает его через Gemini и улучшается без помощи человека. Исследователи обнаружили, что в процессе обучения агенты могут выполнять всё более сложные задачи. Опираясь на опыт проб и ошибок, а также на обратную связь, генерируемую Gemini. Модель таким образом дообучается на уже завершённых эпизодах, закрепляя навыки.
Это прокачало перенос знаний. Агент применяет даже концепцию «добычи ресурсов» из 1 игры к концепции «сбора урожая» в другой. В результате SIMA 2 демонстрирует уровень выполнения задач значительно ближе к человеческому, чем SIMA 1. По бенчмаркам уже довольно близко подобралась к производительности человека.
Конечно, косяки есть. С длинными многоходовками пока туго. Длины контекста не хватает. Плюс проблемы с точным управлением мышкой.
Но получается, что искусственный интеллект научился не просто играть по правилам. Он научился учиться сам, переносить знания между задачами и приближаться к человеческому уровню. Это серьёзный шаг к универсальным агентам, которых можно засунуть куда угодно.
