

Когда речь заходит об ИИ-агентах в игре, я обычно вижу перед собой автономного "игрока" в виртуальном мире. Но приглядитесь — перед вами не просто набор заранее написанных команд! Перед вами тот, кто сам наблюдает за происходящим в игровом мире — кто где, что происходит, что требует внимания — и сам решает, что делать: напасть, пойти, пообщаться с игроком. Главное их отличие от классических скриптов состоит в том, что ИИ-агент способен подстраиваться под изменяющуюся ситуацию.
Например если игрок решит сменить тактику, агент тоже поменяет свое поведение. Это и есть круто — он не тупо повторяет одну за одной заученные фразы, а сам анализирует происходящее и выбирает лучшее действие из многих вариантов. Ожидал ли кто-нибудь от NPC-охранника такого: он учитывает шумы, местоположение игрока и других NPC — и сам решает, стоит ли поднимать тревогу или пока незаметно следить дальше?
Структурно ИИ-агент состоит из трёх частей: сначала он "видит" мир через сенсоры (перцепция), затем принимает решение (модуль решения), и наконец совершает действие в игре (актуатор). В классной среде игрового движка Unity это в большинстве случаев скрипты на языке C#, взаимодействующие с функциональностью ML-Agents Toolkit, а в мобильной версии Unreal это симбиоз конструктора проекта Blueprint с вызовами через Python API для получения предсказаний.
ИИ-агенты решают в играх несколько разных задач сразу. Во-первых, они управляют не простыми противниками, а вполне живыми NPC, которые учатся уклоняться, прятаться и даже помогать друг другу. Такой подход вынуждает игроков думать и менять тактику, а не просто запоминать маршруты. Во-вторых, искусственный интеллект помогает динамично подстраивать уровень сложности по тому, что показывают метрики. Например, если игрок затянулся на уровне, то агент может уменьшить нагрузку, а если все слишком просто — соответственно, чуть увеличить вызов. Такой подход используется в ряде известных игр — от Left 4 Dead до новых roguelike.
В-третьих, полностью по стилю игры и самочувствию игрока, будет сгенерирован и игровой контент: новые квесты, новые диалоги, новые уровни. В рамках обучающих игр они подстраивают задания под уровень игрока, делая их легче или сложнее в зависимости от ошибок и успехов.
Классические НПС часто предсказуемы — охранник идет по маршруту, едва увидел игрока — бежит за ним. Это быстро надоедает. Правила игры меняет ИИ-агент, базирующийся на поведенческих деревьях или обучении с подкреплением.
Ну, например, ИИ в Far Cry 5 от Ubisoft, который понимает стиль игрока. Если у вас стиль невидимки, на открытых пространствах патрули реже, а кущи засад идут на углу. И когда идёте в лоб — враги усиливают и свою оборону и технику. Причём не заранее заготовленное поведение, но адаптация в реальном времени.
Или взять систему Nemesis из Middle-earth: Shadow of Mordor. Там каждый вражеский капитан "запоминает" ваши действия — убежали, получили рану? Уже в следующий раз он проявит более хитрую натуру, поставит ловушки, подстроится под вас. И если вы убили капитана, он вернется с новыми шрамами и новыми познаниями. Это действительно вдохновляет игру.
В играх с ненаправленным повествованием и бесконечными диалогами — например, Detroit: Become Human или The Witcher 3 — вручную поддерживать все варианты сложно. Здесь важны именно ИИ-агенты, которые генерируют диалоги и квесты с учётом текущих действий игрока и предыстории мира.
Ярчайший пример — AI Dungeon. Там вы вводите любое ваше действие, а ИИ создает уникальные описания его последствий, строит вселенную и сюжет "на лету". Никакого жесткого сценария, только ваша фантазия и реакция ИИ.
Для коммерческих продуктов распространена no-code платформа Inworld AI, где можно задать личность НПС, и агент в реальном времени генерирует реплики, реагируя на игрока. Допустим, в The Ascent NPC помнят и комментируют недавние перестрелки.
В образовательных играх ИИ-агент — это в некотором смысле личный учитель. Если ученик допускает ошибку, то он упрощает задачу или дает подсказку; если же все удается, то он усложняет задачу. В основе лежит сбор данных: время ответа, ошибки, количество попыток. На основе этого агент подбирает уникальный маршрут обучения, подстраиваясь под потребности каждого конкретного человека.
Для примера в Duolingo используют spaced repetition и машинное обучение, чтобы лучше запоминать слова. А в DragonBox Elements разработчики заметили, что у пользователей возникают трудности с определённой категорией задач, и добавили упражнения именно на эти затруднения.

Говоря коротко, конечный автомат (FSM) — это когда агент переключает фиксированные состояния: патруль, атака, бегство, в зависимости от условий. Однако чем больше число сценариев таких переходов, тем больше их становится, и тем запутаннее становится управляемая структура.
По-другому эту задачу решают деревья поведения (Behavior Trees) — у них модульная иерархия условий и действий, которая постоянно работает и выбирает наиболее подходящее действие. Например, охранник может выглядеть так:
Root
├─ Sequence "Patrol"
│ ├─ Condition "Don't see player"
│ └─ Action "Go along the route"
├─ Sequence "Chase"
│ ├─ Condition "See player"
│ ├─ Condition "Health > 50%"
│ └─ Action "Бежать к игроку"
└─ Последовательность "Бегство"
├─ Условие "Здоровье < 20%"
└─ Действие "Бежать к укрытию"
Для Unity есть готовые инструменты вроде Behavior Designer, а Unreal Engine оснащен своим редактором Behavior Tree, где такие деревья собираются без кода. Данная хитрая конструкция помогает сделать живым и правдоподобным поведение НПС.
Обучение с подкреплением (Reinforcement Learning или RL) — наглядно, когда агент пробует разные действия, получает награды или штрафы и учится выбирать наилучшие стратегии. Для примера: вы блуждаете в лабиринте, за каждое правильное решение получаете награду, за ошибки — штраф.
В простом виде это и есть Q-learning, где создается таблица с ценностями действий. С нарастанием же сложности используются нейросети — Deep Q-Network (DQN). В настоящее время алгоритмы PPO и SAC применяются на практике достаточно активно, поскольку они демонстрируют более быструю обучаемость и более высокую стабильность в работе.
Например, компания Ubisoft при разработке игры Watch Dogs: Legion применяла в качестве алгоритма PPO, что позволило NPC научиться взаимодействовать, использовать укрытия и различные тактики, создав реальную проблему для игрока.
Unity ML-Agents Toolkit — это официальный инструмент для интеграции по агентам RL. Модели обучаются на Python, а затем внедряются в Unity с помощью C# скриптов. Обычный процесс таков: создаем сцену, устанавливаем, что видит агент, какие действия может выполнять и на какие награды ориентироваться, запускаем обучение, а затем используем натренированную модель в игре.
Образно говоря — создаем сцену с агентом и окружающей его средой, а затем и обозначаем наблюдения, действия и вознаграждения. При старте обучения запускается команда mlagents-learn и на ноуте прогоняются тысячи эпизодов. Режим инференс переключается после сохранения модели.
Unreal Engine с помощью Python API строит RL-модели в формате ONNX, экспортируемые в Blueprint. В качестве примера можно упомянуть использование машинного обучения студией Embark для по-настоящему функциональной балансировки игроков во время матча для игры The Finals, то есть производя регулярное обновление моделей с актуальной статистикой игроков.
| Платформа | Плюсы | Минусы |
|---|---|---|
| Unity ML-Agents Toolkit | Официальная поддержка, интеграция с ПайТорч, обширная документация, возможность обучения в облаке, бесплатная | Требуется знание Питона и RL, обучение трудозатратное и долгое, нет готовых агентов |
| Unreal Engine AI + Python API | Мощный редактор Behavior Tree, поддержка ML-моделей через ONNX, высокая производительность | Нет полноценного ML Toolkit, требуется ручная настройка, меньше обучающих материалов |
| Inworld AI | Платформа no-code для создания диалогов, реальный тайм генерация реплик, быстрый прототипинг | Платная услуга, зависит от наличия интернета, ограничена логика вне общения |
| Behavior Designer (Unity) | Визуально, готовые шаблоны, не нужен код, недорого | Не поддерживает ML, подходит только для rule-based агентов, сложно масштабируется |
| ASCN.AI | Ведущая роль в автоматизации, готовые интеграции поверх существующего ПО, быстрый запуск, AI-агенты для аналитики и принятия решений. | Фокус на бизнес-процессах; нужна адаптация под игровые задачи, прямой интеграции с игровыми движками нет. |
| OpenAI Gym + Stable Baselines3 | Обширная библиотека RL-алгоритмов, простота в создании сред и интеграции разных RL-агентов, активное сообщество, бесплатная | Требует серьезных ML-знаний, нет готовых сред для игр, долго стартовать без GPU, нет UI |
Если вы инди-разработчик на Unity и хотите вручную развивать NPC — Unity ML-Agents с Behavior Designer будет весьма хорош. Про диалоги, и кодинг не нравится — пробуйте Inworld AI. Для аналитики и анализа метрик подойдёт ASCN.AI NoCode по API. А для образовательных игр — Unity с ML-Agents и Python-скриптами.
По данным GDC State of the Game Industry Survey 2024, около 71% компаний отрасли уже используют ИИ или планируют его внедрение. Особое внимание уделено процедурной генерации контента, улучшению NPC и автоматизации тестирования.
Рынок ИИ в игровой индустрии растёт бешеными темпами. По данным MarketsandMarkets, рынок ИИ в играх, оценённый в $2 млрд в 2024 году, должен вырасти до $7,3 млрд к 2032-му — среднегодовой рост 25,4%. Именно поэтому Indie-студии активно используют GPT-4 и ChatGPT для генерации диалогов, что очень сильно ускоряет разработку. Плюс AI-помощники вроде GitHub Copilot позволяют писать код на 30% быстрее и сократить число ошибок на 25% — по данным Unity Developer Survey 2024.
Общие расценки на создание ИИ-агентов:
В поиске исполнителей неплохо подойдут платформы Upwork, Fiverr, Unity Forums и Unreal Slackers.
Например, небольшая инди-студия настроила через ASCN.AI сбор и анализ отзывов через Telegram-бота с автоматической классификацией тональности — это всего 29 долларов в месяц и пара часов настройки. Лучшая находка для тех, кто стремится быстренько, без ценных и мудрых советов программистов, заполучить рабочий результат.
Unity ML-Agents (4.5/5, 16000 звёзд на GitHub):
"Обучил агента играть в футбол за три дня, понеслась передача, атака".
"Документация превосходна, однако для полноценного осознания, необходимо знание Python и RL."
Inworld AI (4.2/5 на Product Hunt):
"За час я сконфигурировал NPC-торговца, который отвечает на вопросы с учетом контекста".
"Иногда API нестабилен при нагрузках, пришлось реализовывать кеширование".
"Дорого для маленьких студий, но дешевле строить свое NLU."
Behavior Designer (4.7/5 на Unity Asset Store):
"Самый удобный визуальный редактор AI. Без кодинга я сделал 20 разных врагов."
"Встроенного ML нет, интеграцию с ML-Agents делать вручную приходится."
ASCN.AI NoCode (мнения крипто-сообщества):
«Собирал метрики 3 часа в день, потратив на автоматизацию пару часов все сделал.»
«AI нашел баги в балансе, о которых не догадывались.»
Вывод: ML гибкий, но время на обучение, no-code быстр, но гибкость ниже. Наилучшим образом объединить оба подхода.
Что собственно решаем?! Например, уменьшить предсказуемость NPC, снизить число жалоб на сложность или нарастить контент? Какие метрики улучшаем?! Увеличить удержание игроков, увеличить среднее время нахождения в игре или увеличить конверсию. Есть ли данные для обучения и тестирования? Логины игровых сессий, тестовые выборки и прочее.
Хороший пример цели: "Поднять удержание на 7 день с 20% до 30% за счет адаптивной сложности". Сильно необходимо сократить отток на уровнях 3–5.
Для rule-based собираем визуально дерево. Для ML-агентов пишем скрипты на C#, задаем входы, выходы, действия, награды и запускаем процесс обучения. Для генеративного ИИ подключаем платформу, настраиваем промпты и параметры.
На этой стадии вам необходимо запускать А/Б тесты, отслеживать игровые метрики, корректировать логику, награды, а так же собирать фидбек от игроков. Крайне важно без усталости корректировать поведение агента и улучшать взаимодействие игрока с агентом.
Агент ИИ — это кто? Это автономный компонент, который воспринимает мир игры — получает от неё информацию, на основе которой принимает решение, что делать дальше: по правилам или через машинное обучение, подстраиваясь под ситуацию, а не выполняя прописанные заранее скрипты.
И какие алгоритмы чаще всего применяются? Перечень основных методов: конечные автоматы (FSM), деревья поведения (BT), алгоритмы обучения с подкреплением (Q-learning, DQN, PPO, SAC) и генеративные языковые модели (GPT-3/4) для контента и диалогов.
А какие еще инструменты подходят для разработки? Сколько времени уходит на обучение агента? Простой агент на деревьях — вопрос часов; у сложного ML-агента с множеством NPC — дни или недели на обучение в облаке, generative AI для диалогов — предобученные модели, настройка — часы.
Можно ли без программирования? Вполне. No-code платформы позволяют создавать автоматизации и диалоги без нужды изучать программирование, но для реализации глубокой интеграции с игровыми движками как минимум базовые знания всё же потребуются.
Как же влияют агенты на производительность? Обучение — очень затратная операция, но инференс (применение модели в игре) обычно проходит на ура. Generative AI для диалогов может выдавать задержки 200–500 мс, что позволяет использовать его в неторопливых беседах, но не в экшене.
Как же заработать на ИИ-агентах в играх? Создавая уникальный контент с помощью искусственного интеллекта, продавая готовые решения для студий, автоматизируя аналитику и запуская подписочные сервисы — например на базе ASCN.AI.

ASCN.AI — безкодовая платформа для автоматизации и создания AI-агентов, которая не требует команды программистов. Она способствует адаптации процессов для игровых задач и аналитического учета.
Ранее небольшая студия тратила по 2–3 часа каждый день на сбор данных из Firebase и Unity Analytics. Теперь с ASCN. Автоматизации подлежит вообще всё:
Ранее это занимало 2 часа ручного труда, а теперь — 10 секунд и как минимум 10 часов сэкономленного времени в неделю.
Ранее менеджер сам рылся в отзывах в Discord, Steam, Reddit. С ASCN:
Вместо 8 часов — 10 минут работы менеджера, поскольку команда вовремя видит реальные запросы игроков.
free-to-play игра с конверсией 2% ставит цель поднять ее до 5%. В ASCN.AI настроен:
Студия продает эти сценарии другим и получает дополнительную прибыль.