Открыты для сотрудничества с яркими инициативными командами.

info@interactrivemedia.dev

t.me/InteractiveMedia_dev

Открыты для сотрудничества с яркими инициативными командами.

info@interactrivemedia.dev

t.me/InteractiveMedia_dev

AI/ML

От онтологии к действию: как граф знаний управляет автономными AI-агентами

Когда LLM не просто рассуждает по правилам, но и выполняет действия в цифровой среде, руководствуясь формальной моделью предметной области.

От онтологии к действию: как граф знаний управляет автономными AI-агентами

Вы создали онтологически совершенную модель. Она блестяще отвечает на вопросы, соблюдает все правила. Но настоящий эксперт не только говорит, но и делает: назначает лечение, создает тикет, запускает воркфлоу. Как соединить глубокое семантическое понимание (онтологию) с способностью к действиям (agency)? Это создание агентов, управляемых знаниями (Knowledge-Driven Agents). 

Проблема: Агент-импульсивист vs. Агент-рационалист   
Обычный AI-агент (см. ст. 6) имеет набор инструментов и, получив цель, начинает пробовать действия, иногда хаотично. Агент, управляемый онтологией, перед каждым действием сверяется с графом знаний, чтобы: 

  1. Спланировать только допустимую последовательность шагов. 

  2. Предсказать последствия действий. 

  3. Объяснить, почему был выбран именно этот путь. 

Архитектура: Трехуровневая система «Знание-Мысль-Действие» 

Уровень 1: Семантический планировщик (Semantic Planner) 

  • Что: Модуль, который переводит цель пользователя на язык онтологии и строит абстрактный план. 

  • Как: Получает запрос «Запланируй техобслуживание сервера БД “Альфа”». Обращаясь к графу знаний, он «понимает», что: 

    • Server:Альфа hosts Service:PostgreSQL. 

    • PostgreSQL hasBackupProcedure Procedure:СоздатьСнепшот. 

    • Перед Maintenance необходимо выполнить BackupProcedure. 

  • Результат: Абстрактный план [СоздатьСнепшот(Альфа), ПеревестиВРежимОбслуживания(Альфа), ...]. Это еще не вызовы API, а онтологические операции. 

Уровень 2: Исполнитель с валидацией (Executor with Validation) 

  • Что: Модуль, который превращает абстрактный план в конкретные вызовы инструментов (API), но перед каждым вызовом проверяет его на соответствие онтологии и текущему состоянию. 

  • Как: Получив шаг СоздатьСнепшот(Альфа), исполнитель: 

    1. Смотрит в граф знаний: Какой инструмент соответствует этой операции? ( tool:create_vm_snapshot). 

    2. Проверяет предусловия: В графе знаний указано, что для create_vm_snapshot требуется vm_status == "running". Исполнитель через другой инструмент проверяет статус. 

    3. Если предусловия выполнены -> вызывает инструмент. Если нет -> возвращает ошибку планировщику для перепланирования. 

  • Безопасность: Здесь же накладываются политики безопасности (RBAC): имеет ли пользователь право на это действие? Это тоже можно смоделировать в онтологии ( UserhasPermissionAction`). 

Уровень 3: Рефлексия и обновление знаний (Reflection & Knowledge Update) 

  • Что: После выполнения (или неудачи) действия агент обновляет граф знаний на основе результата. 

  • Как: После успешного вызова create_vm_snapshot агент добавляет в граф факт: Snapshot:S123 createdFor Server:Альфа atTime <timestamp>. Это создает цикл обратной связи: мир изменился, и агент знает об этом. 

  • Крайне важно: Если действие провалилось с ошибкой «диск переполнен», агент не просто логирует ошибку, а выводит новое правило в онтологию (или помечает как требующее проверки): create_vm_snapshot требует free_disk_space > 10GB. 

Техническая реализация: Обработка естественного языка (NLU) как запрос к графу 

  1. Извлечение намерения и сущностей: Стандартная NLU-модель, но обученная на вашей онтологии, извлекает из запроса цель ( intent:schedule_maintenance) и сущности ( server:Альфа). 

  2. Запрос к графу знаний: Эти сущности и намерение используются для формирования запроса на языке SPARQL или Cypher к графовой БД, чтобы получить контекст и возможные пути действий. 

    • Пример SPARQL-запроса: «Найди все Procedures, которые являются prerequisiteFor Maintenance, и которые применимы к Server:Альфа». 

  3. LLM как интерпретатор и генератор: LLM получает на вход: 

    • Цель пользователя. 

    • Релевантный подграф из онтологии, полученный по запросу. 

    • Список доступных инструментов с описанием. 

    • Инструкция: «Сгенерируй последовательность вызовов инструментов на основе этого графа знаний. Каждый шаг обоснуй фактом из графа.» 

Пример сценария в IT-операциях: 

  • Запрос: «Пользователь жалуется на медленную работу приложения “Кассир”. Разберись.» 

  • Работа агента: 

    1. Планировщик: По онтологии находит, что App:Кассир dependsOn Service:Redis, Service:PostgreSQL. План: проверить метрики всех зависимостей. 

    2. Исполнитель: Вызывает инструменты get_metrics(Redis), get_metrics(PostgreSQL). Получает, что задержка Redis 99-й перцентили = 2с (при норме <100мс). 

    3. Планировщик (адаптация): По онтологии знает, что высокий latency Redis лечится RestartService или ScaleUpInstance. Проверяет политику: RestartService разрешено автоматически, ScaleUpInstance требует подтверждения. 

    4. Исполнитель: Вызывает restart_service(Redis). После рестарта проверяет метрики. Если не помогло — эскалация: создает тикет, прикрепляя к нему весь цепочку рассуждений и извлеченный подграф онтологии. 

Преимущества подхода: 

  1. Объяснимость: Любое действие можно проследить до конкретных фактов в онтологии. «Я перезапустил Redis, потому что онтология говорит, что это стандартная процедура при высокой задержке, а задержка была 2с.» 

  2. Безопасность: Действия ограничены семантикой онтологии. Агент не будет придумывать странные действия. 

  3. Робость/Смелость настраивается через онтологию: Вы можете пометить некоторые действия как requires_human_approval. Агент будет останавливаться и спрашивать. 

  4. Обобщение: Научившись работать с Server, агент сможет по аналогии работать с K8sPod, если отношения в онтологии описаны схожим образом. 

Вывод для архитектора автономных систем:   
Объединение глубоких онтологических моделей с архитектурой агентов — это создание рациональных, безопасных и обучаемых цифровых сотрудников. Такой агент не просто умеет нажимать кнопки — он понимает, зачем он это делает, какие правила соблюдает и как его действия изменят «картину мира» (граф знаний). Это следующий гигантский шаг от автоматизации к истинной автономии, основанной на знаниях. 

:
16/12/2025
Автор Dev IM
Поделиться

Другие посты

09/01/2026 • :
Специализированные архитектуры для маленьких онтологических моделей

Когда классический Transformer неэффективен. MoE, ранний выход и други...

17/12/2025 • :
Prompt Engineering: Не магия, а инженерия

Как превратить «болтовню» с ИИ в предсказуемый рабочий инструмент для...

16/12/2025 • :
Защитное конструирование промпта: как научить модель говорить «Я не могу ответить»

Практические техники запрета тем, фильтрации запросов и безопасного от...

Ваш опыт работы на этом сайте будет улучшен за счет использования файлов cookie.