← На главную
Guides· 5/11/2026· 2 мин чтения

Когда LLM перестает быть чатом: Локальный агент для реального DevOps

Узнайте, как запустить локального LLM-агента для реальной диагностики серверов на MacBook. Сравниваем 9B и 35B модели в реальных кейсах!

Когда LLM перестает быть чатом: Локальный агент для реального DevOps
AI-assisted, edited by a human reviewer

Если вы когда-либо задавались вопросом, смогут ли большие языковые модели (LLM) перейти от генерации текста к действиям в реальной IT-инфраструктуре, эта статья — ваш ответ. Автор делится подробными результатами эксперимента по созданию локального AI-агента, который выступает в роли виртуального DevOps-инженера. Он не просто отвечает на вопросы, а самостоятельно диагностирует и пытается исправить сломанный сервис на тестовом сервере, используя только локальные ресурсы MacBook.

О чём статья

Основная идея — провести глубокое тестирование агентности LLM на реальной, "грязной" инфраструктуре. Цель эксперимента — понять, насколько эффективно можно использовать локально запущенные модели (например, Qwen 9B и 35B) для диагностики и устранения ошибок в виртуальной машине, имитируя процесс, который проходит опытный системный администратор.

В статье представлено детальное сравнение:

  1. Различных конфигураций железа (MacBook Pro M2 vs M4 с разным объемом RAM).
  2. Производительности моделей разного размера (9B vs 35B).
  3. Всей цепочки взаимодействия: LLM генерирует команду, пользователь ее одобряет, команда выполняется на удаленном сервере, и вывод возвращается обратно в LLM для анализа.

Главные мысли: Эффективность и масштабирование

Самые ценные выводы статьи касаются не только того, можно ли это сделать, но и как эффективно.

Во-первых, это подтверждение принципа: больше — лучше (в данном случае). Модель 35B показывает радикальное превосходство над 9B. Она решает задачи в 95% сессий, тогда как 9B справляется лишь в 50–60%. Кроме того, 35B требует в три раза меньше итераций и потребляет значительно меньше токенов, что критически важно для коммерческого использования.

Во-вторых, это демонстрация, что локальное железо (в данном случае, MacBook) может стать полноценной платформой для сложной агентной работы, если правильно настроить окружение (MLX Runtime, LMStudio) и правильно промптировать модель.

Кому будет полезно

Этот материал — обязательное чтение для:

  • DevOps-инженеров: Тех, кто интересуется автоматизацией системного администрирования с помощью ИИ.
  • AI-разработчиков: Те, кто работает с локальными LLM и хочет вывести их применение за рамки чат-ботов — в сторону действий.
  • Архитекторов ИИ-систем: Для понимания, как выглядит архитектура агента, который взаимодействует с внешней средой (shell, API).

Статья — отличный практический пример того, как LLM-агент может пройти путь от простого помощника до полноценного инструмента для отладки сложнейших системных проблем.

Хотите погрузиться в технические детали, сравнить потребление токенов и увидеть, как выглядит этот процесс в действии? Переходите по ссылке, чтобы ознакомиться с полным обзором эксперимента!

Источники

By: PLai AI