ИИ — это не кнопка "сделай хорошо"
Слушайте, вот уже который год наблюдаю одну и ту же картину: человек открывает Claude, пишет "проанализируй мне этот текст" или "напиши пост", получает что-то приемлемое — и делает вывод, что ИИ это такая волшебная штука, которой достаточно сказать что хочешь и дальше само. Ну частично так и есть — для базовых задач. Написать черновик, переформулировать абзац, разобрать короткий текст, накидать идеи — это всё вполне реализуемое одним-двумя промтами в веб-интерфейсе, и здесь вопросов нет.
Но стоит задаче чуть усложниться — и весь этот карточный домик рассыпается.
Кластеризация семантики на 5000 запросов? Написание объявлений на основе анализа конкурентов? Аудит сайта с выгрузкой конкретных рекомендаций по каждой странице? Съём позиций, их обработка, интерпретация и выводы? Вот тут ты уже не отделаешься парой промтов в браузере. Причем не потому что ИИ тупой — а потому что для сложной работы нужна инфраструктура. Точно так же, как опытному токарю нужен нормальный станок, а не перочинный ножик.
Что это за инфраструктура вообще
Короче, вот как это выглядит в реальности. Агент живёт не в веб-интерфейсе Claude, а работает на сервере. У него есть постоянная память — он помнит что делал, что получил, что записал. Есть мозги — основная модель, которая принимает решения и раздаёт задачи. И есть руки — инструменты, которые мы ему выдаём: доступ к нужным API, возможность читать файлы, писать результаты, запускать проверки.
Плюс под конкретные задачи запускаются отдельные субагенты — это такие узкоспециализированные помощники, которым главный агент делегирует работу. Один занимается сбором семантики, другой пишет объявления, третий проверяет качество. Главный агент выступает как менеджер: ставит задачи, собирает результаты, следит за процессом.
Это уже не "попросил — получил". Это полноценная система, в которой работа выполняется по шагам, каждый шаг можно отследить и проверить. И здесь важный момент: сами инструменты надо описывать чётко и продуманно — агент не угадает. Anthropic, создатели Claude, прямо пишут в своих рекомендациях:
«Когда описываете инструмент для агента — представьте, что объясняете его новому сотруднику. Агент может запутаться и неправильно понять, как пользоваться инструментом, если описание недостаточно чёткое.»
То есть это не "выдал инструмент — дальше сам разберётся". Это полноценная работа по проектированию: каждый инструмент должен быть описан с примерами, с чёткими параметрами, с пояснением что делать если что-то пошло не так. Чем подробнее инструкция — тем меньше косяков. Как онбординг нового сотрудника, в общем.
Harness Engineering — или как держать агента в узде
Теперь самый интересный момент. Даже если у тебя есть агент с памятью и инструментами — это не значит, что он будет работать предсказуемо. ИИ по природе своей непостоянен: сегодня выдал одно, завтра чуть другое, послезавтра вообще решил срезать угол и пропустить половину шагов.
Именно здесь вступает подход, который называется Harness Engineering. Суть простая: агент работает не в свободном полёте, а в жёстком цикле с программными проверками на каждом этапе. Не "ИИ, сделай мне аудит и принеси результат", а "ИИ, сделай шаг 1 → проверяем выход шага 1 → если прошло — шаг 2 → снова проверка → и так далее". Каждый выход агента проверяется — по структуре, по полноте, по логике. Если что-то не так — агент идёт на доработку этого шага, а не едет дальше с кривыми данными.
Это принципиально другой уровень работы с ИИ. Ты не доверяешь агенту на слово — ты проверяешь каждое его действие программно. И когда ты прогоняешь одну и ту же задачу на одних и тех же данных десять раз подряд и получаешь один и тот же результат — вот тогда система считается рабочей. Результат может быть буквально идентичным каждый раз, а может чуть отличаться формулировками — но структура, логика и выводы всегда одинаковые. Оба варианта рабочие, главное — стабильность и предсказуемость.
Данные для агента — это тоже работа на нашей стороне
Отдельный момент, который многие упускают — это подготовка данных перед тем, как они попадают к агенту. Возьмём аудит сайта как пример.
Казалось бы: дал ссылку на страницу — агент зашёл, посмотрел, написал выводы. Но это наивный сценарий. Если агент получает сырую страницу, он вынужден тратить ресурсы на разбор HTML-кода, CSS-стилей, скриптов, рекламных блоков и всего прочего мусора, который к SEO-аудиту не имеет никакого отношения. Результат — размытый анализ, лишние затраты, непредсказуемое качество.
Правильный подход другой: мы программно готовим данные до того, как они попадают в агента. Что это значит на практике:
- Вырезаем лишнее. Шапка сайта, подвал, боковые меню, навигация — всё это одинаково на сотнях страниц и для анализа конкретной страницы не нужно. Программно убираем это до отправки. Субагент получает только то, что уникально для данной страницы.
- Извлекаем нужное. Мета-теги, заголовки, текст в теле страницы, хлебные крошки, кнопки — всё это вытаскивается отдельно и передаётся агенту уже в структурированном виде: вот title, вот description, вот h1, вот основной текст, вот уровень вложенности страницы в структуре сайта.
- Переводим в читаемый формат. Страницу можно подготовить в виде простой текстовой разметки — где какой блок, что в нём написано, какие кнопки есть, где стоит картинка. Агент получает не HTML-суп, а чистую картину: что на странице, где именно, и что это означает с точки зрения структуры.
В итоге субагент, который анализирует страницу, работает с чистыми, точными данными — и не распыляется на текст из меню, который не имеет к аудиту никакого отношения. Это и быстрее, и точнее, и дешевле с точки зрения затрат на обработку.
К чему всё это ведёт
В идеале мы приходим к такому проекту, где агент чётко понимает, что должно быть на выходе. Не в смысле "написано в промте" — а в смысле, что у агента есть эталон: структура ответа, типы данных, логика группировки, формат файла. И каждый раз он сверяется с этим эталоном, а мы это сверяем снова уже со своей стороны. Так рождается система, которой можно доверить реальную работу — не как игрушке, а как инструменту.
И вот тут начинается самое интересное. Кластеризация семантики — не потому что ИИ волшебник, а потому что мы выдаём ему доступ к API нужных систем, и он обрабатывает данные последовательно, шаг за шагом, без усталости и без "ой, забыл". Аудит сайта с конкретными рекомендациями по каждой странице — потому что агент получает не сырой HTML, а заранее подготовленные, чистые данные по каждой странице отдельно. Написание сотен объявлений на основе реального анализа — потому что субагент получает данные, обрабатывает их по заданной логике и выдаёт результат в нужном формате. Всё это вполне реализуемо, если собрать нормальную инфраструктуру.
Просто не надо путать это с двумя промтами в браузере — это другая лига :)