Как Anthropic строит работу с ИИ-агентами — и 20 уроков для всех, кто работает с LLM

 Публичный пост
3 июля 2025  5025

Мне всегда было интересно, как устроена работа различных компаний внутри. Но, к сожалению, мало кто настолько уверен в себе настолько, чтобы рассказывать о своих процессах за пределами узкопрофильных конференций.

Поэтому я с особым вниманием слежу за создателями Claude, которые уже не первый раз делают мощный ход и публикуют целую пачку материалов о том, как их собственные команды — от инженеров до юристов — используют Claude Code и чему учатся у него. Это редкий взгляд за кулисы. Я настолько увлекся изучением их материалов, что решил вытащить из свежего интервью, гайда по агентному программированию и внутренних кейсов 20 золотых инсайтов, которые актуальны для работы с любой продвинутой нейросетью.

Если вы уже вышли за рамки простого чата и строите ассистентов или агентов, эти принципы изменят вашу работу. Имхо это новая философия взаимодействия с ИИ.

Часть I. Смена парадигмы: Мыслите как архитектор ИИ

От промпт-инженера к менеджеру агентов
Ваша задача — не писать код или текст, а ставить цели, контролировать, ревьювить и направлять ИИ-агента. Это переход от ручного труда к управлению высокоскоростным исполнителем.

ИИ — это младший коллега
В Anthropic сотрудники упоминают Claude в PR-комментариях ("@claude, исправь эту штуку") так же, как и живого разработчика. Относитесь к нему как к полноценному члену команды: очеловечивая его, вы чаще будете искать к нему подход, как к разумному субъекту.

«Конституция» для каждого проекта
Создайте в корне проекта файл CLAUDE.md (или README.md), где описаны ключевые команды, стиль кода и архитектурные правила. ИИ-агент читает его при каждом запуске. Это его долгосрочная память и правила игры для конкретной задачи.

Приучите его (и себя) работать по картинке
Самый эффективный способ ставить задачи на UI/UX — дать скриншот, нарисованную от руки схему или макет и сказать: «Сделай так». ИИ отлично понимает визуальные цели и будет итерировать, пока результат не совпадет с макетом.

Часть II. Процессы и воркфлоу на стероидах

Терминал — это новый UI для ИИ
Anthropic сделали ставку на командную строку, потому что она универсальна и уже встроена в рабочие процессы. ИИ должен работать там, где работаете вы, а не заставлять вас переключаться.

TDD (разработка через тестирование) 2.0
Революционный воркфлоу:

  • Сначала просите ИИ написать тесты, которые заведомо падают (потому что фичи еще нет).
  • Затем даете команду: «Напиши код, который заставит эти тесты пройти».

Результат — идеально покрытый тестами и надежный код.

«Метод однорукого бандита» для рутины
Для утомительного рефакторинга: дайте ИИ задачу, уйдите на 30 минут, вернитесь и либо примите результат, либо откатите коммит и попробуйте снова с другим подходом. Не тратьте время на микроменеджмент неудачных попыток.

Запускайте целую команду ИИ-агентов
Запускайте несколько экземпляров Claude в параллельных копиях репозитория. Один агент пишет новую фичу, второй — рефакторит старый код, третий — пишет документацию. Они работают одновременно и не мешают друг другу.

Дайте ИИ «белый список» команд
Настройте список безопасных действий (git commit, npm test), которые ИИ может выполнять без вашего подтверждения. Это ключ к его длительной автономной работе.

Часть III. Продвинутые техники и лайфхаки

Заставьте ИИ «думать вслух»
Перед тем как дать команду на выполнение, попросите: «Составь пошаговый план решения. Не пиши код, только план». Это позволяет скорректировать его логику на раннем этапе и сэкономить массу времени.

Используйте историю как контекст
Вместо «Почему этот код такой странный?» спросите: «Просмотри историю git для этого файла и объясни, почему были приняты такие решения». ИИ отлично анализирует коммиты и лог изменений.

Создавайте свои «заклинания» (слэш-команды)
Для повторяющихся задач (например, «исправить баг из GitHub») Anthropic создают кастомные команды, такие как /fix_issue_123. ИИ сам понимает, что нужно сделать: прочитать задачу, найти файлы, внести правки и создать PR.

Итерация лучше, чем правка
Если ИИ сгенерировал что-то не то, часто проще и быстрее прервать процесс, немного изменить исходный промт и запустить заново. Это эффективнее, чем пытаться «допилить» неудачный результат серией уточнений.

Будьте гипер-специфичны
Не пишите что-то типа «Добавь тесты».
Задайте четкий вектор: «Напиши тест для auth.py, покрывающий крайний случай, когда пользователь вводит неверный пароль 5 раз подряд. Моки не использовать». Конкретика — ваш главный инструмент.

Стройте системы, а не скрипты
Команды в Anthropic перешли от одноразовых Jupyter-ноутбуков к созданию постоянных React-дашбордов для аналитики. Поручайте ИИ создавать переиспользуемые инструменты, а не одноразовые решения.

Часть IV. ИИ для всей команды

Демократизация разработки
Маркетологи и юристы Anthropic создают собственные инструменты. Пример: агент, который за 15 минут генерирует сотни вариантов рекламных объявлений на основе CSV-файла с данными об эффективности. Это работа, на которую раньше уходили дни.

«Догфудинг» — двигатель эволюции
Claude Code на 70% переписан с помощью Claude Code. Когда вы используете свой же продукт для его развития, вы находите лучшие практики и узкие места с невероятной скоростью.

ИИ как наставник для новичков
Новые сотрудники используют ИИ, чтобы разобраться в огромной кодовой базе или архиве документов. Это радикально сокращает время на адаптацию и снижает нагрузку на старших коллег.

Преодоление «страха чистого листа»

Не знаете, с чего начать? Просто опишите проблему своими словами. ИИ-агент сам исследует контекст и предложит первые шаги.

От автодополнения к агентности
Моя бабушка полвека назада на Байконуре программировала на перфокартах. Я сегодня использую Copilot. Завтра — мы все будем управлять командами ИИ-агентов, которые выполняют задачи целиком. Это не просто следующий шаг, это смена эпох в создании цифровых продуктов.

V. Кейсы с передовой: Как это выглядит в бою

Починка Kubernetes по скриншоту
Инфра-команда загрузила в Claude дашборд с алертами. Модель сама диагностировала исчерпание IP-пула и сгенерировала скрипт для исправления. Время простоя сократилось с часов до минут.

Безопасность на стероидах
Команда SecOps копирует Terraform plan и спрашивает: «Что это сделает? Мы пожалеем об этом?». Claude раскладывает изменения и предупреждает о рисках до применения.

Путеводитель по монорепозиторию
Вместо поиска по Confluence API-команда спрашивает: «Где находится бизнес-логика поиска?». Claude выдаёт список файлов и цепочку вызовов.

Память по горячей клавише
Нажатие # в терминале позволяет мгновенно сохранить инструкцию («Всегда запускай линтер после изменений») в «Конституцию» проекта (CLAUDE.md).


Главный вывод: что это значит для всех нас

  1. Контекст — это новая нефть. Постоянная база знаний (CLAUDE.md, память) превращает одноразовые команды в обучаемую систему.

  2. Агент > Автодополнение. Перестаньте думать о генерации фрагментов. Мыслите категориями готовых решений «под ключ».

  3. Мультироль — это норма. Один и тот же ИИ-инструмент должен одинаково эффективно обслуживать инженера, дизайнера и юриста.

  4. Автоматизируйте безопасность и процессы. Внедряйте ИИ в CI/CD, ревью и другие процессы, пока это не стало слишком сложно.

  5. Dogfooding — это самый быстрый путь к инновациям. Используйте ИИ для создания ИИ.

Аватар Sergey Dolgov
Sergey Dolgov @sergeydolgovcom
Продуктолог, Директор по цифровой трансформации, Продюсер проектовIThub / Archipelago
📍Порто, Португалия

+905357972679
+9854569226

Sergeydolgov.ru

Sergeydolgov.com@gmail.com
T.me/Sergeydolgov
İnstagram.com/sergeydolgov.ru
fb.com/sergeydolgov
vk.com/branding

Связанные посты
28 комментариев 👇

как и @dmitriid, чувствую потребность добавить больше скепсиса https://devby.io/news/turnir-po-vaib-kodingu-zakonchilsya-provalom-pobeditel-reshil-lish-75-zadach

В целом, вижу тенденцию, что больше всего восторгов про вайб кодинг исходит от непрограммистов. Прекрасно понимаю и разделяю это ощущение магии, которое испытываешь, когда первый раз оно все за тебя пишет. Особенно если раньше ты этого не умел вообще делать.
А если умел, то следующая очевидная мысль -- а какой у меня был последний серьезный баг, который я просмотрел? Вот это он найти может?
Вот у меня не находит.

Вайбкодинг на чистом проекте, который вот чуть-чуть обрастет мясом и функционалом, сразу нужно микроменеджерить. В принципе я не против, моя производительность в джаваскрипте совсем никакая. С ним быстрее. Но это абсолютно не "отойти от клавиатуры на полчаса". Я пробовал, отходил. Было очень плохо.

Вайбкодинг штука прекрасная и явно изменит мир. Но нужно еще немного подождать. Пока он настолько сырой, что требует надзора программиста. Ну или совсем для скромных проектов.

При этом некоторые советы статьи мне нравятся. Про тесты, к примеру. Тоже к тем же выводам дошел. Замкнуть петлю обратной связи на него же, на агента. И пусть он там сам себя терзает, главное чтобы баланс не обнулил. Главное перед этим все важное закоммитить :)

  Развернуть 1 комментарий

Эээээ, не-а.

Я не лудист. У меня проплачен корпоративный антропик, ГПТ и Грок. Я этим всем пользуюсь.

Но я не могу позволить агентам контролировать процессы. Спасибо. Сжёг по 50 долларов за ошибку. Он начинает писать что то и всё всегда уходит в петлю рассуждений.

Кода выходит раз в 20 больше чем надо.

И я даже не буду упоминать про то как он создаёт по 20 разных конфиг файлов, потому что не в состоянии их найти.

ИИ - он как был ускоренной клавиатурой 3 года назад, так ей и остался. Но, клавиатуру он ускоряет.

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...
Sergey Dolgov Продуктолог, Директор по цифровой трансформации, Продюсер проектов автор 4 июля в 21:53

Тексты, на которые и опирался при подготовке поста:

  1. Транскрипт 20-минутного интервью Бориса Черны (один из создателей Claude Code, в прошлом инженер Meta и автор книги культового издательства OReilly's "Программируя TypeScript") и Алекса Альберта (руководитель департамента по коммуникациям с разработчиками Claude)

Оригинал: https://www.youtube.com/watch? v=Yf_1w00qIKc
Перевод на русский: https://docs.google.com/document/d/1ulJPvb3C0HvbMxXZiBXze5llhse__0Hb_gfjQ2rVecQ/edit?usp=sharing
Интересный факт: дед Бориса, как и моя бабушка, программировали в СССР на перфокартах.

  1. Claude Code: Лучшие практики агентного программирования

Оригинал: https://www.anthropic.com/engineering/claude-code-best-practices
Перевод на русский: https://drive.google.com/file/d/12ZTpAOlWG8uwHVLIFjzwiLaTtgds_tNs/view?usp=sharing

  1. Claude Code: Как команды Anthropic используют Claude Code

Оригинал: https://www-cdn.anthropic.com/58284b19e702b49db9302d5b6f135ad8871e7658.pdf
Перевод на русский: https://drive.google.com/file/d/1Wsu_9aEKgI8-8rT-D3Q77FW-y0OohEC_/view?usp=sharing

  Развернуть 1 комментарий

Все эти "исследования" и "советы лучших собаководов", которые меняются раз в неделю — в основном маркетинговый буллшит.

Пока не спадет хайп вокруг LLM'ок, эти два поста будут всегда верны: Prompting LLMs is not engineering и Everything around LLMs is still magical and wishful thinking (да, это мои посты :) )

  Развернуть 1 комментарий

@dmitriid, а есть какие-то замеры, подтверждающие тезисы в статьях. Просто размышления на тему ризонинга в моделях напоминают исследование от Apple. Которое, как мы помним, жидкое.

  Развернуть 1 комментарий

@kerey07,

а есть какие-то замеры, подтверждающие тезисы в статьях.

Начнем с того, что замеры должны производить люди, которые продают и нагнетают хайп, а не их оппоненты. Более того, тезисы в статьях и не требуют замеров. С одной стороны достаточно этими моделями пользоваться, с другой — когда кто-то говорит про «ура отлично магия прекрасно работает», достаточно применить список вопросов из второй статьи.

Но замеры все же потихоньку происходят. Например: Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity

Before starting tasks, developers forecast that allowing AI will reduce completion time by 24%. After completing the study, developers estimate that allowing AI reduced completion time by 20%. Surprisingly, we find that allowing AI actually increases completion time by 19%--AI tooling slowed developers down. This slowdown also contradicts predictions from experts in economics (39% shorter) and ML (38% shorter).

  Развернуть 1 комментарий

@dmitriid, Ты сделал из моего комментария соломенное чучело, но ок.
Статья которую ты приводишь говорит нам о том что в ИИ-инструментах нет магии и есть кривая обучения. Там даже в выводы сводятся к тому, что это скилл ишью. Не говоря уже о дизайне эксперимента (16 человек без контрольной группы и замера прогрессии с течением времени)

То есть с одной стороны мы видим новый ИНСТРУМЕНТ, который подтвержденно хорош в некоторых типах задач, при наличии знания как его использовать.
С другой стороны у нас статья, где разработчикам дали новую тулзу и попросили их что-то накодить, а они делали это дольше чем ожидали.

При этом автор статьи под которой мы общаемся буквально ставит своей целью показать, как надо пользоваться инструментом, чтобы было эффективно.

Думаю, что критика должна быть по делу, а не просто: ии - плохо.

  Развернуть 1 комментарий

@kerey07,

Не говоря уже о дизайне эксперимента

Это, конечно, прекрасно, но, в целом хорошо показывает уровень обсуждения во всем этом LLM-хайпе.

Сначала потребовать подтверждения тезисов (каких? там "тезисы" — это common-sense утверждения).

Потом сделать фи по поводу исследования.

И тут же написать вот это:

который подтвержденно хорош в некоторых типах задач

Да неужели? Подтвержденно? Отличными исследованиями, в отличие от того, что я привел? Или ничем не подкрепленными заявлениями, чаще всего от людей, которые хотят впарить тот или иной продукт?

при наличии знания как его использовать.

Да-да. Во-первых, это знание есть (и не меняется каждые пять минут), и, во-вторых оно гарантированно воспроизводимо и гарантированно работает, и это подтверждено. Ага.

Думаю, что критика должна быть по делу, а не просто: ии - плохо.

Думаю, что люди должны читать, что им пишут, а не отвечать на голоса в своей голове. Нигде в моих двух постах не сказано, что ии — плохо.

Edit: опечатки

  Развернуть 1 комментарий

Сколько-то месяцев назад писал в свой небольшой блог, что вайб кодеры переизобретают TDD, похоже так и есть!

  Развернуть 1 комментарий

@AlexanderSh, я еще прошу при каждом добавлении фичи фиксировать это коммитом и писать в логе. Не знаю, какие здесь best practies

  Развернуть 1 комментарий

@sergey_from_riders,

все зависит от модели и «агента». На phoenix.new попал на отличный цикл, где модель не могла починить файл, который сама и сломала, поэтому 10 коммитов подряд было что-то типа "fixed file <x>. everything is working now"

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...
🕵️ Юзер скрыл свои комментарии от публичного просмотра...
Сергей Буков Интернет-предприниматель и фуллстек-программист 3 июля в 15:56

А можно немного для тех, кто в танке: я сейчас использую курсор для программирования. Про тесты: мощно, не думал, а как это делается в Клоде?

  Развернуть 1 комментарий

@sergey_from_riders, если образно сравнивать, то классический разработчик с курсором (не вы, у вас фулстак:) это водитель с малым стажем в новой стране без знания языка, знаков и разметки, а сам курсор - это его новый местный друг с яндекс-навигатором в руках на соседнем сидении: подсказывает дорогу (Ctrl+K), помогает припарковаться (автодополнение), отвечает на вопросы о правилах (чат). Но ведет машину всегда разработчик.

С Клодом же он, скорее, архитектор, который принес чертежи на стройку, а Клод — это прораб, который их читает, кряхтит, и командует бригадой (инструментами bash, git, редактором файлов). В теории он может построить целый этаж сам, пока хозяин пьете кофе.

Если в метафоре авто, то в идеале вы сидите на заднем сидении бизнес-класса, подсказывая дорогу до своего элитного поселка своему верному Паспарту.

Так вот тесты в Клоде это типа те самые чертежи, только код. Вы можете провести над ним агентное программирование, о котором я писал посте (хотя мне лично больше нравится термин "инвертированная инженерия"): вместо того чтобы сразу просить Клода написать нужную вам функцию, вы делаете наоборот - сначала описываете, как вы будете проверять, что она работает правильно.

Важно уточнить ему, чтобы он не фантазировал и не писал саму функцию, только тесты.

Клод создаст файл с кодом, который импортирует несуществующую пока функцию и пытается ее вызвать с разными данными, проверяя результат. Вы запускаете тесты (или Клод по вашей команде), например, командой pytest. И все они падают с ошибкой типа
NameError: name 'blablabla' is not defined

Поздравляю! Вы только что доказали, что тест работает: он действительно ищет нужную вам функцию и готов ее проверять.

Попросите Клода написать код в духе "Отлично, тесты готовы. А теперь напиши код для функции X в файле validator.py так, чтобы все тесты из test_validator.py прошли."

Клод: проанализирует тесты, поймет, какие результаты от него ожидаются, и напишет в файле validator.py саму функцию, скорее всего, с использованием регулярных выражений.

Наконец, вы снова запускаете тесты - и на этот раз они все проходят. Профит!

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...

@sergeydolgovcom, красивое. А для этого подписка клод нужна?

  Развернуть 1 комментарий

@sergey_from_riders, да, подписка нужна, и она реально недешевая. Но мне нравится, что получаю результат быстрее, чем с gpt. Хотя процент срабатывания все равно далек от 100. В среднем 3 из 5 шалостей срабатывают.

  Развернуть 1 комментарий

@sergeydolgovcom, А какую там брать? Которая мах?

  Развернуть 1 комментарий

@orbit, да, жжот он как адский паровоз. Но имхо это того стоит, поскольку он помогает пошагово разбираться в достаточно сложных задачах. У меня тут на руках описание архитектуры одного приложения, которое писали 3 разные команды 5 лет и последние 2 года никто толком не документировал. Клод неплохо справляется с разбором и структурированием бардака. Примерно 15% функционала уже переложил в него всего за месяц. Если следовать советам из статей, частота полезного срабатывания повышается в разы.

  Развернуть 1 комментарий

@sergeydolgovcom, создалось впечатление, что вы рассматриваете Cursor в отрыве от его агентских функций. Это же просто другой интерфейс, но базовые функции такие же + более удобный интерфейс для отслеживания изменений.

Все то, что вы описали в статье про тесты и описание требований к решению работает прекрасно и в Cursor. Создаешь:

  • rules для проекта (код-стиль, предпочтения по используемым решениям и т.д.)
  • rules для отдельных модулей проекта (тесты, разные модули имплементации и т.п.)
  • rules общие для всех проектов (как общаться с пользователем например)
  • файл с требованиями

И итерируешься по требованиям. Одно требование за раз с написанием unit + интеграционных тестов и самой имплементации.

В моем случае каждая итерация - 15 минут работы агента + мое время на отсмотр изменений. И да, вторую часть многие почему-то недооценивают, но на моем опыте, 80% кода агент пишет отлично, а вот оставшиеся 20% можно и нужно оптимизировать.

  Развернуть 1 комментарий

@asalynskii, спасибо за комментарий! Я с вами согласен, просто Cursor для меня оказался не таким удобным с точки зрения UX как Windsurf или Claude Code. В любом случае меня восхищает то, что во всех этих средах можно добиться крутого результата каскадом рулесов.

  Развернуть 1 комментарий

@orbit, это мне кажется, для сжигания токенов и создано.

Когда я просто пишу код, то я закрываю таску за день. И мне ИИшка помогает печатать.

А когда я пишу с Клодом - я закрываю таску за 1.5 дня, и плачу за это примерно 200 долларов. Моё время сэкономлено. Я его трачу на то, чтобы разобраться с тем что написал этот агент.

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...

@orbit,

Я прямо жестко чувствую, что боттл-нек не умение рассуждать у ЛЛМ, а моя способность понять ее вывод и детализировать свои требования.

нет. боттлнек это именно «неумение рассуждать у LLM». LLM не рассуждают. Они генерируют статистически подходящий текст. Отсюда и хрень, и «забывание» требований и прочее и прочее.

Она же херни напишет если ей супер-четко задание не поставлено, а потом в тоннах этого кода будет на разобраться

Он херни напишет и с четко поставленной задачей :) Особенно если не повезет и в какой-то момент попадаешь на просаживание по доступным вычислительным мощностям у провайдера.

  Развернуть 1 комментарий

@sergey_from_riders,

Это мощно до тех пор, пока клод не закомментирует тело теста с комментарием "уберем тест, потому что он не работает", прогонит тесты и увидит, что все "работает" :)

  Развернуть 1 комментарий

😎

Автор поста открыл его для большого интернета, но комментирование и движухи доступны только участникам Клуба

Что вообще здесь происходит?


Войти  или  Вступить в Клуб