Как разработчику стать AI-разработчиком в 2025?

 Публичный пост
7 февраля 2025  2775

Поздравляю, вы уже AI разработчик.

Шутка. Вы только на 80% AI разработчик.

AI – теперь коммодити. Кто угодно может превратить свой древний saas в AI-driven за один HTTP запрос, а большая часть AI разработки с первого взгляда выглядит как перекладывание json'ов. Не нужно учить модельки, не нужно их хостить и можно не знать, как они работают.

Лучшая аналогия, которую я знаю – базы данных. Вы знаете, как с ними работать, как писать запросы, чтобы было хорошо. Иногда даже знаете детали реализации, благодаря которым делаете магию, которую коллеги не умеют. В 2% реальных задач. Но в большинстве случаев – это просто черная коробка, с которой нужно общаться по определенным правилам.

Только тут это еще и managed-db (OpenAI хостит все у себя, а вы дергаете их API).

Так что самая большая ошибка – идти изучать классический Machine Learning и обучение нейронок. Это профессия, которая будет вырождаться – большинству компаний больше не нужно обучать кастомные нейронки под свои задачи, когда с ними справляется GPT, ллама или deepseek.

Да, какое-то количество больших компаний будет делать свои фундаментальные модели. Но это уже AI Research, далекий от нашей бизнес-разработки. Считай, разработчики баз данных. Ну и там будут самые топовые пхдшники, и их нужно будет меньше, чем уже есть датасентистов на рынке. (См. предыдущий абзац, чем они занимались, и почему это будет не нужно)

Кусочек базы ML все-таки будет нужен, но про это позже.

Я это к чему – технический порог входа супер низкий. Самое сложное – найти, где этот AI применять.

  1. Можно делать петпроекты
  2. Пытаться устроиться в AI стартап (но кому вы нужны без опыта работы с "базами данных")
  3. Придумать, как AI бустанет что-то на вашей текущей работе.

Я пошел по 3 пути 2,5 года назад, предложив добавить фичу, которую клиенты давно просили, а сделать классическими способами никак не получалось.

Анализировать не только корректность кода кандидатов, которые проходят технический скрининг на нашей платформе, но и его качество.

Вот я придумал что-то полезное. Че дальше?

  1. Прототип (proof of concept)
  2. Получение одобрения от бизнеса
  3. (вот тут нужен кусочек ML) Сбор нормальных данных для итераций и валидации
  4. Куча итераций с построением разных пайплайнов и оттачиванием промптов (тут будут неожиданно полезен опыт менеджмента)
  5. Продакшн

Разберу шаги на примере моего первого AI проекта

1. Прототип

Тут даже кодить не всегда нужно. Просто берем нужные нам данные, засовываем в ChatGPT и пишем промпты, пока не получится что-то сносное

Не забываем отключить использование ваших данных для обучения моделей

Я просто выкачал несколько решений кандидатов, подставлял их по одному и вручную прописывал логику для оценки по нескольким критериям, на которые я бы смотрел вручную (типа именования переменных, модульности, читабельности функций, и т.д.)

2. Одобрение от бизнеса

Получаем норм результат на нескольких примерах, идем показывать начальству, выбиваем аппрув на проект + ресурсы на разметку данных. Особенно круто, если подготовить какие-то данные, что эта фича реально нужна.

Например, посчитанное в человекочасах время на процесс, который оптимизируете, или отзывы пользователей, где они жалуются на отсутствие фичи или чего-то смежного.

3. Сбор данных

Это вообще самый важный пункт, потому что shit in => shit out. Ну и глобально, оптимизируеся то, что измеряется.

Тут два важных шага

  1. сбор самих данных (что на вход идет)
  2. сбор разметки (ожидаемый ответ идеальной системы)

ВАЖНО: эти данные – не для обучения. Мы вообще тут ничего не обучаем в обычном смысле. Данные нужны для валидации. Чтобы численно сверять разные подходы и выбирать лучший. И показывать метрики бизнесу, конечно.

Данные (1) должны максимально захвытывать всю совокупность реальных инпутов. В моем случае, это были решения на разных языках и разные по успешности и длине.

Разметка (2) должна быть супер качественной. Я выбил по несколько часов срузу у 10 разных разработчиков в компании, чтобы они оценили код по 5 балльной шкале. При чем каждый пример оценивался 2 разработчиками, и минимизировалось число элементов, которые оценивала одна и та же пара.

Нафига так сложно?

Чтобы минимизировать bias (смещение?) особенностей восприятия конкретного разметчика (или конкретной пары). Пишите в лс, если нужен сприпт распределения данных по разметчикам.

Грабли:

  1. Я слишком поздно догадался отфильтровать все элементы, где у разметчиков сильно расходилось мнение. Глупо измерять качество оценки LLM, сравнивая его с оценкой, в которой мы сами договориться не можем.

  2. Абсолютные оценки дают очень низкую разрешающую способность. У меня было много кода на 4 из 5, но это были очень разные 4 из 5. Просить оценить код по 100 бальной шкале было бессмыссленно, потому что люди в целом не очень хорошо дают абсолютные оценки и флуктуации бывают на 10-20 баллов. Правильнее было бы сделать систему относительной оценки, когда разметчикам давалось бы два примера кода, и нужно было бы выбрать из них лучший. И рейтинг ЭЛО, как в шахматах или в llmarena.ru.

Нужно рандомно отложить часть данных (процентов 20) и вообще их не трогать до самого последнего этапа.

Тут как раз душный момент из ML (гуглить train test data leakage). Да, мы не обучаем модель в прямом смысле, а строим систему через перебор промптов и комбинирование запросов. Чтобы понимать, что работает, а что нет, мы прогоняем систему на данных и смотрим где лучше результат. И в этом смысле, получается, что мы типа "обучаем" нашу систему типа "на данных".

Поэтому нам нужна отложенная выборка, которую мы не видим в процессе итераций, чтобы на ней оценить качество итоговой системы "в чистую".

4. Итерации

Большую часть времени после сбора данных мы проводим вот в этом цикле посередине

Из документации Anthropic
Из документации Anthropic

Хорошо, когда наши аутпуты легко проверить на корректность. Например, оценка кода, или id релеватного блока документации для AI техподдержки. Тогда мы просто сравниваем 1 в 1 (для id) или считаем ошибку (для оценки).

А что если мы делаем саммари статей? Как понять, что сгенерированное саммари достаточно хорошее в сравнении с "идеальным" в нашем тестовом датасете? Посимвольное сравнение точно не сработает – текст может отличаться кардинально, при этом по смыслу очень хорошо попадать.

Тут можно много костылей нагородить, но я сразу скажу про OpenAI Evals – новый встроенный инструмент. Есть не только вездесущее семантическое сравнение на ембеддингах, но и фактологическое, что гораздо полезнее. И вообще позволяет задать любые (!) кастомные критерии.

На практике, часто вижу, что многие не греют себе голову с тесткейсами – просто смотрят на результат генераций на нескольких примерах, и интуитивно итерируют промпты. Такой вайбчек. Вполне имеет место быть, так что начинать можно вообще без заморочек с разметкой (но я делал не так 🤷‍♂️)

Тем временем, президент OpenAI
Тем временем, президент OpenAI

Хорошие LLM пайплайны часто напоминают хорошо выстроенные процессы в компаниях. А хорошие промпты – хорошие инструкции или документацию. Попытайтесь думать про LLM систему не как про обычный код, а как про набор умных студентов 3-4 курса, у которых почти нет контекста про ваш бизнес, но которых вам нужно организовать. Реально работает!

5. Продакшн

Тут возникают проблемы, которых не было во время локальных итераций. Выбираем на свой вкус, где стелить соломку:

  1. Fallback на других провайдеров, если OpenAI не отвечает
  2. Добавляем жесткие таймауты (частый кейс, что при большом количестве одновременных запросов, небольшая часть из них выполняется сильно дольше)
  3. Делаем retry + exponential backoff на случай пробития лимитов по токенам или запросам в секунду. Особенно критично, когда у вас низкий уровень аккаунта.

из документации не очевидно, но уровень определяется суммой трат, а не пополнений, так что просто закинуть денег – не увеличит лимиты.

  1. Логгирование и мониторинги. Сохранять все пары вход-выход – супер полезно. Плюс знать, сколько токенов и когда потрачено. Можно слать руками в какую-нибудь графану, можно использовать специализированные тулзы вроде lunary, а можно использовать новое встроенное логгирование от OpenAI (store=True).

Окно в интерфейсе OpenAI, где можно посмотреть сохраненные запросы. <br>
P.s. Справа вверху две крутые волшебные кнопки
Окно в интерфейсе OpenAI, где можно посмотреть сохраненные запросы.
P.s. Справа вверху две крутые волшебные кнопки

Можно еще мониторить data drift, аномалии и т.д., но это даже не следующий уровень, так что забейте пока.

  1. Если в запросах есть инпуты конкретного пользователя, добавляем его id в запрос через параметр user. Если какие-то запросы будут нарушать политику OpenAI, это поможет и найти нарушителя, и с OpenAI разобраться (вот мол, конкретный юзер косячит, мы сами белые пушистые, а пользователя уже заблочили).

Что дальше?

  1. Прочитать методичку про промптингу (https://www.promptingguide.ai/)
  2. Восхититься идеей ембеддингов
  3. Разочароваться в ней
  4. Научиться работать со structured_outputs, чтобы структура ответа модели была детерминированной
  5. Начать использовать LangChain, чтобы понять, что вы это зря.
  6. Потратить кучу времени итерируясь над промптами в реальных задачах, чтобы обучить свою нейросетку в голове.
  7. Научиться делать мониторинг (и самих ответов, и метрик, и костов, и ошибок, и дрифта входных данных)

Если вам нравится такой контент, скоро будет разбор structured_output в моем канале, где пишу про LLM, предпринимательство и грабли, на которые наступаю.

42 комментария 👇
Максим Артемьев Основательный нажиматель на кнопки 7 февраля в 15:12

Как человек который работает с генеративными модельками каждый день я искренне надеюсь что AI инфоцыган которые пишут обертки над апи и называют это AI продуктом в какой то момент станет настолько много, что они все дружно станут никому не нужны. Как это случилось с инфоцыганами дропшипперами, инфоцыганами с курсами по программированию и другими инфоцыганами.

Так что спасибо за пост, надеюсь таких AI продуктов от предпринимателей которые не разбираются в мл станет больше и моя мечта наконец сбудется.

  Развернуть 1 комментарий

@mrartemev, мне кажется, это уже частично происходит, когда всё приложение строится на том, что очень легко скопировать или внедрить как фичу в веб-клиенте провайдера.

Пример: тысячи стартапов по принципу "chat with your pdf", которые дружно схлопнулись, когда в ChatGPT и прочие добавили функцию загрузки документов.

  Развернуть 1 комментарий

@irina_krotova, Кажется, этот кейс скорее подтверждает продуктовую ценность llm-врапперов.

Просто не стоит делать AI-бизнес на широком рынке, где у главных игроков стоимость дистрибьюции = 0. Да еще и без ценности доменной экспертизы.

Нишевый Consensus для поиска по научным статьям вполне живет

  Развернуть 1 комментарий

@mrartemev, по вашему, разработчики GitHub Copilot инфоцыгане?

  Развернуть 1 комментарий

@nikolay_sheyko,

Я вижу что у вас два вопроса по цене одного, поэтому я отвечу на оба

Для чего вы написали этот комментарий в клубе?

Это хороший вопрос. Не знаю, наверное лучше было бы потрогать траву и не отвечать. Я хотел донести до читателей вашего поста свою точку зрения: продукты построенные на умном подбирании промпта это не продукты, а "предприниматели" которые продают эту идею - просто новая волна инфоцыган.

по вашему, разработчики GitHub Copilot инфоцыгане?

Давайте я распишу разницу между тем что происходит в Github Copilot и тем что вы пишете в посте.

Что делают в Github Copilot:

  1. Собирают уникальные данные
  2. Учат, файнтюнят и валидируют собственные LLM модели направленные на text editing, full line completion, code understanding
  3. Дистиллируют и ускоряют эти модели
  4. Сервят эти модели на своем бекенде, разрабатывают систему дистрибуции этих моделей

Вдобавок к тому что я перечислил, можно сказать что Github Copilot был одним из первых успешных LLM-based проектов, который подтолкнул развитие других автокомплитов.

Так что нет, я не считаю что разработчики Github Copilot инфоцыгане.

То что происходит у вас в посте вам лучше знать, но я могу показать как я его прочитал:

  1. Напишите промпт в чатгпт
  2. Найдите лохов (бизнес) который заплатит вам за этот промпт и даст еще денег
  3. Подберите промпт получше на данных которые вам дали
  4. Не выдавайте шизовые аутпуты
  5. Поднимите простой бекенд и поставьте очевидные флаги на апи запросы к чатгпт

Так что да, я считаю что это не бизнес, не предпринимательство и даже не уважаемый хастл или индихакинг, это просто поиск и разводка лохов (бизнес) на бабки. Каждый сам решает как к этому относиться, это не обязательно плохо.

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...

@mrartemev, было некоторое время назад мнение, что "вот сейчас фундаментальные модели съедят все врапперы и будет одна страшная монополия и больше ничего". Один большой OpenAI.
Но сейчас уже, как я понимаю, все больше указывает на то, что наоборот, в распределении added value вполне может победить самый верхний слой, именно продуктовые решения, applications, которые вам не нравятся (а чем, кстати, они вам не нравятся? в чем проблема курсов по программированию, если такой запрос у рынка есть?).

А фундаментальные модели наоборот коммодитизируются, и там будет некая олигополия, но не сильно способная отжать цены на свои услуги вверх. Например, вот ведь все, что вы творите с вашими моделями вообще-то требует электричества, и скорее всего поставщики электричества в вашей стране - это монополия / олигополия, но почему-то мы на них не молимся и не считаем, что вот они создают основное value (220В, 50 герц), а все остальное так - так, плесень инфоцыганская... :) Возможно, также будет и с крупными модельками, если их будет в мире больше чем несколько (а это уже так).

  Развернуть 1 комментарий

@bukachu, Я не думаю, что было такое мнение, что модели съедят врапперы, просто потому что у них разные зоны ответственности. Это как сказать, что базы данных съедят все SaaS'ы. Но вот провайдеры этих моделей своими интерфейсными решениями реального могут съесть большое количество врапперов. Просто потому что у них стоимость дистрибьюции нулевая – все и так знают про chatgpt.

Поэтому они и добавляют интерфейсные решения, которые полезны очень широкому кругу и не требуют нишевой экспертизы или настройки. Например встроенный RAG для чата с pdf-кой или Canvas для удобного редактирования текста. Но это всегда будет супер универсальная штука, так что маленьким ребятам можно нишеваться сколько угодно и выигрывать за счет супер продуманных интерфейсов и интеграций под конкретный рынок

  Развернуть 1 комментарий

@bukachu, Отличное рассуждение! Не совсем понимаю как оно связано с моим тейком, но да, то что вы говорите имеет смысл.

Хочется только добавить:

в чем проблема курсов по программированию

Курсы по программированию - охуенно. Хуевые курсы по программированию созданные для того чтобы состричь бабок с лошков которые несут деньги куда попало - плохо.

Верхний слой, продуктовые решения - супер. "Продукт" который берет деньги за то чтобы отправлять "умный" промпт в чатгпт - нет.

  Развернуть 1 комментарий

"Так что самая большая ошибка – идти изучать классический Machine Learning и обучение нейронок. Это профессия, которая будет вырождаться – компаниям больше не нужно обучать кастомные нейронки под свои задачи, когда со всем справляется GPT, ллама или deepseek."

Ога, а потом:

  1. У всей твоей компании отваливается саппорт потому что у гпт недоступно апи/внезапно кончились токены. Кор-функционал в лучшем случае пилят на опенсорсе, в худшем с нуля под себя
  2. Один хрен нужно дообучать модели под свои задачи
  3. LLM это далеко не все задачи которые решаются ML/DL

С остальным содержанием поста я не спорю, сейчас рынок не смотря на хайп всё ещё сырой и такое работает, только мне кажется что с годами вырождаться будет скорее такой авантюристский подход, чем фундаментальные навыки

  Развернуть 1 комментарий

@achevozerov,

1.

Я вроде не говорю, что обязательно внешний api использовать. Чем ллама и дипсик не опенсорс?

Бтв, если у вас кончились оплаченные токены, то дешевле лечить это алертами или автоматической оплатой, а не переходом на локальные модели. Ну и про fallback в случае простоя OpenAI написано в посте.

Другое дело, что есть вопрос прайваси, и не все компании в принципе готовы отправлять данные за пределы контура. Тогда да, занимается LLMops и хостим локальные модельки. Но это не AI разработка 🤷‍♂️ Для разработчика не сильно важно во внешнем контуре API или нет.

2.

Если честно, мне кажется голословным. Я, наоборот, все больше вижу кейсов, где файнтюненные модели просто заменяют нормальными пайплайнами с хорошими промптами.

Но даже если очень хочется дообучить, сейчас это делается тривиально в 90% случаев

3.

Это точно. Поэтому я пишу AI разработка, а не ML Engineering или Data Science. Сейчас в инфополе AI примерно равно LLM и 99% вакансий на AI developer будут про LLM


Про вырождение не согласен. История показывает, что после появления нужных слоев абстракции, очень мало программистов знает как работает процессор, как писать код на ассемблере и как устроены под капотом базы данных и браузер.

Но это не мешает одним писать хороший код, а другим - плохой. И вот тут действительно есть какие-то фундаментальные навыки, которые точно нужны. Но мне кажется, это скорее про умение строить элегантные системы в целом, а не умение написать свою БД.

  Развернуть 1 комментарий

@nikolay_sheyko, Ну на счёт написать свою БД. Да в основных случаях нельзя, но иногда орчень надо. И резко надо, например, Uber пришлось свою базу для процессинга платежей написать.

  Развернуть 1 комментарий

@alexeyS, значит ли это, что любой хороший разработчик должен знать как написать свою бд?

  Развернуть 1 комментарий

@nikolay_sheyko, Я не совсем о том. Просто смотрите вот человек ездит на машине. Надо ли ему знать, что там есть силовая установка, подвеска, колёса, тормоза и как это всё вместе работает. Вы и без этого можете ездить. Но если вы это всё знаете, это вам позволяет автомобиль эксплотировать безопаснее, что ли, ну и в автосервисе вас сложнее обдурить.

Ну и в целом знать и понимать как работает мир во круг себя, приятно и полезно. Вам как и мне ни чего не даст знание о том, как устроен двигатель внутреннего сгорания, что такое ГРМ(Газо распределительный механизм), КШМ (Кривошипно-шатунный механизм). Но это даёт понимание, что откуда берёться и почему.

  Развернуть 1 комментарий

@alexeyS, Эти знания точно не будут лишними, да. Но пост про то, как «начать водить машину» и тут я пишу, что если хотите получить результат, то тратить время на изучение кривощипно-шатунного механизма – вообще не первый приоритет. Хотя многое думают именно так

  Развернуть 1 комментарий

@nikolay_sheyko, Ну да. В прицепе. Правда ПДД правила в любом случае надо знать.

Дак вот к чему я клоню. Что считается знанием как устроена подвеска. а что относиться к знанием ПДД. Вот относительно ML как определить?

  Развернуть 1 комментарий

@alexeyS, ML очень широкая область, чтобы эту аналогию было легко натянуть. Для одних ролей, знание архитектуры трансформера – это базовые страницы в ПДД, для других – это подвеска.

Если мы говорим про обычную LLM разработку, то я бы интуитивно сказал, что понимание метрик классификации и регрессии, data leakage, переобучение – все еще нужно.

Архитектура трансформеров и механизмы обучения – полезно, но не обязательно.

  Развернуть 1 комментарий

@nikolay_sheyko, Спасибо. Не хотите ещё оду статью на эту тему написать?

  Развернуть 1 комментарий

@alexeyS, Пока не очень понимаю, что туда писать на целую статью. Есть предложения?

  Развернуть 1 комментарий

@nikolay_sheyko, У меня нету.

Хотя, может если хочешь это учи это и то. Если другое учи вот это.

  Развернуть 1 комментарий

Я достаточно давно работаю в области и сейчас занимаюсь тем, что делаю внутреннюю production-ready платформу для AI-агентов со всеми сложностями вроде scalability и подсчетом бюджета.

Не очень согласна с дихтомией, что либо вы сами обучаете foundation models, либо делаете запросы к провайдерам, а все, что посередине - нишевые знания для R&D отделов в тех-гигантах.

В предыдущих сериях, если что, тоже мало кто на работе обучал Берта с нуля, чтобы сделать чат-бота техподдержки :)

Действительно, с появлением model as a service порог входа снизился, так как не надо собирать данные, потом обучать модель под свою задачу, а потом ее где-то хостить, чтобы показать прототип и узнать, что проект не одобряют. Прототип можно сделать по инструкции выше.

На мой взгляд, сейчас просто по-другому устроен порядок процесса разработки: вы быстро делаете прототип, собираете фидбек, а потом начинаете обучать свои модели поменьше там, где это возможно, чтобы использовать как fallback, router'ы или просто снизить косты.

Если начать считать затраты vs. прибыль, многие задачи гораздо адекватнее решать классическими классификаторами предыдущего поколения или применить что-то из классического Information Retrieval'а.

Проблема в том, что если человек научился только писать промты и запускать langchain, он это не применит. Но не надо стрелять из пушки по воробьям каждый раз, когда вам надо проверить, например, похож ли input на связный текст :)

И чем больше такого вы отсеиваете классическими методами, тем ниже ваши косты на AI as a Judge.

Опять же, многие библиотеки для AI Evalation под капотом представляют собой ребрендинг какого-нибудь давно известного подсчета расстояния между строками.

  Развернуть 1 комментарий

@irina_krotova, тут мне не с чем поспорить, спасибо за супер крутое дополнение к посту, реально часто задача решается классическим ML на порядки дешевле и быстрее на инференсе.

Могу только добавить, что не смотря на это бизнесу может быть проще заплатить лишние сотни баксов в месяц за этот инференс, чем тысячи на найм ML/DS. Но как доп. инфа к посту, что так вообще можно - топ

  Развернуть 1 комментарий

@nikolay_sheyko, мне кажется, что тут, опять же, не только снижение спроса на специалистов, но и рост возможностей.

Те бизнесы, которые раньше в принципе не могли позволить себе никакой ML, так как к одному специалисту нужно нанять сразу еще команду для поддержания инфраструктуры и закупить вычислительные мощности, а потом ждать, пока соберут данные и что-то там натренируют, теперь смогут внедрять AI в свои пайплайны на уровне прототипов и быстро проверять, приносит ли им это вообще прибыль или нет.

Этим же бизнесам до какого-то момента будет дешевле заплатить за инференс, потому что внутри компании не будет экспертизы для того, чтобы эту самую ML-команду в принципе нормально нанять и прособеседовать.

Я в целом это уже тоже видела в чат-ботах несколько лет назад: для маленького бизнеса всегда было удобнее купить коробочное решение, чем нанимать команду по Conversational AI.

  Развернуть 1 комментарий

@irina_krotova, 💯

Кажется, тут хорошо подойдет ссылка на парадокс Джевонса. Верно уловил?

  Развернуть 1 комментарий

😱 Комментарий удален его автором...

  Развернуть 1 комментарий

@nikolay_sheyko, да, согласна.

У меня в целом общий пойнт, что если давно наблюдать за индустрией, то регулярно случается что-то в духе "вчера вышло X, и теперь не надо конструировать фичи/уметь перебирать параметры/знать классический ML/знать классические нейронки, теперь будем перекладывать json'ы".

Но в итоге если job security и ухудшается, то не из-за X.

И почти все, что мы видим в современных LLM и вокруг - не вчерашний научный прорыв, а во многом еще первая версия книги Jurafsky + архитектура трансформера 2017-ого года выпуска, домноженная на вычислительные ресурсы.

Вот и текущий момент с агентами и foundational models выглядит как новый виток всё той же истории.

Для медианного бизнеса в любом случае важнее уметь все это дело заинжинирить и вывести в продакшн, а не дополнительные 0,005% качества.

А по-настоящему интересных позиций на уровне фундаментальных исследований всегда было мало, так как такое себе может позволить только бигтех или богатые государства.

Либо всегда можно пойти в чистую науку с меньшей зарплатой и постоянным поиском нового постдока, это всегда welcome :)

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...

когда со всем справляется GPT, ллама или deepseek.

Как с помощью LLM детектить фрод и поддельные документы? (Серьезный вопрос, нужен совет)

  Развернуть 1 комментарий

@nakopylov, Без контекста сложно что-то дельное ответить. Могу ответить вопросом на вопрос:

Вы можете написать хорошую инструкцию или чеклист, пройдя по которому студент четверокурсник, который пришел к вам работать неделю назад, сможет с высоким качеством проверять, что документ поддельный?

  Развернуть 1 комментарий

Очевидно, нет, иначе это не было бы проблемой и аутсорсилось бы индусам.
Видать, возможности LLM решать любую задачу слегка преувеличены. Я думал, что упустил какой-то скачок в их развитии.

  Развернуть 1 комментарий

@nakopylov, а, это всё таки был саркастичный способ ткнуть меня в гиперобобщение. Да, вы правы, не все задачи любой компании решаются LLMками. Добавил уточнение.

  Развернуть 1 комментарий

@nakopylov, Никак - для этого нужны другие модели, как минимум распознающие документы подделанные с помощью AI image gen. Вот пример что уже умеют: https://www.linkedin.com/feed/update/urn:li:activity:7282862632829677569?updateEntityUrn=urn:li:fs_updateV2:(urn:li:activity:7282862632829677569,FEED_DETAIL,EMPTY,DEFAULT,false)

https://habr.com/ru/companies/hflabs/articles/478538/

вот еще пример что делают банки, на хабре много РФ-релевантных примеров. За границей не знаю - но они и в гос-базах проверяют и с помощью компаний отдельных которые таким занимаются

  Развернуть 1 комментарий

@nakopylov, Когда я работал над KYC в Sumsub это было именно то что делала моя команда. Если коротко, то с помощью ллм - никак. Тебе нужно уметь учить свои картиночные модельки которые на пиксельном уровне могут по распределению значения пикселей понимать картинка сгенерированна или нет.

  Развернуть 1 комментарий

@nakopylov, А нормально, что вы персональные данные из документов . Сливать в OpenAI или чем вы там пользуетесь? Вам нужно Enterpraise решение в собственном контуре.

  Развернуть 1 комментарий

Барев дзес, ахпер джан!
Спасибо за пост. Помог структурировать мысли в голове вокруг того как и куда прикрутить LLM. Пошел курить методичку по промптингу.

  Развернуть 1 комментарий
Alexander Belskiy Со-основал, теперь пилю 🪚 11 февраля в 14:05

Очень согласен про то, что 95% запросов в 95% бизнесов проще будет решать инференсом, и для этого нужны люди уровня "бизнес-аналитик с опытом, описанным в статье", а не ML специалист.

Может быть потом, если все работает, если все отскейлилось и быстро растет, возникнет задача снижения костов, где опять же, вначале можно покрутить готовые модельки подешевле, а уж потом, если не помогло, что-то самим пилить. Не разрабатываем мы для бизнеса же операционку для десктопов или драйвера для принтера. И CRM разрабатываем, только если бизнес с относительно уникальной бизнес-моделью, а для "обычных бизнесов" коробка будет куда лучше.

Наблюдаю все это из достаточно технологичного бизнеса, где есть и отдел, который 10 лет учил свои ML'ки (специфические, но и их, кажется, сейчас смогли бы сделать в разы быстрее-проще-дешевле), и сейчас вижу в бизнесе прямо тысячи чел/дней потенциальной экономии с помощью простых пайплайнов на базе готовых LLM.

  Развернуть 1 комментарий

Вы таки определитесь. Вы хотите сделать бэкендера для openai-api, либо вы говорите про то, что стало модно называть Applied Scientist?

Промптинг, склейка API и менеджмент данных - это первое.
Но если вам хоть на секунду потребуется своё - тут по цитате Майка Тайсона, все эти ходы в статье хороши до первого удара в лицо. Удара в лицо в виде дебага модели. Как только хоть на наносекунду появится требование "обоснуй" - весь этот api-driven development заканчивается и внезапно нужно разбираться а каким хером это работает, проверено на опыте.

  Развернуть 1 комментарий

@mighty_conrad, где вы увидели в статье хоть что-то похожее на Applied Scientist?

Расскажите про свой опыт, что вам нужно было обосновать и как вы дебажили LLMки?

  Развернуть 1 комментарий

@nikolay_sheyko, в названии "AI-разработчик". Это ИИ разрабатывать должен, или разрабатывать сам ИИ?

ЛЛМки слава господи ещё не дебажил, но с трансформерами поменьше париться приходилось. Самое свежее, для ассистента для каких-то медиков нужно было обоснование прогноза модели, это не генеративный ИИ был. Обоснование прогноза по факту свели к интерпретации через вектора Шепли.
Дебажить модели сами - ну из последнего был момент в е-коммерсе, когда типы удивились, что не могут предсказать новый ажиотажный спрос, когда внутри был бустинг на деревьях, который по определению не способен предсказывать за пределами значений в выборке, пришлось ковыряться и доделывать.

  Развернуть 1 комментарий

@mighty_conrad, AI разработчик сейчас используется в 95% вакансий для описания разработчика, который строит пайплайны поверх LLM. Можно бесконечно спорить об определениях, но я выбрал то, что вижу в вакансиях как референс. У вас может быть другое определение, это ок 🤷‍♂️

Я думаю, ваши примеры хорошо подходят для классического ML, где модели реально обучают под конкретную задачу – там без понимания внутрянки от fit/predict толку не будет, да. В случае с LLM в 2025 году – это не нужно. Нужна интерпретируемость – добавьте custom chain of though через structured_output и смотрите где рассуждения модели идут не туда, и что в ваших промптах/примерах к этому приводит.

  Развернуть 1 комментарий

@nikolay_sheyko, ну тогда всё справедливо. У меня картинка немного иная, потому что видел другие два варианта, и бэкендер (LLM), и Data Scientist/Applied Scientist. Обид нет, всё нормально.

Единственное что, хайп хайпом, но ML на LLMках от закрытых вендоров не заканчивается, мне лишь достаточно, чтобы до людей, что выдают деньги на это всё, это доходило быстрее и тогда хотя бы появляется реально интересная работа.

  Развернуть 1 комментарий

Попытайтесь думать про LLM систему не как про обычный код, а как про набор умных студентов 3-4 курса, у которых почти нет контекста про ваш бизнес, но которых вам нужно организовать. Реально работает!

Брр. "Куки-монстр" Винджа вспомнился чет

  Развернуть 1 комментарий

😎

Автор поста открыл его для большого интернета, но комментирование и движухи доступны только участникам Клуба

Что вообще здесь происходит?


Войти  или  Вступить в Клуб