DeepSeek-R1: как 47 человек из Ханчжоу встряхнули AI-мир и зачем нам это знать

 Публичный пост
30 января 2025  3668
Держи долор

Привет!
Меня зовут Михаил, и мои проекты очень связаны с темой AI. Многие видели громкие заголовки о DeepSeek, но почти никто не вчитывался в подробности.

Решил поделиться своим разбором для не специалистов, потому что это реально очень круто и изменит очень многое в отрасли и, скорее всего, мире.

Что произошло 27 января 2025?
Насдак упал на 3%.
Nvidia влетела на минус 17%, потеряв 600 млрд долларов за один день — исторический антирекорд.
Microsoft догоняющим ударом минус 7 млрд долларов капитализации на послеторговой сессии.

Как выяснилось, причина одна: DeepSeek-R1 — это модель искусственного интеллекта, которую выложила в открытый доступ китайская компания DeepSeek, принадлежащая хедж-фонду High-Flyer.

Чем DeepSeek-R1 так зацепила рынок?

  1. Неожиданный игрок

Обычно, когда речь заходит об ИИ, в голову приходят OpenAI, Google, Microsoft, Meta — все эти гиганты с огромными командами и бюджетами в сотни миллионов (а то и миллиарды) долларов. Казалось бы, конкурировать с ними невозможно. И тут — бац! — 47 человек из Ханчжоу берут и выпускают модель, которая показывает сравнимые результаты с GPT-O1!!!, но стоит им это в 50 раз дешевле.

  1. Открытый доступ вместо «закрытых платных решений»

DeepSeek-R1 выложили бесплатно и с открытым исходным кодом. То есть каждый желающий может:

  • Скачать и попробовать запустить у себя (если есть компьютер с 8 супер GPU).
  • Копаться внутри и улучшать под свои задачи.
  • Для многих компаний (в том числе стартапов, которым не по карману GPT-4o API) это не просто экономия, а реальный шанс войти в клуб «хай-перформанс AI».
  1. «AI против AI» и прочие фишки оптимизации

Немного деталей о том, как DeepSeek-R1 смогли так сильно ужать бюджет обучения — 5,6 млн долларов против сотен миллионов у конкурентов (на самом деле там больше денег чем 6M конечно потратили, но официальная версия такая):

  • AI обучает сам себя. В крупных корпорациях тысячи людей сидят и размечают данные, помогают модели отвечать корректнее, исправляют ошибки. В DeepSeek большую часть этого процесса отдали самой нейросети.
  • Селективная активация. GPT-4o всегда тянет все «мозги» при любом вопросе, а R1 включает только нужные участки сети. Меньше вычислений — меньше расходов.
  • Дистилляция. Многие топ-лабы давно играются с идеей «ужатия» нейросетей без потери качества, но DeepSeek, видимо, довели её до ума, снизив объём памяти до -75%.

Они просто подумали:
-А что будет, если обучить модель с точностью в четыре раза меньше. Меньше памяти, меньше времени , меньше электричества. А результат оказался ниже только на 10 процентов.

  • Самокоррекция. Вместо перманентного «дообучения» на новых ошибках, R1 генерирует несколько ответов и сама выбирает лучший. Представьте ученика, который перед сдачей экзамена пробегает варианты в уме и выбирает оптимальный.

Хедж-фонд вместо «классического AI-стартапа»
Как выяснилось, High-Flyer — это хедж-фонд, который зарабатывает на биржевой волатильности. По сути, когда цена акций где-то скачет, они на этом выигрывают. И им не надо делать платные подписки на свой AI, как это делают OpenAI или Google — у них другая бизнес-модель.

Монетизация у них получается через колебания рынка, а не через платный доступ к модели. То есть у DeepSeek нет причин «закрывать» код и продавать лицензии; наоборот, им выгодно посеять панику и хайп, ведь это увеличивает рыночные скачки.

Реакция гигантов

  • OpenAI. Планировалась новая модель O3 на январь 2025, но релиз тихо отложили. Официально: «Мы хотим, чтобы следующий апдейт был по-настоящему революционным, а не промежуточным.» Но, судя по утечкам, им пришлось срочно пересматривать архитектуру, чтобы не выглядеть устаревшими рядом с DeepSeek R1.
  • Meta. Вроде бы в кулуарах говорили, что топы Meta не понимают, как их 10 000 сотрудников проиграли команде из 47 человек. По слухам, там сейчас даже внутренние совещания по оптимизации бюджета на нейросети.
  • Nvidia. Эта компания стала одним из главных бенефициаров AI-бума, ведь для обучения крупных моделей нужны десятки тысяч дорогостоящих видеокарт. А теперь оказывается, что не нужны. Люди посмотрели на DeepSeek-R1 и поняли: «А мы можем тратить намного меньше денег на железо!» Вот вам и удар по акциям.

Почему это интересно нам с вами?

  • Порог входа снижается. Представьте, вы стартап или небольшая фирма, у вас нет сотен миллионов, чтобы обучать собственную GPT-like модель. Но раз DeepSeek-R1 доступен бесплатно, можно взять его за основу и адаптировать под свои задачи. Это как иметь маленькую (но крутую) версию AI без гнета подписок.
  • Открытая экосистема. Когда модель открытая, появляется миллион ответвлений и модификаций. Раньше такой подход выстреливал, например, в Linux-сообществе. Почему бы не повториться и с AI, если им займутся сотни тысяч разработчиков по всему миру?
  • Глобальное влияние. DeepSeek уже обходит экспортные ограничения США (там ведь часто накладывают запреты на продажу передовых технологий в некоторые страны). А здесь — код в открытом доступе, не надо ничего «продавать». Пошёл да скачал. Это может серьёзно изменить расклад сил на мировом AI-рынке.

Мои мысли и вопросы к вам
Я вижу в этом всём историю а-ля «Давид против Голиафа», где маленькая, но умная команда вышла против нескольких гигантов и сорвала куш в виде мировой шумихи. При этом своей открытостью они могут выстроить гигантскую экосистему сторонников.

Что думаете, будет ли это точкой перелома? Пойдём ли мы все по пути «эффективных open-source моделей», или всё-таки гиганты вернут себе лидерство за счёт невероятных инвестиций и договорённостей?

Мне кажется, это реально важный этап для всего AI-сообщества. Когда-то мы смотрели, как Google, Microsoft и OpenAI инвестируют миллиарды, и думали: «Это космос, неповторимо». А теперь выясняется, что командой из нескольких десятков человек можно добиться сопоставимых результатов — главное уметь оптимизировать и иметь смелость выкладывать всё это в открытый доступ.

Итог
DeepSeek-R1 не просто «очередная моделька», а знаковый пример, что в AI больше не решает грубая сила и бездонные карманы.
Крупным игрокам придётся адаптироваться.
Открытый код даёт возможность многим компаниям — а, возможно, и исследовательским группам — делать что-то крутое без астрономических счетов за API.

Надеюсь, мой разбор поможет вам разобраться в сути этой истории и понять, почему все так обсуждают DeepSeek. Если остались вопросы или хотите поделиться своим опытом — пишите в комментариях, всем будет полезно!

Спасибо, что дочитали до конца.
PS конечно я использовал для подготовки этого текста DeepSeek R1 который развернул на облаке Azure за пару минут.
PPS официальный бесплатный доступ к модели от разработчиков лежит из за большого спроса, поэтому и не привожу ссылку.

44 комментария 👇

OpenAI. Планировалась новая модель O3 на январь 2025, но релиз тихо отложили. Официально: «Мы хотим, чтобы следующий апдейт был по-настоящему революционным, а не промежуточным.» Но, судя по утечкам, им пришлось срочно пересматривать архитектуру, чтобы не выглядеть устаревшими рядом с DeepSeek R1.

как же калит жопу такая аналитика,

Откуда вот это официально взялось? Почему Сама ещё в декабре говорил что о3-мини запустят в конце января, а о3 — позже, И РОВНО ЭТО ПРОИЗОШЛО. Откуда взялось вот это "официально мы хотим"? Какие утечки с пересмотром архитектуры? Откуда вы все это берете, с панорамы?

  Развернуть 1 комментарий

@stalkermustang, спасибо Игорь, за твой канал и видео на ютьюбе. С большим уважением отношусь к тебе лично.
Жалко что ты не нашел слова выразится не так грубо.

22.01 была отправлена работа Deep Seek R1
https://arxiv.org/abs/2501.12948
23.01 Altman обьявил что o3 mini попадет во Free tier
https://x.com/sama/status/1882478782059327666
28.01 написал что Deep Seek R1 работает хорошо и где то на уровне ПЛАТНЫХ продуктов Open AI.
https://x.com/sama/status/1884066337103962416
На момент поста 30.01 релиз не был озвучен еще.

Это мое личное мнение что выпуск OpenSource модели такого качества очень сильно повлиял на планы выпуска проприетарных моделей OpenAI
Конкуренция - это очень хорошо.
Ты относишся с пиетитем к OpenAI, многие нет. Корпорация которая создавалась как нонпрофит превратилась в почти государственную закрытую корпорацию.

  Развернуть 1 комментарий

@moshael,
20.12 — sama говорит "о3-мини в конце января, и o3 немногим погодя"...и в итоге оно так и выходит

и те аргументы что ты привел никак не подкрепляют написанное тобой:

  • Откуда взялось вот это "официально мы хотим"?
  • Какие утечки с пересмотром архитектуры?
  Развернуть 1 комментарий

@stalkermustang, ты прав. Такой прямой цитаты не было.
Это галлюцинация именно Deep Seek R1 - As OpenAI CEO Sam Altman stated:
“We’re not going to release a model until it’s truly ready to redefine the conversation.”

  Развернуть 1 комментарий

@stalkermustang, спасибо за коммент, а то уже собрался строчить такой же. Наоборот всё выглядит так, что OpenAI ускорили выход фишек после выхода R1. Вот и вчера выпустили Deep Research.

А что касается тех, кто из-за выхода R1 отложил свои релизы - по неофициальной информации это Мета. Чтобы не выпускать морально устаревшие модели, начали срочно копировать то, что сделали R1. Но это неофициально, по слухам.

  Развернуть 1 комментарий

Немного жалею, что у меня нет нормального запаса кэша, чтобы вложиться прямо сейчас в Насдак и в НВидию в частности.

  Развернуть 1 комментарий

@glader, думаешь надо?

  Развернуть 1 комментарий

@candy, я практически уверен, что это падение быстро отыграется.

  Развернуть 1 комментарий

@glader, отмечусь тут, чтоб вернуться через полгода.

  Развернуть 1 комментарий

Оч хорошее событие, страшно наблюдать, какую монополию строят в штатах со своими Statgate итп

Нужна уравновешивающая сила. Спасибо, китайцы 🇨🇳 💪

  Развернуть 1 комментарий

Я не настоящий сварщик, но все равно вброшу несколько тезисов:

  1. High-flyer это, конечно, неожиданный игрок, но это совсем не случайные люди в индустрии. Они занимались ML-powered трейдингом еще в прошлом десятилетии, а в 2021 году они создали свой первый суперкомпьютер, который через год заменили вторым. Иронично кстати, что сама торговля конкретно с помощью ML и выбранных им стратегий у фонда была не то чтобы слишком успешной.

  2. Я просто не понимаю, как можно всерьез говорить о 6 миллионах долларов. Даже из официальных источников это расходы на обучение одной из предыдущих версий, не учитывает версии, которые были до нее и не учитывает дообучение их последней R1. Лаборатория (а DeepSeek это именно лаборатория при хедж-фонде) годами скупала чипы NVIDIA и собирала отличных спецов, что характерно для HFT. Скорее всего, чипы продолжили скупать и после введения санкций. Это к изначальному тезису о том, что бизнес NVIDIA теперь под угрозой. NVIDIA стала одним из бенефициаров, просто видно это пост-фактум. Но сам факт того, что они сделали обучение намного дешевле, чем сейчас ожидается (видимо, на пару порядков), бесспорно верный.

  3. Про монетизацию, которая достигается через колебания рынка — лаборатория при хедж-фонде определенно не жалуется на финансирование (тут уже начинаются мои домыслы), но продвижение продукта вперед должно стоит дорого. А у фонда есть и свои обязательства перед инвесторами, и я ОЧЕНЬ сильно сомневаюсь, что в период, когда у квантовой торговли непростые времена (регуляции в Китае, в США эта модель была зарегулирована еще раньше) этих инвестиций будет хватать.

  4. Это не первая модель с открытыми весами, выложенная в опенсорс. Я просто напомню, что есть Llama из топов, Mistral из того что на слуху. Их конечно больше, но я не хочу гуглить. При этом это сильный шаг, и многим будет полезен, тоже вопросов нет, просто это само по себе не новаторство.

В общем — это было круто, рынок пошатали хорошо, их хаки в обучении модели точно повлияют на то, как модели будут обучать в будущем, но это не какие-то революционеры из гаража, сделавшие модель на деньги, сэкономленные с корпоративных обедов. Это серьезные ребята, которые долго готовились к тому, чтобы заявить о себе. И это я не беру в расчет еще и спекулятивные вещи, о которых точно не известно, но которые вполне вероятно имели место — о скрытом финансировании.

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...
Денис Кандров Пилим SDK для работы с видео 6 февраля в 07:29

PS конечно я использовал для подготовки этого текста DeepSeek R1 который развернул на облаке Azure за пару минут.

А можно вот про это подробнее? Можно кинуть вменя ссылкой на мануал)
И сколько денег вышло такое использование на подготовку статьи?

  Развернуть 1 комментарий

@toborob, вот инструкция шаг з ашагом со скриншотами
https://www.linkedin.com/pulse/set-up-your-own-ai-deepseek-r1-azurefast-free-easy-michal-barodkin-lud7f/

  Развернуть 1 комментарий

@moshael, Спасибо за инструкцию!

LinkedIn пережал скрины, часть мелкого текста не чёткая.

И сколько денег вышло такое использование на подготовку статьи?

И сколько выходит стоимость такого инстанса не ясно из статьи. Или как она рассчитывается.

  Развернуть 1 комментарий

Я вижу в этом всём историю а-ля «Давид против Голиафа», где маленькая, но умная команда вышла против нескольких гигантов и сорвала куш в виде мировой шумихи.

Мне лично не кажется DeepSeek маленькой инди компанией, твитам о том что они всё это делали в качестве хобби, а так то они математики – тоже не верю.
Когда я узнал что их материнская компания хэдж-фонд, то для меня все эти события сложились в один паззл – это была очень хорошая маркетинговая кампания, которой они дали под жепу всей индустрии, молодцы, конечно.

  Развернуть 1 комментарий

Вот я всё ждал когда кто-нибудь сделает обзор на эту модель, потому что она у меня как у дилетанта вызывает кучу вопросов.

  1. Все говорят про квантование, но это капец насколько не новая идея. Но насколько я могу понять, обычно при квантовании качество просаживается не на 10%. Как у deepseek это получилось? То же самое про остальные заявленные новшества. AI обучает сам себя - никто раньше так не делал?

на самом деле там больше денег чем 6M конечно потратили, но официальная версия такая

High-Flyer — это хедж-фонд, который зарабатывает на биржевой волатильности

Плюс новости, что deepseek украли данные у open ai, теневое финансирование от КПК и т.д. (нет, я бы удивился, если бы их в чём нибудь таком не обвинили). Но, какова вероятность, что там под капотом не какой-то скам, цель которого та самая волатильность?

  Развернуть 1 комментарий

@dartnnn, Спасибо за вопросы. Не хотелось перегружать текст.

Этапы обучения DeepSeek-R1

1️⃣ Базовая модель: DeepSeek-V3-Base
Начинают с предобученной модели DeepSeek-V3-Base.
Это стандартная LLM, но без специальных улучшений reasoning(так себе модель, не лучше и не хуже других).

2️⃣ Этап RL без аннотированных данных (DeepSeek-R1-Zero)
Применяют чистый Reinforcement Learning (GRPO) без Supervised Fine-Tuning (SFT).
Это первая LLM, которая учится reasoning сама, без внешней разметки.
В процессе обучения:
Модель учится размышлять через RL (развитие Chain-of-Thought, самооценка).
Никаких аннотированных данных в начале не используется.
Постепенно появляется "Aha moment", когда модель сама начинает улучшать reasoning.

3️⃣ Проблемы DeepSeek-R1-Zero → Добавление "Cold Start" данных
DeepSeek-R1-Zero плохо читалась (путаница языков, сложный CoT).
Чтобы исправить это, добавили небольшую разметку (Cold Start Data):
Тысячи длинных Chain-of-Thought (CoT), отобранных вручную.
(или честно стыренных по API у Open-AI)
Добавили структурированные ответы: reasoning + summary.
Эти данные помогли модели писать более читаемые ответы.

4️⃣ Этап RL на Cold Start версии (DeepSeek-R1)
Повторяют Reinforcement Learning, но теперь на базе улучшенной версии с Cold Start Data.
Добавляют награды за консистентность языка (Language Consistency Reward), чтобы модель не мешала языки.
Этот этап дал резкий прирост точности reasoning-задач.

5️⃣ Финальное Supervised Fine-Tuning (SFT) с Rejection Sampling
Собирают 600k reasoning-примеров, отбирая лучшие ответы модели (Rejection Sampling).
Добавляют 200k примеров по письму, QA, переводу (из DeepSeek-V3).
Тонкая настройка (SFT) на 800k примерах.

6️⃣ Финальный этап RL для общей оптимизации
Еще один этап RL, но теперь с учетом всех типов задач (не только reasoning).
Фокус на "helpfulness" и "harmlessness" (чтобы модель была удобной в общении).

а дальше создание маленьких моделей. Причем оказалось что не квантизация (просто снижение точности), а дистилляция (отбрасывание не сильно задействованной при рассужденияъ информации) показывает лучшие результаты.

Самообучение AI — разве это новая концепция?
Нет, но DeepSeek-R1 первая модель, где чисто подход Reinforcement Learning (RL) без начального SFT позволил модели самой формировать reasoning-способности.

Это точно не скам так как они выпустили все модели под свободной лицензией. Любая компания может купить сервер и запустить на ней свою локальную версию топовой LLM без подключения к интернету. Раньше это часто было самым большим ограничением по внедрению топовых моделей.

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...

Есть ощущение, что автор спецпиально попросил нейросеть набросать спорные постулаты (а порой и просто додумки) ради комментов (была бы реклама еще ТГ канала, вообще бы все сошлось).

Модель монетизации через колебания рынка... А нет ли пруфов для таких выводов?

  Развернуть 1 комментарий

@sphinks, хэдж фонд который занимается квантовой торговлей. В википедии есть подробно информация и о первом и о втором.

  Развернуть 1 комментарий

Тут больше интересных подробностей, что под капотом:
— с 12:15 по 14:45
— с 15:15 по 19:01

А с 08:26 общие факты

  Развернуть 1 комментарий

@davlad, о да, мой любимый AI-канал, с большим отрывом.

  Развернуть 1 комментарий

Скачать и попробовать запустить у себя (если есть компьютер с 8 супер GPU).

А почему 8 супер? R1-14B у меня на 4070 Ti запустилась и бодренько заработала, и даже следующая пошла, хоть и не так быстро.
Однако ж локальная модель не впечатлила чот, полноценных ответов на русском добиться не получилось (а мне в основном нужен русский).

  Развернуть 1 комментарий

@Klalofu, полноценная версия модели без дистилляции требует 10 NVIDIA H200 GPU, но с понижением точности её можно запустить и на 8.
Что касается русскоязычных ответов, эта модель изначально не разрабатывалась как мультиязычная, поэтому её результаты на языках, кроме английского и китайского, могут быть не такими качественными. Дистиллированные версии, работающие на одной видеокарте, тоже, к сожалению, теряют в качестве.

  Развернуть 1 комментарий

@Klalofu, это дистилляты. Однако дистиллят на Лламу 70б вполне неплохо говорит по-русски.

  Развернуть 1 комментарий
Alex V ORM (интернет репутация) 4 февраля в 13:36

Во время чтения не покидало ощущение, что обзор писался с помощью ИИ, и в конце это подтвердилось :)
Но в целом текст понравился, хотя и хотелось чего-то более глубокого после такого заголовка.
Однако одну фразу совсем не понял, можете пояснить?

Селективная активация. GPT-4o всегда тянет все «мозги» при любом вопросе, а R1 включает только нужные участки сети. Меньше вычислений — меньше расходов.

  Развернуть 1 комментарий

@MyDen, они использовали Mix of expert. Модель обучена активировать только те зоны знаний которые необходимы для решения текущей задачи.
В таком случае есть вероятность упустить что то не очевидное, но значительно снижаются требования к памяти инференса.

  Развернуть 1 комментарий

@moshael, но откуда уверенность что у OpenAI такого не было :sad_cat:

  Развернуть 1 комментарий

@stalkermustang, мы не знаем что они делают. Open AI даже количество параметров своих моделей не раскрывают.
Мы можем только сравнить результаты тестов, стоимость и задержку.

  Развернуть 1 комментарий

@moshael, так может быть вот эту неуверенность и нужно выносить в пост? а не писать " GPT-4o всегда тянет все «мозги» при любом вопросе"?

  Развернуть 1 комментарий

@stalkermustang, возможно

  Развернуть 1 комментарий

@moshael, А как оно может снижать требование памяти к инференсу? Не понятен механизм и к чему это всё приводит. Так-то судя по требованиям, не похоже что требования снижаются. Или речь не про размер памяти, а про скорость? Мол, оно не перетряхивает всю память для каждого токена?

И еще к непоняткам добавляет то, что R1 сравнивается с 4o. Тогда как логичнее было бы сравнивать v3 c 4o, а R1 с o1.

  Развернуть 1 комментарий

@MyDen, лучше конечно все веса держать в памяти.
И имено так, не умнодает матрицы для весов которые не активированы в текущей задаче.
v3 c 4o совсем не интересно сравнивать, так как первая сильно слабее.
R1 было интересно сравнить с различными версиями o3 mini, но релиза еще не было.
Сравнивание с O1 не имеет смысла из за очень высокой стоимости O1
Сейчас тесты появились и по тестам R1 бодрячком.
Хотя субьективно R1 значительно слабее.

  Развернуть 1 комментарий

@moshael, 1. Всё еще не понятно, как это на практике работает. То есть модель работает быстрее моделей своего размера?
2. "v3 c 4o совсем не интересно сравнивать, так как первая сильно слабее" - это понятно, но они хотя бы работают по одному принципу. А в случае 4o и R1 мы сравниваем "обычную" модель и "ризонинг" моделью. Касаемо о1 - в контексте цитаты речь же не о стоимости шла, а о принципе работы (?)

  Развернуть 1 комментарий

@MyDen,
Да, Mixture-of-Experts модели работают по скорости, как модели в несколько раз меньшие, но потребляют много памяти. При этом по качеству сравнимы с большим размером. По слухам в GPT4 тоже используется этот подход. Из open source моделей есть Mixtral.

  Развернуть 1 комментарий

😱 Комментарий удален его автором...

  Развернуть 1 комментарий

В новостях было, что там одна сплошная дыра в безопасности. По этому поводу есть какие-то подробности?

  Развернуть 1 комментарий

@barmin_sashka, На мой взгляд это просто кликбейтные заголовки. Суть там такая:
Лаборатория не делала коммерческий продукт.
Они не зарабатывают на самой модели.
Сама возможность чатиться с моделью на их сайте была демонстрацией возможностей модели.
Оказалось что логи этих чатов лежат в открытом доступе.
Я не считаю это большой дырой в безопасности , так как ни одна компания не будет считать безопасным отправлять свои запросы на сервер в Китай.
Вся мощь момента то что любая компания за ~400к USD может запустить у себя в подвале локальную, без подключения к интернету рассуждающую модель уровня топовых проприетарных продуктов

  Развернуть 1 комментарий

а за инсайдерскую торговлю не вздрючат этот хедж фонд?

  Развернуть 1 комментарий

Open AI вчера отменили анонсированый выпуск ChatGPT O3.
Теперь в их обещания входит выпуск ChatGPT 4.5 не рассуждающей модели, которую некорректно сравнивать с DeepSeek R1

  Развернуть 1 комментарий

@moshael,

ОТМЕНИЛИ

api will support o3

OPENAI — ВСЁ!

  Развернуть 1 комментарий

@stalkermustang, давай посмотрим на первоисточник
https://x.com/sama/status/1889755723078443244
вместо обещанного релиза o3 Sam прямо говорит что следующай релиз - 4.5.
Сэм Альтман может тебе и друг, но истина должна быть дороже.

https://techcrunch.com/2025/02/12/openai-cancels-its-o3-ai-model-in-favor-of-a-unified-next-gen-release/#:~:text=OpenAI has effectively canceled the release of o3,,Sam Altman is calling a “simplified” product offering.

  Развернуть 1 комментарий

@moshael,
Сама: мы не будем выпускать модель как standalone
Ты: модель ОТМЕНИЛИ

думаю, дальше разберешься сам

  Развернуть 1 комментарий

@moderator тут как-то токсичненько со стороны Игоря

  Развернуть 1 комментарий

😎

Автор поста открыл его для большого интернета, но комментирование и движухи доступны только участникам Клуба

Что вообще здесь происходит?


Войти  или  Вступить в Клуб