Делают ли LLM-ки нас глупее?

 Публичный пост

В этой статье любопытное исследоавние про то, как использование LLM влияет на общий навык написания эссе. В целом довольно интересные, но вполне ожидаемые выводы:

  • Студенты, которые пользуются LLM имеют меньшее разнообразие идей в их работах
  • Чувствуют меньше вовлеченности и принадлежности к своей работе (ownership)
  • Низкий уроевнь умственной активности на ЭЭГ в группе LLM

LLM-ки с одной стороны помогают в рутинных задачах, но со второй могут препятствовать появлению навыка.

Я лично наблюдал этот эффект при активном использовании переводчиков, что препятствует приобретению навыка самостоятельного использования языка.

Ощущаете ли утерю навыка программируя или в написании писем? Как справляетесь?
Как насчёт ownership? Чувствуете ли вы меньшую причастность к своему коду или текстам?

Лично для меня последнее самая актуальная проблема, код написаный LLM, воспринимается как чей-то ещё.

Связанные посты
49 комментариев 👇
Maxim Kоbetz JavaScript Software Engineer 19 июня в 09:42

У тимлида команды гугл, которая занимается разработкой Chrome Developer Tools есть статья на эту тему - "Атрофия навыков в эпоху ии".

Это чем-то напоминает появление автотранспорта. У людей начитают атрофироваться мышцы, что раньше были ежедневно нагружены сами собой.
Но мне кажется это не повод отказаться от транспорта, если хочешь быть конкурентоспособным.
Это повод тренироваться целенаправлено и систематично.

  Развернуть 1 комментарий
  Развернуть 1 комментарий

@m-novikov, Да

  Развернуть 1 комментарий

😱 Комментарий удален его автором...

  Развернуть 1 комментарий

Меня больше другое смущает. От ИИ реально сложно добиться желаемого результата. Я обычно использую его для диалога, и активно редактирую то что он мне выдает. Но даже так он часто игнорирует прямые инструкции.
И вопрос вот в чем - те люди, которые используют выдачу ИИ "как есть" реально довольны результатом? Я понимаю когда тебе плевать на результат - сейчас я бы с огромным удовольствием использовал LLM чтобы налить воды в диплом, все равно он реальной ценности не несет (ну может идея немного, но она все равно своя). Но я даже когда прошу его email написать, в половине случаев даю ему четкие формулировки, чтобы он использовал именно их. Он все еще полезен, потому что я могу заставить его быстро сгенерировать несколько разных вариантов, что экономит кучу времени, но отдать ему задачу полностью как-то и не выходит.

  Развернуть 1 комментарий

@absurdlogik, а что за ИИ вы используете? Сейчас все современные модели хорошо следуют инструкциям, если они не противоречат друг другу

  Развернуть 1 комментарий

@timurkhakhalev, платные модели chatGPT.

Они следуют инструкциям пока они не противоречат их собственному представлению. На днях я обсуждал с ним, как приучать мою птицу к шлейке. Суть в том, что у моей шлейки несъемный поводок, и я боюсь что она в нем запутается.
Три сообщения подряд я говорил, что поводок нельзя снять со шлейки. Три сообщения подряд o4-mini-high отвечала мне, что мне надо заменить поводок. O3 справилась немного лучше.

Есть и более интересные примеры с работы (я сейчас плотно работаю с агентами и промтами), но я стараюсь не говорить лишнего из того, что может быть под NDA.

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...

@rtyke, о да, максимальная поддержка. Мне в рабочем агенте надо было прописать, что при определенных условиях он должен возвращать исходное значение. В итоге я просто прописал эти условия кодом поверх результата, потому что он все равно пытался редактировать ответ.

  Развернуть 1 комментарий

Периодически у меня горит жопа от чатгопоты. Стоит только чуточку сломаться его контексту и начинает писать хуйню, игнорировать части промпта, повторять за собой. Ощущаешь себя родителем ребенка с СДВГ тогда. Но в целом это быстрее, чем самостоятельно проводить всю работу с нуля.

Отвечая на твои вопросы:

  • Лень не прогрессирует, потому что гопота тупая и быстро скатывается в говно на важных темах, придётся включаться заново и обратно.
  • Ты аутсорсишь базовую работу по сбору и прочитке, но забираешь на себя всю организацию на себя. То есть вовлеченность на самом деле растёт.
  • Шта.

Ну да ладно, это не беда. Работа с гопотой ни в коем разе не сравнится с рекрутингом с самого нуля (линкедин) с, к сожалению и ужасу, настоящими людьми. Там хоть вешайся, никакие родительские и организаторские навыки не помогут. Лучше уж чатгопота, если ты понимаешь что ответ сгенерен, а не написан, то ты по крайней мере можешь отморозиться сам и достроить их говнопайплайн тем, что их гопота парсит свои же ответы на свои же вопросы.

  Развернуть 1 комментарий

@mighty_conrad, звучит как бесплатная версия

Попробуйте o3-pro

  Развернуть 1 комментарий

@Defqon1, стандартная подписка, хз что по дефолту стоит. Я не настолько богатый и убер-продуктивный, чтобы заряжать две сотки на хоббийные проекты. По тем же причинам я не могу нанять o3-pro рекрутёра, который в этом болоте в найме будет делать работу за меня. Впрочем, сам себе злобный буратина в обоих случаях.

  Развернуть 1 комментарий

@mighty_conrad, по дефолту даже на платной подписке стоит бесплатная 4o, просто там лимиты получше. Для сложных задач лучше менять модель вручную.

  Развернуть 1 комментарий

@mighty_conrad,

Ты аутсорсишь базовую работу по сбору и прочитке, но забираешь на себя всю организацию на себя. То есть вовлеченность на самом деле растёт.

Представь что ты разраб, любишь писать код, а тут тебя внезапно повысили и дали 10 джунов продуктивных, на которых у тебя уходит всё время. Будешь ли ты испытывать то же удовольствие от работы? Если в тебе есть менеджерская часть, то возможно, но если тебе интересно в разработке что-то другое-то нет.

  Развернуть 1 комментарий

@m-novikov,

Представь что ты разраб

Эх, мечты...

Если серьёзно, не пробовал, хочу попробовать, но мне даже обосраться с этим на моих конторах не давали, только давали учить делать нормально. Надеюсь с этим хоть справлялся.

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...

Читал этот пост, пока в бэкграунде Cursor писал тест для моего кода.

На самом деле, кажется, что AI это закономерное повышение абстракции. В статье "Avoiding Skill Atrophy in the Age of AI", которую ребята выше скинули, очень хорошо сказано о том, что раньше люди руками менеджили память, и почему-то мне кажется, что переход на более высокоуровневые языки, где этого делать не нужно, тоже воспринимался как что-то опасное: "а вдруг в модуле, который менеджит память, найдут какой-то критический баг, а нам нужно будет вотпрямщас деплоить в прод?". Тем не менее, сейчас очень трудно будет встретить человека, который руками менеджит память, но я уверен в том, что специалисты, которые умеют это делать(речь не только про память, а в целом про подкапотку и фундаментальный CS), очень ценятся на рынке, просто спектр компаний, которым это было нужно, сузился.

Я думаю, что в недалеком будущем гребцы будут вынуждены юзать AI, просто потому что те, кто не будет его юзать, не вывезут конкуренции. Но при этом складывается ощущение, что и на обычных гребцов тоже будет спрос, но не такой высокий, как раньше. Просто потому что кто-то должен уметь решать те немногочисленные ошибки, которые не было в датасете AI.

Другой вопрос в том, есть ли верхняя граница у этого "закономерного повышения уровня абстракции"? Если есть, то можно ли утверждать, что мы ее еще не достигли?

  Развернуть 1 комментарий

@tre3p, соглашусь, но не до конца. В отличие от модулей, которые один раз написаны и поддерживаются дальше, LLM каждый раз генерирует все заново. Поэтому на один и тот же запрос она может выдать неправильный ответ, хотя предыдущие 10 попыток были успешными.
Из-за этого сравнение с высокоуровневыми языками не очень работает - в них ты используешь стабильные готовые решения, которые не надо проверять, а код от GPT приходится вычитывать. А для чтения он может быть сложнее человеческого, из-за другого представления об архитектуре.

  Развернуть 1 комментарий

@absurdlogik, да, согласен, возможно для корректного сравнения LLM'ке не хватает этой самой "однозначности", но кто знает что нас ждет в будущем?

В случае с высокоуровневыми языками изначально было понятно, что там никаких галлюцинаций быть не может, потому что машина просто выполняет инструкции, которые ей написали, интерпретировать иначе она их не может, а LLM'ка может. Но опять же, мы не можем быть уверены, что в будущем у нее не будет какого-то единого источника правды, который она будет юзать для генерации ответа. То есть грубо говоря у тебя 10/10 попыток будут содержать правильный код, который решает проблему, но решает ее по разному, а тебе, как юзеру нужно будет выбрать какой тебе больше подходит/нравится.

  Развернуть 1 комментарий

@tre3p, не при текущей архитектуре. Да и обращу внимание на одно противоречие - при наличии единого источника правды она будет бесполезна для любой задачи, которой нет в источнике. Сейчас она хотя бы пытается, и хоть безуспешно, но это можно использовать для дальнейшей работы.

Я недавно с GPT считал, сколько сэкономлю от рефинансирования кредита. Естественно ему поплохело и он начал нести пургу. Зато когда я запросил у него формулы - он безошибочно мне их выдал. Потому что это справочная информация. И вот уже с ними я сделал все нужные мне расчеты.

  Развернуть 1 комментарий

@absurdlogik, сорян, я далек от того, как это работает под капотом, просто озвучиваю свои мысли. Когда я говорю про единый источник правды, я имею ввиду что если я попрошу LLM'ку сложить 2+2 десять раз, то она все десять раз ответит мне верно, потому что у нее в датасете есть информация о том, что сложение работает именно так, и никак иначе. Вот такие простые правила нельзя расширить на что-то более глобальное, чем просто сложение?

  Развернуть 1 комментарий

@absurdlogik, от ai вполне реально добиться детермированности - для этого необходимо правильно применять ai и в некоторых случаях ограничивать свободу выбора

  Развернуть 1 комментарий

@timurkhakhalev, если я в состоянии добиться детерминированности, то нахрена мне ai? Я просто пропишу набор четких инструкций.

  Развернуть 1 комментарий

@tre3p, тут на днях классный пост выкладывали.
https://vas3k.club/post/28742/
Я его обсуждал с другом, который работал с моделями изнутри, и он мне упомянул, что буквально недавно был на семинаре, где пояснялось, что ИИ не умеют складывать числа. Они их угадывают по памяти.
Все это можно обойти. Например попросить ии написать программу для сложения чисел - в силу специфики задача легко решается. Но проблем все еще очень много.

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...

@tre3p, > раньше люди руками менеджили память

так до сих пор менеджат

  Развернуть 1 комментарий

@SiXcro, я к тому, что раньше не было выбора менеджить или нет, потому что не было средств для того, чтобы не менеджить. Или о чем ты?

  Развернуть 1 комментарий

@tre3p, я имею в виду, что сейчас эта опция никуда не делась, её спокойно можно выбрать, если есть желание. Да, и кстати GC появился так же очень давно, в 1959 году в лиспе :D

  Развернуть 1 комментарий

@tre3p,

Другой вопрос в том, есть ли верхняя граница у этого "закономерного повышения уровня абстракции"?

С программированием, конечно, неприятно, но меня еще тревожит потенциальная потеря способности людей связно выражать свои мысли. Стимулы в системе образования, очень своеобразные. Акцент на оценки и тесты + студенты с LLM кажется какой-то адской смесью.

  Развернуть 1 комментарий

@tre3p, в смысле трудно? Целая куча программистов по-прежнему менеджерит память руками, даже если есть слегка упрощенные способы это делать в среднеуровневых языках (плюсах, например). Понимать что такое адреса и как с ними работать все равно нужно. Большинство программистов не умеет, да. Но очень много знают как это делать. Это не какие-то вымершие мамонты совсем. Тенденции к полному исчезновению менеджмента памяти я бы сказала что нет.

  Развернуть 1 комментарий

@Doredel, зависит от сферы. Во многих областях можно дорости до архитекта и ни разу памятью не управлять напрямую

  Развернуть 1 комментарий

@MaximmV, у меня вроде так и написано, что большинство не умеет. И при этом это могут быть успешные эксперты. Но управлять памятью может бесчисленное множество программистов, для этого не нужно никаких сакральных знаний, а в части сфер это просто необходимо. Так что это будет оставаться востребованным еще на протяжении многих лет.

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...
🕵️ Юзер скрыл свои комментарии от публичного просмотра...

Кстати, может кто знает наверняка, как ии справляется со школьной домашкой?

  Развернуть 1 комментарий

Пару месяцев назад вышло исследование от Microsoft: "The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers" https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf

Якутенко в своём стриме ( https://www.youtube.com/live/2H26oac0FGA ) про него говорила .

В кратце, частое использование LLM для работы уменьшает желание проверять , что там ИИ нагенерировал. Причём чем больше энтизизма по поводу ИИ тем меньше проверяют. И в итоге мы имеем всякие случаи когда в готовый результат попадает всякая галлюцинированная хрень.

  Развернуть 1 комментарий

На работе (я в универе работаю) пару дней назад был релевантный случай : пришла студентка с вопросом - как ей что-то там посчитать (данные обработать). Ну я такой - на бумажке начал рисовать графики и задавать вопросы , и думать вслух как это можно решить. Ну и она такая - я это не знаю, это не понимаю... а потом коронный вопрос мне: "ты совсем не используешь ChatGPT?"

  Развернуть 1 комментарий
Daniel Menakhovsky Multidisciplinary Designer, 3D Artist 20 июня в 12:47

Клёво, что кто-то наконец поднял эту тему! Потому что я каждый день ощущаю, как тупею от чата гпт. Дошло до того, что ощущаю физическую боль от мысли о том, что надо разбираться в вопросе, который чатгпт не может за меня решить (таких все еще полно, но становится с каждым днем меньше).

Так что мой вердикт: однозначно глупеем. В том плане, что «мышцы» мозга атрофируются.

Но с другой стороны, я стал интересоваться каким-то нереальным количеством тем, которыми раньше не интересовался из-за необходимости искать информацию. А сейчас слушаю, например, подкаст и там упомянули какое-то историческое событие. И я могу уйти на 30 мин обсуждать с гпт, что это за событие, какие его предпосылки и последствия (и так 20 раз в день по каждой теме).

  Развернуть 1 комментарий
Anna Программист 20 июня в 20:52

Ужасающая перспектива ИИ в разработке не в том, что программисты разучатся программировать. Сколько раз уже отупевали, ничего страшного еще раз отупеть.

Экзистенциальный ужас вызывает перспектива пользоваться всем этим написанным говнософтом для работы. Это вот как сейчас половина приложух на электроне пишутся исключительно из-за того что так проще и быстрее. Вот с ИИ так же, только во многие разы хуже...

  Развернуть 1 комментарий
🕵️ Юзер скрыл свои комментарии от публичного просмотра...
🕵️ Юзер скрыл свои комментарии от публичного просмотра...

😎

Автор поста открыл его для большого интернета, но комментирование и движухи доступны только участникам Клуба

Что вообще здесь происходит?


Войти  или  Вступить в Клуб