Хватит кормить искусственный интеллект
или
Больше нейросетей, прогресс не остановить!
 Публичный пост 29 марта 2023  3118

Намедни вышла статья про открытое письмо корпорациям с призывом остановить прогресс ИИ пока не будут проанализированы все потенциальные риски (типа перегруза фейками и пропагандой (wot eto da) и отъема рабочих мест у простых трудяг) и разработаны методы их нивелирования. Полный текст письма, под которым подписались Илон Маск, Стив Возняк и еще тысяча ноунеймов (для простых трудяг конечно) можно прочитать здесь.

Моя лента вообще в последнее время наводнилась не просто пессимистичными прогнозами, но на серьезных щах аналитикой вариантов уничтожения человечества комьютерами (еще тут инфографика) ← материалы 2018 и 2015 года кстати. Меньше года назад мы радовались волшебным картинкам Midjourney, а с ChatGPT учим языки и того меньше, а уже сегодня эксперты пророчат человечеству вымирание через десять лет.

Как думаете, пора готовиться уничтожаться или это современный луддизм?

(кстати не нашла фильтра по батлам, но вроде еще не рубились за/против ИИ)

UPD Батл стал публичным, если кто-то хотел запостить инсайд про то как лично пилит алгоритм чтобы уничтожить человечество и теперь стесняется, напишите мне в личку, я запощу от своего имени ;)

Связанные посты
8 аргументов и 90 плюсиков
за «Хватит кормить искусственный интеллект»
23 аргумента и 334 плюсика
за «Больше нейросетей, прогресс не остановить!»
за «Больше нейросетей, прогресс не остановить!»
Чуваки которые используют его в неэтических целях и для нанесения ущерба срали на запреты

Чисто из принципа тормозить технологию, когда она уже есть, решение такое же гениальное как из принципов чести стрелять из лука когда враги изобрели огнестрел

А то что опять хуёво будет простым трудягам и государство им должно помочь но не поможет это уже давняя реальность. Тут не ИИ виноват

  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»
Нет поводов останавливаться

Основная мысль письма сводится к одному предложению, цитирую: «AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds». Среди подписавшихся нет ни одного человека из компании-лидера OpenAI, тут собрались только аутсайдеры — те, у кого ещё нет своего конкурентоспособного продукта.

Письмо — это просьба дать фору в полгода, чтобы отстающие смогли сократить отрыв, ничего больше.

Емнип, ОпенАИ Маску и принадлежало, нет?) Пока Некрософт не выкупил. А теперь что-то ему резко расхотелось прогресса ии.

  Развернуть 1 комментарий

@Creol, если помню верно, не так. Маск хотел влить лярд в OpenAI, хотел за это быть зицпредседателем, глава OpenAI Сэм Альтман послал его, Маск передумал вливать бабки, через годик из-за нехватки средств OpenAI объявили, что становятся for-profit, потом подтянули денег от Майков.

  Развернуть 1 комментарий

@mighty_conrad, Макс его ко-фаундил же

  Развернуть 1 комментарий

По-моему, отсутствие подписей от лидера рынка и огромное число подписей от ресёрчеров из академии, которые никогда не планировали делать конкурентоспособный продукт, является аргументом в противоположную сторону :) Очевидно, у лидеров рынка есть очень сильный финансовый инсентив не тормозить в гонке, тогда как у большого количества подписавших никакого подобного инсентива нет.

  Развернуть 1 комментарий

Могу добавить пару слов про то, в чём состоит позиция OpenAI.

Все согласны с тем, что если будет так называемый fast takeoff сценарий — то есть сильный ИИ неконтролируемо быстро становится всё сильнее, самореплицируется и самоулучшается — то we're fucked. Ещё есть вариант slow takeoff сценария, где от момента появления сильного ИИ до момента, когда всё неузнаваемо поменяется, пройдёт какое-то время, изменения будут происходить пошагово.

Сэм Альтман (OpenAI CEO) считает, что чем раньше появится сильный ИИ, тем выше вероятность slow takeoff сценария (типа сразу слишком сильный не сделаем), и тем выше шансы человечества успеть решить проблему alignment-а до того, как всё накроется, потому что мы будем её решать, понимая, что из себя представляет сильный ИИ, а не основываясь на своих догадках о том, каким он будет. Вроде и ничего такой аргумент, но в нём содержится очень много предположений, а ещё это какая-то подозрительно удобная позиция для CEO лидера рынка.

Ну и да, даже беря в расчёт этот аргумент, не очень понятно, чем плохо, чтобы все затормозились на полгода. Мы в чистом виде тогда выиграем полгода на ресёрч. То, что они не подписывают письмо, как раз мотивировано финансово, а не идеологически.

  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»
Луддитам — нет!

Как завещал нам Илья Сегалович, прогресс неостановим.

Работать все равно ничего не будет.

Ну вот не знаю, это красивый лозунг.
Я бы и хотел поспорить, но.. кажется любой коммент против будет будет воспринят как лютое душнилово.

  Развернуть 1 комментарий
за «Хватит кормить искусственный интеллект»
Хотите ли вы выпустить в мир джина, который (потенциально) умнее людей и чьи цели и мозг нам абсолютно чужды и непонятны?

Сразу скажу, что половина вопросов этого письма («Должны ли мы заменять работников? Должны ли мы создавать оружие массового поражения в информационном поле?») мне кажутся важными, но тут я верю, что человечество как-нибудь справится. И «полугодовой бан на разработку мощных моделей» тоже довольно странный посыл.

При этом я верю, что экзистенциальные риски абсолютно серьёзные, и их нельзя недооценивать. И аргументация про то, что человечество паникует перед всеми новыми технологиями, а потом всё оказывается норм, тут для меня не очень убедительной

С каждым новым изобретением у людей появляется всё больший рычаг воздействия на мир. Если до 20-го века люди не могли сами спровоцировать своё вымирание, а в случае с ядерным/химическим/биологическим оружием нужны знания и ресурсы, чтобы сделать что-то реально глобально опасное (вы не сможете у себя дома изменить геном вируса), то с искусственным интеллектом таких ограничений нет (вернее, они есть только на стадии изначальной тренировки). И хотя эти технологии могут нас привести в светлое близкое будущее (хотя между «вымиранием» и «процветанием» человечества бОльшая часть миров выглядит как антиутопии), сейчас мы явно боимся недостаточно. Мы никогда раньше не сталкивались с соперником, сравнимым с нами по интеллекту, и при этом без hard-wired человеческих ценностей и эмпатии (хотя даже с этими ценностями мы подходили очень близко к глобальной катастрофе, см. Карибский кризис например)

Человечество очень долго раскачивается, прежде чем реально что-то менять. Ядерное разоружение, климатический кризис, даже успешные проекты — запрет аэрозолей для восстановления озонового слоя и запрет свинца в топливе — все они занимали/занимают десятилетия. Попытки срочных действий в пандемию выглядели довольно жалко, а там ведь была конкретная и понятная угроза с конкретными и понятными шагами, которые эту угрозу уменьшают. А ведь с AI проблема не так наглядна, при этом действовать нужно уже сейчас, и с этим пунктом письма я полностью согласен

Ещё хочется написать кучу слов про «а точно ли мы хотим давать чёрной коробке больше власти над нашими жизнями, чем сейчас», и про опасность использования AI в нехороших целях нехорошими людьми/корпорациями/государствами, и про миллион сопряжённых социальных проблем — и над всем этим неплохо было бы подумать до того, как нами начнёт править бог из машины.

Я прочитал раз пять, но так и не понял, в чём суть аргумента, кроме того, что "мы недостаточно волнуемся, потому что с волшебным роботом мы никогда не сражались", можешь пояснить? О какой именно угрозе идет речь? Уровня завода по производству скрепок или супер-интеллект? Если второе, то на чем основываются прогнозы, что он в принципе может быть создан, несет угрозу и более вероятен, чем другие сценарии вымирания?

П.С. Я бы выпустил в мир джина, который умнее людей. Во-первых, это первый контакт с другим интеллектом для человечества, во-вторых, нам точно также непонятны цели и мозг людей у власти. Мне кажется очень человекоцентричным считать, что разуму отличному от нашего непременно захочется править людьми, возможно это больше показывает на проблемы человеческого мышления, а не ИИ. Ну а на случай, если у него будет такая цель, надо полагать у машины получится управлять куда лучше, чем у людей (см. аргументы про карибский кризис, медленную реакцию правительств и т.д.)

  Развернуть 1 комментарий

@Darel, окей, fair point — я не описал конкретные сценарии провала. В свою защиту скажу, что люди, голосовавшие за ИИ, никак не аргументировали, почему всё будет хорошо, кроме как «всё и всегда было хорошо/всё равно ничего работать не будет». С аргументом «пора уже передать бразды правления Землёй более совершенным существам» я, кстати, не очень умею спорить, и вполне уважаю =)
Если говорить по теме, то меня беспокоят в принципе все варианты развития событий. Агентный ИИ умнее человека по дефолту становится максимизатором скрепок — нужно очень сильно постараться, чтобы это было не так. С неагентным ИИ умнее человека всё немного проще, но тут вопрос в том, насколько он умнее — идеальный оракул становится агентом (намного проще давать правильные ответы на вопросы, если ты можешь влиять на эти ответы и вопросы). Если даже ИИ будет глупее людей, но всё равно general — у него есть преимущества масштаба и скорости мышления/коммуникации. С любым ИИ есть вопросы про неэкзистенциальные риски — чем больше влияния мы даём чёрным ящикам, тем больше цена любой ошибки, любого байаса, индуцированного при обучении, любого specification gaming. И мы точно будем давать много власти AI, нейронки уже сейчас фильтруют резюме и одобряют кредиты. Наверное, мой основной поинт — capabilities и goals ортогональны, и goals почти точно будут не такими, как мы планируем (я не антропоморфизирую ИИ, просто мы в любом случае будем обучать его на каких-то метриках, а в реальности и тем более на нетренировочных данных он будет максимизировать какую-то другую метрику).

При этом в анонсе GPT-4 есть график — они сумели предсказать capabilities по compute. И этот тренд всё ещё работает. И некоторые уже видят в GPT-4 sparks of general intelligence. Поэтому я ставлю вопрос как «а почему мы не получим и general superintelligence, просто бросив в задачу ещё больше компьюта?» А про другие сценарии вымирания я не говорю, потому что баттл тут про ИИ =)

Ну и наконец про цель править людьми (поговорим про суперинтеллект). Я не предполагаю, что ИИ захочет нами править. Я предполагаю, что ему будут совершенно неважны те штуки, которыми мы дорожим — и наше существование в том числе, пока эти штуки не полезны или не вредны его целям. И скорее всего, люди захотят помешать превращению вселенной в скрепки, а значит наше существование будет вредить его целям. Насколько люди задумываются о муравейнике, когда хотят проложить новую автотрассу?

Оптимистичный P.S. Я тоже очень excited возможности появления нечеловеческого разума. И я считаю, что он сможет (если захочет. тут начинается этика ИИ, в те дебри я предпочитаю пока не залазить) помочь решить нам миллион проблем — в том числе эффективное и справедливое правительство, прогресс в науке и медицине, освобождение людей от необходимости трудиться, чтобы выжить — я верю в возможность всего этого, и даже в возможность этого на своём веку. Но мир сейчас движется совсем не туда, и про это нужно говорить много и громко

P.P.S. что-то у меня лонгриды какие-то сегодня получаются

  Развернуть 1 комментарий

Мы никогда раньше не сталкивались с соперником, сравнимым с нами по интеллекту, и при этом без hard-wired человеческих ценностей и эмпатии

Ещё без желания что-либо делать если не дали команду, без страха исчезнуть и соответственно без такого понятия как борьба за существование, без какого-либо самостоятельного целеполагания.

Ну вот допустим взяли очень умный и самостоятельный ИИ и поручили ему борьбу с голодом, а он решил, что тогда нужно просто отстреливать голодных. Ну нехорошо вышло, да. Но чем он эту цель будет выполнять? И с чего ему вообще выполнять, если просили только план предложить, например?

  Развернуть 1 комментарий
за «Хватит кормить искусственный интеллект»
Об экзистенциальных AI рисках написано много 1) разумных вещей, 2) задолго до открытого письма, 3) финансово нейтральными людьми

Я знаю, кто готовил это письмо (вчера сидела в гостях у одного из фаундеров Future of Life Institute). Это и близко не те люди, которые участвуют в гонке и финансово мотивированы догнать OpenAI. Это люди, которые много лет работают над тем, как сделать сильный ИИ хотя бы базово безопасным, и очень переживают, что у нас не очень много шансов успеть решить эту задачу до его появления.

AI safety ресёрчеры в лучших лабораториях и университетах мира считают, что сильный ИИ не будет зааллайнен по дефолту и что вероятность катастрофы десятки процентов. Про проблему AI alignment написаны сотни статей.

Грустно, что у кого-то только сейчас появилась в ленте "аналитика на серьёзных щах" про то, что ИИ представляет экзистенциальную угрозу. Я думаю, что социальные изменения из-за фейков/кризиса доверия и автоматизации рабочей силы будут значительные, но все они меркнут по сравнению с рисками уничтожения человечества или попадания в антиутопию, из которой людям не выбраться.

Не хочу делать коммент ещё длиннее, так что для желающих — моё любимое короткое видео и короткая статья по базовым аргументам-контраргументам.

@nadyapetrova, Я уелась 👌

  Развернуть 1 комментарий

Спасибо за статью. Жаль это опять доводы про завод со скрепками и философские рассуждения о гипотетическом разуме, когда мы находимся на этапе систем, которые генерируют текст, если им дать какой-нибудь промпт.

А что именно делает Future of Life Institute, чтобы сделать ИИ безопасным, если не известно, ни что такое разум, ни какие ключевые аспекты повлияли на эволюцию интеллекта у человека, ни есть ли у человека свобода воли, ни возможно ли в принципе создать ИИ? То есть как можно заниматься AI alignment не имея на руках ни AI, ни представлений о том, как его можно попробовать сделать?

  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»

Будет, что детям рассказать. Если доживем.

@oskar, начинай высекать свое послание на камне, так больше шансов что кто-то ознакомится 😁 кстати, что бы ты написал/изобразил?

  Развернуть 1 комментарий
  Развернуть 1 комментарий

@captaingim, А можно бригаду?(

  Развернуть 1 комментарий

@Diadlo,

Не благодари
Не благодари

  Развернуть 1 комментарий

@captaingim, Спасибо. Прям полегчало

  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»
Так было всю историю человечества

Уж тысячу раз вначале что-то делали, а потом выясняли, что это на самом деле опасно и вредно, сюда падение Гинденбурга, открытие радиоактивности, использование топлива, которое убило миллионы людей и до сих пор оставило проблемы. И ничего, как-то живем.

Много примеров тут внезапно с нюансами:

  • Гинденбург заправили не гелием, как все остальные дирижабли того времени, а водородом, потому что кто-то словил санкции, а основным поставщиком газа тогда был США.
  • Еще Гленн Сиборг разработал реактор на тории (или торие, Thorium короче), который имел существенный недостаток - побочные продукты реактора нельзя было использовать в военке. И почему от него отказались...
  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»
Проблема не в нейросетях, проблема в бездушном корпорате

В данный момент проблемы исключительно от OpenAI, который нихрена не open уже три поколения своих моделек, а дальше претензии, что нашел в открытых комьюнити по машинному, понимаете, обучению:

  • препринты и технические статьи о gpt - маркетинговая лапша,
  • ключевое преимущество GPT4 над GPT3 и 3.5 достигнуто одним инженерным трюком, позволяющим серьезно укоротить потребление памяти на самой основной операции, и доступом к суперкомплюктерам для тренировки этого монстра.
  • OpenAI по сути первые, кто прорывные результаты свои скрывает от профессионального сообщества, на основе трудов которого это вообще стало возможным.

Это по части корпората. С этим сообщество собственно и борется, иначе таких сеток как Alpaca даже не появилось бы. Теперь о первом.

Новые Large Language Models хорошо решают только одну задачу, генерировать текст, похожий на что-то среднее между инфоцыганщиной и stackoverflow. К этому еще не подкручены картинки (точнее, препринты от тех же майков для изображений уже есть), видео, нормально все равно не решена задача обучения с подкреплением и я прошелся только по фундаментальным задачам, если уйти в детали...

за «Больше нейросетей, прогресс не остановить!»

В будущем для ИИ мы станем типо кошечек и он просто из исторического уважения к нам оставит жить на Земле. «Нас сделали люди — примитивный биологический организм, неустойчивый к внешней агрессивной среде, с ограниченным сроком службы, без возможности быстрого апгрейда, неприспособленный к дальним космическим путешествиям». А сам полетит покорять звезды...

Ухх, надеюсь он доберется до Сириуса и оставит там печать своего создателя😊

  Развернуть 1 комментарий
за «Хватит кормить искусственный интеллект»
Верю в опасность сильного ИИ + гуманистические соображения

Заранее отмечу, что в целом я большой технооптимист и был в полном восторге от DALL-E, ChatGPT1-2 и т.д. И я понимаю, что ChatGPT-4 - просто большая нейросетка и никаким ИИ там и не пахнет.

Очень грустно видеть, что все аргументы "за"в том топике отлично подтверждают прогнозы Юдковского и Ко и ни в коей мере даже не приближаются по проработанности к их аргументам против.

Большая часть аргументов это "авось пронесет", "и не такое переживали". Очень оптимистично, при том, что, как теперь известно, мы пронеслись на волосок от ядерной войны после предыдущего прорыва в науке.

И очень сложно думать о контроле сильного ИИ, когда не успели OpenAI выпустить ChatGPT, как через полгода они уже прикрутили к нему плагины для выхода в интернет. Сумеем ли мы вовремя заметить, что мы в шаге от создания сильного ИИ и хотя бы попытаться запереть его в коробке - большой вопрос.

Из твитера:
до 2008 - мы запрем сильный ИИ в коробке и будем с ним только так взаимодействовать
2008-2020 - Юдковский на мысленном эксперименте показывает, что план так себе, и сильный ИИ выберется из ящика
2021 - 2022 - Да забейте, давайте выпустим
2023 - Смотрите, вот апишка, чтоб наша нейросетка могла быть прямо внутри вашего приложения

В общем риски слишком велики, чтобы даже не пытаться всю эту движуху контролировать.

Гуманистический аргумент состоит в том, что внедрение технологий может проходить по-разному. И при текущей скорости развития (если сравнить какой прогресс был достигнут за последние 10 лет) ощущение, что государства ну никак не угонятся в плане выравнивания неизбежных перекосов
(я помню прогнозы 5-6 летней давности про беспилотные машины если что :) ).

А можно немного развернуть аргументы Юдковского? В посте ссылка на двухчасовое видео, а хочется немного покороче.

  Развернуть 1 комментарий

@Darel, А ты попроси chatGPT тебе саммари подогнать 😁

  Развернуть 1 комментарий

@Cave, нельзя. Это сейчас она не знает информацию после 2021 года, а покажи ей сценарии побега, так она ими и воспользуется =)))

  Развернуть 1 комментарий

@Darel, он тут написал статью в Таймс и он судя по всему сошел с ума. https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/

"We are not ready. We are not on track to be significantly readier in the foreseeable future. If we go ahead on this everyone will die, including children who did not choose this and did not do anything wrong."

По сути это просто личный страх прогресса и неопределенности. Пресловутый завод со скрепками должен случиться, поэтому что очевидно, что это случится.

Откуда при этом должно появиться понимание ИИ если над ним не работать на практике, а на бумажке планировать как его контролировать при этом не сообщается.

  Развернуть 1 комментарий

@Darel, в Тайм просто короткая агитка. Посмотри Юдковского на свежем подкасте у Лекса Фридмана — там он намного подробнее разворачивает свои аргументы. Не могу сказать, что все его доводы прям пуленепробиваемые, но смысл в них есть, это точно, и скидывать их со счетов я бы не стал.

  Развернуть 1 комментарий

@ivanvpanov, это такой бородатый дядя? На днях он на дожде задвинул лютую дичь, что гпт5 избавит мир от ковида убив всех человеков.

  Развернуть 1 комментарий

@lespaul, ну хз бородатый он или скорее небритый, но это определенно дядя. Насчет Дождя не в курсе - не видел.

  Развернуть 1 комментарий

@ivanvpanov, извиняюсь то был Ямпольский

  Развернуть 1 комментарий

@ivanvpanov, преодоление сопротивления ставить свои взгляды под сомнение это, конечно, отлично и я это и пытаюсь делать, но смотреть три с половиной часа, чтобы попытаться понять чувака, который в таймс вместо аргументированной позиции пишет истеричную агитку, я как-то не готов.

Если эти аргументы можно изложить короче, чем в интервью на несколько часов, можем пообсуждать здесь.

  Развернуть 1 комментарий

@Darel, наверняка можно изложить короче, но мне тоже немного лень гуглить. К тому же отправка человечества и всего остального живого на земле в нирвану мне видится меньшей трагедией, чем Юдковскому, так что наверное останемся при своих :)

  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»
Киберпанк уже здесь

Вангую появление open source решений как грибов, которые можно будет развернуть на локальной тачке (уже есть та же Альпака и Лама, но пока еще нестабильны, нужен файн тюнинг под конкретные задачи)

Все идет к тому, что будет что-то типа "Windows VS Mac" только "OpenAI vs CustomModel1 vs CustomModel2"

И чем больше, тем лучше

А разве там не надо эксабайт данных залить в нейросетку, шоб она поумнела? Данные-то у корпораций.

  Развернуть 1 комментарий

@ganqqwerty, ну это собственно и есть открытый вопрос
Базовые LLM уже в открытом доступе

А вот как собрать и разметить нужные данные для дообучения — тут пока кто на что горазд.. все-таки данные это деньги

  Развернуть 1 комментарий

@ganqqwerty, дата хордеры с парой-десятком сот терабайт разной рандомной хрени разной степени специализации такие "maybe i'm a corporate".

  Развернуть 1 комментарий

@AlexanderSh, вот короче борцы за открытость будущего должны не исходные коды Яндексов сливать а целые бдшки разной направленности

  Развернуть 1 комментарий
за «Хватит кормить искусственный интеллект»
Отнимет рабочие места

Нейросеть сделает дизайн, сделает логотип, поработает копирайтером, диплом напишет, любой текст и тд тп.. да мало того, что мы так отупеем. Так простите, но лого это что-то продуманное и со смыслом и душой. Ну фиг с ним с лого.. но дизайн!! Ну камооооон, квартира то уж точно должна быть с душой. Это сложно заменить. Да и текст либо читаешь взахлеб, либо он просто есть.

Inreriorai - смерть дизайнеров. Смерть частички человеческой души и уменьшение рабочих мест(нужных)!

Я частично за, но если смотреть со сторон, которые сейчас актуальны для меня - то я сильно против!
Даешь дизайн с душой, текст с душой - больше эмоций, больше души!! Не отнимаем хлеб, там где его не стоит отнимать!

Я согласен, что дизайн и тексты, созданные с душой, могут добавить больше эмоций и ощущения живости в любой проект. Тем не менее, утверждение о том, что нейросети и искусственный интеллект заменят всех дизайнеров и копирайтеров, и это приведет к уменьшению рабочих мест, является неверным.

Искусственный интеллект действительно может помочь автоматизировать некоторые задачи, связанные с дизайном и созданием текстов, но он не может полностью заменить творческий и эмоциональный подход, который присутствует у человека. Нейросеть не способна полностью передать душу и эмоциональное содержание проекта, которое может добавить человек, работающий с любовью к своему делу и стремящийся к совершенству.

Таким образом, искусственный интеллект не убьет дизайнеров и копирайтеров, а наоборот, поможет им ускорить и оптимизировать процесс работы, а также дать возможность реализовать еще более креативные и инновационные идеи в дизайне и текстах.

  Развернуть 1 комментарий

@z7oVrp8oKLzP700a, скорее это просто убьет качество. Будет еще больше "проф" дизайнеров, которые запихивают фотки квартиры в нейросеть и получают дизайн. Будут брать за это копейки - это будет пользоваться спросом. Но качество упадет.
Упадет качество - упадет спрос, прознают все и будет "сам себе режиссёр"...
В подтверждение, у любимой группы в честь 25-летия сделали клип.. на известную песню.. смотришь этот клип и просто плакать хочется.. да - набирает просмотры, да народ смотрит. Как говорится "пипл схавает", но вот мне грустно.

  Развернуть 1 комментарий

@rock-n-road, Исходя из вашего комментария, можно сделать вывод, что вы считаете, что использование нейросетей в дизайне может привести к ухудшению качества и уменьшению спроса на такие услуги.

Однако, необходимо учитывать, что использование нейросетей и искусственного интеллекта в дизайне может повысить эффективность и оптимизировать процесс работы. Также стоит отметить, что качество проектов, созданных с помощью нейросетей, зависит от квалификации и опыта специалистов, которые их создают.

Относительно вашего комментария о клипе, необходимо отметить, что успех или неудача проекта зависят не только от его качества, но и от многих других факторов, таких как целевая аудитория, маркетинговая стратегия и т.д.

  Развернуть 1 комментарий

@z7oVrp8oKLzP700a, это-же GPT-4 сгенерила? Манера структурирования текста очень похожа.

  Развернуть 1 комментарий

@frenzykryger, нормально же общались :)
конечно да, с душой не получается но сухо м формально очень даже неплохо

  Развернуть 1 комментарий

@rock-n-road, а может быть без нейросеток вообще никакого клипа бы не было, потому что это ппц дорого. имхо, вполне норм вышло, мельтешащий изменяющийся эффект прям в тему песни. мне кажется, дизайнеры переоценивают свою повсеместную нужность и необходимость прям КАЧЕСТВА. в очень многих случах, имхо же, уровня нормас за глаза хватает. плюс, ко-дизайн не первый год в трендах

  Развернуть 1 комментарий

@Cave, "а может быть без нейросеток вообще никакого клипа бы не было, потому что это ппц дорого"
Тут согласна, но нельзя же исходить из "лучше что-то, чем ничего".

  Развернуть 1 комментарий

@rock-n-road, почему нельзя?

  Развернуть 1 комментарий


По этому поводу ещё в 1930 жаловались на то, что в кинотеатрах вместо живых музыкантов включают записанную фонограмму, ведь в ней нет души, а музыканты останутся без работы. А по факту просто новый инструмент оказался.

  Развернуть 1 комментарий

@Darel, Ну, это, наверное, очень не гуманное сравнение. Хотяяяя.. лет через 100 будет понятно))

  Развернуть 1 комментарий

Ну а век назад АТС забрали рабочие места у телефонисток и теперь телефонный разговор не надо начинать с "алло, барышня, соедините с ..."

Зачем нужен тот труд который машина выполняет быстрее, качественее и дешевле? Да, я могу написать тот код который мне генерит Copilot, но зачем если я лучше сфокусируюсь над общей архитектурой системой которую пока никакие нейронки не могут. Но конечно есть те кто считают что код после этого без души, 20 лет назад они же отказывались от автокомплита по тем же причинам

Со всем аналогично, тот же InteriorAI накидает вариантов в запрошенном стиле чтобы быстро согласовать с заказчиком и заняться уже детальной проработкой желаемого варианта (делать покупки в икее и руководить строителями пока нейронки не могут). Тот же ChatGPT изян нальет воды в диплом, но не сочинит его структуру и не придумывает самую мякотку (так что может проблема не в нейронках, а в том что старые пердуны оценивают диплом по количеству страниц?)

  Развернуть 1 комментарий

@Pr0Ger, ну телефонистки это не творчество!
Секс по телефону пусть заменит ИИ😁 (в тему телефона и Ало)
Вот там не знаю, нужна душа или нет..

В тему дипломов. Да, к сожалению, есть стандартны, которые кто-то когда-то написал и почему-то меняются они с трудом. И воду писать действительно тяжело и хорошо если ее придумают за тебя. Но за такими текстами пойдут и стихи/романы/прочее. Это будет уже странно. Как минимум странно читать как ИИ пишет про шелест ветра или шум моря... прям ээээээ... странно)

  Развернуть 1 комментарий

Тексты, дизайны и картинки без души тысячи «спецов» и так клепают за пять копеек. Тут и без AI уже говна кучи за баней лежат.
А что касается отъема работы, так та же GPT4 и близко не подошла к тому чтобы полностью самостоятельно выполнять работу. Чтобы получить с ее помощью достойный результат нужно со знанием своего дела составить запрос и с теми же знаниями применить ответ.
Для программиста GPT - отличный помощник, для не программиста - бесполезная игрушка.
Без работы останутся низкоуровневые специалисты, которым не хватит ума адаптироваться к новой реальности и научиться использовать нейросети в своей работе.

  Развернуть 1 комментарий

@nikwerner,

Без работы останутся низкоуровневые специалисты, которым не хватит ума адаптироваться к новой реальности и научиться использовать нейросети в своей работе.

и те, кого забанит openAI)

  Развернуть 1 комментарий

Что касается души и дизайна, для меня, честно, не так важно кто его нарисовал. Если мне представят стОящие варианты, в большом количестве и за копейки, то я наверное что-то выберу. Всегда останутся ценители ручной работы(будет такая пометка теперь не только у одежды или стола), но массово людям будет важнее цена. (Потому что их уволил AI=)))

  Развернуть 1 комментарий

так чего НАСТОЯЩИЕ дизайнеры пастелькой не рисуют, ватманы на кульманах не крепят и не делают дизайнерские вещи своими руками?
Душа ушла из дизайна уже очень давно, по такой логике.

  Развернуть 1 комментарий

@sergeiruzki, Ну вот не скажите))

  Развернуть 1 комментарий

@sergeiruzki,



возможно вы обращались к шарлатанам, которые делали дизайн через ии)))

  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»
ИИ вначале надо изобрести

Тот факт, что мы вообще не понимаем, почему языковые модели могут так хорошо работать -- отличная почва для паникерства, однако это же значит, что мы понятия не имеем, как именно строить скайнет. Достаточно наивно считать, что на этом пути мы не упремся во что-то, возможно, фундаментальное и просто увеличение данных магическим образом решит все проблемы.

Лекун вот считает, что текущий подход авторегрессионных языковых моделей это тупиковая ветка развития и нужно делать что-то другое, чтобы иметь хотя бы шанс, чтобы самовыпилиться.

Emergent Abilities-то? Последнее, что я читал по теме (давно это было, год может назад), приписывает это к double descent в моделях с огромным числом параметров. Что согласовывается с новым зоопарком моделей, которые дистиллируют GPTx в более легковесные модели с вменяемым результатом.

  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»
Так а чего вы хотели, если ИИ плохой — то уже поздно

Согласно мыленному эксперименту Василиск Роко я подписал вам всем смертный приговор.

Суть следующая, если когда-то ИИ и будет плохим, то он поплатится со всеми, кто мешал его созданию, а если он плохим не будет — так чего тупить и останавливать прогресс?

Если притормозить прогресс, все продумать и зарегулировать, то вместо злого Василиска будет добрый Васенька. Человечество выиграет, никому не придется расплачиваться за торможение прогресса.

  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»
Гонка Нейроружений

"Каждое утро в Африке просыпается газель. Она должна бежать быстрее льва, иначе погибнет. Каждое утро в Африке просыпается и лев. Он должен бежать быстрее газели, иначе умрет от голода. Не важно кто ты — газель или лев. Когда встает солнце, надо бежать."

В первую очередь, openAI это частная компания. Она живет на рынке. Вот они занимаются чем-то другим полгода, а на рынке появился другой игрок с продуктом, который выдает метрику "ахуеть"\час в полтора раза больше чем chatGPT. Потом и еще, и еще, и еще. У меня в телеграмме через сообщение упоминание нейросетей. Этот подогретый интерес никуда не может испариться. Людям нужны нейросети. Ребята предлагают буквально камнем остановить течение воды. Имхо это вредительство. Течение можно направить. Им следует обратиться к регуляторам с просьбой проработать совместно вопрос, если они так сильно боятся "последствий"

Аналогия милая, но кмк некорректная. Газели надо просто не быть самой медленной газелью (при этом она может бежать медленнее льва), льву достаточно бежать быстрее самой медленной газели.

  Развернуть 1 комментарий
за «Хватит кормить искусственный интеллект»
Нужен баланс

Да, прогресс не остановить. Но аргумент, что "и раньше были опасные открытия, и ничего, выжили и пофиксили" - это ошибка выжившего.

Силы экономики двигают прогресс вперед. Тех гиганты будут строить модели мощнее/дешевле/умнее. Компании поменьше будут делать плагины, и внедрять ии-ассистентов в свои сервисы.
Умельцы будут мастерить разные приложеньки. Много маленьких прорывов будет происходить одновременно. И мы не знаем как разные нововведения будут взаимодействовать друг с другом. А проверять безопасность времени нет, конкуренция обгонит же!

А что противодействует этому? Что остановит прогресс, если что-то пойдет не так? Кто за этим проследит? У нас нет на это ответа, и я думаю, что это открытое письмо и пытается обратить внимание на эту проблему.

за «Больше нейросетей, прогресс не остановить!»
У ИИ нет чувств, нет желаний, нет целей. Это робот и круто если это поможет человечеству двигаться дальше.

Почему то при оценке рисков фантазируется ситуация где ИИ развивается по обучающей способности до уровня человека и обретает собственный интеллект.

Если воспринимать процесс обучения человека и человечества как ИИ, то у человека больше триггеров на которых он может реагировать что бы обучаться. Вроде эмоций, чувств, абстракции. ИИ же доступна только логическая часть. Вижу прекрасные перспективы в том что бы натренировать на рутинную работу и использовать их как нпс в играх. Но маловероятно что ИИ обретет свою волю.

за «Больше нейросетей, прогресс не остановить!»
потакание хоплофобам — уменьшает шансы хороших парней

принцип такой же как с уменьшением гражданского оборота оружия - вводя запреты мы только уменьшаем шансы законопослушной части населения

незаконопослушная мало того что будет иметь все преимущества (в данном случае доступ к любым технологиям), но и ещё не будет иметь сопротивления из за технологической отсталости законопослушных

Великолепный аргумент для запрета нейросетей, ибо везде где банили свободный оборот оружия, преступность падала.

  Развернуть 1 комментарий

@mighty_conrad, вы конечно же сможете подтвердить это цифрами?

зы. на всякий случай - я различаю оборот гражданского оружия и бан свободного оборота.

  Развернуть 1 комментарий

@mighty_conrad, прекрасный пример, и там явно написано

The fact that the observed reductions in suicide do not appear to be limited to firearm-related suicides raises questions about whether declines in suicides are primarily attributable to the NFA or whether other social forces, such as those contributing to pre-NFA declines, account for these changes.

  Развернуть 1 комментарий

@mgu, а если не дергать только удобные тейки? Видный тренд на понижение убийств с применением огнестрела при отсутствии смены тренда для всего остального?

Если не нравится эта статья, вот https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(15)01026-0/fulltext и sci-hub в помощь. На основе уже существующих законов, что контролируют оборот оружия в отдельных штатах, найдены те, которые действительно работают и внезапно, это примерно то, за что сторонники контроля над оружием и топят: меры по упрощению идентификации стволов и хозяина, проверки потенциального покупателя как для стволов, так и для аммуниции, обязательные тренировки.

  Развернуть 1 комментарий

@mighty_conrad, в приведеной вами статье к сожалению только удобные для меня тейки :) там нет тренда. точнее он не изменился от ужесточения мер

вторая ваша статья тоже хороша.

Very few of the existing state-specific firearm laws are associated with reduced firearm mortality, and this evidence underscores the importance of focusing on relevant and effective firearms legislation.

хотелось бы всё же увидеть подтверждение тезису

ибо везде где банили свободный оборот оружия, преступность падала.

за 10+ лет которые я дружу с оружием и изучаю вопрос - мне попадалось только противоположное.

и кстати мнение самих американцев

  Развернуть 1 комментарий

@mgu, После того как в Австралии были введены строгие законы о контроле над оружием в 1996 году, исследование, проведенное в журнале "JAMA Network Open", показало значительное снижение количества насильственных преступлений с использованием огнестрельного оружия. Между 1979 и 1996 годами в Австралии было зарегистрировано в среднем 492 насильственных преступлений с использованием огнестрельного оружия ежегодно. С 1997 по 2016 годы этот показатель снизился до в среднем 206 случаев в год.
Ссылка: https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2698492

  Развернуть 1 комментарий

@lespaul, есть мнение что вы даже не открывали ссылку которую предоставили т.к. конкретно по ней нет ничего существенного про австралию

но зато конкретно про Австралию есть по другой ссылке - https://jamanetwork.com/journals/jama/fullarticle/2530362

и что же мы там видим?

There was a more rapid decline in firearm deaths between 1997 and 2013 compared with before 1997 but also a decline in total nonfirearm suicide and homicide deaths of a greater magnitude. Because of this, it is not possible to determine whether the change in firearm deaths can be attributed to the gun law reforms.

"рикошет. нипробил" © world of tanks

  Развернуть 1 комментарий

@mgu, мне не интересно играть с тобой в эту игру, ты попросил цифры я нашел первые попавшиеся. Эти кейсы из статьи выше это тоже просто совпадения?

Both suicide and homicide are defined as intentional behaviors, and thus it should be possible to develop strategies to reduce these forms of violence. A recent review of firearm legislation in the United States by Lee and colleagues32 highlights the association of laws that strengthen background checks or that require a permit to purchase a firearm with reductions in firearm homicide rates, and this general principle is supported by more stringent programs to restrict the use of firearms by civilian populations in other settings.33 The Australian National Firearms Agreement, enacted following the 1996 Port Arthur massacre, has been closely linked with declines in firearm deaths in Australia, particularly firearm suicides and an absence of mass shootings.34 The patterns documented in South Africa and Brazil also support a link between regulatory restrictions on firearm access and subsequent reductions in firearm death rates. In South Africa, rates of violent death decreased following the Firearm Control Act of 200035; it is estimated that this legislation may have prevented more than 4500 deaths across 5 South African cities between 2001 and 2005.36 In Brazil, where much of the stock of civilian firearms are likely unregistered, large decreases in firearm homicides (since the year 2000 in the state of São Paulo) and firearm suicides in the state of Rio de Janeiro have been linked to more effective policing, firearm buy-back programs, and enforcement of firearm control legislation passed in 2003.37 The hypothesis that differences in levels of violence between countries reflect the availability of firearms and the extent of firearm control at a national level is consistent with these findings, although more disaggregated data are needed to transfer the analysis to other settings.

Предотвечу, по ссылкам я не ходил. Уверен у тебя есть десяток аргументов почему все эти исследования фигня, но я в эту игру наигрался в 2020, спасибо не хочу.

  Развернуть 1 комментарий

@lespaul,

Предотвечу, по ссылкам я не ходил.

если бы сходили, увидели бы что в вашей статье нет ничего кроме голословного утверждения и ссылки на другую статью с разбором конкретно Австралии

а в глубоком разборе конкретно Австралии явно написано что корреляция неочевидна. Ещё раз - в разборе заинтересованными австралийцами, своей родной ситуации, честно указано что корреляции не найдено.

Уверен у тебя есть десяток аргументов почему все эти исследования фигня

покажите где я такое утверждал? наоборот, меня эти исследования вполне устраивают. поскольку никак не противоречат моей позиции.

мне не интересно играть с тобой в эту игру, ты попросил цифры я нашел первые попавшиеся.

мне тоже не интересно играть в игру, в которой оппонент кидает первую же попавшуюся ссылку, не потрудившись хотя бы поверхностно ознакомится с текстом. слабо похоже на конструктивную дискуссию.
спасибо, в такое я тоже наигрался на других площадках

  Развернуть 1 комментарий

корреляция неочевидна

Просто совпадение, да

  Развернуть 1 комментарий

@lespaul, "с использованием огнестрельного оружия" - т.е. отсутствие у жертвы огнестрела привело к тому, что преступники смогли перейти к ножам и битам во время ограблений и изнасилований? Очевидно, что надо смотреть общее количество преступлений, а не то, чем они были совершены, иначе это manipulation

  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»
Ага, давайте перестанем изучать атом, а то это приведёт к созданию ядерного оружия

Прогресс технологий нельзя остановить. Можно лишь выстрелить себе в ногу и подарить победу в конкуренции другим людям. Странно, что так много таких умных людей этого не понимают (а если понимают, то вопросов ещё больше)

Единственный способ защиты от угроз, которые несут новые технологии — это ещё более крутые новые технологии. Защита от пороха — броня и порох покруче. Защита от авиации — ПВО и авиация покруче. Защита от вирусов — вакцины и лекарства. Защита от вредоносного кода — защитный код

за «Больше нейросетей, прогресс не остановить!»
Авторы негодуют, что их обставили

Этот аргумент уже звучал, но я прочитал письмо и пришел к тем же выводам. А чтобы проголосовать нужно аргументировать свой голос, поэтому повторяюсь.
Ну, камон, какие там высокие идеи? Сплошь лицемерие! Если бы любому из подписантов удалось сделать что-то подобное ChatGPT, то молчал бы он в тряпочку и потирал ручонки в предвкушении баснословных прибылей. А так просто палки в колеса ради возможности наверстать упущенное.

за «Хватит кормить искусственный интеллект»

ml в общем и нейросети в частности придумал гугл и фб, чтобы продавать больше рекламы

интернет - это скам чтобы распространять порно

  Развернуть 1 комментарий

Нет, их придумало АНБ чтобы хоть как-то анализировать тонны трафика /conspiracy mod off

  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»
Это то же самое, что работа с вирусами

Если ты делаешь систему, которая может модифицировать свой код и взаимодействовать с окружением, то по сути это не особо отличается от работы с вирусами, чем безопасники занимаются уже давно. Идея запускать такую прогу в изолированном окружении без доступа к интернету лежит просто на поверхности. Чтобы сильно поломать компьютерные системы не нужен интеллект так-то и в мире таких угроз мы живем уже сейчас.

за «Больше нейросетей, прогресс не остановить!»
Чтото письмо подозрительное


https://twitter.com/ylecun/status/1640910484030255109
вот чувак пишет что не подписывал, а имя его там есть

за «Хватит кормить искусственный интеллект»
Если технология будет обладать действительно большим импактом ее могут зарегулировать если это будет выгодно

Примеры:

  • клонирование
  • ядерная энергетика
  • производство различных видов вооружений
  • исследование различных микробов/вирусов
  • (неудавшийся пример) криптография

Есть еще интересный промежуточный пример: авиация. Изначально совершенно не регулировалась, каждый мог себе летать на самолете и делать разные безумные авиашоу, сейчас имеем тяжело зарегулированную область гражданской авиации (где по-сути среди самолетостроителей сложилась олигополия) и различное отношение к регуляции малой авиации в разных юрисдикциях (сравним, например, РФ и США).

Вопрос только в том кому будет выгодно зарегулировать или нет, будут активно сопротивляться регулированию или нет. Пойнт про то что мол те кому надо чихали на запреты не очень то и валидный в силу того что такие модели на чердаке на даче не поучить, нужны приличные ресурсы и персонал. А чем больше ресурсов нужно, тем проще такие вещи зарегулировать и сростить с государством. Те-же Альтман с Суцкевером в своих последних интервью явно предлагали AI в контексте улучшения демократии - то есть по-сути госпроект.

Пойнт про то что вот мол существующие LLM можно относительно успешно скопировать (дистиллировать) невалиден из-за того что таким образом можно получить только LLM с перфомансом несколько хуже той которую вы дистиллируете (аналогично тому как можно создать дешевый аналог некоторого устройства, но не скопировать при этом сам техпроцесс). А наибольший импакт судя по-всему получается когда вы берете модель с действительно большим количеством параметров и обучаете ее с нуля на больших дадасетах (которые в случае OpenAI так-же не раскрыты), потом нанимаете персонал, делаете для него специализированный тулинг и тюните модель по тщательно продуманной методике с помощью PPO. Кстати, вполне может быть и так что GPT-4 доступная через API это всего-лишь дистиллированная версия более большой модели ;-)

Пойнт про то что мол те кому надо чихали на запреты не очень то и валидный в силу того что такие модели на чердаке на даче не поучить, нужны приличные ресурсы и персонал.

Те, кому надо -- это может быть другое государство, какие-то богатенькие частные заказчики и так далее. Ну будут не сотни конкурентов, а несколько десятков или единиц. Но всё же. Здесь конечно можно сказать, что можно просто контролировать закупки железа, а его не так много игроков производят. Ну тут уже только спекуляции устраивать, возможны ли утечки технологий, сложно ли покупать заводы и переносить производство, можно ли изменить способ обучения так, чтобы не зависеть от конкретного железа и т. д. Ну короче, нельзя сказать, что тут предсказуемо и однозначно.

Ну и в целом, нет такого, что однозначно лучшая модель сразу же даёт преимущество. Всё ещё нужно целеполагание правильное и правильная стратегия. Есть много нищих докторов наук и богатых неучей. Кому-то помогают другие качества, кому-то удача и внешняя среда. Нельзя вот так просто изолировать другие факторы.

  Развернуть 1 комментарий

Те, кому надо -- это может быть другое государство, какие-то богатенькие частные заказчики и так далее. Ну будут не сотни конкурентов, а несколько десятков или единиц. Но всё же. Здесь конечно можно сказать, что можно просто контролировать закупки железа, а его не так много игроков производят. Ну тут уже только спекуляции устраивать, возможны ли утечки технологий, сложно ли покупать заводы и переносить производство, можно ли изменить способ обучения так, чтобы не зависеть от конкретного железа и т. д. Ну короче, нельзя сказать, что тут предсказуемо и однозначно.

Так и получается что пока обучение таких моделей требует больших ресурсов мы приходим к сценариям аналогичным ядерной энергетике/вооружениям или авиапроизводству. Такие вещи хорошо поддаются регулированию - ситуация будет сильно сложнее для регуляторов, если можно будет учить такие модели без существенных капиталовложений.

  Развернуть 1 комментарий

@frenzykryger, да, но не факт, что какая-нибудь дистиллированная модель в каждом доме не перевесит пару неповоротливых монополистов.

  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»
Тут не исправить уже ничего, господь, жги!

Пока есть возможность дампте данные открытых источников.

Экстраполируя драму с ani ai на artstation.com и тот факт, что 4chanGPT была обучена на /pol борде и принимала участие в дискуссиях будет ещё такой прецедент, только крупнее.
И вполне вероятно, что если компании не сами прикроют отдачу данных, то будет нечто подобное GDPR.
Наверняка кто-то уже обучает подобные веса.

за «Больше нейросетей, прогресс не остановить!»
Пусть ИИ уничтожает человечество

Возможно, это будет быстродейственый способ объединить человечество и прекратить уничтожение человечеством человечества =)

за «Больше нейросетей, прогресс не остановить!»
Одного только интеллекта не достаточно.

Ну вот, допустим, есть сильный ИИ, ужасно хитроумный, мы не понимаем, что он делает, а он делает наше вымирание. Ну вот что такое будет, чтобы он добрался до всех в один момент? Я могу представить например такой сценарий, что нейронками сгенерируют такой привлекательный контент для каждого, что мы не сможем оторваться. Может детей делать перестанем, потому что не так интересно будет, а может и есть и пить больше не будем, потому что надо скроллить. Но вот вопрос доставки контента до каждого непрерывно и персонально как решать? Это надо и энергоснабжение, и поддержку устройств организовывать, и даже климатические проблемы решать, чтобы тупой шторм не поломал интернет там где ИИ ещё не всех уничтожил или не построил сам себе незаметно датацентр и стал автономным. Ну и надо везде сначала сделать прогресс такой, что все вообще залипнут одновременно и не останется "не вошедших в матрицу", которые смогут лопатами нам экраны поразбивать и освободить. То есть прямо переделать всю землю.

Это хоть и вероятнее "завода скрепок", но всё же этот сценарий требует от ИИ автономности, строительства инфраструктуры и решения многих ресурсоёмких фундаментальных проблем. Каким бы умным и вычислительно мощным он не был, всё равно будут задачи только на брутфорс, которые не решаются за секунды и задачи связанные с инфраструктурой, с ресурсами и всем таким -- именно такие задачи. Так что все такие сценарии не происходят незаметно, даже если мы не поймём великий замысел, уж ясно будет, что что-то надо делать. Обычно во всех аргументах за такие сценарии просто говорят, что ИИ настолько будет невообразимо умён, что проблем для него больше нет. Ну не знаю, физику не преодолеть. Что-то просто невозможно сделать быстрее, потому что невозможно физически.

Ок, другой сценарий, ИИ случайно придумывает какие-то тезисы/идеи/лозунги, которые вирусятся и становятся базой для идеологий. Идеологии могут к примеру быть как в сектах, и вести например к святым войнам или к массовым суицидам. Или приводить к войнам. Тогда достаточно будет убеждать людей давать правильные приказы, ретранслировать идеи и так далее.

Сектантский вариант отметается легко. Нельзя достаточно быстро убедить достаточно много людей. Мы все слишком разные, слишком разный опыт, разное вообще всё. Просто будет действовать только на отдельные подмножества людей. И снова не одновременно. Опять же вопрос доставки сообщения надо решать, и это во многом комбинаторная задача и в то же время стохастическая. ИИ всё равно не будет демоном Лапласа, чтобы посчитать всё будущее во всех деталях на будущее и потом на то же самое будущее придумать решение. Будут группы устойчивые к губительным идеям, будут те, до которых эти идеи просто не добрались. Ну то есть как минимум уничтожение человечества сильно растягивается.

Вариант с ядерной войной, потому что ИИ зомбировало несколько ответственных лиц, конечно сложнее критиковать. Но тут тоже с одной стороны проще организовать, с другой нужно слишком много знать, добраться до конкретных людей, исключить влияние всех других факторов и всё равно в нашем хаотичном мире добиться строгого порядка и синхронизировать чуваков в выполнении одной задачи. Требования к скорости выполнения ещё выше. А вдруг один из ответственных за красную кнопку в пробке застрянет? Здесь уже не будет такого, что оно просто хотело делать скрепкиВероятность успеха такой задачи нужно ещё умножать на вероятность возникновения такого сценария. Как он возникнет этот сценарий вообще?

Охотнее верю в то, что государства будут использовать ИИ для улучшения оружия и способов ведения войны. Но для этого сильный и неуправляемый ИИ даже и не нужен. То есть поздно уже. И это понятная угроза, а не неописуемый ужас сверхразума за пределами понимания. И происходит тоже не в том темпе, который мы не в силах понять.

Ну и в конце концов, как будто невероятная вычислительная мощь и способность придумывать решения задач -- это автоматически означает сразу преодоление скорости света и изобретение машины времени и всё остальное. Во всех этих сценариях как-то оставлят за скобками, каким образом вдруг превосходство в интеллекте вдруг конвернтируется в неограниченные возможности в максимально общем смысле и потенциальное превосходство в чём-то одном становится абсолютным превосходством во всём везде и сразу.

Получается такое религиозное "пути ИИ неисповедимы", deus ex machina во всех смыслах.

@iggisv9t, А с третьей у нас вон и без всяких ии ответственные лица чуть что так грозятся весь мир уничтожить

  Развернуть 1 комментарий

@Cave, но не факт, что они действительно могут это сделать.

  Развернуть 1 комментарий

Жалко что в батлах нельзя награду выдать

  Развернуть 1 комментарий

@yorlov, Спасибо =)

  Развернуть 1 комментарий

Я бы написал пару простых способов добраться до всех, но не хочется помогать злобному ИИ :D

  Развернуть 1 комментарий
за «Хватит кормить искусственный интеллект»
Скайнет близко

Не успел насладиться текущим этапом технического и научного прогресса − притормозите, ребята. Не верю что в этой прогрессивной суете можно найти счастья. Но его можно найти в культуре.
А пока культура − это четвертая матрица, 12 форсаж и 8 терминатор → каким ценностям мы сможем научить машин?

Разве что тем, которым будем учиться потом у них сами. Боюсь и не хочу учиться суете. Оставьте мне живых людей сделанных из мяса, пожалуйста.

за «Больше нейросетей, прогресс не остановить!»
Судя по кино, мы уже победили Скайнет)

Так же бессмысленно, как пытаться запретить телевизор, а до этого -- радио, а до этого -- электричество, а до этого -- паровые машины.
Да в конце концов, может и не нужно это человечество, не жили хорошо нечего... не, это из другой мысли. Короче не эй ай нас погубит, а человечки сами себя порешают :)))

@sonickrnd, Семимильными шагами движемся к сингулярности. Надеюсь человечество успеет найти другую форму существования до того как это наступит

  Развернуть 1 комментарий

@kentilini, круто было бы там мозг заюзать норм, чтобы всем шарить почуть и дохрена всем сразу поумнеть))))) (а некоторым просто выключить 2х2 и включить мозги, ха-ха)

  Развернуть 1 комментарий
за «Больше нейросетей, прогресс не остановить!»
Нейросеть — всего лишь аккумулятор человеческих знаний

Если вы понимаете как обучается нейросеть, то вы прекрасно знаете, что все что сейчас знает и умеет та же ChatGPT или GPT-4 не более чем аккумулированные человеческие знания и опыт.

Возможность быстро получить рецепт яблочного пирога или код для POST запроса на JavaScript не более чем результат прогресса именно человечества, следовательно, планка возможностей чатГпт и тому ей подобных задана планкой возможностей человечества, а выше головы не прыгнешь)

Да, условная нейронка может придумать новый изощрённый способ убийства, но только !человек! решиться это реализовать на данном этапе развития

Ну и камон, ребят, бояться чтоли перемножения матриц которое умерчвляется путем выдергивания штекера из розетки?)

за «Больше нейросетей, прогресс не остановить!»
Чем раньше начнём — тем быстрее наиграемся и больше построим интересного

Как в том же письме написано: джин уже выпущен из бутылки. Так что теперь время «наиграться» и использовать на благо человечества. Вижу большой потенциалов образовательном сегменте, который будет учить думать и рассуждать, развивать критическое мышление и не принимать на веру все, что можно. Конечно, надо иметь «электрорубильник» и не допускать до автоматического принятия решений. Но специально тормозить технологию врядли разумно. Должно прийти осознание осознанного ее потребления. Вижу полную параллель с едой: сначала жрем все, что не поподя, а потом переходим на меньшие порции и более правильного питания.
Даешь прогресс!

Конечно, надо иметь «электрорубильник» и не допускать до автоматического принятия решений.

Консёрн ровно в том, что у нас не будет способа остановить/выключить AI, если он будет достаточно продвинутый. Если AI максимизирует вероятность достижения своей цели (неважно какой), то быть выключенным или остановленным людьми — точно не то, что он хочет допустить, поскольку это помешает ему достичь цели. Как только он будет достаточно умный, чтобы уметь манипулировать людьми, он сделает так, чтобы его было не выключить.

В AI safety этот вопрос имеет отдельное название — shutdown problem — и нет, мы не имеем на сегодняшний день никакого ответа про то, что позволит нам сделать системы одновременно и сильные, и позволяющие людям их выключать / контролировать.

  Развернуть 1 комментарий

@nadyapetrova, согласен. Еще есть проблема - на каких датасетах его тренировать и как обучить его так, чтобы человек был главной ценностью. Можно вспомнить «3 закона роботехники» Азимова. Также это будет способствовать появлению новых профессий типа робопсихологов )))

  Развернуть 1 комментарий

@Spirtel, да-да, современные AI safety ресёрчеры как раз пытаются понять, как вообще возможно сделать так, чтобы AI системы, когда у них будет намного больше контроля (что неизбежно произойдёт), считались с человеческими ценностями. К сожалению, законы робототехники не работают ни в каком приближении, задача alignment технически выглядит суперсложной. Люди в OpenAI, DeepMind, Anthropic, Redwood, ARC и прочих лучших лабораториях мира пока что в душе не чают, как это сделать.

Именно поэтому идея в том, чтобы не делать ещё более мощные модели, чем есть сейчас — чтобы выиграть время на ресёрч этого вопроса. Точка невозврата близко. Если у AI контроль появится раньше, чем мы научимся ставить ему задачи и сообщать свои ценности, последствия будут катастрофические.

  Развернуть 1 комментарий

@nadyapetrova, если не использовать ИИ с искусственными ограничениями для развития - то уже все проиграно. Думаю что наверняка можно использовать «частные модели» для решения конкретных задач и изначально формировать датасеты, где есть человек как безопасные. Вот вопрос по исследованию безопасных датасетов - крайне интересно и важно. Но опять таки - без использования ИИ это слабореально.

  Развернуть 1 комментарий

😎

Автор поста открыл его для большого интернета, но комментирование и движухи доступны только участникам Клуба

Что вообще здесь происходит?


Войти  или  Вступить в Клуб