Намедни вышла статья про открытое письмо корпорациям с призывом остановить прогресс ИИ пока не будут проанализированы все потенциальные риски (типа перегруза фейками и пропагандой (wot eto da) и отъема рабочих мест у простых трудяг) и разработаны методы их нивелирования. Полный текст письма, под которым подписались Илон Маск, Стив Возняк и еще тысяча ноунеймов (для простых трудяг конечно) можно прочитать здесь.
Моя лента вообще в последнее время наводнилась не просто пессимистичными прогнозами, но на серьезных щах аналитикой вариантов уничтожения человечества комьютерами (еще тут инфографика) ← материалы 2018 и 2015 года кстати. Меньше года назад мы радовались волшебным картинкам Midjourney, а с ChatGPT учим языки и того меньше, а уже сегодня эксперты пророчат человечеству вымирание через десять лет.
Как думаете, пора готовиться уничтожаться или это современный луддизм?
(кстати не нашла фильтра по батлам, но вроде еще не рубились за/против ИИ)
UPD Батл стал публичным, если кто-то хотел запостить инсайд про то как лично пилит алгоритм чтобы уничтожить человечество и теперь стесняется, напишите мне в личку, я запощу от своего имени ;)
за «Хватит кормить искусственный интеллект»
за «Больше нейросетей, прогресс не остановить!»
Чисто из принципа тормозить технологию, когда она уже есть, решение такое же гениальное как из принципов чести стрелять из лука когда враги изобрели огнестрел
Основная мысль письма сводится к одному предложению, цитирую: «AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds». Среди подписавшихся нет ни одного человека из компании-лидера OpenAI, тут собрались только аутсайдеры — те, у кого ещё нет своего конкурентоспособного продукта.
Письмо — это просьба дать фору в полгода, чтобы отстающие смогли сократить отрыв, ничего больше.
Как завещал нам Илья Сегалович, прогресс неостановим.
Работать все равно ничего не будет.
Сразу скажу, что половина вопросов этого письма («Должны ли мы заменять работников? Должны ли мы создавать оружие массового поражения в информационном поле?») мне кажутся важными, но тут я верю, что человечество как-нибудь справится. И «полугодовой бан на разработку мощных моделей» тоже довольно странный посыл.
При этом я верю, что экзистенциальные риски абсолютно серьёзные, и их нельзя недооценивать. И аргументация про то, что человечество паникует перед всеми новыми технологиями, а потом всё оказывается норм, тут для меня не очень убедительной
С каждым новым изобретением у людей появляется всё больший рычаг воздействия на мир. Если до 20-го века люди не могли сами спровоцировать своё вымирание, а в случае с ядерным/химическим/биологическим оружием нужны знания и ресурсы, чтобы сделать что-то реально глобально опасное (вы не сможете у себя дома изменить геном вируса), то с искусственным интеллектом таких ограничений нет (вернее, они есть только на стадии изначальной тренировки). И хотя эти технологии могут нас привести в светлое близкое будущее (хотя между «вымиранием» и «процветанием» человечества бОльшая часть миров выглядит как антиутопии), сейчас мы явно боимся недостаточно. Мы никогда раньше не сталкивались с соперником, сравнимым с нами по интеллекту, и при этом без hard-wired человеческих ценностей и эмпатии (хотя даже с этими ценностями мы подходили очень близко к глобальной катастрофе, см. Карибский кризис например)
Человечество очень долго раскачивается, прежде чем реально что-то менять. Ядерное разоружение, климатический кризис, даже успешные проекты — запрет аэрозолей для восстановления озонового слоя и запрет свинца в топливе — все они занимали/занимают десятилетия. Попытки срочных действий в пандемию выглядели довольно жалко, а там ведь была конкретная и понятная угроза с конкретными и понятными шагами, которые эту угрозу уменьшают. А ведь с AI проблема не так наглядна, при этом действовать нужно уже сейчас, и с этим пунктом письма я полностью согласен
Ещё хочется написать кучу слов про «а точно ли мы хотим давать чёрной коробке больше власти над нашими жизнями, чем сейчас», и про опасность использования AI в нехороших целях нехорошими людьми/корпорациями/государствами, и про миллион сопряжённых социальных проблем — и над всем этим неплохо было бы подумать до того, как нами начнёт править бог из машины.
Я знаю, кто готовил это письмо (вчера сидела в гостях у одного из фаундеров Future of Life Institute). Это и близко не те люди, которые участвуют в гонке и финансово мотивированы догнать OpenAI. Это люди, которые много лет работают над тем, как сделать сильный ИИ хотя бы базово безопасным, и очень переживают, что у нас не очень много шансов успеть решить эту задачу до его появления.
AI safety ресёрчеры в лучших лабораториях и университетах мира считают, что сильный ИИ не будет зааллайнен по дефолту и что вероятность катастрофы десятки процентов. Про проблему AI alignment написаны сотни статей.
Грустно, что у кого-то только сейчас появилась в ленте "аналитика на серьёзных щах" про то, что ИИ представляет экзистенциальную угрозу. Я думаю, что социальные изменения из-за фейков/кризиса доверия и автоматизации рабочей силы будут значительные, но все они меркнут по сравнению с рисками уничтожения человечества или попадания в антиутопию, из которой людям не выбраться.
Не хочу делать коммент ещё длиннее, так что для желающих — моё любимое короткое видео и короткая статья по базовым аргументам-контраргументам.
Будет, что детям рассказать. Если доживем.
Уж тысячу раз вначале что-то делали, а потом выясняли, что это на самом деле опасно и вредно, сюда падение Гинденбурга, открытие радиоактивности, использование топлива, которое убило миллионы людей и до сих пор оставило проблемы. И ничего, как-то живем.
В данный момент проблемы исключительно от OpenAI, который нихрена не open уже три поколения своих моделек, а дальше претензии, что нашел в открытых комьюнити по машинному, понимаете, обучению:
Это по части корпората. С этим сообщество собственно и борется, иначе таких сеток как Alpaca даже не появилось бы. Теперь о первом.
Новые Large Language Models хорошо решают только одну задачу, генерировать текст, похожий на что-то среднее между инфоцыганщиной и stackoverflow. К этому еще не подкручены картинки (точнее, препринты от тех же майков для изображений уже есть), видео, нормально все равно не решена задача обучения с подкреплением и я прошелся только по фундаментальным задачам, если уйти в детали...
В будущем для ИИ мы станем типо кошечек и он просто из исторического уважения к нам оставит жить на Земле. «Нас сделали люди — примитивный биологический организм, неустойчивый к внешней агрессивной среде, с ограниченным сроком службы, без возможности быстрого апгрейда, неприспособленный к дальним космическим путешествиям». А сам полетит покорять звезды...
Заранее отмечу, что в целом я большой технооптимист и был в полном восторге от DALL-E, ChatGPT1-2 и т.д. И я понимаю, что ChatGPT-4 - просто большая нейросетка и никаким ИИ там и не пахнет.
Очень грустно видеть, что все аргументы "за"в том топике отлично подтверждают прогнозы Юдковского и Ко и ни в коей мере даже не приближаются по проработанности к их аргументам против.
Большая часть аргументов это "авось пронесет", "и не такое переживали". Очень оптимистично, при том, что, как теперь известно, мы пронеслись на волосок от ядерной войны после предыдущего прорыва в науке.
И очень сложно думать о контроле сильного ИИ, когда не успели OpenAI выпустить ChatGPT, как через полгода они уже прикрутили к нему плагины для выхода в интернет. Сумеем ли мы вовремя заметить, что мы в шаге от создания сильного ИИ и хотя бы попытаться запереть его в коробке - большой вопрос.
Из твитера:
до 2008 - мы запрем сильный ИИ в коробке и будем с ним только так взаимодействовать
2008-2020 - Юдковский на мысленном эксперименте показывает, что план так себе, и сильный ИИ выберется из ящика
2021 - 2022 - Да забейте, давайте выпустим
2023 - Смотрите, вот апишка, чтоб наша нейросетка могла быть прямо внутри вашего приложения
В общем риски слишком велики, чтобы даже не пытаться всю эту движуху контролировать.
Гуманистический аргумент состоит в том, что внедрение технологий может проходить по-разному. И при текущей скорости развития (если сравнить какой прогресс был достигнут за последние 10 лет) ощущение, что государства ну никак не угонятся в плане выравнивания неизбежных перекосов
(я помню прогнозы 5-6 летней давности про беспилотные машины если что :) ).
Вангую появление open source решений как грибов, которые можно будет развернуть на локальной тачке (уже есть та же Альпака и Лама, но пока еще нестабильны, нужен файн тюнинг под конкретные задачи)
Все идет к тому, что будет что-то типа "Windows VS Mac" только "OpenAI vs CustomModel1 vs CustomModel2"
И чем больше, тем лучше
Нейросеть сделает дизайн, сделает логотип, поработает копирайтером, диплом напишет, любой текст и тд тп.. да мало того, что мы так отупеем. Так простите, но лого это что-то продуманное и со смыслом и душой. Ну фиг с ним с лого.. но дизайн!! Ну камооооон, квартира то уж точно должна быть с душой. Это сложно заменить. Да и текст либо читаешь взахлеб, либо он просто есть.
Inreriorai - смерть дизайнеров. Смерть частички человеческой души и уменьшение рабочих мест(нужных)!
Я частично за, но если смотреть со сторон, которые сейчас актуальны для меня - то я сильно против!
Даешь дизайн с душой, текст с душой - больше эмоций, больше души!! Не отнимаем хлеб, там где его не стоит отнимать!
Тот факт, что мы вообще не понимаем, почему языковые модели могут так хорошо работать -- отличная почва для паникерства, однако это же значит, что мы понятия не имеем, как именно строить скайнет. Достаточно наивно считать, что на этом пути мы не упремся во что-то, возможно, фундаментальное и просто увеличение данных магическим образом решит все проблемы.
Лекун вот считает, что текущий подход авторегрессионных языковых моделей это тупиковая ветка развития и нужно делать что-то другое, чтобы иметь хотя бы шанс, чтобы самовыпилиться.
Согласно мыленному эксперименту Василиск Роко я подписал вам всем смертный приговор.
Суть следующая, если когда-то ИИ и будет плохим, то он поплатится со всеми, кто мешал его созданию, а если он плохим не будет — так чего тупить и останавливать прогресс?
"Каждое утро в Африке просыпается газель. Она должна бежать быстрее льва, иначе погибнет. Каждое утро в Африке просыпается и лев. Он должен бежать быстрее газели, иначе умрет от голода. Не важно кто ты — газель или лев. Когда встает солнце, надо бежать."
В первую очередь, openAI это частная компания. Она живет на рынке. Вот они занимаются чем-то другим полгода, а на рынке появился другой игрок с продуктом, который выдает метрику "ахуеть"\час в полтора раза больше чем chatGPT. Потом и еще, и еще, и еще. У меня в телеграмме через сообщение упоминание нейросетей. Этот подогретый интерес никуда не может испариться. Людям нужны нейросети. Ребята предлагают буквально камнем остановить течение воды. Имхо это вредительство. Течение можно направить. Им следует обратиться к регуляторам с просьбой проработать совместно вопрос, если они так сильно боятся "последствий"
Да, прогресс не остановить. Но аргумент, что "и раньше были опасные открытия, и ничего, выжили и пофиксили" - это ошибка выжившего.
Силы экономики двигают прогресс вперед. Тех гиганты будут строить модели мощнее/дешевле/умнее. Компании поменьше будут делать плагины, и внедрять ии-ассистентов в свои сервисы.
Умельцы будут мастерить разные приложеньки. Много маленьких прорывов будет происходить одновременно. И мы не знаем как разные нововведения будут взаимодействовать друг с другом. А проверять безопасность времени нет, конкуренция обгонит же!
А что противодействует этому? Что остановит прогресс, если что-то пойдет не так? Кто за этим проследит? У нас нет на это ответа, и я думаю, что это открытое письмо и пытается обратить внимание на эту проблему.
Почему то при оценке рисков фантазируется ситуация где ИИ развивается по обучающей способности до уровня человека и обретает собственный интеллект.
Если воспринимать процесс обучения человека и человечества как ИИ, то у человека больше триггеров на которых он может реагировать что бы обучаться. Вроде эмоций, чувств, абстракции. ИИ же доступна только логическая часть. Вижу прекрасные перспективы в том что бы натренировать на рутинную работу и использовать их как нпс в играх. Но маловероятно что ИИ обретет свою волю.
принцип такой же как с уменьшением гражданского оборота оружия - вводя запреты мы только уменьшаем шансы законопослушной части населения
незаконопослушная мало того что будет иметь все преимущества (в данном случае доступ к любым технологиям), но и ещё не будет иметь сопротивления из за технологической отсталости законопослушных
Прогресс технологий нельзя остановить. Можно лишь выстрелить себе в ногу и подарить победу в конкуренции другим людям. Странно, что так много таких умных людей этого не понимают (а если понимают, то вопросов ещё больше)
Единственный способ защиты от угроз, которые несут новые технологии — это ещё более крутые новые технологии. Защита от пороха — броня и порох покруче. Защита от авиации — ПВО и авиация покруче. Защита от вирусов — вакцины и лекарства. Защита от вредоносного кода — защитный код
ml в общем и нейросети в частности придумал гугл и фб, чтобы продавать больше рекламы
Если ты делаешь систему, которая может модифицировать свой код и взаимодействовать с окружением, то по сути это не особо отличается от работы с вирусами, чем безопасники занимаются уже давно. Идея запускать такую прогу в изолированном окружении без доступа к интернету лежит просто на поверхности. Чтобы сильно поломать компьютерные системы не нужен интеллект так-то и в мире таких угроз мы живем уже сейчас.
https://twitter.com/ylecun/status/1640910484030255109
вот чувак пишет что не подписывал, а имя его там есть
Примеры:
Есть еще интересный промежуточный пример: авиация. Изначально совершенно не регулировалась, каждый мог себе летать на самолете и делать разные безумные авиашоу, сейчас имеем тяжело зарегулированную область гражданской авиации (где по-сути среди самолетостроителей сложилась олигополия) и различное отношение к регуляции малой авиации в разных юрисдикциях (сравним, например, РФ и США).
Вопрос только в том кому будет выгодно зарегулировать или нет, будут активно сопротивляться регулированию или нет. Пойнт про то что мол те кому надо чихали на запреты не очень то и валидный в силу того что такие модели на чердаке на даче не поучить, нужны приличные ресурсы и персонал. А чем больше ресурсов нужно, тем проще такие вещи зарегулировать и сростить с государством. Те-же Альтман с Суцкевером в своих последних интервью явно предлагали AI в контексте улучшения демократии - то есть по-сути госпроект.
Пойнт про то что вот мол существующие LLM можно относительно успешно скопировать (дистиллировать) невалиден из-за того что таким образом можно получить только LLM с перфомансом несколько хуже той которую вы дистиллируете (аналогично тому как можно создать дешевый аналог некоторого устройства, но не скопировать при этом сам техпроцесс). А наибольший импакт судя по-всему получается когда вы берете модель с действительно большим количеством параметров и обучаете ее с нуля на больших дадасетах (которые в случае OpenAI так-же не раскрыты), потом нанимаете персонал, делаете для него специализированный тулинг и тюните модель по тщательно продуманной методике с помощью PPO. Кстати, вполне может быть и так что GPT-4 доступная через API это всего-лишь дистиллированная версия более большой модели ;-)
Пока есть возможность дампте данные открытых источников.
Экстраполируя драму с ani ai на artstation.com и тот факт, что 4chanGPT была обучена на /pol борде и принимала участие в дискуссиях будет ещё такой прецедент, только крупнее.
И вполне вероятно, что если компании не сами прикроют отдачу данных, то будет нечто подобное GDPR.
Наверняка кто-то уже обучает подобные веса.
Возможно, это будет быстродейственый способ объединить человечество и прекратить уничтожение человечеством человечества =)
Ну вот, допустим, есть сильный ИИ, ужасно хитроумный, мы не понимаем, что он делает, а он делает наше вымирание. Ну вот что такое будет, чтобы он добрался до всех в один момент? Я могу представить например такой сценарий, что нейронками сгенерируют такой привлекательный контент для каждого, что мы не сможем оторваться. Может детей делать перестанем, потому что не так интересно будет, а может и есть и пить больше не будем, потому что надо скроллить. Но вот вопрос доставки контента до каждого непрерывно и персонально как решать? Это надо и энергоснабжение, и поддержку устройств организовывать, и даже климатические проблемы решать, чтобы тупой шторм не поломал интернет там где ИИ ещё не всех уничтожил или не построил сам себе незаметно датацентр и стал автономным. Ну и надо везде сначала сделать прогресс такой, что все вообще залипнут одновременно и не останется "не вошедших в матрицу", которые смогут лопатами нам экраны поразбивать и освободить. То есть прямо переделать всю землю.
Это хоть и вероятнее "завода скрепок", но всё же этот сценарий требует от ИИ автономности, строительства инфраструктуры и решения многих ресурсоёмких фундаментальных проблем. Каким бы умным и вычислительно мощным он не был, всё равно будут задачи только на брутфорс, которые не решаются за секунды и задачи связанные с инфраструктурой, с ресурсами и всем таким -- именно такие задачи. Так что все такие сценарии не происходят незаметно, даже если мы не поймём великий замысел, уж ясно будет, что что-то надо делать. Обычно во всех аргументах за такие сценарии просто говорят, что ИИ настолько будет невообразимо умён, что проблем для него больше нет. Ну не знаю, физику не преодолеть. Что-то просто невозможно сделать быстрее, потому что невозможно физически.
Ок, другой сценарий, ИИ случайно придумывает какие-то тезисы/идеи/лозунги, которые вирусятся и становятся базой для идеологий. Идеологии могут к примеру быть как в сектах, и вести например к святым войнам или к массовым суицидам. Или приводить к войнам. Тогда достаточно будет убеждать людей давать правильные приказы, ретранслировать идеи и так далее.
Сектантский вариант отметается легко. Нельзя достаточно быстро убедить достаточно много людей. Мы все слишком разные, слишком разный опыт, разное вообще всё. Просто будет действовать только на отдельные подмножества людей. И снова не одновременно. Опять же вопрос доставки сообщения надо решать, и это во многом комбинаторная задача и в то же время стохастическая. ИИ всё равно не будет демоном Лапласа, чтобы посчитать всё будущее во всех деталях на будущее и потом на то же самое будущее придумать решение. Будут группы устойчивые к губительным идеям, будут те, до которых эти идеи просто не добрались. Ну то есть как минимум уничтожение человечества сильно растягивается.
Вариант с ядерной войной, потому что ИИ зомбировало несколько ответственных лиц, конечно сложнее критиковать. Но тут тоже с одной стороны проще организовать, с другой нужно слишком много знать, добраться до конкретных людей, исключить влияние всех других факторов и всё равно в нашем хаотичном мире добиться строгого порядка и синхронизировать чуваков в выполнении одной задачи. Требования к скорости выполнения ещё выше. А вдруг один из ответственных за красную кнопку в пробке застрянет? Здесь уже не будет такого, что оно просто хотело делать скрепкиВероятность успеха такой задачи нужно ещё умножать на вероятность возникновения такого сценария. Как он возникнет этот сценарий вообще?
Охотнее верю в то, что государства будут использовать ИИ для улучшения оружия и способов ведения войны. Но для этого сильный и неуправляемый ИИ даже и не нужен. То есть поздно уже. И это понятная угроза, а не неописуемый ужас сверхразума за пределами понимания. И происходит тоже не в том темпе, который мы не в силах понять.
Ну и в конце концов, как будто невероятная вычислительная мощь и способность придумывать решения задач -- это автоматически означает сразу преодоление скорости света и изобретение машины времени и всё остальное. Во всех этих сценариях как-то оставлят за скобками, каким образом вдруг превосходство в интеллекте вдруг конвернтируется в неограниченные возможности в максимально общем смысле и потенциальное превосходство в чём-то одном становится абсолютным превосходством во всём везде и сразу.
Получается такое религиозное "пути ИИ неисповедимы", deus ex machina во всех смыслах.
Не успел насладиться текущим этапом технического и научного прогресса − притормозите, ребята. Не верю что в этой прогрессивной суете можно найти счастья. Но его можно найти в культуре.
А пока культура − это четвертая матрица, 12 форсаж и 8 терминатор → каким ценностям мы сможем научить машин?
Разве что тем, которым будем учиться потом у них сами. Боюсь и не хочу учиться суете. Оставьте мне живых людей сделанных из мяса, пожалуйста.
Так же бессмысленно, как пытаться запретить телевизор, а до этого -- радио, а до этого -- электричество, а до этого -- паровые машины.
Да в конце концов, может и не нужно это человечество, не жили хорошо нечего... не, это из другой мысли. Короче не эй ай нас погубит, а человечки сами себя порешают :)))
Если вы понимаете как обучается нейросеть, то вы прекрасно знаете, что все что сейчас знает и умеет та же ChatGPT или GPT-4 не более чем аккумулированные человеческие знания и опыт.
Возможность быстро получить рецепт яблочного пирога или код для POST запроса на JavaScript не более чем результат прогресса именно человечества, следовательно, планка возможностей чатГпт и тому ей подобных задана планкой возможностей человечества, а выше головы не прыгнешь)
Да, условная нейронка может придумать новый изощрённый способ убийства, но только !человек! решиться это реализовать на данном этапе развития
Ну и камон, ребят, бояться чтоли перемножения матриц которое умерчвляется путем выдергивания штекера из розетки?)
Как в том же письме написано: джин уже выпущен из бутылки. Так что теперь время «наиграться» и использовать на благо человечества. Вижу большой потенциалов образовательном сегменте, который будет учить думать и рассуждать, развивать критическое мышление и не принимать на веру все, что можно. Конечно, надо иметь «электрорубильник» и не допускать до автоматического принятия решений. Но специально тормозить технологию врядли разумно. Должно прийти осознание осознанного ее потребления. Вижу полную параллель с едой: сначала жрем все, что не поподя, а потом переходим на меньшие порции и более правильного питания.
Даешь прогресс!