AI может уничтожить цивилизацию — но никто не хочет об этом думать
Публичный постИзвестный нам всем сценарий апокалипсиса: искусственный интеллект решает, что из человеков получатся отличные скрепки, и наступает благодать.
При всей заезженности, серьезно эту идею почти никто не рассматривает. А она стоит того. Мы очень многого не понимаем в AI и в их безопасности, и тем не менее корпорации на всех парах мчатся их воплощать в жизнь. При этом по всему миру всего около 300 человек занимаются исследованиями рисков AI.
В этом лонг (лонг!) риде очень подробно рассказывают про разные риски AI, и что нам надо делать, чтобы их получше исследовать. Очень рекомендую тем, кто хочет погрузиться в тему (хотя я сам не все осилил).
Добавлю еще вот этот TLDR тред в твиторе
Звучит как потенциально высокодоходная тема для --отмывания-- зарабатывания денег в ближайшие 10 лет: гранты на всевозможные исследования, наблюдения, эксперименты, симпозиумы и вот это всё.
Мне же представляются более вероятными 2 сценария:
В том AI который есть сейчас и который используется в энтерпрайзе/промышленности/СМБ нет никакой опасности, потому что это не Intelligence ни разу.
Я не настоящий сварщик что бы аргументировано разваливать аргументы из статьи (тем более что часть выглядитв полне здраво), но у меня сложилось ощущение что при текущем уровня развития технологий ИИ еще долго не станет угрозой. А боятся того, что произойдет на горизонте сотни лет довольно бессмысленно, нас вон любой вирус может ебнуть дружно всех =D
Что-то даже почитал. Вроде как моя тема и мы сейчас активно занимаемся AI bias и AI fairness которые AI ethic.
И статья, конечно - мечты футрологов о том к чему мы пока даже не близко.
Сегодняшний AI - это модели которые умеют проанализировать огромный объём данных и найти в нём "похожести". Ну то есть миллион котов выглядит вот так, значит вот эта штука - кот.
Это офигительно помогает в куче сфер, но не может заменить человека вообще никак. Примерно как изобретение станков не заменило рабочих.
В современном концепте AI практически на пределе. То есть увеличение точности на десятые доли процента ведёт к увеличению стоимости (и требуемой мощности) на порядки.
Нет. Без смены концепции прогресс скорее остановится. Нужны квантовые компы (которых что-то пока мало) и нужна другая модел AI (которой пока нет, потому что никто не понимает что такое "интеллект")
Если сюда включить всё что касается AI Ethic (а это включает в себя "как отследить что твоя моделька не хакнута и выдаёт всё ещё непредвзятый результат" - то тысячи и тысячи людей и огранизаций.
Ну и как всегда в статье оперируют "AI" без даже попытки определить что имеется в виду и "хорошо и плохо" без какого описания в цифрах.
В общем, похоже что люди не очень понимают что это и боятся.
Я бы разделил AI проблемы на 2 группы:
Первая группа понятна, она для инженеров. Если AI рассматривать как софт, то в нем могут быть ошибки и мы должны их предусмотреть, исправить.
А вот вторая группа, для гуманитариев (шутка), когда человек воплощает свои фобии и проецирует на AI человеческие качества. Тут злую шутку играет слово 'intelligence', которое заставляет бурлить воображение и является отправной точкой для популистов и фантастов.
Я бы предложил перевернуть проблему и задаться вопросом "Как нынешняя цивилизация, может уничтожить хорошие начинания в AI?".
Бояться стоит не AI как по мне, а людей и на что они могут быть способны с таким инструментом в руках.
Я не вижу в этом проблемы.
Были неандертальцы, да сплыли. Очень может быть что скоро и наш черед.
Все равно мы все - в частности я и те, кто этот пост читает - умрем лет через сто максимум и лекарство от старения мало кто всерьез ищет. Если нам самим на свое выживание плевать, то ИМХО туда нам и дорога.
Главное чтобы после победы ИИ на земле все еще ресурсы для развития остались, иначе передача факела будет не очень.
О, любимый сорт статей, когда человек, который прямо этим не занимается, пишет о рисках, приплетая до кучи еще и мнения футурологов (а мнения экспертов тут вряд ли надежнее, Philip Tetlock не даст соврать).
Вот есть еще два таких интересных института, которые изучают проблемы риска АИ
Статью не читал, прочитал саммари, и проглядел наискосок что то.
Давайте начнем с понимания что такое I. Потом предположим что такое AI. А уже потом будет думать, может ли быть так, что мы этот AI сможем сделать, а потом будет ли оно опасным. Не в контексте статьи. А вообще.
Напомню, кстати, что OpenAI создавался в самом начале именно с этой же целью. И где они теперь?
Но самое главное, что я не понимаю в таких заявлениях и статьях.
Что собственно такое AI катастрофа? Почему это катастрофа? Что за риски?
Цель статьи, чтобы позвать человечество сесть и эти риски оценить и придумать? Если нет, то без определения этого, все остальное шляпа.
И господи, пусть все перестанут использовать термин AI на таких серьезных щах в таких контекстах.
Не читал, но осуждаю)
😱 Комментарий удален модератором...
Пробема с вирусами, с которой мы столкнулись в 2021 была заявлена задолго до того как разгорелась всерьез. И никто особо не чесался, чтобы к ней как следует подготовиться. Зато в целом человечество норм перенесло её. Но я, как человек, поставивший "пессемизм" у себя в профиле вастрик.клуба постоянно думаю о том, чтобы запастись провизией и прикупить дом на колёсах (и научиться водить в конце-то концов). ИИ при пессиместичном сценарии не уничтожит всех человеков (нафига возиться) но устроить нечто смертоностное, в разы похлеще вирусов (а может и с их помощью) - точно в состоянии. Я больше склоняюсь к отношению к этому вопросу как Гилфойл из сериала "Кремниевая Долина" - не ругаться ругаться лишний раз с Алисой и колонкой google home.
В силу того, что много сижу в смежных сообществах, много читала про эту проблему. Но, к сожалению, так и не нашла, откуда они берут свои оценки вероятности катастрофического сценария. В лучшем случае "такой-то эксперт оценил". Поэтому отношусь крайне скептически к этому вопросу.
Кажется проблема книг и статей, которые я читал, убеждающих в опасности ИИ в том, что они убеждающие) Люди не очень любят когда их убеждают, особенно когда у них уже есть свое мнение, у них ощущение что им что-то впаривают. И если человек скептик, то его это еще больше отталкивает.
Лучше как мне кажется, просто писать почему лично ТЕБЯ это беспокоит и что убеждает.
Поэтому попробую расписать какие в моей голове доводы в пользу того, что это проблема, которой стоит уделить внимания больше чем сейчас:
Наверняка, что-то еще есть, но это кажется основное что пришло мне в голову.
https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
Во всём этом интересно конкретное описание деятельности под кодовым названием: "заниматься исследованием рисков AI".
Возможно, здесь кроется половина ответа? ;)))