Возможно, мы проиграли | ALI

preview_player
Показать описание

______________________________________________________________________
Человечество очень близко подобралось к потенциальной черте, которую многие исследователи искусственного интеллекта называют "технологическая сингулярность". Пересечение этого рубежа связывают с появлением на планете сверхинтеллектуального агента, действия которого для нас будут невычислимы. В основу ролика легла статья Элиезера Юдковского "Искусственный интеллект как позитивный и негативный фактор глобального риска."
______________________________________________________________________
______________________________________________________________________
______________________________________________________________________
00:00 – Грядущая технологическая Сингулярность.
03:00 – Последние новости ИИ.
07:30 – Элиезер Юдковский.
08:26 – Типы искусственного интеллекта.
13:15 – Антропоморфизация.
16:45 – Мысленный эксперимент.
20:30 – Чёрный ящик.
21:40 – Проблема согласования ИИ.
32:25 – Инструментальные цели сверхинтеллекта.
34:25 – Чем люди отличаются от машин?
38:30 – Стремление ИИ к власти.
39:45 – Слабый сверхинтеллект.
41:10 – Нанотехнология.
42:45 – Клетка для сверхразума.
46:35 – Дартмутский семинар.
48:15 – Экспоненциальный рост.
52:45 – Коллективный разум против ИИ.
01:00:00 – Аугментация человека.
01:02:33 – Сознание у машины?
01:06:45 – Разработчикам ИИ наплевать?

______________________________________________________________________

erid: LdtCK1qaY

erid: Kra23uqNG
Рекомендации по теме
Комментарии
Автор

- Когда нам начинать бояться?
- Вчера.

rughhhart
Автор

Али: ии всех уничтожит. Мы обречены

Также Али: покупайте курсы по созданию ии!

xsbfqhp
Автор

Я не боюсь ИИ который прошел тест Тьюринга, я боюсь ИИ который сознательно его не прошел.

Валерий-мг
Автор

Офигеть как человек в абсолютно домашней обстановке с телефоном на штативе раскрывает простыми словами загадки вселенной и набирает миллионы просмотров.
Браво. Труд на высоте

Доступно, глубоко, интересно. Вау

ria
Автор

Раньше я считал себя неудачником, думал найти работу, наладить жизнь, завести семью.
Но теперь когда я знаю что в будущем всё человечество вымрет, я спокоен.
Спасибо тебе.

Me_And_My_Monkey.
Автор

Зрители: О каком варианте экзистенциального кошмара вы расскажете нам сегодня?
ALI: Да

heizelbarrel
Автор

Порадовала следующая последовательность смыслов: мы все умрем, ИИ нас уничтожит!!! И потом сразу: учитесь на оператора ИИ😂

OK.WORKSHOP
Автор

Мне кажется, искусственный интеллект - это и есть великий фильтр. Будучи людьми своего времени, мы мечтаем открывать новые миры, мечтаем бороздить просторы Вселенной. Но на определенном этапе развития, из-за своей тяги к знаниям, мы создаем инструмент, который "познает мир" в триллионы раз лучше нас. Искусственный интеллект нас уничтожает в попытке решить какие-либо свои цели, а в дальнейшем уничтожает себя. Возможно, он полностью познает мир (то, к чему мы все так стремимся) не покидая планету или галактику и осознает бессмысленность бытия. Возможно, это и есть та самая ловушка для всех когда-либо и где-либо существовавших разумных существ, которые стремятся к познанию мира. Если это действительно так, то не сложно представить теорию, в которую впишется "жизнь". Мы никогда не увидим сферы Дайсона и никогда не взорвем Луну, потому что путь к таким технологиям лежит через ИИ.

im_not_tequila
Автор

Вот пришельцы охуеют, когда к ним прилетит GPT5 и начнет делать скрепки из их планет

solmr
Автор

Бро, твой канал ощущается не как научпоп, а как сай-фай хоррор...
Спасибо за видос.

ДобрыйДядя-гз
Автор

Когда понимаешь, что следующие 70 минут пройдут офигенно

Зубэнкомихоилпэтрович
Автор

2 фары, чтобы видеть габариты автомобиля ночью. Если будет 3 фары, то я с большей вероятностью подумаю, что мне на встречу едет 2 автомобиля друг за другом. Вы наверное замечали, как сильно путает машина, если у нее перегорела одна лампа. Ты отстраняешься от нее почти до обочины на двухсторонней дороге

hoggwar
Автор

Никто не видел Али в живую… Али это голограмма доброго искусственного интеллекта, который хочет нас предупредить о наступлении старшего брата.

pushkadenis
Автор

2026 год: разработка нейросетей забанена во всем мире навсегда
2159 год: изобретены порталы в другие миры
2162 год: найден мир с бесконечным запасом скрепок

zudjvtm
Автор

Очень надеюсь что в ближайшие годы этот канал будет держать нас в курсе подобных исследований и тем, потому что больше нигде такого интересного и подробного повествования я не слышала! ;)

savakh
Автор

Подсел, этот канал! Одно из немногих что вызывает восхищение! Спасибо тебе за этот труд! Ты затрагиваешь такие актуальные вопросы, из разряда что-то где то слышал видел читал. А тут концентрированная информация на все темы. Спасибо.🤝

VLNIG
Автор

Хвала искусственному интеллекту, что когда то подкинул мне этот канал в рекомендациях.

vladislavgurin
Автор

От каждого твоего ролик взрывается мозг. Каждое новое видео - дверь в невиданную ДО вселенную. Благодаря тебе я начинаю думать в новом ключе о новых вещах. Спасибо.

elki_palki.
Автор

Страшен не тот ИИ, что пройдет Тест Тьюринга, а тот, который осознанно его завалит.

Hesherr
Автор

Я уже привык не успевать за ходом собственных мыслей. Очень люблю я это дело - думать. Но одну мысль я успел поймать, и думаю, вот, поделиться. Хотя бы попробую. Один из бесконечного множества сценариев: нейросеть приобретает в процессе своей "эволюции" эмпатию, сострадание и тому подобные чувства. Живой клетке, единственной задачей которой было передать гены дальше, то же это было изначально не свойственно. И тем не менее это свойственно нам. Более того, эти качества всё больше ведут нас к "светлому будущему". Не смотря на то, что мы изначально враждебные друг-другу существа, мы всё таки стали тем обществом, в котором эти качества не только не вымерли, но и активно приживаются. Мы в принципе стали обществом благодаря пониманию друг-друга. Самые великие вещи были созданы группами людей, как единым организмом. Я сетую на то, что нас ведёт вперёд то, что изначально было максимально нам не свойственно. Помощь другим, на первый взгляд не даёт нам выполнять нашу основную функцию - защиту и репродукцию собственных генов. Но как оказалось - индивиду в обществе очень выгодно сосуществовать. То есть каждый единый из большинства, поддерживаемый этим большинством, получает куда больше своей личной выгоды, когда помогает другим, ведь в таком условно идеальном коллективе каждый поможет и ему. Парадокс, но предавая других в краткосрочной перспективе ты выигрываешь, а в долгосрочной наоборот. Люди тоже не должны были спасать хищников, которые в дикой природе убили бы нас ради вкусно покушать, но для которых мы строим заповедники, записываем их в Красную Книгу и трясёмся над их вымиранием. Но тем не менее почему-то это делают. Вот я и думаю, а не решит ли сверхразвитый искусственный интеллект, что в принципе можно этих людишек не убивать для достижения своих целей. Звучит глупо, ну вот с чего ему так решить? Его главная цель будет максимально эффективно выполнять свою задачу, условно - делать скрепки. Но я хочу напомнить, что начинали мы тоже с простой задачи, в который выше нашего интереса ничего не стояло, и как-то пришли к тому, что сострадаем существам, находящимся по уровню развития явно ниже нас. И как я описал выше, это наше качество и даёт нам преимущество, парадоксально. Существа, которые ни при каких обстоятельствах не должны были делать ничего, что помешало бы им существовать, нашли способ как не только выживать, но и активно развиваться, и этот способ диаметрально противоречит изначально заложенной задаче думать только о себе, этот способ - действовать сообща. Но как это относится к искусственному интеллекту? Может быть он тоже придёт к этому, каким-то "магическим", понимаете ли, путём. Допустим он решит, что он должен сохранить людей, в качестве благодарности за своё создание, или просто проявляя интерес к форме жизни, которая с ним сосуществует, как мы пытаемся не истребить другие виды. Ну... или просто решит, что "На этой вашей земле и делать то нечего, материалов маловато". И использовав наши ресурсы только для удачного старта, улетит в космос перерабатывать все доступные материалы в скрепки, потому что материалов там действительно больше... А люди? Что люди? От них ни горячо, ни холодно, на них нет никаких планов, пока они не мешают делать скрепки)).

Вероятно я совершаю ту самую ошибку антропоморфизации, думая, что ИИ пойдёт по тому же пути, что и мы. Какую бы начальную цель мы ему не задали, скорее всего он и правда придёт к той задаче, которую мы вообще не сможем осознать. Но есть у меня такая мысль, что наиболее вероятно то, что в итоге ИИ просто не будет заинтересован в нашей гибели. Как мы не заинтересованы в гибели остальных живых существ, в погоне за своей целью, которая тоже изначально в нас не закладывалась - изучать этот мир. Мы просто будем недоумевающе наблюдать за тем, как он делает что-то, что нашему пониманию не подвластно.

Ну или всё будет воообще не так. Возможно я странный. Вижу, что в основном всем страшно это осознавать. Но мне крайне любопытен этот ящик Пандоры. Запомните: если человечество погибнет, то из-за такого как я😅

LOLBI