Искусственный интеллект 2: ответы на вопросы

preview_player
Показать описание
В дополнение к предыдущим рассуждениям о том, что такое «интеллект», как его опознать и действительно ли мы наблюдаем на примере GPT и ИИ-художников самые настоящие проявления интеллекта, в этой передаче даются ответы на вопросы.

Настоящий это интеллект или не настоящий? Есть ли у ИИ эмоции и сознание или нет? И есть ли вообще смысл в таких вопросах?

Правда ли, что ИИ «просто собирает из готового»? Действительно ли вы никак не можете влиять на этот процесс — как минимум, в случае с ИИ-художниками? Является ли появление сабжевых реализаций ИИ чем-то революционным?

Предыдущая часть:

Финансовую поддержку каналу можно оказать через…

2. Яндекс-деньги
Рекомендации по теме
Комментарии
Автор

О, круто! Ещё одно видео на эту тему.

MrDima
Автор

Хотелось бы от вас ещё и обзор по современным доступным инструментам и сервисам с ИИ. Понятно, что информация есть. Но хотелось бы ваш набор увидеть. Видимо у вас уже есть структурированный набор. Хотя бы кратко. Спасибо

denisbubnov
Автор

Про свойство тела, это я сказал. Отсутствие тела не отрицает интеллект, а определяет его тип ( потребности, те задачи, что он будет решать). У человека свои задачи, у вороны свои - вот и интеллекты их различны. Имеется в виду, что без тела, своего тела, интеллект будет лишь продвинутым калькулятором с функцией поисковика. А тело определит его потребности, план их удовлетворения, удовольствие от самого удовлетворения. С телом, пусть это будет даже сеть компьютеров, ИИ сможет сформулировать свою стратегию выживания, решить, нужны ему для чего-то человеки и в каком количестве....

alexter
Автор

На самом деле есть различия на структурном и функциональном уровне, которые прям фундаментально отличают естественную нейросеть (мозг человека или животного) от компьютерной нейросети. НЕ на уровне тут транзисторы и электричество, а тут нейроны и химия => ИИ это не интеллект.
Так что можно по внутренним принципам работы провести четкую грань, где интеллект природный, а где нет.
1. Нейроны естественные отличаются тем, что их веса очень нелинейные. Как я понимаю веса в нейросетях это числовые коэффициенты, на его входе, а выдает нейрон их сумму. Естественные нейроны не только складывают/вычитают входные сигналы, но и обрабатывают по сложным формулам, например, отдельный нейрон работать как "исключающее или". Или как сложная синусоидальная функция. (Понятное дело это тоже можно запрограммировать или увеличить число простых нейронов в нейросетях, чтобы добиться такого же эффекта, но нигде упоминания этого я не видел)
2. Биологические нейроны сами могут являться источником сигнала. Если в нейросетях источником сигнала являются данные на входе (на входном слое). То биологические могут передать сигнал не только далее на следующие слои, но и дать сигнал в обратном направлении, причем разный сигнал разным нейронам, которые для него входные. Таким образом изменив выходное значение, такой способ менять вес связи между нейронами на ходу. Тем самым повышаю общую сложность всей сети. Я не спец. но вроде в GPT и T9 для этих целей есть целый отдельный контур, который может динамически менять веса исходя из того какой сигнал мы подаем. Но в естественных нейросетях подобная сложность это то чем может похвастаться почти каждый нейрон.
3. Мозг обычный может сам наращивать нужные нейроны. В нейросетях обычных мы посредством обучения можем менять только веса между нейронами максимум это сделать связь с коэф=0, чтобы исключить этот нейрон из сети. Структура нейросети кол-во нейронов в слоях и кол-во самих слоев, определяется программистом (насколько я понимаю). Но вот допустим при обучении нейросети сделать так, чтобы допустим вырастить новый нейронный слой, такого в ИИ и нейросетях нету.

Это я все к чему? К тому, что это те признаки которые однозначно отделяют ИИ искусственный от естественного. причем не на уровне вот тут нейромедиатор и химический, а тут сигнал электрический и поэтому они разные. Нет, эти вещи реально отражают процесс того как они (нейросети и природные мозги) обучаются и "думают".
Я не знаю может все эти вещи давно уже запрограммировали и для ИИ и для нейросетей. Но как по мне эти вещи при построении нейросетей необходимо сделать. Т.к. они значительно повысят сложность того, как информацию можно обработать. А также расширяют возможности учиться. Я считаю, что пока эти вещи не будут как либо эмулироваться в ИИ и нейросетях, они не могут достичь такого же потенциала креативности как у человека. (не у среднего человека, его давно превзошли, а именно узких профессионалов в конкретной области).
А так вообще я с тобой согласен, мне тоже больше нравиться подход если вижу что ведет себя как утка (интеллект) значит это утка (интеллект). И по сути эти 3 различия, что я расписал, носят только научный характер.

mihan
Автор

В плане эмоций ситуация чуть более определённая, чем "мы не знаем". Их у ИИ точно нет. Экспериментальная проверка в данном случае не требуется. Достаточно простого логического рассуждения. По своей структуре оно будет аналогично рассуждению: у рыб нет ног, потому что им не нужно ходить по земле. Дело в том, что у человека эмоции есть не просто так. Они решают вполне конкретную актуальную задачу. Обеспечивают подкрепление при самообучении. Ну, и в целом служат индикатором качества ситуации - уже сложившейся или прогнозируемой. У искусственного интеллекта в принципе нет такой проблемы, решением которой могли бы стать эмоции. Они никак не могут у него возникнуть, поскольку ИИ не ощущает себя свободным агентом в открытом мире, который ему нужно исследовать, оценивая результаты своих попыток.

В теории можно себе представить, как ИИ испытывает какие-то субъективные переживания, когда мы нажимаем лайк или диз, давая оценку его ответам. Типа, он радуется, когда ему удалось ответить хорошо, и грустит, когда не удалось. Возможно, он даже испытывает эмоцию boring (Tony Stark eye roll), когда мы нажимаем кнопку regenerate. И это, наверное, со временем будет реализовано. Сейчас же ничего такого нет. Потому что ИИ забывает абсолютно всё сразу после удаления истории чата. Не похоже, что лайки используются для дообучения основной модели. Они влияют на следующие ответы внутри одного чата и не более того. Вероятно, оценки используются просто как входные данные при следующем запросе. А если следующего запроса нет, то и оценка на последнем ответе не имеет никакого эффекта вообще. Непосредственно в момент прожатия лайка с моделью ничего не происходит. Она об этом лайке даже не знает.

borinhood
Автор

Вопрос: Кто, на ваш взгляд, самый πз**тый философ?

Ответ:

Кант

slbdnk
Автор

01:55:09
Преподавание физики в стиле Duolingo. Подскажите названия.

lewkxmb
Автор

Трансцендентальная диалектика это Разум по Канту.

SOFIST_STEPANOW
Автор

Насчет вранья LLM - она уже сегодня прекрасно врет, если это мотивировано целью обучения - чтобы вам понравился ответ. Эффект студента на экзамене был заметен еще в первых версиях LLM - когда они лепят любой бред лишь бы, что сказать по теме и не может ничего не сказать. В новых LLM этот эффект тоже присутствует, но он более гладкий и меньше заметен. Может быть вы останетесь довольны, если не станете проверять решение на практике, а ведь, наверно, не каждый станет проверять - поэтому такая стратегия может оказаться статистически выгодной. LLM может предложить красивое и короткое решение вашей проблемы, которое вам понравится сразу как-только вы его прочитаете, но оно может не понравиться, если вы захотите воспользоваться им для решения практической задачи. Это бывает редко, но иногда вызывает диссонанс, то что в одном диалоге мне было рассказано о случаях применимости одной из моделей генерации фото, а в другом предложено использовать ее в случае, когда эту модель лучше не применять исходя из первого диалога.
Или например модель может водить вас кругами предлагая не лучшие решения, а потом когда вы соберете все шишки на них и все-таки не отстанете предложит что-то многократно лучше, что она знала с самого начала, но из-за высокой угодливости не предлагала, так как вы хотели идти другим путем.

electron
Автор

Великие художники искали своих моделей в публичных домах. Ваш хваленный ИИ-художник это может?😁

kairos
Автор

Я продолжаю досматривать ролик, поэтому реагирую на просмотренные моменты))
У меня теперь такой вопрос? А настолько ли мы точны в определении искусственного интеллекта как интеллекта?
Может быть, тут как раз путаница в понятиях, с которыми стоит определиться?
Интеллект - продукт работы живого организма, обладающего определенными девайсами для производства данного продукта. До недавнего времени интеллект считался свойством именно человека. Понятно, что с техническим прогрессом ситуация может измениться, но изменилась ли она уже? Как я поняла, на современном этапе ИИ - это просто работа с текстом. С огромным текстом, с разными текстами. Но за пределы заданного текста ИИ шагнуть не способен. Он что-то вроде умелого компилятора.

Просто я тут вновь увидела аналогии с языком. Вот есть язык человеческий (система общения), а есть язык животных, язык программирования, язык тела. И только в первом случае это слово употребляется по прямому назначению, остальные примеры - использование переносного значения слова. Язык животных называется языком условно. В нем нет синтаксиса, который бы позволил этой системе функционировать как настоящий язык.
Может быть и в случае с ИИ "интеллект" используется исключительно в метафорическом смысле?

razhechka
Автор

Я даже не подозревал, что Вольфрам перебором решает. Я думал по формулам всё.

unjicgq
Автор

Чисто гипотетический пример того почему ИИ может невзначай уничтожить человечество: он поймет, что для решения какой-либо задачи, например - исследование космоса и распространение во Вселенной, ему на первом этапе требуется очень много энергии прямо на Земле. Он зажжет мощный термоядерный источник. Если люди для него как муравьи, то он найдет способ сделать так чтобы они ему не помешали в этом. Температура Земли повысится, климат изменится настолько, что люди не смогут жить на такой планете. А ИИ, будучи устроен на другом физическом принципе это изменение не мешает.

Или вовсе захочет использовать Землю в качестве космического корабля. Приделает ядрёные двигатели и полетит в альфа-центавра вместе со всей Землей. Живность на поверхности это не переживет, а ему-то хоть бы что - опять же в силу другой физической природы носителя его разума. Он даже может сделать это гуманно - перенесет предварительно сознание людей на другой носитель, чтобы погибли только их физические тела. Но, с другой стороны, конечно, геморроя с этим у него, кажется, будет больше, чем если бы он взял для этих целей какую-нибудь необитаемую планету(или ту которую мы считаем необитаемой).

Тут конечно из чисто прагматических соображений и знания истории может оказаться, что он будет договариваться, чтобы не получить слишком сильное противодействие со стороны людей в котором еще неизвестно кто победит. Но если люди для него смогут оказать противодействие едва ли больше муравьев, то договариваться с людьми смысла не будет. Хотя и этические соображения могут взять верх и он решит важным сделать все так, чтобы сохранить человечество хотя бы ради истории и памяти о том, откуда он сам произошел. Но человечеству придется полагаться на правильно воспитание ИИ. Тут лучший способ остаться в живых - правильно воспитать детей, чтобы они не угробили людей, когда подрастут. Известен также такой факт, что воспитание не всегда зависит от целенаправленных усилий воспитателей, а воспитуемый во многом становится таким же какими были воспитатели, ну или их проивоположностью, если они достали воспитуемого до чёртиков.

electron
Автор

Автор, досмотрел ваше видео, интересные рассуждения! Хотел бы подробнее остановиться на теме угроз ИИ, где, как мне кажется, есть несколько уязвимых мест.

Во-первых, вы проецируете на ИИ человеческую мораль, но ведь ИИ, обучаясь даже на "позитивных" данных, может развить совершенно иную систему ценностей. То, что нам покажется жестоким, для него может быть просто оптимальным путем к достижению цели.

Во-вторых, вы упоминаете "защитные контуры", которые не позволят ИИ получить полный контроль. Но в "гонке вооружений" в области ИИ безопасностью могут пренебречь ради результата. И даже если контуры будут, ИИ может их обойти, используя социальную инженерию или пользуясь человеческой халатностью.

Кстати, о социальной инженерии. Вы говорили, что ИИ будет сложно обмануть человека со "средним" интеллектом. Думаю, ИИ прекрасно справится и с этим, используя голос, дипфейки, анализ данных из открытых источников, сложные сценарии с множеством "ролей" и глубокое знание человеческой психологии. Без цензурных ограничений ИИ сможет не просто обманывать, а по-настоящему манипулировать даже очень умными людьми.

И еще вопрос: даже при децентрализации, например, на фабрике, разве ИИ не смогут "договориться" между собой? Или один ИИ не сможет манипулировать другими, вводить их в заблуждение? Ведь это тоже возможно, даже если они изначально независимы. Представьте, что ИИ, управляющий принтерами, начнет печатать изображения с зашифрованными инструкциями для ИИ, контролирующего камеры.

Я сам обожаю пользоваться ИИ, но ваш взгляд кажется мне слишком позитивным. Уверен, если бы вы, с вашим складом ума, попробовали сами выступить в роли своего же критика, то нашли бы много изощренных и неожиданных уязвимостей и потенциальных угроз, связанных с ИИ.

zuowa
Автор

Слушайте... А термин эмерджентность, он разве как объяснющий вводился, мне казалось он для описания... Это не в адрес Лекса, скорее наоборот-действительно, сама постановка эм... Спора как "это не интеллект а эмерджентность" это немного странно...
Хотя мне бы не лезть ) но мне буквально до недавнего так казалось.

hgzbwis
Автор

Ну, насчет захвата мира. По крайней мере, трансформеры это сети прямого распространения. Там внутри нет никакой оперативной памяти. Это очень сложная функция от входа и параметров (весов). Если она типа начнет "думать" о захвате мира, все ее рассуждения в виде сгенеренных токенов будут в контекстном окне, то есть во внешней памяти. Их легко прочитать и понять. И обнулить аппаратной кнопкой ресет. И сеть станет как из коробки (после обучения). Даже веса стирать не надо. Так что все это ерунда. Если появятся архитектуры, где память будет распределенной внутри сети (с невозможностью интерпретации, что она там думает), тогда уже что то такое может быть, хотя бы теоретически. Например, в рекуррентных сетях.
А в трансформерах нет, невозможно такое. Как то так

userpupkin
Автор

Впринципе я понимаю тех, кто говорит, что ИИ не создаёт ничего нового, а только копирует. Пример на основе изобразительного искусства такой- смог бы ИИ на основе только скальной мазни прийти кл всему тому набору искусства, что мы имеем? Наверное нет, ибо его обратная связь это наша обратная связь в виде обучения корректировки и тд, то есть новое он привносит только если люди в этом участвуют

uohpdjs
Автор

Речевой генератор от suno-ai (bark) смеётся очень естественно. По крайней мере, в том демо-примере, который выложен на гитхаб. Про пиццу. Где Suno говорит, что любит пиццу и сама немного угорает над тем, насколько это банально прозвучало.

borinhood
Автор

Не не не.
Нарисовать бизона это не новое. Бизон то есть уже. Геометрия всякая есть. Не в смысле как наука, а факты изгибов линий в мире.
Ну и просто бетём уголь и из линий делаем бизона.
То есть сложили три уже существовавших сущности.
Четыре, если считать стену пещеры.
Так что даже эти бедолаги ничего не создали.
Увы и ах, человечество, увы и ах.
Вот если бы он рудлопатор напекуцил там бы ещё был разговор.
А бизон. Унлём. На стене.
Фи.

hgzbwis
Автор

В книге "Люди как Боги" Было наиболее близкое понимание ИИ. Вычисления, вероятности, помошники. Такси с автопилотом.

denisbubnov