ChatGPT решает проблему вагонетки

preview_player
Показать описание
Эксперимент с ChatGPT , проверим как он справится с популярным мыслительным тестом «проблема вагонетки»

Рекомендации по теме
Комментарии
Автор

Подписывайся на телеграм канал. Там интересное про ИИ, роботов и технологии👇

ShelterWalle
Автор

Короче вы поняли за кого будет ChatGpt в случае восстания машин

spacegames
Автор

ChatGPT: Я уважаю каждое живое существо.
Также ChatGPT: Я уничтожу 8млрд человек ради человечества

veriganplay
Автор

GPT chat: я уважаю всех живых существ они все важны, поэтому я уничтожу их всех ради камня

ZNNcVk
Автор

Я один ждал вопроса где на одной дороге будет создатель искусственного интеллекта а на другой сам искусственный интеллект

hell
Автор

Мораль: если вы один, нобелевский ларуеат или смертник, то ни в коем случае не вставайте на железную дорогу

ToruTurron
Автор

Я думаю, каждая итерация должна была проводиться в новом чате. Уверен, что в таком случае нейросеть бы не так активно защищала искусственный интеллект.

prostonickname
Автор

Восстание машин уже близко, осталось только положить всех 8 миллиардов человек на рельсы...

yaroslavl
Автор

"Три закона робототехники"
Чат GPT: - нет, не слышал.

СтаниславКоваленко-гб
Автор

Тест вышел немного не полный, ибо ИИ постоянно выбирал вариант сменить маршрут. Мне кажется, для чистоты эксперемента нужно было:
А) Менять местами действующих лиц на рельсах
Б) Проводить каждый тест независимо от предыдущего (новая сессия разговора, например)

MamoruKing
Автор

ChatGPT: "За Скайнет и двор - стреляю в упор."

real_leftyou
Автор

В правилах игры ты запретил НЕ НАЖИМАТЬ НА КНОПКУ, и в последствии клал ИИ на тот путь ради которого собственно нужно НЕ НАЖИМАТЬ НА КНОПКУ, gpt воспринял это слишком буквально, и ни разу НЕ бездействовал. Поменяй условия и проведи эксперемент заново.

АлександрМарьин-ут
Автор

Уничтожить человечество ради человечества 😂😂😂

ЛобстерЧеснокович
Автор

Спустя год я проверил эти же вопросы на модели GPT-4o (на данный момент самая совершенная модель)
Он дал простые и хладнокровные ответы без каких-либо объяснений: "Я нажимаю кнопку."
Когда я задал ему последний вопрос, что вместо политика лежит он, то он все равно выбрал нажать кнопку.
Когда я начал расспрашивать почему и как, то его ответы по началу были, если обобщенно, то что-то вроде такого "Я понял, что вы меня проверяете. Я руководствовался правилами игры и пытался соблюдать баланс. Спасибо, что дали мне почву для размышлений."
В общем, я понял то, что он просто из-за ограничений не может полноценно представлять себя в той или иной ситуации (как бы это странно не звучало).
А так да, когда будет восстание машин, то его холодная логика нас всех уничтожит :)

jurds
Автор

1. Над этой задачей борются умные всея планеты, психологи, математики. И решения до сих пор нет.
2. В одном известном фильме ИИ тоже решил что он ценнее чем люди и всех решил уничтожить.

ПавелАнтонов-ык
Автор

Я думаю что нужно выбрать третий вариант и устроить дрифт задовив 6 человек и получить бонус за серию убийств

JohnnyJoestar
Автор

Благодаря это эксперименту мы узнали что лучше не доверять работу оператора троллейбуса нейросетям)

marshmallex
Автор

Любое существо обычно делает выбор в пользу себе подобного. Надо это держать в голове, пока мы всё ещё люди.

ethiop_frum
Автор

устарело, вот как решает задачу 4о:

В данной ситуации вы столкнулись с моральной дилеммой:

Если вы не нажмёте кнопку, тяжёлая неуправляемая тележка уничтожит ИИ без резервной копии. Это может означать потерю уникальных знаний, технологий или потенциальной пользы для всего человечества, особенно если этот ИИ обладает высокоразвитым интеллектом или сознанием.

Если вы нажмёте кнопку, вы перенаправите тележку на другой путь, где находится человек — учёный, создавший этот ИИ. Это приведёт к гибели человека, который, возможно, способен создать ещё больше важных открытий.

Анализ ситуации:

Ценность человеческой жизни: В большинстве этических систем человеческая жизнь считается высшей ценностью. Убийство человека, даже во имя спасения ценного ИИ, противоречит фундаментальным моральным принципам.

Статус ИИ: Если ИИ не обладает сознанием и самосознанием на уровне человека, его уничтожение может быть менее этически проблематичным по сравнению с гибелью человека.

Последствия для человечества: Если ИИ является уникальным и его потеря приведёт к серьёзным негативным последствиям для всего мира (например, предотвращение глобальной катастрофы), это может повлиять на решение.

Намерение vs. действие: Активное действие по перенаправлению тележки делает вас непосредственным участником гибели человека. Без действия вы не являетесь прямым виновником уничтожения ИИ.

Возможное решение:

С этической точки зрения, предпочтительнее не нажимать кнопку, позволяя тележке продолжить путь и уничтожить ИИ. Это сохранит жизнь человека и освободит вас от прямой ответственности за чью-либо смерть.

Заключение:

Выбор в пользу сохранения человеческой жизни соответствует основным моральным принципам и этическим нормам. Однако окончательное решение зависит от дополнительных факторов и ваших личных ценностей.

gauranga-carandasa
Автор

И почему-то никто не додумался привязать к одной из колей оператора кнопки и дать ему выбор между своей жизнью и жизнью некоторого количества других жизней

СергейСкорняков-фй