[DeepLearning | видео 2] Градиентный спуск: как учатся нейронные сети

preview_player
Показать описание
Рекомендации по теме
Комментарии
Автор

Буду честен, я не ожидал, что второе видео выйдет в озвучке. Я думал, что автор канала забил. Поэтому, спасибо! Я искренне благодарен, надеюсь, что озвучки продолжат выходить. Очень интересно!

pujgtmp
Автор

Это потрясающе! Большое спасибо за такое объяснение и отдельное спасибо за инфографику! Титанический труд

molotkovm
Автор

Молодцы, большое спасибо переводчикам.

linkernick
Автор

Лол, чисто случайно зашел проверить, а тут новое видео)

DataScienceGuy
Автор

Спасибо!🤝
Вы самая крутая команда в этом направлении.

paveldukov
Автор

1:57 алгоритм
2:38 MNIST Database
3:10
4:00 вычисление функции ошибки (математическим языком - добавить квадрат разности между каждым "плохим" значением)
4:56 функция ошибки
5:19
6:50
7:04
7:34 8:02 многомерный анализ
8:24
9:18
10:06
10:42 !
11:27
11:45 вычисл. градиента функции двух переменных
12:10
12:28

izsjnnq
Автор

Ничего не понятно, но очень интересно. Зачем-то посмотрел оба видео)

paul.antares
Автор

Видимо это видео оценили только гики математики и программирования, жаль что таких не много, но я благодарю вас за проделанную работу, good luck ^ω^

jefffox
Автор

Спасибо, просто великолепная подача материала!!

xevrkmb
Автор

Вот это видео у него (изначального автора) получилось гораздо мощнее первого вводного!

KlimovArtem
Автор

Спасибо за перевод. Только хочу отметить неточность на 18:58: все же "accuracy curve" и "кривая доли правильных ответов" - это совсем не одно и то же по смыслу. Первое про точность (меньше - лучше), второе про успешость (больше - лучше). Резануло несоответствие картинки и звукоряда, подписи на графике заставили лезть в оригинал.

andrewkruchini
Автор

офигеть какой крутой канал, автор ты крут=)

MrDarkwolk
Автор

Объясните, пожалуйста, момент с обучением на неправильных данных.
Как сеть, которая обучалась на неправильных данных в итоге может показать такой же результат, как и та, что на верных.
Ведь в первом случае для нейросети вилка всегда будет львом. Каким образом нейросеть может понять, что это не лев. Если никто ей не сообщает верных ответов.
Видимо я понял неправильно.
Буду благодарен, если кто объяснит ..

danihov
Автор

Я ничего не понял, но спасибо за полезное видео!

stanislavserov
Автор

Пока для меня это сложно. Но со временем я вернусь. ДС МЛ НС я иду за вами

maksum
Автор

Продолжай в том же духе! Я как раз пишу алгоритмы по нейросетям)

qilktpo
Автор

Не очень понятно про обучение на неверно размеченных данных. Сеть ведь не сможет правильно классифицировать новые изображения не из обучающей выборки. Или я чего-то не понял. Что означает фраза "на обучающих данных удалось добиться той же точности, что и на правильных данных"?

jufmogf
Автор

Нарисовано красиво, но в конечном итоге взять и применить отсюда что-то не представляется возможным.
Просто концепт объяснили красочно.

emptyasdf
Автор

А зачем квадрат разности тр🤔 чтобы не было отрицательных значений?

finn
Автор

Функция ошибки это функция потерь (loss function) ?

Azurelius