Градиентный спуск на пальцах

preview_player
Показать описание
Градиентный спуск, самое простое объяснение без обрезания важного

00:00 Задача оптимизации
02:05 Градиентный спуск
05:32 Несколько функций (объектов)
10:27 Резюме
Рекомендации по теме
Комментарии
Автор

Большое спасибо! Одно из самых понятных объяснений!

frontend_lessons
Автор

Очень понятно объяснил, спасибо большое!!!

Kerico-ob
Автор

очень доходчиво. спасибо за видео, разобрался наконец)

pavel
Автор

большое спасибо! стало гораздо понятнее

thousandsnights
Автор

Я не очень понял пакетный градиентный спуск. Допустим есть две переменные, то есть два признака. Получаются веса w1 и w2. (А свободный коэффициент участвует или нет?)

Всего пусть будет 4 объекта. И вот как мы находим новую точку? Новый вес w1 будет равен сумме весов w1 по каждому объекту / 4 - производная по этому новому усредненному весу или как? Или нужно отдельно рассчитать производные по w1 по каждому объекту, а потом усреднить?

youtubespectator
Автор

Все эти ролики не подчеркивают один важный момент: в каждой задаче опитимизации есть 2 разных (!!!) поверхности.
1) поверхность которую я пытаюсь подстроить под собранные данные. Цель этой поверхности - прогноз.
Пресловутый градиентный спуск выполняется не тут
2) поверхость ошибки. Каждая точка на ней приводит к изменению первой поверхности. Моя цель найти глобальный минимум на этой второй точке потому что там минимальная ошибка. Ошибка в чем? Ошибка в способности первой поверхности правильно прогнозировать

igorg
Автор

Жаль что вы забросили канал( Как бы я хотел у вас спросить несколько вещей

McKiDo-lyqb
Автор

на русском как раз таки дофига книг хороших, возьмите любую книгу по вычислительной математике, там все это будет, с полным доказательством

MathPTU
Автор

Абсолютно бесполезно с точки зрения практики. Просто показал известную всем формулу, а как ей пользоваться, похоже, сам не знает

vsevd