Евгений Разинков. Лекция 3. Регуляризация линейных моделей регрессии (весна, 2019).

preview_player
Показать описание
В рамках лекции рассмотрен базовый метод регуляризации линейных моделей регрессии:
- Зачем нужна регуляризация
- Метод Weight Decay.
- Как меняется целевая функция
- Вычисление параметров модели при использовании регуляризации.

Tailor-made AI solutions for unique challenges:

Информация о лекциях:

Телеграм-канал с анонсами лекций и материалами по машинному обучению:
Рекомендации по теме
Комментарии
Автор

ну да. ибо хорошее согласование с валидационными данными может быть обусловлено случайностью, а не только правильными параметрами

jaqatil
Автор

Не знаю прав я или нет, но кажется что в формуле на 35:20, где мы умножаем коэффициент регуляризации на единичную матрицу, в самой единичной матрице первый элемент первый строки должен быть равен 0, иначе мы регуляризируем w0, который вроде выполняет функцию сдвига

viruspk
Автор

чтобы с минусами не ипаться, просто измени t-w на w-t. Один хер они в квадрате

jaqatil