Лекция 2.1: Линейная регрессия.

preview_player
Показать описание
Занятие ведёт Григорий Лелейтнер.

---
Серия "Линейные алгоритмы"

Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.

За нашими новостями можно следить здесь:

ФПМИ МФТИ

Рекомендации по теме
Комментарии
Автор

Лектор хорошо рассказывает. Мне понравилось.

igorgordeev
Автор

Спасибо большое, это самое понятное видео о функциях потерь!😊

Dribinskaia
Автор

Добрый день. Подскажите, пожалуйста, почему при составлении модели мы написали, что f=x*w, но в выражение метода наименьших квадратов подставляет x(транспонированное)*w?

СМ-МГурова
Автор

Возьмем производную для решения. Приравняем её к нулю и получим омегу.. Круто че. Только что это было? Почему к нулю? Для чего производную брать? Ниче не объяснено.

jalomic
Автор

В лекции было сказано про неразрешимость системы уравнений для случая, когда столбцы - признаки линейно зависимы.
Получается,
мы добавляем новые составные признаки, чтобы дать больше информации (x3=x1*x2) =>
модель становится неустойчивой в виду того, что есть зависимые признаки, =>
затем добавляем регуляризацию, чтобы понизить влияние таких признаков.
Тогда зачем такие признаки добавлять, может проще взять другие модели?

vadimosipov
Автор

Последняя фраза: "значения элементов обратной матрицы не будут помещаться в память компьютера в переменные" - это шедевр, конечно. Представьте, что студент на экзамене это произнесет, и как его оценку любой преподаватель понизит.
Выражайтесь корректно, когда выступаете в роли преподавателя. Арифметическое переполнение или не помещается в память - это разные вещи.

natalias
Автор

Григорий, только не "Омега", а "омЕга"

ЕвгенийИванов-лле
welcome to shbcf.ru