Самые основы машинного обучения, лекция 2

preview_player
Показать описание

Рекомендации по теме
Комментарии
Автор

Евгений, Вы иногда рвете нить математического повествования, но на лицо большой большой труд и огромное желание передать материал. За это огромное спасибо, а все Ваши небольшие недочеты с лихвой перекрываются общим высоким качеством материала и его подачи. Для меня как экономиста-математика по образованию (работал 15 не по специальности) и начинающего аналитика данных (прошел курс в Яндекс Практикум) Ваш курс просто находка. На сегодняшний день даже в анализе данных без базовых методов ML уже никуда... Еще раз огромное Вам спасибо!

olegsysoev
Автор

Наконец-то хоть кто-то объяснил разницу между тестовой и валидационной выборкой. Спасибо!

pavku
Автор

Если монета 99 раз падает решкой, то и в сотый раз будет решка, потому что такая монета не может не быть нефальшивой. Насим Талеб.

ulmvytm
Автор

Евгений, хотелось бы узнать Вашу историю становления специалистом. Какой путь Вы прошли, как изучали сферу и т.п. Если где-то есть уже такая информация \ ролик, дайте знать.

P. S. Спасибо за ролики и труд!

kotya
Автор

Подскажите, как узнать много у меня данных или нет, чтобы определить размер обучающей выборки? Может на примерах.

pavku
Автор

Здравствуйте, Евгений! Спасибо Вам большое за такую замечательную подачу материала. Начинаю постепенно прорабатывать формулы. Скажите, пожалуйста, на слайде с выводом целевой функции (1:28:26) может быть ошибка во второй строке? У меня получилось вывести только sum(ln(1/sqrt(2* pi * (sigma^2)))) = - (N/2) * ln(1/(sigma^2)) - (N/2) * ln (1/(2*pi)). Не понимаю, почему 2 пи в числителе.

LR-drzv
Автор

То есть w0 в данном случае просто константа b из классического определения линейной функции > f(x)= ax +/- b

JohnLee-boft
Автор

Ещё не совсем понятно, что значит верхняя черта над функциями и элементами, речь же явно не про супремум

JohnLee-boft