Логистическая Регрессия | Logistic Regression | Линейная модель для классификации |МАШИННОЕ ОБУЧЕНИЕ

preview_player
Показать описание
Поддержать канал можно оформив подписку на

Преподаю на курсах в онлайн-университете на программах, связанных с ИИ и Data Science:
Приходите ко мне на занятия!

Курсы на платформе Stepik:

❓ Вопросы, на которые найдем ответы в этом видео:
- Что такое логистическая регрессия
- Как обучается логистическая регрессия
- Что такое правдоподобие
- Что такое функция потерь logloss (кросс-энтропия)



0:00 Введение
0:05 План занятия
0:20 Что нужно знать для занятия

1:14 Что такое логистическая регрессия
2:06 Линейная классификация
4:11 Сигмоида для линейной классификации
6:02 Логистическая регрессия простыми словами

6:24 Как обучается логистическая регрессия
6:43 Сравнение логистических регрессий
8:00 Введение в logloss
8:06 Правдоподобие Likelihood
8:42 Простой пример расчета правдоподобия
10:51 Расчет правдоподобия на всех данных
12:34 Получили логистическую функцию потерь
12:41 Расчет логлосса на правдоподобии
13:13 Сравнение кросс-энтропии

13:38 Вывод кросс-энтропии из правдоподобия
13:41 Формула подсчета правдоподобия
14:08 Пример расчета правдоподобия по формуле
15:40 Вывод формулы logloss
16:08 Метод максимального правдоподобия
16:22 Как из правдоподобия получить logloss
17:34 Градиент по logloss
18:06 Резюме обучения логистической регрессии

18:40 Спойлер к следующему видео

18:54 Резюме занятия
19:01 Логистическая регрессия - это линейная регрессия с сигмоидой
19:21 Правдоподобие
19:30 Logloss, Логлосс, Cross-entropy, Кросс-энтропия

19:42 ♡
Рекомендации по теме
Комментарии
Автор

Много смотрела объяснений по этой теме, какие-то из них считала хорошими, но после просмотра Вашего ролика, поняла, ЧТО ЭТО ПРОСТО ЛУЧШЕЕ ОБЪЯСНЕНИЕ. Очень подробно, с необходимой математикой, которая, однако, подана крайне понятно и приятно. И все это за 20 минут!!! Некоторые лекторы и за час не могут дать всей той информации, а главное, ее понимания, как это сделали Вы. Очень надеюсь, что мы еще увидим от Вас ролики Т_Т

ajax
Автор

Спасибо большое. Ооооочень доступно и понятно, как и все видеоролики. Вы талант!

pashamorozov
Автор

О Боже, я наконец-то всё поняла! Спасибо большое! Я правда уже долгое время не могла понять, что такое Правдоподобие и как оно связано с Логистической регрессией! Пошла смотреть другие ваши видео 😊

mariakupfer
Автор

Спасибо. Очень понятно объясняешь. Смотрю твои видео для закрепления материала. Если, что то не догоняю после твоих видео все становиться на места). Про расчет градиента очень бы хотелось послушать. Тема довольно важная кажеться😃👍

pavelkoloyan
Автор

Большое спасибо за разъяснения! Видео очень ёмкое и подробное для каких-то 20 минут =)

leshamas_
Автор

Потрясающая подача материала и отличная инфографика

escapedraccoon
Автор

Юлия, благодарю за урок! Для чего нужно делать градиентный спуск из logloss и как его делать? Будет супер, если такой урок сделаете)

petrgolovnin
Автор

Как всегда, отличное объяснение! Спасибо!

АртемЕрохин-бс
Автор

Спасибо, очень доступно, ждём продолжение)

ВикторияСазанчук
Автор

Спасибо большое за видео, очень хорошее видео

ВикторБелый-хк
Автор

Спасибо за контент! Видео помогают суммаризировать информацию - ставлю лайк под каждым вашим роликом) По данному видео возникло 3 вопроса:
1. Почему на 11:55 мы делим на N? Вроде как когда я изучал статистику, при поисках ОМП (оценок макс правдопод) мы не делили правдоподобие на N.
2. Совпадение ли, что на 17:10 формула похожа на энтропию Шеннона? Если нет, то как это связано?))
3. Как получилась формула для градиента logloss? Вы сказали, что выведите формулу в след видео с реализацией - я поверхностно пробежался по таймкодам, но вывода не нашел(

ИванЕвдокимов-ль
Автор

логлосс вроде это бинарная кросс-энтропия, а не кросс-энтропия 17:30
за видео спасибо <3

ds_sss_rank
Автор

leaRRRning это отсылка на что?)) Клевый ролик)

tchntrn
Автор

Спасибо. Хоть кто-то объяснил толком на графике 😊

burbon_
Автор

Спасибо огромное, это лучшее объяснение правдоподобия. А планируется ли видео по подробному разбору roc-auc?

aly
Автор

Я понял, что такое правдоподобие, ура!

LoSb_Krakov
Автор

Хотелось бы ссылку на donation alerts, яндекс кошелек и т.п., чтобы иметь возможность единоразово отблагодарить без регистрации. За видео спасибо.

Putinka
Автор

Кто-нибудь объясните пожалуйста про логарифм на 12:21

Меняемпривычки
Автор

есть видео про подробное получение градиента? хотелось бы еще узнать как высчитываются веса в sklearn модели logreg. неужели все через градиентный спуск?

leowhynot
Автор

Спасибо, а логистическая регрессия умеет работать с пропусками в данных ?

АлиСултанов-иэ
join shbcf.ru