Лекция. Решающие деревья, ансамбли, бустинг.

preview_player
Показать описание
Занятие ведёт Дмитрий Садыков.
---

0:00 - Решающие деревья
2:56 - Решающие деревья. Примеры
4:22 - Решающие деревья. Обучение
8:28 - Информационные критерии
15:05 - Параметры дерева.
18:07 - Решающие деревья. Преимущества и недостатки
24:14 - Ансамбли алгоритмов
25:11 - Голосование
28:53 - Бутстрап и Бэггинг
35:21 - Случайный лес
42:07 - Бустинг
57:52 - Блендинг
1:02:16 - Стекинг
1:08:17 - Итог

---

Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.

За нашими новостями можно следить здесь:

ФПМИ МФТИ

Рекомендации по теме
Комментарии
Автор

Спасибо за лекцию! Многие вещи очень непонятно объясняются. Практически каждый новый 2-ой термин приходится дополнительно гуглить. Понятно, что Вам эти вещи уже кажутся очевидными и понятными, но нам (смотрящим) совсем нет.

mikebelous
Автор

Спасибо за лекцию. Но хочу предложить лектору готовить текст лекции заранее, особенно по сложным местам, и читать его. Так есть возможность заранее сформулировать сложные места и поработать над их понятностью. Да и есть возможность сделать лекцию короче.

nikolaikrot
Автор

Почему так непонятно объясняется градиентный бустинг, нельзя разве на пальцах последовательно от функции до функции показать, там же цепочка существует

AskoLdee
Автор

Очень хороший и хорошо дополняющий контент, но могу слушать только на скорости - 1, 75x ))

dimitriysokolov
Автор

Боюсь смотреть лекцию из-за многочисленных отзывов о том, что она непонятная. Я и прошлый семинар этого лектора не особо поняла.

taygind
Автор

Entropy принимает max там, где вероятность 50 на 50 для классов. Тогда получается, что для 2ух классов это: (-1) * (0.5 * log_2(0.5) + 0.5 * log_2(0.5)) = 1.
11:38. Почему на графике у Entropy максимум в точке 0.5?

vadimosipov
Автор

23.50 Говорят о том, что big leaf size это overfit.. Как так то....наоборот это же недообучение, --лист огромный, туда вся выборка и попадет...илия че то не так понял??

rosasha
Автор

Большое спасибо за лекцию! Не могли бы Вы, пожалуйста, выложить слайды! Очень интересно!

jenya_pu
Автор

Спасибо большое, кратко, емко, понятно!

АлексейСидоров-бз
Автор

Лектор упоминает о ссылке на ноутбук на слайде. А сами слайды не выложены. Выложите, пожалуйста.

ИванИванов-зкщ
Автор

Мне бустинг чем ТО напомнил SARIMAX.... НЕ ОТ ТУДА ЛИ НОГИ РАСТУТ?

rosasha
Автор

p_c*q_c - среднее значение ошибок при предсказании класса c.
Как вы интерпретировали, что это среднее значение ошибок, для меня остается загадкой.

vadimosipov
Автор

Я бы словил меньше фейспалмов, если бы Дмитрий Садыков всю лекцию просто молчал и щелкал слайды. Каждые три слова - фейспалм.

slavaukraini
Автор

И про вы же все из МФТИ..Феймана обьяснение непоняток по квантовой механике)) p.s. А вообще курс класс!! я попал в точку после 6 месячной специализации на курсере так же от МФТИ....Без нее на продвинутом потоке было бы нечего делать..или как попугай...без понимания бы делал((

rosasha
Автор

Полезность лекции = 0. "Лектор" сам не разбирается в теме. Несет заученный текст, причем неправильный.

АнатолийЧунижеков