Лекция 2 - Линейный классификатор

preview_player
Показать описание

0:35 - Начало
1:20 - Краткое повтороение прошлой лекции
4:16 - О разделении датасета на части
4:49 - Распознавание образов на примере датасета CIFAR-10
8:39 - Метод ближайших соседей (Nearest neighbor)
13:24 - Метод K-ближайших соседей (k-nearest neighbor)
14:29 - (off) Вопросы (не было) и истории (были) :)
16:22 - Продолжение о методе K-ближайших соседей
16:39 - Гиперпараметры, их подбор и как это связано с разделением датасета на части
24:25 - Кросс-валидация
27:57 - Недостатки метода K-ближайших соседей
33:04 - Вопросы
34:00 - Линейный классификатор
39:53 - Вопросы и истории
43:48 - Интерпретация результатов работы классификатора (softmax)
51:09 - Принцип максимального правдоподобия
55:20 - Вопросы о методе максимального правдоподобия + перерыв в лекции
1:07:03 - Продолжение о принципе максимального правдоподобия (cross entropy loss)
1:10:09 - Регуляризация
1:15:29 - Градиентный спуск
1:23:18 - Стохастический градиентный спуск
1:28:10 - Что будет дальше?
1:29:11 - Вопросы и истории
Рекомендации по теме
Комментарии
Автор

Таймкоды (полное):
0:35 - 1 Начало
1:20 - 2 Краткое повтороение прошлой лекции
4:16 - 3 О разделении датасета на части
4:49 - 4 Распознавание образов на примере датасета CIFAR-10
8:39 - 4.1 Метод ближайших соседей (Nearest neighbor)
13:24 - 4.2 Метод K-ближайших соседей (k-nearest neighbor)
14:29 - (off) Вопросы (не было) и истории (были) :)
16:22 - 4.2 Продолжение о методе K-ближайших соседей
16:39 - 5 Гиперпараметры, их подбор и как это связано с разделением датасета на части
24:25 - 5.1 Кросс-валидация
27:57 - 4.3 Недостатки метода K-ближайших соседей
33:04 - 6 Вопросы
34:00 - 7 Линейный классификатор
39:53 - 8 Вопросы и истории
43:48 - 9 Интерпретация результатов работы классификатора (softmax)
51:09 - 10 Принцип максимального правдоподобия
55:20 - 10.1 Вопросы о методе максимального правдоподобия + перерыв в лекции
1:07:03 - 10 Продолжение о принципе максимального правдоподобия (cross entropy loss)
1:10:09 - 11 Регуляризация
1:15:29 - 12 Градиентный спуск
1:23:18 - 12.1 Стохастический градиентный спуск
1:28:10 - 13 Что будет дальше?
1:29:11 - 14 Вопросы и истории

leoromanovich
Автор

48:06 Поправьте, если я неправ, но по-моему здесь умножается матрица-вектор 1x3024 на матрицу 3024x10 и на выходе мы получим матрицу-вектор 1x10, это матрица строка, а не столбец, как показано на слайде, следовательно и смещение должно быть такой же размерности, иначе мы не сможем их сложить, и в итоге также получим горизонтальный вектор, это не критично, но важно понимать

deffwot
Автор

Спасибо за данный курс лекций! На русских просторах, без преувеличений, это лучший разбор нейронных сетей.
Наткнулся на Вас случайно, изучая нейронные сети на Хабре. Теперь планирую так же просмотреть Ваш более новый курс "Deep learning на пальцах".

АлексейЕвгеньевич-лу
Автор

Машинное обучение занимается задачами, когда пока нет даже классов, по которым будет классификация? Когда цель сначала найти эти возможные классы (например штук 10), а потом уже по ним классифицировать как описано здесь?

IvanNestratenkoMinecraft
Автор

Подскажите, откуда формула условной вероятности "c принадлежит к классу 0 при условии x" вывелась? Почему там експоненты? И что значит "softmax"?

andyx
Автор

CIFAR-10 в каком формате картинки? bmp? jpeg же жмется и тогда не все пиксели независимы?

vladimirpovyshev
Автор

3:35 опять
cat - собачка
dog - кошечка)

deffwot
Автор

Интересно, что за софт используете для рисования и переключения слайдов?

piroxiljin
Автор

А не будет ли реализация всего этого в Питоне?

Диванныйстратег
Автор

Много видео в ютубе про машинное обучение но там сложно объясняют иногда не понятно. Ну а этот мужичек - сверчек объясняет нормально 5 балов за доклад.

arturarakelov
Автор

разве не очевидно, что k чем больше тем лучше? почему нет?

anatoly-k
Автор

Для разнообразия иногда можно говорить кошка/собака. Режет ухо уменьшительно-ласкательные.

NickBelarus
Автор

в ВК Анатолий Буковский волонтёр. СБЕРБАНК &

преступник & народА & РАДИОЭЛЕКТРОНИКА.Репост.

qwertyqwerty
Автор

2020 год, считать аналитические производные на бумаге - извините это извращение. Берем MathCad, Maple - готово. Далее, производная в аналитическом виде, вообще говоря, ни всегда быстрее считается разностного аналога. Этот факт заметили еще на численном моделировании наши предки.

ssa
Автор

Ужасный курс, хочется очень сильно оскорбить автора.

fentan