Основы нейронных сетей и Deep Learning | Технострим

preview_player
Показать описание
Мероприятие: Moscow Data Science Junior Meetup, 10.06.2017

Нейронные сети – одна из самых горячих тем в машинном обучении последних лет. В докладе речь пойдет об основах DL: обратном распространении ошибки и стохастическом градиентном спуске. Мы обсудим MLP и сверточные сети. Как читать обозначения в статьях, что такое 1х1 и дырявые свертки. Чем global pooling отличается от обычного и т.д.

О КАНАЛЕ:

Официальный канал образовательных проектов Mail.Ru Group

Актуальные лекции и мастер-классы о программировании от лучших IT-специалистов. Если вы увлечены мобильной и веб-разработкой, присоединяйтесь!

Наши проекты:

------------------------

МЫ В СЕТИ:

Рекомендации по теме
Комментарии
Автор

Сделайте нейросеть, которая будет вырезать А-А-А-А, М-М-М-М, Э-Э-Э-Э и прочие завывания из видео. Это будет реально полезное применение.

mweptpj
Автор

1:42 ни хрена не понял из формул. Что за знак - треугольник вниз головой. Ничего из формул не объясняет

Автор

Походу лектор только попонтоваться пришёл. Лекция сводиться к просмотру слайдов, с назойливым лектором, который нихрена ничего не объясняет. Например, Sigmoid для чего, как, чем и в каких задачачах лучше ReLu, зачем нужен перцептрону бэкпроп, чем переобучение плохо, а может это наоборот лучше. У микрософта тоже нихрена не понятно, но там хотябы тебя тыкают куда тебе пойти. в общем, дропаут это хорошая вещь, только нужно подбирать параметры...

zombie_v
Автор

41:43 благодарим Виталия?! На презентации написано Алексей и вначале 0:00 он представился как Алексей АХАХАХАХАХХАХАХА

__nemesis
Автор

Ох уж эти формулы. Рассказывают как будто сильнее хотят запутать, а не объяснить

keydon
Автор

Задолбали со своей теорией, нахавались уже, миллион таких видео. Покажите лучше инструменты, как их устанавливать и как ими пользоваться и побольше примеров

Frie