Запись трансляции 'Information Theory of Deep Learning' (проф.Naftali Tishby)

preview_player
Показать описание
Ни для кого не секрет, что предсказательные модели, основанные на глубоких нейросетях, — лучший метод решения многих задач, связанных с распознаванием изображений, звука и последовательностей символов. Вместе с тем причины этого ясны не вполне, а вопрос о способах построения архитектур нейросетей, адекватных решению конкретных задач, до сих пор остаётся открытым.

Профессор Нафтали Тишби из Еврейского университета в Иерусалиме расскажет о теоретическом подходе Information Bottleneck framework. Этот подход позволяет дать чёткие рекомендации по выбору нейросетевых архитектур, исходя из размера обучающей выборки и совместных распределений признаков и выходных классов.

Лекция профессора пройдёт на английском языке.
Рекомендации по теме
Комментарии
Автор

Отлично, стоило каждой минуты, очень жаль, что не пришел. Всем советую!

zuenko
Автор

Regarding the first audience question, if you use batch normalization, the mini-batch noise is Gaussian, no?

rongou
Автор

1:35:09 is he talking about ResNets or Autoencoders ? Question was about ResNets

citiblocsMaster