Основы вероятностей и теория меры 3. Независимость. Распределение случайной величины

preview_player
Показать описание
Основы вероятностей и теория меры. МФТИ, Физтех-школа прикладной математики и информатики

Дата лекции: 17.09.2022
Лектор: Эрлих Иван Генрихович
Монтажер: Голицын Сергей
Оператор: Вашкевич Егор

00:00:00 — начало; формулы теории вероятностей (условная, полной вероятности)
00:02:20 — пример использования формулы полной вероятности (про старосту)
00:08:02 — продолжение формул — формула Байеса
00:14:47 — продолжение примера про старосту
00:22:04 — формула умножения вероятностей
00:32:10 — понятие независимости (двух событий)
00:40:30 — пример (схема испытаний Бернулли)
00:47:10 — расширение на n событий; определения попарной независимости и независимости в совокупности
00:50:34 — утверждение о том, что из независимости в совокупности следует попарная независимость
00:51:02 — обратное неверно: пример Бернштейна (о раскраске вершин тетрайдера)
00:56:10 — понятие случайной величины
00:59:23 — пример (схема испытаний Бернулли)
01:02:25 — пример (с сессией и средним баллом)
01:11:51 — распределение случайной величин; примеры (Бернулли, биномиальное, геометрическое, Пуассона)
Рекомендации по теме
Комментарии
Автор

21:00 Если я правильно помню, то та же фильтрация Калмана основана на Байесовском подходе. Говорить о том, что до хайпа машинного обучения байесовские методы не применялись, все-таки некорректно, потому что база всех систем управления, фильтрации и прочее-прочее лежит на фундаменте формулы байеса. А если еще вспомнить системы цифровой передачи, то там точно так же будет участвовать формула Байеса (например задача оценить вероятность, что было на самом деле передано, если принято было что-то другое, и существует априорное распределение для выходного сигнала)

Aldaris