Лекция 10 Прогнозирование временных рядов

preview_player
Показать описание
Рекомендации по теме
Комментарии
Автор

Как за 4 года похорошел python при Собянине и statsmodels

xeivsms
Автор

Почему-то на прогнозирование временных рядов тяжело найти много информации в одном месте. В частности базовую информацию. Но это видео исключение из этого правила. Спасибо, очень полезная лекция для понимания основ!

stukituk.clever
Автор

Супер видос - столько смысла в одном видео я давно не видел🔥

sergeyvolnov
Автор

3:00 Предсказательный интервал
7:00 регрессия. автокореляция пирсона
8:00 компоненты ВР: тренд. Сезонность. Цикл. Ошибка
12:00
18:00 значимость автокореляции. Критерий стьюдента. Льюнга-бокса.
20:00 стационарность
25:00 статистические критерии. KPSS. Дики-фуллера
27:00 стабилизация дисперсии. Преопрозование Бокса-кокса
29:00 дифференцированние
33:00 авторегрессия. Скользящие среднее. ARMA. ARIMA. SARMA. SARIMA
47:00 подбор параметров функции. Dd, Qq, Pp, AICe, BIC, Bias tradeoff
1:00:00 как построить прогноз? Насыщенность. Стационарность. Неавтокореруемость.
1:08:00 построение Предсказательного интервала. Python vs R. Сложная сезонность (Праздники, domen knowledge) SARIMAX. Регресионные признаки
1:15:00 проблемы прогнозирования. ARIMA не нужна? features
1:20:00 Массовое прогнозирование
1:25:00 литература
Наука не нужна?
Коридор значимости?

Felix-ogpd
Автор

18:41 проверка значимости автокорреляции
24:57 статистические критерии на стационарность
27:27 стабилизация дисперсии

everlastingsummer
Автор

Большое спасибо, просто и доступным языком

oldzas
Автор

Эх, видел бы я эту лекцию 3 года назад, когда только начинал изучать ариму...

retiber
Автор

Какой аккуратно сложыенный мальчик. Хочется всклокочить его волосы и потом долго смотреть в его умные глаза.

ivanaaa
Автор

наконец-то все становится на свои места в моей голове. Самое главное, нет этих западных криков и бешенного типа, а также дешевых шуток.

sergueirus
Автор

Евгений,
замечательная лекция. Пару замечаний, не хватает примеров, которые аудитория могла бы повторить в лабораторных условиях, чтобы понять как работают те или иные алгоритмы и в чем их преимущества или недостатки перед другими. Хотелось бы иметь ссылку на саму презентацию, чтобы почитать отдельно, а так же хотелось бы иметь ссылку на Jupiter notebook, где можно было бы поработать с примерами из лекции.
А в целом 5/5 желаю успехов в научной деятельности.
С Уважением,
Макс.

MaxZaikin
Автор

Лекция хорошая, но некоторые слайды сильно отстают и выходит что докладчик что-то объясняет, а слайд предыдущий и приходится включать фантазию и придумывать будущее изображение

andregogiko
Автор

Спасибо. Но имя лектора неплохо бы указать. Всё-таки старался человек=)

saitaro
Автор

1:00:54 Непонятно сто из чего вычитать. Откуда берутся эти остатки? Мы из реальных значений вычитаем значения на которые получились при обучении?

svemjci
Автор

Добрый день! Подскажите, где найти Вашу презентацию. На гите не нашел, а говорили, что выложите. Спасибо!

artemsukhov
Автор

Я одного не понял: Мы сначала ухудшаем скоррелированность ряда путем дифференцирования (это видно на графиках автокорр ф-ии), а потом к такому низкоскоррелированному ряду лепим авторегрессию. Умно? А может не нужно дифференцировать чтобы получилась хорошая корреляция на ряд в прошлом?

igordanilov
Автор

так что в итоге? нафиг все эти модели - строим регрессию как раньше?

izogelia
Автор

Мое почтение, выдать на голубом глазу «сокровищница США» и даже не запнуться 😂😂😂

Pedrochenko
Автор

7:55 значение автокорреляции во временных рядах

denisusachev
Автор

А как зовут лектора? Может есть ссылки на его статьи или место работы?

kwhgxkr
Автор

Жаль, что вопросов не слышно :( Можно было бы их субтитрами дать.

chichackles