101 Концепт из Data Science и Машинного Обучения. Ты Должен Это Знать!

preview_player
Показать описание
Войти в IT: Вся Необходимая База. 3 Уровня Объяснения Материала

Практический Курс по Python и Full Stack Разработке с Python:

Аве Кодер!
В этом исчерпывающем анимированном видео мы разберем основные принципы и понятия, которые должен знать любой интересующийся Data Science, Машинным Обучением или Искусственным Интеллектом (ИИ).

#datascience #машинноеобучение #искусственныйинтеллект

00:13 Дисперсия
00:29 Обучение без учителя
00:39 Анализ временных рядов
00:49 Перенос обучения
01:06 Градиентный спуск
01:17 Стохастический градиентный спуск или SGD
01:35 Анализ тональности
01:48 Регрессионный анализ
01:59 Регуляризация
02:14 Логистическая регрессия
02:29 Линейная регрессия
02:45 Обучение с подкреплением
02:56 Деревья решений
03:09 Случайный лес
03:25 Усечение или Обрезка
03:38 Метод главных компонент (PCA)
03:51 Предварительное обучение
04:09 Обнаружение объектов
04:19 Передискретизация
04:29 Выброс
04:39 Переобучение
04:52 One-Hot кодирование
05:05 Поиск ближайших соседей
05:17 Нормальное распределение
05:30 Нормализация
05:42 Обработка естественного языка, или NLP,
05:55 Факторизация матриц
06:11 Марковская цепь
06:35 Выбор модели
06:49 Оценка модели
07:03 Jupyter Notebook
07:18 Передача знаний (knowledge transfer)
07:36 Графы знаний
07:49 Совместная вероятность
08:02 Индуктивное предвзятость
08:17 Извлечение информации
08:32 Вывод
08:43 Несбалансированные данные
08:58 Human-in-the-loop (HITL) или "Человек в цикле"
09:17 Графический процессор (GPU)
09:33 Исчезающий градиент
09:48 Обобщение или Генерализация
10:01 Генеративно-состязательные сети, или GANs
10:21 Ансамблевые методы
10:36 Многоклассовая классификация
10:47 Предобработка данных
11:00 Регрессионный анализ
11:14 Сигмоидная функция
11:27 Эволюционные алгоритмы
11:43 Языковые модели
12:00 Обратное распространение ошибки
12:18 Бэггинг
12:29 Плотный Вектор
12:36 Инжиниринг признаков
12:47 Метод опорных векторов (SVM)
13:02 Перекрёстная проверка
13:38 Функция потерь
13:56 p-значение
14:09 t-критерий
14:19 Косинусная мера сходства
14:32 Dropout
14:47 Функция Softmax
14:58 Теорема Байеса
15:10 Функция Tanh
15:20 Функция ReLU
15:36 Среднеквадратичная ошибка
15:48 Корень среднеквадратичной ошибки
15:57 Коэффициент детерминации
16:09 Регуляризация L1 и L2
16:27 Скорость обучения
16:59 Байесовский классификатор
17:11 Функция стоимости
17:23 Матрица ошибок
17:43 Точность и Полнота
18:14 AUC-ROC (площадь под кривой рабочей характеристики приёмника)
18:36 Разделение на обучающую и тестовую выборки
18:58 Поиск по сетке
19:29 Обнаружение аномалий
19:50 Пропущенные значения
20:08 Евклидово расстояние
20:23 Манхэттенское расстояние
20:43 Расстояние Хэмминга
20:59 Коэффициент Жаккара
21:09 Кластеризация по методу K-средних
21:27 Бутстрэп
21:47 Иерархическая Кластеризация
22:00 Умножение матриц
22:19 Матрица Якоби
22:32 Матрица Гессе
22:47 Меры центральной тенденции
23:13 Функция активации
23:26 Искусственная нейронная сеть
23:44 Перцептрон
24:04 Сверточная нейронная сеть
24:41 Рекуррентная нейронная сеть
25:17 Долгая Краткосрочная Память (LSTM)
25:42 Трансформер
26:12 Padding (отступ)
26:31 Пуллинг
26:54 Вариационный автокодировщик
27:30 Квантовое машинное обучение

Поддержи проект:

BTС: 1BmLvUFiJaVpCAwhzW3ZwKzMGWoQRfxsn4
ETH: 0x6f1A488c9b12E782AEF74634a40A79b1631237aB

______________________
Аве Кодер!
Меня зовут V и я магистр Искусственного Интеллекта из Великобритании. Здесь на канале ты найдешь только качественные туториалы, подкасты, советы и все такое прочее, а на соседнем канале Аве Тех, есть еще и истории из мира технологий, путешествия по интересным местам и интервью с специалистами из разных тех областей.
Так что ставь императорский палец вверх, подписывайся и бей в колокол!
Рекомендации по теме
Комментарии
Автор

Спасибо! Лаконично, собрано, продумано, и как результат - понятно!
Видно, что это Ваш личный багаж знаний, а не чей-то учебник!
💛💙

sirserkovsirserkov
Автор

В целом познавательно, но мысль скачет. Удобнее, если термины структурированы по смыслу. Т.е. сначала идет математика, потом всякие градиенты, потом классические модели, потом нейронки. Если плаваешь в терминологии, сложно бустро переключаться. Ну и да, такие вещи наверное все же удобнее читать, но это на любителя

alexandervasilenko
Автор

Проходил обучение бесплатное, от центра занятости, никто подробно ничего не объясняет совсем!!! Грубо говоря делайте так, не понимаете, ничего, делайте. В итоге у всех красные дипломы

timurtimurovich
Автор

Ну нифига не сложно, всё ж понятно! И совсем не много))

iritaka
Автор

Жаль поподробнее не рассказал про l1, l2 регуляризации.

DanGlado
Автор

Обязательно скачаю ваш ролик на телефон, как и другие родики, ьипа пайтон за один урок(7 часов вроде)

timurtimurovich
Автор

Мм, я начал смотреть и уже испугался))

timurtimurovich
Автор

А что за программа, в которой делались графики, очень красиво!

DanGlado
Автор

Доброго времени суток! Респект за всю эту подобранную с интересом информацию... Хуть я ещё даже в 10-ом классе, апхпахапххпа. Но мне правда интересно всё это слушать... Готовиться к будущему!)

NicknameOfGood
Автор

Аве, полскажи, пожалуйста, если в универе 5 лет одна java, можно использовать её в анализе данных и машинном обучении? Рисовать красивые графики? И не учить пайтон)

voynere
Автор

Насколько сильно в глубину нужно знать о каждой теме и понятии?
Или же достаточно базовых знаний

sckplspher
Автор

Функция тан? WTF? Гиперболический тангенс.

DropDead
Автор

Это что 20 минут зачитывания определений? Это для какого вообще использования? Если это хорошая подборка определений с картинками, то такое лучше текстом заходит. В видео я все таки ожидаю каких то объяснений. Не поняла формат.

sama