filmov
tv
101 Концепт из Data Science и Машинного Обучения. Ты Должен Это Знать!
![preview_player](https://i.ytimg.com/vi/bbdZoKKnCeI/maxresdefault.jpg)
Показать описание
Войти в IT: Вся Необходимая База. 3 Уровня Объяснения Материала
Практический Курс по Python и Full Stack Разработке с Python:
Аве Кодер!
В этом исчерпывающем анимированном видео мы разберем основные принципы и понятия, которые должен знать любой интересующийся Data Science, Машинным Обучением или Искусственным Интеллектом (ИИ).
#datascience #машинноеобучение #искусственныйинтеллект
00:13 Дисперсия
00:29 Обучение без учителя
00:39 Анализ временных рядов
00:49 Перенос обучения
01:06 Градиентный спуск
01:17 Стохастический градиентный спуск или SGD
01:35 Анализ тональности
01:48 Регрессионный анализ
01:59 Регуляризация
02:14 Логистическая регрессия
02:29 Линейная регрессия
02:45 Обучение с подкреплением
02:56 Деревья решений
03:09 Случайный лес
03:25 Усечение или Обрезка
03:38 Метод главных компонент (PCA)
03:51 Предварительное обучение
04:09 Обнаружение объектов
04:19 Передискретизация
04:29 Выброс
04:39 Переобучение
04:52 One-Hot кодирование
05:05 Поиск ближайших соседей
05:17 Нормальное распределение
05:30 Нормализация
05:42 Обработка естественного языка, или NLP,
05:55 Факторизация матриц
06:11 Марковская цепь
06:35 Выбор модели
06:49 Оценка модели
07:03 Jupyter Notebook
07:18 Передача знаний (knowledge transfer)
07:36 Графы знаний
07:49 Совместная вероятность
08:02 Индуктивное предвзятость
08:17 Извлечение информации
08:32 Вывод
08:43 Несбалансированные данные
08:58 Human-in-the-loop (HITL) или "Человек в цикле"
09:17 Графический процессор (GPU)
09:33 Исчезающий градиент
09:48 Обобщение или Генерализация
10:01 Генеративно-состязательные сети, или GANs
10:21 Ансамблевые методы
10:36 Многоклассовая классификация
10:47 Предобработка данных
11:00 Регрессионный анализ
11:14 Сигмоидная функция
11:27 Эволюционные алгоритмы
11:43 Языковые модели
12:00 Обратное распространение ошибки
12:18 Бэггинг
12:29 Плотный Вектор
12:36 Инжиниринг признаков
12:47 Метод опорных векторов (SVM)
13:02 Перекрёстная проверка
13:38 Функция потерь
13:56 p-значение
14:09 t-критерий
14:19 Косинусная мера сходства
14:32 Dropout
14:47 Функция Softmax
14:58 Теорема Байеса
15:10 Функция Tanh
15:20 Функция ReLU
15:36 Среднеквадратичная ошибка
15:48 Корень среднеквадратичной ошибки
15:57 Коэффициент детерминации
16:09 Регуляризация L1 и L2
16:27 Скорость обучения
16:59 Байесовский классификатор
17:11 Функция стоимости
17:23 Матрица ошибок
17:43 Точность и Полнота
18:14 AUC-ROC (площадь под кривой рабочей характеристики приёмника)
18:36 Разделение на обучающую и тестовую выборки
18:58 Поиск по сетке
19:29 Обнаружение аномалий
19:50 Пропущенные значения
20:08 Евклидово расстояние
20:23 Манхэттенское расстояние
20:43 Расстояние Хэмминга
20:59 Коэффициент Жаккара
21:09 Кластеризация по методу K-средних
21:27 Бутстрэп
21:47 Иерархическая Кластеризация
22:00 Умножение матриц
22:19 Матрица Якоби
22:32 Матрица Гессе
22:47 Меры центральной тенденции
23:13 Функция активации
23:26 Искусственная нейронная сеть
23:44 Перцептрон
24:04 Сверточная нейронная сеть
24:41 Рекуррентная нейронная сеть
25:17 Долгая Краткосрочная Память (LSTM)
25:42 Трансформер
26:12 Padding (отступ)
26:31 Пуллинг
26:54 Вариационный автокодировщик
27:30 Квантовое машинное обучение
Поддержи проект:
BTС: 1BmLvUFiJaVpCAwhzW3ZwKzMGWoQRfxsn4
ETH: 0x6f1A488c9b12E782AEF74634a40A79b1631237aB
______________________
Аве Кодер!
Меня зовут V и я магистр Искусственного Интеллекта из Великобритании. Здесь на канале ты найдешь только качественные туториалы, подкасты, советы и все такое прочее, а на соседнем канале Аве Тех, есть еще и истории из мира технологий, путешествия по интересным местам и интервью с специалистами из разных тех областей.
Так что ставь императорский палец вверх, подписывайся и бей в колокол!
Практический Курс по Python и Full Stack Разработке с Python:
Аве Кодер!
В этом исчерпывающем анимированном видео мы разберем основные принципы и понятия, которые должен знать любой интересующийся Data Science, Машинным Обучением или Искусственным Интеллектом (ИИ).
#datascience #машинноеобучение #искусственныйинтеллект
00:13 Дисперсия
00:29 Обучение без учителя
00:39 Анализ временных рядов
00:49 Перенос обучения
01:06 Градиентный спуск
01:17 Стохастический градиентный спуск или SGD
01:35 Анализ тональности
01:48 Регрессионный анализ
01:59 Регуляризация
02:14 Логистическая регрессия
02:29 Линейная регрессия
02:45 Обучение с подкреплением
02:56 Деревья решений
03:09 Случайный лес
03:25 Усечение или Обрезка
03:38 Метод главных компонент (PCA)
03:51 Предварительное обучение
04:09 Обнаружение объектов
04:19 Передискретизация
04:29 Выброс
04:39 Переобучение
04:52 One-Hot кодирование
05:05 Поиск ближайших соседей
05:17 Нормальное распределение
05:30 Нормализация
05:42 Обработка естественного языка, или NLP,
05:55 Факторизация матриц
06:11 Марковская цепь
06:35 Выбор модели
06:49 Оценка модели
07:03 Jupyter Notebook
07:18 Передача знаний (knowledge transfer)
07:36 Графы знаний
07:49 Совместная вероятность
08:02 Индуктивное предвзятость
08:17 Извлечение информации
08:32 Вывод
08:43 Несбалансированные данные
08:58 Human-in-the-loop (HITL) или "Человек в цикле"
09:17 Графический процессор (GPU)
09:33 Исчезающий градиент
09:48 Обобщение или Генерализация
10:01 Генеративно-состязательные сети, или GANs
10:21 Ансамблевые методы
10:36 Многоклассовая классификация
10:47 Предобработка данных
11:00 Регрессионный анализ
11:14 Сигмоидная функция
11:27 Эволюционные алгоритмы
11:43 Языковые модели
12:00 Обратное распространение ошибки
12:18 Бэггинг
12:29 Плотный Вектор
12:36 Инжиниринг признаков
12:47 Метод опорных векторов (SVM)
13:02 Перекрёстная проверка
13:38 Функция потерь
13:56 p-значение
14:09 t-критерий
14:19 Косинусная мера сходства
14:32 Dropout
14:47 Функция Softmax
14:58 Теорема Байеса
15:10 Функция Tanh
15:20 Функция ReLU
15:36 Среднеквадратичная ошибка
15:48 Корень среднеквадратичной ошибки
15:57 Коэффициент детерминации
16:09 Регуляризация L1 и L2
16:27 Скорость обучения
16:59 Байесовский классификатор
17:11 Функция стоимости
17:23 Матрица ошибок
17:43 Точность и Полнота
18:14 AUC-ROC (площадь под кривой рабочей характеристики приёмника)
18:36 Разделение на обучающую и тестовую выборки
18:58 Поиск по сетке
19:29 Обнаружение аномалий
19:50 Пропущенные значения
20:08 Евклидово расстояние
20:23 Манхэттенское расстояние
20:43 Расстояние Хэмминга
20:59 Коэффициент Жаккара
21:09 Кластеризация по методу K-средних
21:27 Бутстрэп
21:47 Иерархическая Кластеризация
22:00 Умножение матриц
22:19 Матрица Якоби
22:32 Матрица Гессе
22:47 Меры центральной тенденции
23:13 Функция активации
23:26 Искусственная нейронная сеть
23:44 Перцептрон
24:04 Сверточная нейронная сеть
24:41 Рекуррентная нейронная сеть
25:17 Долгая Краткосрочная Память (LSTM)
25:42 Трансформер
26:12 Padding (отступ)
26:31 Пуллинг
26:54 Вариационный автокодировщик
27:30 Квантовое машинное обучение
Поддержи проект:
BTС: 1BmLvUFiJaVpCAwhzW3ZwKzMGWoQRfxsn4
ETH: 0x6f1A488c9b12E782AEF74634a40A79b1631237aB
______________________
Аве Кодер!
Меня зовут V и я магистр Искусственного Интеллекта из Великобритании. Здесь на канале ты найдешь только качественные туториалы, подкасты, советы и все такое прочее, а на соседнем канале Аве Тех, есть еще и истории из мира технологий, путешествия по интересным местам и интервью с специалистами из разных тех областей.
Так что ставь императорский палец вверх, подписывайся и бей в колокол!
Комментарии