Распределённые и параллельные вычисления 3. CUDA. Введение

preview_player
Показать описание

Дата лекции: 22.09.2021
Лектор: Ахтямов П. И.

00:00:00 Повторение изученного
00:03:55 Определение GPU
00:04:34 Пример подсчёта производительности в 2D и 3D
00:16:04 История графических видеоускорителей
00:21:12 Pipeline рендеринга
00:31:53 CUDA
00:40:16 Типы памяти, потоки
00:46:54 Задача
00:52:40 warp, block, grid
01:00:56 Спецификация видеокарты
01:06:48 CUDA-программы, ядро
01:10:47 Задача
01:17:16 Итоги лекции

Съёмка: Марк Тюков
Монтаж: Александр Пронякин
Рекомендации по теме
Комментарии
Автор

Объяснение про warp, block и grid получилось сумбурным и непонятным

hjuyzii
Автор

00:00:00 Повторение изученного
00:03:55 Определение GPU
00:04:34 Пример подсчёта производительности в 2D и 3D
00:16:04 История графических видеоускорителей
00:21:12 Pipeline рендеринга
00:31:53 CUDA
00:40:16 Типы памяти, потоки
00:46:54 Задача
00:52:40 warp, block, grid
01:00:56 Спецификация видеокарты
01:06:48 CUDA-программы, ядро
01:10:47 Задача
01:17:16 Итоги лекции

lectory_fpmi
Автор

Спасибо за лекцию, хорошо рассказываете

flxur
Автор

Я не понял почему 320*240*8*3? Это цвет 8 бит на канал? Такого режима у VGA не было.
Максимум помню можно было сделать 256 цветов вообще. То есть всего 3 бита на канал для двух каналов и 2 бита для третьего (обычно для красного).

ultracolor
Автор

Про видеопамять не правильно, она была определенного размера на один скрин. В этой памяти менялись только отдельные куски-спрайты. Эта память сканировалась, декодировалась и выводилась на устройство отображения. Вычислительная частота (памяти и прицессора) никаким боком не была связана с частотой вывода на экран. Появление буфера видеопамяти увеличило независимость терминала от эвм. Ядра nvidia не быстрее и не мощнее цп, но их много, соответственно много потоков для части прогаммы, которую можно распараллелить для выполнения простых арифметических вычислений,

yuralamov