[DeepLearning | видео 3] В чем на самом деле заключается метод обратного распространения?

preview_player
Показать описание
Рекомендации по теме
Комментарии
Автор

Как же классно что вы продолжаете делать переводы. Большое вам спасибо!

МаксимГамалеев-хх
Автор

Если мой вопрос кто-то видит, объясните пожалуйста, на основе чего я должен понять в каких корректировках нуждаются веса? Я не совсем понял из контекста.

keyos
Автор

Действительно, прекрасный перевод с очень замечательными и интересными занятиями. Как же все таки профессилналы могут просто объяснить. Огромная благодарность, спасибо за уроки ❤❤❤

limoshkamilk
Автор

теоретически все понятно но вот как это может выглядеть в коде я не представляю

kennyaleasta
Автор

у меня защита проекта в 10 классе благодаря вашем роликам думаю сдам на отлично upd: точно сказу завтра как сдал

ЕгпнПлрри
Автор

Thank you a lot! =) U are the best! =)

nullthesis
Автор

Круто! Почти всё понял, но всё-таки с тем, как метод обратного распространения определяет, что изменять, просто пока сложно переварить. Метод градиентного спуска - понял что делает, но не понял, как. Есть продолжения с этим же переводом (перевод супер!)? Или даже больше по поводу градиентного спуска, и как он делает требуемое? По кусочкам понятно, а в целом - не очень (но в целом про нс очень понятно, молодцы!).

АртемШамсутдинов-нн
Автор

Если кто-то тоже делал нейросеть для распознавания таких цифр, то напишите, пожалуйста, ваши гиперпараметры (батчи и мини-батчи тоже), метод активации нейрона и количество эпох, через которое вы получили более менее обученную нейросеть. Я для диплома делаю почти такую же нейросеть (там ещё латинские буквы) с нуля на C#, и мне бы хотелось с чем-то сравнить результаты обучения, что бы понять - обучение сделано правильно или нет.

rollocks
Автор

А каждый новый вес в векторе градиента вычисляется с помощью формулы: Wn = Wp - a * df/dWp, где
Wn - обновленный вес,
Wp - предыдущее значение веса,
a - скорость спуска,
df/dWp - наклон к екстремуму функции ошибки ?

МаксимПронь-чч
Автор

Нихера не понятно. Увы. Градиенты, спуски... Это понятно даже воробушку, но представить это на этой сети - не получается. Что, куда? Аа... уже не поспеваешь за роликом и энтропия в голове наслаивается и наслаивается превращаясь в ком "непоняток". Само видео - крутое, качественная анимация, вроде должно дать понимание, представление... но увы, в 45 лет это тяжело осознавать

hottabych
Автор

6:32 Я где-то в сети видел видео как несколько нейронов взаимодействуют друг с другом, так вот, они не создают устойчивые связи, а наоборот - постоянно меняют их. Так что да, пока что математическая "нейронка" далека от биологической.

Technmanac
Автор

Добавьте, пожалуйста, ссылку на патреон

СашаГурчак
Автор

Какое толковое видео! Спасибо! На примере математического анализа мне вообще было не понятно.

polinab
Автор

Самый большой вопрос: как вам удалось убрать голос оригинального автора?

toxanbi
Автор

Automatic HeadShot Accuracy Only!!! PUBG и Config

Chechnya_
Автор

А что если нейрону с большим весом поступило число приближенное к 0, а нейрону с малым весом поступило большое число, то получается нейрон с малым весом имел большее влияние на полученный результат?

MairanYT
Автор

Подскажите пожалуйста как делается подобная визуализация на видео? Это в After Effects сделано?

cesarion
Автор

Нужен идиальныйй вес!!! ИИ Всем Будеет Счастье!!!

Ciber-FanSistems
Автор

великолепно!
Добавте PayPal, пожалуйста,

Mrsashafr
Автор

Ничего не понял, очень много неточностей (не в переводе, а в объяснении первого автора видео).

YaShoom