НЕЙРОСЕТЬ своими руками за 10 минут на Python

preview_player
Показать описание
Пишем с нуля свою нейросеть (перцептрон).
На языке Python с разбором как оно устроено.

===
Сообщите менеджеру промо-код "Хауди Хо" чтобы получить 10% скидку!

🆇 Обещанные ссылки 🆇

💗 Музыка предоставлена YouTube Audio Library.
Рекомендации по теме
Комментарии
Автор

"Чтобы пользоваться формулами - не обязательно понимать, как они работают"
Отлично, теперь знаю, как надо было отвечать моему преподу по Искусственному интеллекту :D

emche
Автор

"Все что произошло сейчас у вашем мозгу называется мышление", лично у меня произошло короткое замыкание -_-

kanie.loutis
Автор

Полный код из видоса. Не благодарите)))


import numpy as np

def sigmoid(x):
return 1 / (1 + np.exp(-x))

training_inputs = np.array([[0, 0, 1],
[1, 1, 1],
[1, 0, 1],
[0, 1, 1]])

training_outputs = np.array([[0, 1, 1, 0]]).T

np.random.seed(1)

synaptic_weights = 2*np.random.random((3, 1))-1

print("Случайные инициализирующие веса:")
print(synaptic_weights)

# Метод обратного распространения
for i in range(20000):
input_layer = training_inputs
outputs = sigmoid(np.dot(input_layer, synaptic_weights))

err = training_outputs - outputs
adjustments = np.dot(input_layer.T, err*(outputs*(1-outputs)))

synaptic_weights += adjustments

print("Веса после обучения:")
print(synaptic_weights)

print("Результат после обучения:")
print(outputs)

# ТЕСТ
new_inputs = np.array([1, 1, 0]) # Новая ситуация
output = sigmoid(np.dot(new_inputs, synaptic_weights))

print("Новая ситуация: ")
print(output)

johngalt
Автор

Мозг принял входные данные, увидел выходные и пошел отдыхать

knice
Автор

Под каждым видосом с каким то кодом найдётся чувак, который напишет, что ничего не понял и соберет много лайков

dud
Автор

При вводе [0, 0, 0] ответ будет ровно 0.5
Чтобы такой фигни не было, надо добавить ещё 1 входной нейрон. На входе у него всегда 1. Знакомьтесь, "Нейрон смещения"

qqmkxwj
Автор

1:55 и тут я понял что видимо в моем мозге нет никаких сетей

OdemGeek
Автор

Спасибо тебе, автор ролика. 4 года назад я посмотрел это видео и принял решение перейти в программирование на питон. Месяц назад стал синьор-разработчиком. Сейчас пересмотрел снова спустя 4 года. Аж прослезился немного.

alexanderandryukov
Автор

Выпусти видос: "Нейросеть для чайников"

__username
Автор

Чувак, я хотел создать простой ИИ что бы с кем то болтать, но взломал пентагон, чё делать._.

xncjnqr
Автор

Прекрасные понятные уроки, на очень непростые темы по-простому. Огромное спасибо! Смотрим только вас, потому что у вас реально можно научиться и получить честную информацию!

happychoices
Автор

В общем, надо знать математику хорошо. Расходимся.

HORIZON_OF_GAMES_WORLDS
Автор

Понятно, класс, что так четко объяснено, сейчас по ссылке попробую потренироваться.

gtrzuwz
Автор

Если и рассматривать примеры, на примере таблицы, то можно с уверенностью сказать, что выходной параметр, зависит от совокупности расположения элементов и их последовательностью, т.е тем самым расширить данный урок и показать как они взаимодействуют между собой

abramov.olegator
Автор

Очень хорошая книга для чайника: Тарик Рашид "Создаем нейронную сеть". Понятное объяснение непростой математики, которая лежит в основе нс. На мой взгляд, надо прочитать или посмотреть несколько авторов, тогда сформируется свое понимание. Хауди Хо выражаю благодарность за отличную популяризацию многих полезных вещей!

zerokot
Автор

Комментарии этого видео:
99, 999% - Нихуя не понял, но очень интересно!
0, 001% - мой комментарий.

Sadykhzadeh
Автор

АААОАОАОАОА!!!!
Только в прошлом видео в комментах спросил про создание нейросетей, и .... НОВЫЙ ВИДОС )))
Спасибо хауди)))

Nifacy
Автор

1:54 мой мозг вычислил что :если 1-й столбик 1 и 3-й столбик 1 то на выводе тоже 1. Т. К. не хватило данных о влиянии 2-го столбика на результат. Нужно было добавить в пример 5 : значения 1;1;0. = 1 Ну а в примере 6 уже спрашивать что будет на выходе если на входе 1;0;0 . Или я не прав?

Viktovian
Автор

Все понял на все 100%, спасибо, Хауди!

unknownuser
Автор

Понял 70% информации и было довольно таки интересно:)
Хауди, радуй так ещё чаще:)

SmalON