Machine Learning #74 - Support Vector Machines #5 - Nicht lineare SVM und der Kernel Trick

preview_player
Показать описание
In diesem Tutorial geht's um nicht lineare Support Vector Machines (SVM) und den Kernel Trick.

* *Meine Website mit allen anderen Kanälen und Newsletter* *:

_Discord:_

_Unterstützt mich - Danke!:_
Рекомендации по теме
Комментарии
Автор

Ziemlich schlecht erklärt, das ist im höherdimensionalen Raum nicht "quasi linear" getrennt. Unabhängig von der Dimension des Vektorraums in den wir transformieren handelt es sich hier bei der hyperplane (also unserer Trennung) immer um flache, affine Subräume, d.h. in Dimension n-1 und das ist nur dann linear wenn n=2 ist.

Das Video wirkt insgesamt etwas wie der Versuch simpel erklären zu wollen, aber anstelle die Intuition dann simpel zu erklären für Leute die nur das Konzept sehen aber es nicht mathematisch wollen dann doch die Formeln hinpacken, aber nicht gut erklären wo die herkommen (also für Leute die das vorher nicht gesehen haben). Zu dem Thema gibt es einige weit bessere Videos.

andreas
Автор

Hallo, ich würde fragen, in welcher Literaturen bsw. Bücher kann man das Theme so einfach geklärt ist, finden??

merza
Автор

Cedric, ist das dein Ernst? :-D
Füge doch einfach ein Bild ein, wo das dargestellte Phänomen abgebildet ist, bevor du hier deine Picassoskills rausholst. xD

naheliegend
Автор

10:27 wieso brauch man den Betrag? Wird doch eh positiv durch das hoch 2

LB-qrnv