La bidouille non-linéaire (kernel trick) | Intelligence Artificielle 10

preview_player
Показать описание
La régression et la classification linéaire, parfois, ça ne marche pas. Quand c'est le cas, il existe une astuce pour garantir le fait que ça marche. C'est astuce, c'est la bidouille non-linéaire.

Moi en podcast avec Mr Phi :

De quoi le succès d’une chaîne Youtube de vulgarisation dépend-il ? Science Étonnante

Le deep learning | Science Étonnante

Support Vector Machine (SVM) | Wandida

The Kernel Trick for SVM | Wandida

Technical Aspects of Kernel Trick | Wandida

I.M.C "Être gros" | Risque Alpha

Les indicateurs de position | Risque Alpha

Le théorème central limite | La statistique expliquée à mon chat

La crise de l'€ part 04 : l'amour du risque | Heu?reka

Linguistique causale | Axiome 7
Рекомендации по теме
Комментарии
Автор

Cette série est vraiment exceptionnelle de qualité ! YouTube te doit tout Imo!

Pitié Lê 🙏, ne t’arrête pas !!

StfStar
Автор

j'ai découvert ta chaine il y a un mois et j'ai vu presque toute tes vidéos. J'ADORE !
Et même si je capte pas toujours tout, comme tu dis c'est pas grave, ça n'empêche pas de trouver toute ces astuces très très très jolies, voir parfois même d'une grande beauté.
C'est vraiment cool que tu nous donne a voir tout ça. Un grand bravo et un grand merci.

stephanenoel
Автор

Je suis étudiant en statistique mais je n'avais pas pensé à certaines limites pour l'interprétation de la régression linéaire. Très instructif !

avrilloj
Автор

Toujours aussi plaisant à regarder ! Je suis en DUT informatique et c'est un pur régal (on fait beaucoup d'algèbre linéaire)

wellan
Автор

Merci de t'inquièter de mon incompréhension. En fait, en pratique, tout tes vidéos me dépasse un peu. Malgré tout merci de me distraire avec les maths, je me sens chaque fois un peu plus intelligent meme si les calculs différentiel et intégral sont loin derrière moi. Toujours un plaisir

simondesjardins
Автор

Un énorme j aime pour votre effort. Bcp de points se sont éclaissit . Merci

sisialg
Автор

La totalité de tes videos sont geniales. J ai toujours regretté d avoir arreté les math apres un DUT mais grace à toi j ai l impression d avoir suivis des cours particuliers. J espere que tu trouvera la force/le temps/l envie/ autre car t es d utilité public. Merci

zemetafyzik
Автор

Hello, comme d'habitude tes vidéos sont intéressantes, et nous font voir les concepts sous un nouvel œil. Je sais que tu es bayésien (tes vidéos et podcasts le laisse savoir), après avoir écouté Stanislas Dehaene, il semble que le sujet soit fécond et très intéressant. Peut-être feras tus une vidéo sur le machine learning bayésien un de ces quatre ;)
Bonne continuaition.

jeanmichelsarr
Автор

Il faut aussi garder a l'esprit que pour parer aux complications causées a la fois par la méthode des moindres carrés et la surinterprétation, il est toujours possible d'éffectuer de l’échantillonnage (K-fold method) afin de faire la moyenne des modèles prédits.

Vampfire
Автор

super vidéo mec, continue ce que tu fais !

MonCompteTubulaire
Автор

effectivement, comme la dit George Box : "tous les modéles sont faux, mais certains sont utiles"

thomascollonville
Автор

Il s'agit clairement des SVM, à préciser que seuls les vecteurs de support (les points les plus proches de l'hyperplan) sont nécessaires pour générer l'hyperplan séparateur et ça c'est cool (nombre d'échantillons assez faibles mais nécessairement pertinents)

thibaulddelrieu
Автор

Quelqu'un saurait où est-ce qu'on pourrait trouver une version plus formalisée des théorèmes évoqués à 5:55 /6:00 ?

denisjoly
Автор

En effet tu avais raison quand tu dit que les puristes n'aimerait pas ça... Les approximations linéaires me rend dingue hahah. Même si je suis un économetre plus que un puristes.

TheAvenger
Автор

a mon avis si on a pas les bases en ML et DL, tes objections tres interessantes au passage, sont carrement imbitable lol

thomascollonville
Автор

Je te trouve un peu dur avec Gabriel Frey, car prendre deux droites pour le XOR c'est exactement ce que va faire un arbre de décision, et ce principe est généralisable, juste qu'au lieu de prendre des droites on prend des morceaux de droites, et le Random Forest qui est une évolution des arbres de décision est très à la mode en ce moment.

pierreswing
Автор

c'est relativement simple à utiliser, c'est juste pour visualiser un peut comment ça marche.
(posté sur la vidéo précédante par Redswap)

paulamblard
Автор

Le sujet de ta prochaine vidéo est passionnant je l attends avec impatience 🤗

hannibalateam
Автор

depuis que je connais ta chaîne, ma consommation d'aspirine suit une exponentielle ;)

danielplatteau
Автор

Cimer encore encore et encore pour toutes tes vidéos :)

tearexisnotdead