J'ai essayé de recoder ChatGPT. Voilà ce que j'ai appris...

preview_player
Показать описание

Рекомендации по теме
Комментарии
Автор

Est-ce que vous utilisez kubernertes ? Comment vous gérez l'autoscaling ?

cocadmin
Автор

Mec, c'est incroyable la quantité d'infos et de concepts que tu as synthétisés dans cette vidéo sans la rendre indigeste. Keep on with the good work!

Goygle
Автор

Travail exceptionnel, merci pour ces explications et bravo pour le travail. En plus d'être informatif, le contenu est très agréable à suivre. Heureux de découvrir cette chaîne aujourd'hui.

ludovicgardy
Автор

Salut Cocadmin, j'ai découvert ta chaîne ces jours ci et j'adore !!
Tu as exactement ce qui manque à Chatgpt pour prétendre à l'intelligence, comme la perception du contexte, la vision haute, l'intuition et la mémoire du fil de conversation.
J'en ai d'ailleurs "parlé" avec lui et nous sommes tombés d'accord.
En fait pour prendre une analogie, chatgpt, c'est un peu comme un maçon, il sait assembler des blocs très bien, mais construire une maison, il en est incapable car il n'a pas idée du contexte, il ne comprend pas l'objectif ni l'usage attendu. Bref, il a conscience de ses propres limites, ce qui est déjà bluffant.
On pourrait dire qu'il ressemble à ce qu'on attend des employés d'une entreprise : faire plutôt que comprendre, ce qui amène souvent à faire n'importe quoi...
Néanmoins, la perte de conscience progressive des humains occidentaux devrait permettre bientôt à chatgpt de faire aussi mal qu'un humain occidental 🤔

olivierdiamy
Автор

Excellente vidéo ! Je travaille actuellement sur les transformers, mais spécifiquement dans le domaine de la classification d'images pour mon mémoire et je tiens à souligner la qualité exceptionnelle de vos explications.

brabeatz
Автор

Comme d'habitude, une masterclass de ta part.
Tu devrais franchement faire + de vues

hugoremy
Автор

Je tombe par hasard sur votre vidéo... et quelle bonne surprise, sûrement la meilleure à ce jour en termes d'explications.

Maintenant on peut commencer à argumenter pourquoi il va être compliqué d'avoir des modèles de langage qui développent comme des experts. Si on veut un modèle de langage qui soit plus performant par un facteur X (notion de performance restant à définir), quel est le facteur Y sur le besoin en infrastructure? Quel est le facteur Z pour la taille des données d'apprentissage ?

Je ne dis pas que ce n'est pas possible d'avoir des IA globales ou meilleures que le meilleur des experts humains. Mais quelle est la relation entre X, Y, et Z ? Logarithmique ? Linéaire ? Quadratique ? Exponentielle ? Si il faut multiplier par 10 la taille des infrastructures pour augmenter d'un facteur 2 la puissance d'un modèle de langage, on voit vite qu'il y a un problème. De même pour les données d'apprentissage.

chipsonsteroids
Автор

Le montage est super bien fait 👌🏽
Quelle ascension ! Force à toi 💪🏽

MyChannel
Автор

Au sujet du grand remplacement: dans mon entreprise tous les outils se basant sur les outils deep learning & co sont bannis pour des raisons de confidentialité et de propriété intellectuelle.

Pour faire mon dinosaure: il y a des années de ca les premiers IDE devaient remplacer les devs experts pour que des devs juniors puissent avoir la meme productivité. Puis les méthodes de conception merise, uml & co devaient elles aussi se débarrasser des devs pour se focaliser sur le design puis faire de la génération de code automatique. Puis les languages à base de machines virtuelles devaient permettre de faciliter le développement en ne demandant plus aux devs de savoir comment marche la mémoire ou le cpu. Puis les nouveaux IDE ont automatisés pas mal de choses (cf. Intelij qui s'occupe d'un peu tout) tout en améliorant l'existant (complétion contextuelle, refactoring, ...). Bref les devs sont toujours là (et le niveau des juniors est clairement plus faible qu'il y a 10 ans la faute à des programmes d'études ultra chargés: tout voir mais ne rien vraiment connaître) mais clairement l'IA dans les prochaines années va automatiser pas mal de choses et tout ceux qui ont actuellement un poste sans connaissances ultra technique et/ou fonctionnelles/métier vont subir le changement.
De temps en temps je regarde une image en noir et blanc qui date de l'éclatement de la bulle internet "will code for html for food". Dans les années 90 toutes les grandes boites internet de la Silicon Valley (Yahoo, ...) utilisaient des armées de dev html... qui ne connaissaient pas grand chose d'autres. Quand les plateformes sont passés à du code généré (jsp, php, ...) ils ont virés ces milliers de personnes du jour au lendemain. A méditer...

pandaDotDragon
Автор

Très bonne vidéo de vulgarisation sur le sujet, avec une présentation et un montage bien soignés. J’aime beaucoup ton approche.

Quelques petites précisions/ remarques :

- 124 millions de paramètres c’est pour la version small de GPT-2. Quand on le mentionne sans préciser on parle plutôt de celui a 1, 5 milliards.
- Pour les paramètres de GPT-4, je ferais preuve de prudence au moment de parler chiffres. Même si les sources peuvent paraître crédibles, OpenAI a déjà menti par le passé et on sait pas s’ils utilisent tous les supposés modèles en même temps etc.
- GPT 3/3.5 peuvent avoir jusqu’à 4096 tokens dans leur fenêtre de contexte, et pas 2000. Même si lorsqu’on utilise la web app il y a déjà une partie utilisée par OpenAI avec leur prompt.

ninohdasilva
Автор

Vous êtes incroyable, continuez comme ça !!!

ViaFreshClix
Автор

J'ai appris beaucoup vraiment top cette video, une petite demos de ce qu'est le fine-tuning et les models LLM en open source sur huggingface serait fort instructif
en tout cas merci pour cette video passionnante et de qualité

fredrichstrasse
Автор

tu es un des rares youtubeurs que je mets en pause pour digérer lol
super synthèse, illustrée surtout car sinon trop de blabla .. mais ici c'est super blabla de qualité :)
tu es meilleur que IA .. pour l'instant

nouveau abonné gagné tu as
longue vie chaîne youtube tu auras
avec toi la Force sera

texte authentique certifié non IA

( des formats concentré de moins de 15min c'est super, great great job ! )

daovietpro
Автор

Super boulot et des explications parfaitement claires. Félicitations !

landwillys
Автор

Cette vidéo à le niveau de détail parfait pour une introduction technique à l'IA et aux LLM.

Ça souligne les grands concepts mais ça reste concis, et ça pointe vers des resources si on veut reproduire soi-même.

Merci !

Dragnalith
Автор

Avec Kubernetes, l'autoscaling peut être géré en utilisant la fonctionnalité intégrée d'autoscaling horizontal (Horizontal Pod Autoscaler, HPA). L'HPA permet à Kubernetes d'ajuster automatiquement le nombre de répliques de pods (instances) en fonction de la charge de travail du cluster. Cela permet d'assurer que les applications sont toujours correctement dimensionnées pour faire face aux fluctuations de la demande. Par exemple, si tu gères l'autoscaling avec Kubernetes en utilisant l'Horizontal Pod Autoscaler, voici comment procéder : Tout d'abord, tu dois spécifier les métriques en fonction desquelles Kubernetes doit effectuer l'autoscaling. Il peut s'agir de métriques telles que l'utilisation du CPU, l'utilisation de la mémoire, ou des métriques personnalisées que tu as définies. Ces métriques seront utilisées pour évaluer la charge de travail du cluster. Tu dois spécifier les seuils de déclenchement pour l'autoscaling. Par exemple, tu peux définir un seuil d'utilisation du CPU de 70 %. Lorsque l'utilisation du CPU dépasse ce seuil, Kubernetes déclenchera l'autoscaling pour ajouter de nouvelles répliques de pods. Une fois que tu as configuré les métriques et les seuils, Tu peux créer un objet HPA dans Kubernetes en spécifiant les détails de l'autoscaling, tels que le nombre minimal et maximal de répliques de pods que tu souhaites. Une fois que l'HPA est en place, Kubernetes surveille en permanence les métriques spécifiées pour évaluer la charge de travail. Si les seuils sont atteints ou dépassés, Kubernetes ajustera automatiquement le nombre de répliques de pods en conséquence. L'utilisation de l'Horizontal Pod Autoscaler dans Kubernetes facilite grandement la gestion de l'autoscaling, car il s'occupe automatiquement d'ajuster le nombre de répliques de pods en fonction de la charge de travail, ce qui permet de maintenir les performances et de faire des économies de ressources lorsque la demande diminue. J'espère t'avoir aidé! Ciao!

CARRINGTN
Автор

Incroyable boulot! Tu gères. merci beaucoup !

benjaminanthone
Автор

Excellente vidéo très complète et bien expliquée, bravo!

nathn
Автор

Et d'avoir une sorte de super IA open source et en peer to peer, genre un peu comme les torrent, ou la blockchaine, mais en gros chaque personne telecharge une application sur son PC pour entrainer UNE SEUL MEME IA collective

imgrootuwu
Автор

Super merci, plein de réponses à mes questions sur les LLM, c'est cool !
dire qu'on a Pi sur le tél désormais et c'est une IA très sympatoche, presque une amie ^^
MERCI ...Abonné, trop fort et trop cool tu es..Bravo pour ton travail et ton partage👌👍

benben