Andrej Karpathy, c'est probablement le meilleur prof d'IA du monde aujourd'hui. Ex-directeur IA chez Tesla, co-fondateur OpenAI. Mais surtout : le seul à prendre le temps de t'expliquer comment tout ça marche vraiment, sans jargon. Je te résume ce qu'il t'apprend — même si tu n'es pas dev.
Karpathy, c'est le parcours le plus impressionnant de l'IA moderne. PhD à Stanford avec Fei-Fei Li. Co-fondateur d'OpenAI en 2015. Directeur IA chez Tesla pendant 5 ans (responsable de l'Autopilot). Puis retour chez OpenAI avant de partir en 2024 pour fonder sa startup Eureka Labs, dédiée à l'éducation IA.
Mais ce qui le rend unique, ce n'est pas son CV. C'est son obsession : rendre l'IA compréhensible pour tout le monde. Pendant que les autres gardent leurs secrets, lui publie des cours YouTube gratuits de 4 heures, ouvre le code sur GitHub, explique comment entraîner un GPT depuis zéro avec un cahier et un stylo.
Je ne suis pas dev. Mais quand Karpathy explique comment fonctionne un LLM, je comprends. Tout devient limpide. C'est le seul à m'avoir fait vraiment saisir ce qui se passe sous le capot de ChatGPT. Après ses vidéos, tu ne prompts plus pareil — tu comprends pourquoi tel prompt marche et tel autre non.
Karpathy dit beaucoup de choses. Voici les 3 idées que, moi, j'en retiens — celles qui m'ont le plus marqué et qui ont changé ma façon de voir l'IA.
La métaphore favorite de Karpathy : un LLM ne "pense" pas, il imite. Il a lu des milliards de pages web et il devine, pour chaque mot, ce qui vient ensuite. Point. Pas de conscience, pas de raisonnement au sens humain — juste une machine à prédire le mot suivant, incroyablement bien calibrée.
Pourquoi c'est utile pour toi : ça explique pourquoi un LLM hallucine (il invente ce qui "sonne juste" même si c'est faux), pourquoi il est meilleur sur les sujets bien représentés dans ses données d'entraînement, et pourquoi un bon prompt lui donne le ton juste dès le départ.
Un LLM ne voit pas des mots. Il voit des tokens — des morceaux de mots. "chat" c'est 1 token, "anticonstitutionnellement" c'est 6 tokens. Chaque token a un coût (temps + argent).
Pourquoi c'est utile pour toi : tu comprends pourquoi certaines langues coûtent plus cher (le français utilise plus de tokens que l'anglais), pourquoi un long prompt avec beaucoup de contexte t'explose ta facture, et pourquoi il vaut souvent mieux résumer que détailler quand tu prompts.
Son concept-phare depuis 2025 (talk YC AI Startup School, juin 2025). Il découpe l'histoire du logiciel en 3 ères : Software 1.0 = on écrit du code, Software 2.0 = on entraîne des réseaux de neurones (on écrit des poids, pas du code), Software 3.0 = on programme les LLM en anglais (ou français). Un prompt bien écrit est un programme.
Pourquoi c'est utile pour toi : tu n'as pas besoin de savoir coder pour "programmer" une IA. Un prompt structuré — contexte, rôle, format, exemples — c'est littéralement du code en français. Les gens qui maîtrisent ça sortent 10× plus de valeur que ceux qui envoient des demandes vagues.
Karpathy évolue vite. Ses concepts récents valent le détour :
Les 3 idées au-dessus, traduites en actions que tu peux lancer cette semaine — peu importe ton métier.
Arrête d'envoyer des prompts à 3 lignes. Écris-les comme un cahier des charges : contexte, rôle, format attendu, exemples. Tes résultats Claude vont changer de niveau. Un prompt de 20 lignes bien structuré te sort un livrable 10× meilleur qu'une demande vague.
Avant de rédiger tes 500 descriptions produits, fais le calcul tokens. 500 descriptions × 2 000 tokens = 1M tokens. À 3$ le million (Claude Sonnet), ça te coûte 3$. Pas 300$. Arrête d'avoir peur du prix — teste, mesure, scale.
Ton équipe dit que Claude "hallucine" ? Normal : il simule. Donne-lui des sources + demande-lui de citer. Il hallucine beaucoup moins quand il sait qu'il doit justifier. Règle maison : pas de réponse sans citation de la source dans le prompt.
Voici son contenu, du plus accessible au plus pointu. Tu n'as pas besoin de tout regarder — choisis ce qui te parle.
Regarde juste Deep Dive into LLMs like ChatGPT (3h31, février 2025) — c'est sa vidéo grand public la plus à jour et la plus complète. Si tu n'as qu'une heure, prends l'Intro to LLMs (1h, 2023). Si ça t'accroche, tu enchaîneras les autres naturellement.
1h d'explication grand public sur "c'est quoi un LLM, comment ça marche, où ça va". Aucune ligne de code. Juste pour comprendre les bases. Si tu dois regarder une seule vidéo de Karpathy, c'est celle-là.
Regarder sur YouTube →2h où il code un mini-GPT en Python depuis zéro, ligne par ligne, en expliquant chaque concept. Tu ressors avec une compréhension technique de comment un GPT fonctionne vraiment. Accessible si tu lis du code simple, pas besoin d'être senior.
Regarder sur YouTube →Une série de 8 vidéos (56 min à 2h25 chacune, ~14h40 au total) qui part de "c'est quoi un neurone" jusqu'à construire GPT-2 complet. La référence absolue pour comprendre l'IA moderne. Intense mais exceptionnelle.
Regarder la playlist →Karpathy poste régulièrement des réflexions sur l'IA, des threads sur ce qu'il teste, des prises de position. Un des comptes les plus denses en signal de l'écosystème. Il est aussi sur GitHub avec nanoGPT, llm.c et plus récemment nanochat (octobre 2025) — un repo qui entraîne un ChatGPT complet pour ~100$ de compute cloud.
Voir son X →(1) Regarde Deep Dive into LLMs (3h31, 2025) en premier — c'est la vidéo grand public la plus à jour. Ou Intro to LLMs (1h, 2023) si tu as moins de temps. (2) Si tu accroches, lance-toi sur Let's build GPT (1h56) pour comprendre techniquement. (3) Et si tu es vraiment passionné, attaque la série Zero to Hero. Pas besoin de tout voir — chaque vidéo est indépendamment utile.
Depuis 2024, Karpathy a quitté OpenAI pour fonder Eureka Labs, une startup qui construit "le premier AI-native school". L'idée : un prof IA qui t'accompagne sur un cours, adapté à ton rythme, avec des retours personnalisés.
Leur premier cours, LLM101n, est en construction publique sur GitHub. Le but : apprendre à construire un LLM depuis zéro, accompagné d'un tuteur IA. Une vision qui matche totalement son obsession — vulgariser l'IA à grande échelle.
Si Eureka Labs réussit, ça change l'éducation. Un prof IA disponible 24/7, gratuit ou quasi, qui s'adapte à ton niveau — c'est exactement ce que beaucoup de gens attendent. Karpathy construit actuellement LLM101n : Let's Build a Storyteller, un cours complet sur comment construire un LLM de A à Z. Il partage l'avancée en public sur GitHub. Pas de date de sortie officielle, mais tout le travail est visible en live sur son repo.
Une info obsolète, un chiffre qui a bougé, une source périmée ? Écris-moi à sagnier.jeremy@gmail.com · je corrige en 48h max et je note la date de MAJ en haut de l'article. Les retours terrain valent mille fois les articles — je lis tout, je réponds.
J'ai prévu d'autres vulgarisations : Yann LeCun, Ilya Sutskever, les transformers. Si tu ne veux pas les louper, inscris-toi à ma newsletter AI Playbook — chaque nouveau tuto y atterrit.
Voir les newsletters →