Karpathy a partagé en 2026 un pattern simple mais puissant : au lieu d'un RAG classique qui cherche dans tes docs à chaque question, l'IA construit et maintient un vrai wiki qui s'enrichit à chaque nouvelle source. Un vrai deuxième cerveau, qui se compile et s'affine. Je t'explique le concept et comment te le monter.
Sois franc avec toi-même : ce pattern n'est pas pour tout le monde. Voici mon seuil personnel, en fonction du volume de sources que tu comptes accumuler.
C'est disproportionné. Utilise les Projects dans Claude.ai — tu téléverses tes 5-10 documents, tu converses, c'est réglé en 2 minutes. Pas besoin de schema, pas besoin d'Obsidian, pas besoin de Claude Code. Pas besoin de monter une machinerie complexe.
Le bon équilibre arrive quand tu reviens régulièrement dessus. Veille IA, R&D produit, analyse concurrentielle, revue de presse d'un secteur. Si tu ouvres le wiki 1×/semaine minimum, ça vaut la mise en place. Sinon, encore trop tôt.
À ce volume, tu ne retrouves plus ce que tu as accumulé sans wiki. Tu relis 3 fois les mêmes articles. Tu oublies les connexions que tu avais faites. Le wiki devient ton seul moyen de capitaliser. Au-delà de 100 sources, c'est non-négociable.
Le LLM Wiki n'est pas le seul outil qui gère une base de connaissances personnelle avec une IA. Voici la comparaison honnête pour t'aider à trancher.
| Outil | Volume utile | Compétence | Accumule ? | Pour qui |
|---|---|---|---|---|
| Claude Projects | ~50 documents | Zéro (web) | Non — retrieval à chaque question | Non-dev, usage ponctuel, tu démarres |
| NotebookLM | Jusqu'à 300 sources | Zéro (web) | Non | Étude, recherche d'un sujet précis, gratuit |
| Notion AI + agents | Illimité | Faible (no-code) | Partiel | Équipe déjà sur Notion |
| LLM Wiki (Karpathy) | 100 à 500 pages | Claude Code basique | Oui, explicitement | Curieux patient, sujet unique qui grossit |
| GraphRAG (Microsoft) | 10 000+ documents | Dev Python sérieux | Oui (graphe d'entités) | Équipe tech, très gros corpus |
Commence par Claude Projects ou NotebookLM. Tu auras 80% des bénéfices d'un LLM Wiki sans toucher à Claude Code. Quand tu butes sur la limite (volume, accumulation, maintenance), tu migres vers le vrai pattern Karpathy. Pas l'inverse.
Tu connais le fonctionnement classique : tu uploades tes documents dans NotebookLM / ChatGPT / n'importe quel RAG. Tu poses une question. L'IA cherche les extraits pertinents, te répond. Ça marche.
Mais il y a un problème fondamental que Karpathy pointe : rien ne s'accumule. L'IA recommence de zéro à chaque question. Si tu lui poses une question subtile qui nécessite de synthétiser 5 docs, elle doit les retrouver et les recoller à chaque fois. Aucune trace de ce que tu as déjà découvert. Aucune synthèse qui s'améliore. Aucune connexion qui se construit.
L'IA part des documents bruts à chaque question. Elle recrée la synthèse depuis zéro. Rien ne s'affine. Tu dépends 100% de la qualité de la recherche du moment.
L'IA construit un wiki persistant qui s'enrichit à chaque source. Les connexions sont déjà faites. Les contradictions sont déjà notées. La synthèse est déjà prête.
Un RAG classique, c'est comme si tu avais un bibliothécaire qui ne connaît pas les livres, les lit uniquement quand tu poses une question, puis les oublie. Un LLM Wiki, c'est un bibliothécaire qui a lu chaque livre, a pris des notes, fait des fiches, relié les concepts entre eux. Quand tu lui poses une question, il répond depuis sa propre compréhension déjà construite.
Nuance importante : les RAG modernes (GraphRAG de Microsoft, Mem0, Zep) font aussi de l'accumulation. La vraie différence du LLM Wiki, c'est que l'accumulation est explicite et lisible par un humain (du markdown que tu peux ouvrir dans Obsidian), alors que les RAG modernes stockent tout dans des embeddings vectoriels opaques.
Le système repose sur une séparation claire entre ce qui est fixe, ce que l'IA écrit, et ce qui la guide.
Tes documents d'origine : articles, papers, transcripts, captures, PDFs. L'IA les lit mais ne les modifie jamais. C'est ta source de vérité. Tu curates cette couche toi-même.
Un dossier de fichiers markdown que l'IA possède entièrement. Pages d'entités, pages concepts, comparatifs, index, synthèses. Elle crée, met à jour, maintient les cross-références. Toi tu lis, elle écrit.
Un fichier type CLAUDE.md ou AGENTS.md qui définit comment le wiki est organisé, les conventions, les workflows. C'est ce qui transforme ton LLM d'un chatbot générique en mainteneur discipliné du wiki. Tu l'ajustes avec le temps.
L'IA d'un côté, Obsidian de l'autre. L'IA fait les modifs via conversation, tu regardes les résultats dans Obsidian en temps réel (follow links, graph view, pages mises à jour). Analogie : "Obsidian est l'IDE, le LLM est le programmeur, le wiki est le codebase".
Trois actions à maîtriser — tout le reste en découle.
Tu déposes un article, une publication, une transcription. Tu dis à l'IA : "traite cette source". Elle :
Une seule source peut toucher 10-15 pages du wiki. C'est ça le compound effect.
L'IA cherche dans le wiki (pas les documents bruts — le wiki), lit les pages pertinentes, synthétise une réponse avec citations. La réponse peut prendre plusieurs formes : markdown, tableau comparatif, slide deck, graphique.
Le détail clé : une bonne réponse peut être intégrée au wiki comme nouvelle page. Une comparaison intéressante, une analyse, une connexion que tu as trouvée — ça ne disparaît plus dans l'historique de conversation. Ça devient un actif permanent.
C'est l'opération que beaucoup d'articles dérivés oublient — pourtant Karpathy y insiste. Tu demandes à l'IA de vérifier la santé du wiki : liens cassés, doublons, contradictions entre pages, entités mal nommées, incohérences de style.
Sans cette passe, le wiki dérive en silence. Avec elle, il reste propre même à 100 ou 200 pages. Une fois par mois suffit si tu ingestes ~1 source par jour.
Journal, articles que tu as aimés, podcasts écoutés, progression santé, objectifs. L'IA archive chaque entrée et construit une image structurée de qui tu es et où tu vas. Dans 2 ans tu peux demander "qu'est-ce qui a le plus changé dans ma vision du travail ?" et avoir une vraie réponse.
Tu veux maîtriser un domaine (IA, Europe fiscale, physique quantique). Tu ingests 50 papers, 30 articles, 10 podcasts sur plusieurs semaines. Ton wiki devient une référence exhaustive et personnelle sur le sujet. Ta thèse évolue avec chaque source.
Tu lis Seigneur des Anneaux. À chaque chapitre, tu ajoutes le texte. L'IA construit des pages pour les personnages, les lieux, les événements, les thèmes. À la fin, tu as ton propre Tolkien Gateway — riche, interconnecté, personnel.
Un wiki interne alimenté par vos Slack, transcripts de réunions, docs produits, appels clients. L'IA maintient, les humains valident. Le wiki reste à jour parce que personne n'a à le maintenir manuellement.
Tu pitches des investisseurs. Tu veux connaître tes concurrents. Ingests leurs sites, articles, interviews de fondateurs. Ton wiki devient une arme d'intelligence compétitive.
Exemple Julie, agence com 5 personnes. Chaque client = 1 dossier. Dedans tu mets : briefs, comptes-rendus, transcripts Zoom, moodboards, livrables passés. Quand un client t'appelle 6 mois plus tard pour une relance, tu demandes à Claude Code "résume-moi où on en était avec [client]" → il te sort un brief en 20 secondes, sans relire 40 documents. C'est ce qui transforme tes réunions en "je suis préparé" au lieu de "je ne me souviens plus exactement".
C'est un pattern, pas un outil. Pas de pip install. Tu le construis en collaboration avec ton agent IA. Voici la recette minimale :
mkdir mon-wiki cd mon-wiki mkdir sources wiki
sources/ = tes raw docs. wiki/ = ce que l'IA va maintenir.
Un fichier qui dit à l'IA comment travailler. Exemple minimal :
# Wiki Schema Tu es le mainteneur d'un wiki personnel sur [SUJET]. ## Structure - wiki/index.md — vue d'ensemble - wiki/entities/ — personnes, entreprises, outils - wiki/concepts/ — idées, frameworks - wiki/summaries/ — résumés des sources ## Workflow ingest 1. Lis la source 2. Discute-en avec moi 3. Crée un résumé dans wiki/summaries/ 4. Update les entities/concepts touchés 5. Update l'index
claude
Dis : "Lis CLAUDE.md. Je vais te donner ma première source, traite-la selon le workflow.". Dépose ton premier document. L'IA commence à construire ton wiki.
Ouvre wiki/ comme vault Obsidian. Tu peux naviguer dans ton deuxième cerveau en temps réel : graph view, links, recherche.
Claude Code t'affiche les fichiers qu'il lit (wiki/sujets/ia-entreprise.md), les contradictions qu'il détecte (il crée un fichier contradictions.md s'il en trouve), les nouveaux sujets qu'il propose. Tu valides ou tu dis "non, pas ce sujet" — il apprend tes critères dans le schema. À chaque ingest, tu vois défiler en clair : "j'ai lu ta source, j'ai créé summaries/2026-04-podcast-hormozi.md, j'ai mis à jour entities/hormozi.md et concepts/offer-stack.md, j'ai ajouté 1 entrée au log". Rien de magique, tout est traçable.
Ne cherche pas à automatiser tout dès le début. Karpathy insiste : reste impliqué au départ. Lis les résumés de l'IA, corrige-la, guide-la sur ce qui compte. Elle apprend ton style. Ton schema évolue. Plus tard tu pourras batcher. D'abord tu cadres.
Après quelques semaines d'usage, voici ce que tu constates :
Je lance mon premier LLM Wiki ce mois-ci sur "IA appliquée au business". Objectif : en 3 mois, avoir le wiki le plus complet que je pourrai consulter ou partager. Je ferai un tuto dédié avec mon setup précis — inscris-toi à la newsletter si tu veux suivre.
Une info obsolète, un chiffre qui a bougé, une source périmée ? Écris-moi à sagnier.jeremy@gmail.com · je corrige en 48h max et je note la date de MAJ en haut de l'article. Les retours terrain valent mille fois les articles — je lis tout, je réponds.
Je prépare un tuto pas à pas sur mon propre LLM Wiki : quelle stack, quel schema, quelles premières sources. Inscris-toi pour ne pas manquer ça.
Voir les newsletters →