Meta-Meta-Prompting : Le secret pour rendre les agents IA opérationnels

Meta-Meta-Prompting : Le secret pour rendre les agents IA opérationnels

@garrytan
ANGLAISil y a 5 jours · 09 mai 2026

AI features

1.4M
3.5K
486
129
11.0K

TL;DR

Garry Tan explique son architecture « Fat Skills, Thin Harness » pour les agents IA, en détaillant comment il utilise des outils open-source comme GBrain pour créer une base de connaissances personnelle évolutive et des flux de travail automatisés.

Les gens n'arrêtent pas de me demander pourquoi je passe mes nuits à coder jusqu'à 2h du matin. J'ai un job, et un job important : je suis le PDG de Y Combinator. Chaque année, nous aidons des milliers de créateurs à réaliser leur rêve de bâtir des startups solides, avec un vrai chiffre d'affaires et une croissance rapide.

Ces cinq derniers mois, l'IA a fait de moi un créateur à nouveau. Fin 2023, les outils sont devenus assez bons pour que je me remette à construire. Pas des projets jouets. Des systèmes réels qui cumulent. Je veux vous montrer, avec des exemples concrets, à quoi ressemble une IA personnelle quand on arrête de la traiter comme une fenêtre de chat et qu'on commence à la traiter comme un système d'exploitation. Et je la donne en open source et dans des articles comme celui-ci parce que je veux que vous accélériez avec moi.

Ceci fait partie d'une série : Compétences épaisses, Code épais, Harnais fin a présenté l'architecture de base. Les Résolveurs a couvert la table de routage de l'intelligence. La polémique du LOC expliquait comment chaque technicien s'est multiplié par 100 à 1000. Les modèles nus sont plus bêtes soutenait que le modèle est le moteur, pas la voiture. Et le manifeste skillify expliquait pourquoi LangChain a levé 160 millions de dollars et vous a offert une cage à squats et des haltères sans programme d'entraînement, puis vous a donné ce programme dont vous aviez besoin.

Le livre qui m'a lu en retour

Le mois dernier, je lisais When Things Fall Apart de Pema Chödrön. 162 pages, 22 chapitres sur les approches bouddhistes de la souffrance, de l'absence de fondement et du lâcher-prise. Un ami me l'avait recommandé pendant une période difficile.

J'ai demandé à mon IA de faire un miroir de livre.

Concrètement, ça veut dire quoi ? Le système a extrait les 22 chapitres du livre, puis, pour chaque chapitre, a lancé un sous-agent qui faisait deux choses simultanément : résumer les idées de l'auteur, et ensuite cartographier chaque idée dans ma vie réelle. Pas du blabla générique du genre « ça s'applique aux dirigeants ». Une cartographie spécifique. Il connaît mon histoire familiale (parents immigrés, père de Hong Kong et Singapour, mère de Birmanie). Il connaît mon contexte professionnel (diriger YC, construire des outils open source, encadrer des milliers de fondateurs). Il sait ce que j'ai lu, ce à quoi j'ai pensé à 2h du matin, sur quoi mon thérapeute et moi travaillons.

Le résultat était une page cérébrale de 30 000 mots. Chaque chapitre s'affichait sur deux colonnes : ce que dit Pema, et comment cela se relie à ce que je vis réellement. Le chapitre sur l'absence de fondement était connecté à une conversation spécifique avec un fondateur que j'avais eue la semaine précédente. Le chapitre sur la peur correspondait à des schémas que mon thérapeute avait identifiés. Le chapitre sur le lâcher-prise faisait référence à une session tardive où j'avais écrit sur la liberté créative que j'avais trouvée cette année.

Le tout a pris environ 40 minutes. Un thérapeute à 300 dollars de l'heure lisant ce livre et l'appliquant à ma vie ne pourrait pas faire ça en 40 heures, parce qu'il n'a pas le graphe complet de mon contexte professionnel, de mon historique de lecture, de mes notes de réunion et de mes relations avec les fondateurs, le tout chargé et interréférençable.

J'ai fait ça avec plus de 20 livres maintenant : Amplified (Dion Lim), Autobiographie de Bertrand Russell, Designing Your Life, Drame de l'enfant doué, Finite and Infinite Games, Gift from the Sea (Lindbergh), Siddhartha (Hesse), Steppenwolf (Hesse), The Art of Doing Science and Engineering (Hamming), The Dream Machine, The Book on the Taboo Against Knowing Who You Are (Alan Watts), What Do You Care What Other People Think (Feynman), When Things Fall Apart (Pema Chödrön), A Brief History of Everything (Ken Wilber), et d'autres. Chacun devient plus riche parce que le cerveau devient plus riche. Le deuxième miroir connaissait le premier. Le vingtième connaissait les dix-neuf.

Comment le miroir de livre s'est amélioré par itération

Le premier miroir de livre que j'ai fait était nul. La version 1 contenait trois erreurs factuelles sur ma famille. Il disait que mes parents étaient divorcés alors qu'ils ne le sont pas. Il disait que j'avais grandi à Hong Kong alors que je suis né au Canada. Des trucs basiques qui auraient pu briser la confiance si je les avais partagés.

J'ai donc ajouté une étape obligatoire de vérification des faits. Désormais, chaque miroir passe par une évaluation cross-modale par rapport aux faits connus dans le cerveau avant d'être livré. Opus 4.7 1M détecte les erreurs de précision. GPT-5.5 détecte le manque de contexte. DeepSeek V4-Pro détecte ce qui sonne générique.

Ensuite, je suis passé à la récupération profonde avec l'utilisation d'outils GBrain. La version originale était bonne pour la synthèse mais faible sur la spécificité. La version 3 effectue des recherches cérébrales par section. Chaque entrée de la colonne de droite cite des pages cérébrales réelles. Quand le livre parle de gérer les conversations difficiles, il ne se contente pas de synthétiser des principes généraux. Il puise dans mes notes de réunion réelles avec des fondateurs spécifiques qui avaient des conversations difficiles avec leurs cofondateurs. Ou cette idée que j'ai eue un jeudi en traînant avec mon frère James. Ou la discussion IM que j'ai eue avec mon colocataire d'université quand j'avais 19 ans. C'est troublant.

C'est ce que signifie la skillification (utiliser /skillify dans GBrain) en pratique. J'ai pris la première tentative manuelle, extrait le motif reproductible, écrit un fichier de compétence testé avec des déclencheurs et des cas limites, et chaque correction s'est cumulée sur tous les futurs miroirs de livre.

Des compétences qui construisent des compétences

C'est là que ça devient récursif, et où je pense que se trouve la plus grande idée.

Le système qui gère ma vie n'existait pas comme un monolithe. Il a été assemblé à partir de compétences. Et ces compétences ont elles-mêmes été créées par une compétence.

Skillify est une méta-compétence qui crée de nouvelles compétences. Quand je rencontre un workflow que je vais répéter, je dis « skillify ça » et il examine ce qui vient de se passer, extrait le motif reproductible, écrit un fichier de compétence testé avec des déclencheurs et des cas limites, et l'enregistre dans le résolveur. Le pipeline du miroir de livre a été skillifié dès la première fois que je l'ai fait manuellement. Le workflow de préparation de réunion a été skillifié après que j'ai remarqué que je faisais les mêmes étapes avant chaque appel.

Les compétences se composent. Le miroir de livre appelle brain-ops pour le stockage, enrich pour le contexte, cross-modal-eval pour la qualité, et pdf-generation pour la sortie. Chaque compétence se concentre sur une chose. Elles s'enchaînent pour créer des workflows complexes. Quand j'améliore une compétence, tous les workflows qui l'utilisent s'améliorent automatiquement. Fini le « j'ai oublié de mentionner ce cas limite dans mon prompt ». La compétence s'en souvient.

La réunion qui s'est préparée toute seule

Demis Hassabis est venu à YC pour une causerie au coin du feu. La biographie de Sebastian Mallaby sur lui venait de sortir.

J'ai demandé au système de me préparer.

En moins de deux minutes, il a sorti : la page cérébrale complète de Demis (qui s'accumulait depuis des mois à partir d'articles, de transcriptions de podcasts et de mes propres notes). Ses croyances publiées sur les délais de l'AGI (« 50 % scaling, 50 % innovation », pense que l'AGI est à 5-10 ans). Les points forts de la biographie de Mallaby. Ses priorités de recherche déclarées (apprentissage continu, modèles du monde, mémoire à long terme). Des références croisées à des choses que j'ai dites publiquement sur l'IA. Trois scripts de démonstration pour montrer la capacité de raisonnement multi-sauts du cerveau pendant la conversation. Et un ensemble d'accroches de conversation basées sur les points où nos visions du monde se chevauchent et divergent.

Ce n'était pas juste une meilleure recherche Google. C'était une préparation qui utilisait mon contexte accumulé sur Demis, mes propres positions et les objectifs stratégiques de la conversation. Le système a préparé non seulement des faits, mais aussi des angles.

À quoi ressemblent 100 000 pages de cerveau

Je maintiens une base de connaissances structurée d'environ 100 000 pages. Chaque personne que je rencontre a une page avec une chronologie, une section état (ce qui est vrai actuellement), des fils ouverts et un score. Chaque réunion a une transcription, un résumé structuré et ce que j'appelle la propagation d'entités : après chaque réunion, le système parcourt chaque personne et entreprise mentionnée et met à jour leurs pages cérébrales avec ce qui a été discuté. Chaque livre que je lis a un miroir chapitre par chapitre. Chaque article, podcast et vidéo avec lesquels j'interagis est ingéré, étiqueté et référencé de manière croisée.

Le schéma est simple. Chaque page a : une vérité compilée en haut (la meilleure compréhension actuelle), une chronologie en annexe uniquement en dessous (événements dans l'ordre chronologique), et des side-cars de données brutes pour le matériel source. Considérez ça comme un Wikipedia personnel où chaque page est continuellement mise à jour par une IA qui était à la réunion, a lu l'e-mail, a regardé la conférence et a ingéré le PDF.

Voici un exemple de la façon dont cela se cumule. Je rencontre un fondateur lors des heures de bureau. Le système crée ou met à jour sa page personne, sa page entreprise, croise les notes de réunion, vérifie si je l'ai déjà rencontré (et affiche ce dont nous avons discuté la dernière fois), vérifie les données de sa candidature, récupère ses dernières métriques et identifie si certaines de mes sociétés de portefeuille ou contacts sont pertinents pour son problème. Au moment où j'entre dans la réunion suivante avec lui, le système a un pack de contexte complet prêt.

C'est la différence entre avoir un classeur et avoir un système nerveux. Le classeur stocke les choses. Le système nerveux les connecte, signale ce qui a changé et fait remonter ce qui est pertinent pour le moment présent.

L'architecture

Voici comment ça marche. Je pense que c'est la bonne façon de construire une IA personnelle, et j'ai open-sourcé le tout pour que vous puissiez la construire vous-même.

Le harnais est fin. OpenClaw est l'exécuteur. Il reçoit mes messages, détermine quelle compétence s'applique et dispatch. Quelques milliers de lignes de logique de routage. Il ne sait rien des livres, des réunions ou des fondateurs. Il se contente de router.

Les compétences sont épaisses. Plus de 100 maintenant, chacune un fichier markdown autonome avec des instructions détaillées pour une tâche spécifique. Vous avez déjà vu book-mirror et meeting-prep ci-dessus. En voici quelques autres qui sont livrées avec GBrain :

  • meeting-ingestion : après chaque réunion, il récupère la transcription, crée un résumé structuré, puis parcourt chaque personne et entreprise mentionnée et met à jour leurs pages cérébrales avec ce qui a été discuté. La page de réunion n'est pas le produit final. La propagation d'entités vers chaque page personne et entreprise est la vraie valeur.
  • enrich : donnez-lui un nom de personne. Il puise dans cinq sources différentes, fusionne le tout en une seule page cérébrale avec la carrière, les coordonnées, l'historique des réunions et le contexte relationnel. Sources citées pour chaque affirmation.
  • media-ingest : gère la vidéo, l'audio, le PDF, les captures d'écran, les dépôts GitHub. Transcrit, extrait les entités, classe au bon endroit dans le cerveau. Je l'utilise constamment pour les vidéos YouTube, les podcasts et les mémos vocaux.
  • perplexity-research : recherche web augmentée par le cerveau. Cherche sur le web via Perplexity, mais avant de synthétiser, vérifie ce que le cerveau sait déjà pour pouvoir vous dire ce qui est réellement nouveau par rapport à ce que vous avez déjà capturé.

J'en ai des dizaines d'autres que j'ai construites pour mon propre travail et que je vais probablement open-sourcer : email-triage, investor-update-ingest qui détecte les mises à jour de portefeuille dans mes e-mails et extrait les métriques dans les pages d'entreprise, calendar-check pour la détection de conflits et l'impossibilité de voyage, et toute une pile de recherche journalistique que j'utilise pour le travail civique. Chaque compétence encode une connaissance opérationnelle qui prendrait des mois à un nouvel assistant humain pour apprendre. Quand quelqu'un me demande comment je « prompte » mon IA, la réponse est : je ne le fais pas. Les compétences sont les prompts.

Les données sont épaisses. 100 000 pages de connaissances structurées dans le dépôt cérébral. Chaque personne, entreprise, réunion, livre, article et idée avec lesquels j'ai interagi, tous liés, tous consultables, tous croissants chaque jour.

Le code est épais. Le code qui l'alimente (scripts pour la transcription, l'OCR, l'archivage des réseaux sociaux, la synchronisation du calendrier, les intégrations API) compte aussi, mais les données sont là où réside la valeur cumulée. J'exécute plus de 100 crons par jour qui vérifient toutes les choses : réseaux sociaux, Slack, e-mail, tout ce à quoi je prête attention, mes agents OpenClaw/Hermes regardent aussi pour moi.

Les modèles sont interchangeables. J'utilise Opus 4.7 1M pour la précision. GPT-5.5 pour le rappel et l'extraction exhaustive. DeepSeek V4-Pro pour le travail créatif et les troisièmes perspectives. Groq avec Llamma pour la vitesse. La compétence décide quel modèle appeler pour quelle tâche. Le harnais s'en fiche. Quand quelqu'un demande « quel modèle d'IA est le meilleur », la réponse est : mauvaise question. Le modèle n'est que le moteur. Tout le reste est la voiture.

Le constructeur de 2h du matin et le système cumulatif

Les gens me demandent à propos de la productivité. Je ne vois pas les choses comme ça. Ce à quoi je pense, c'est la cumulation.

Chaque réunion que je prends s'ajoute au cerveau. Chaque livre que je lis enrichit le contexte pour le livre suivant. Chaque compétence que je construis rend le workflow suivant plus rapide. Chaque page personne que je mets à jour rend la préparation de la prochaine réunion plus précise. Le système d'aujourd'hui est 10 fois meilleur qu'il y a deux mois, et dans deux mois, il sera 10 fois meilleur à nouveau.

Quand je suis encore debout à 2h du matin à coder (et je le suis, régulièrement, parce que l'IA m'a rendu la joie de construire), je ne fais pas que écrire du logiciel. J'ajoute à un système qui s'améliore chaque heure. 100 cronjobs 24h/24 et 7j/7. L'ingestion de réunion s'exécute automatiquement. Le tri des e-mails s'exécute toutes les 10 minutes. Le graphe de connaissances s'enrichit de chaque conversation. Le système traite les transcriptions quotidiennes et extrait des schémas que j'ai manqués en temps réel.

Ce n'est pas un outil d'écriture. Ce n'est pas un moteur de recherche. Ce n'est pas un chatbot. C'est un deuxième cerveau qui fonctionne réellement, pas comme une métaphore, mais comme un système en cours d'exécution avec 100 000 pages, plus de 100 compétences, 15 cron jobs et le contexte accumulé de chaque relation professionnelle, réunion, livre et idée avec lesquels j'ai interagi au cours de la dernière année.

J'ai open-sourcé toute la pile. GStack est le framework de compétences de codage (plus de 87 000 étoiles) que j'ai utilisé pour le construire. Je l'utilise toujours comme une compétence à l'intérieur de l'agent OpenClaw/Hermes quand l'agent a besoin de coder. Il y a un excellent navigateur programmable (avec et sans tête) dedans. GBrain est l'infrastructure de connaissances. OpenClaw et Hermes Agent sont les harnais, vous devriez choisir mais je fais généralement les deux. Les dépôts de données sont sur GitHub.

La thèse est simple : l'avenir appartient aux individus qui construisent des systèmes d'IA cumulatifs, pas aux individus qui utilisent des outils d'IA centralisés appartenant à des entreprises. La différence est la différence entre tenir un journal et avoir un système nerveux.

Comment commencer

Si vous voulez construire ça :

  1. Choisissez un harnais. OpenClaw, Hermes Agent, ou construisez le vôtre à partir de zéro avec Pi. Gardez-le fin. Le harnais n'est que le routeur. Hébergez-le sur votre ordinateur de rechange à la maison avec Tailscale, ou utilisez Render ou Railway dans le cloud.
  2. Démarrez un cerveau avec GBrain. J'ai été inspiré par le LLM Wiki de Karpathy, je l'ai implémenté dans OpenClaw et je l'ai étendu en GBrain. C'est le meilleur système de récupération que j'ai benchmarké (97,6 % de rappel sur LongMemEval, battant MemPalace sans LLM dans la boucle de récupération) et il livre 39 compétences installables, y compris tout ce qui est décrit dans cet article. Une seule commande pour installer. Un dépôt git où chaque personne, réunion, article et idée a une page.
  3. Faites quelque chose d'intéressant. Ne commencez pas par planifier votre architecture de compétences. Commencez par faire une chose. Rédigez un rapport. Recherchez une personne. Téléchargez une saison de scores NBA et construisez un modèle de prédiction pour vos paris sportifs. Analysez votre portefeuille. Tout ce qui vous tient vraiment à cœur. Faites-le avec votre agent, itérez jusqu'à ce que ce soit bon, puis exécutez Skillify (la méta-compétence vue plus tôt) pour extraire le motif dans une compétence réutilisable. Ensuite, exécutez check_resolvable pour vérifier que la nouvelle compétence est câblée dans le résolveur. Cette boucle transforme un travail ponctuel en infrastructure cumulative.
  4. Continuez à l'utiliser et regardez le résultat. La compétence sera médiocre au début. C'est le but. Utilisez-la, lisez ce qu'elle produit, et quand quelque chose cloche, exécutez l'évaluation cross-modale : envoyez le résultat à travers plusieurs modèles et demandez-leur de s'évaluer mutuellement sur les dimensions qui vous importent. C'est ainsi que j'ai détecté les erreurs factuelles dans book-mirror. La correction a été intégrée dans la compétence, et depuis, chaque miroir est propre. Dans six mois, vous aurez quelque chose qu'aucun chatbot ne peut reproduire, parce que la valeur n'est pas dans le modèle. Elle est dans ce que vous avez appris au système sur votre vie, votre travail et votre jugement spécifiques.

La première chose que j'ai construite avec ce système était nulle. La centième était quelque chose à qui je confierais mon calendrier, ma boîte de réception, ma préparation de réunion et ma liste de lecture. Le système a appris. J'ai appris. La courbe cumulative est réelle.

Compétences épaisses. Code épais. Harnais fin. Le LLM tout seul n'est qu'un moteur. Vous pouvez construire votre propre voiture.

Tout ce que j'ai décrit ici, toutes les compétences, le pipeline du miroir de livre, le framework d'évaluation cross-modale, la boucle skillify, l'architecture du résolveur, plus plus de 30 skillpacks installables, est open source et gratuit sur GitHub : github.com/garrytan/gbrain. Allez-y, construisez.

More patterns to decode

Recent viral articles

Explore more viral articles

Pensé pour les créateurs.

Trouvez des idées dans les articles viraux sur 𝕏, décodez pourquoi ils ont fonctionné et transformez ces modèles en votre prochain angle de créateur.