Meta-Meta-Prompting: Il segreto per far funzionare gli agenti AI

Meta-Meta-Prompting: Il segreto per far funzionare gli agenti AI

@garrytan
INGLESE5 giorni fa · 09 mag 2026

AI features

1.4M
3.5K
486
129
11.0K

TL;DR

Garry Tan spiega la sua architettura "Fat Skills, Thin Harness" per gli agenti AI, illustrando come utilizza strumenti open source come GBrain per creare una base di conoscenza personale in continua crescita e flussi di lavoro automatizzati.

La gente continua a chiedermi perché passo le mie notti a programmare fino alle 2 del mattino. Ho un lavoro, e un lavoro importante, come CEO di Y Combinator. Aiutiamo migliaia di creatori ogni anno a realizzare i loro sogni di costruire startup vere, con entrate reali e crescita rapida.

Negli ultimi 5 mesi, l'AI mi ha reso di nuovo un costruttore. Alla fine dell'anno scorso, gli strumenti sono diventati abbastanza buoni da farmi tornare a costruire. Non progetti giocattolo. Sistemi reali che si accumulano. Voglio mostrarti, con esempi concreti, cosa significa realmente un'AI personale quando smetti di trattarla come una finestra di chat e inizi a trattarla come un sistema operativo. E lo regalo come open source e in articoli come questo perché voglio che tu acceleri con me.

Questo fa parte di una serie: Fat Skills, Fat Code, Thin Harness ha introdotto l'architettura principale. Resolvers ha coperto la tabella di routing per l'intelligenza. The LOC Controversy parlava di come ogni tecnico si sia moltiplicato per 100x o 1000x. Naked models are stupider sosteneva che il modello è il motore, non l'auto. E the skillify manifesto spiegava perché LangChain ha raccolto 160 milioni di dollari e ti ha dato un rack per squat e un set di manubri senza un programma di allenamento, e poi ti ha dato quel programma di allenamento di cui avevi bisogno.

Il Libro Che Mi Ha Letto Dentro

Il mese scorso stavo leggendo "When Things Fall Apart" di Pema Chödrön. Sono 162 pagine, 22 capitoli sugli approcci buddisti alla sofferenza, alla mancanza di fondamenta e al lasciar andare. Un amico me lo ha consigliato durante un periodo difficile.

Ho chiesto alla mia AI di fare un mirror del libro.

Cosa significa concretamente: Il sistema ha estratto tutti i 22 capitoli del libro e, per ogni capitolo, ha eseguito un sotto-agente che faceva due cose simultaneamente: riassumeva le idee dell'autore e poi mappava ogni idea alla mia vita reale. Non robaccia generica del tipo "questo si applica ai leader". Mappatura specifica. Conosce la mia storia familiare (genitori immigrati, papà da Hong Kong e Singapore, mamma dalla Birmania). Conosce il mio contesto professionale (dirigere YC, costruire strumenti open-source, fare da mentore a migliaia di fondatori). Sa cosa ho letto, a cosa ho pensato alle 2 di notte, su cosa stanno lavorando i miei terapeuti e io.

Il risultato è stata una pagina cerebrale di 30.000 parole. Ogni capitolo era reso come due colonne: cosa dice Pema, e come si collega a ciò che sto realmente vivendo. Il capitolo sulla mancanza di fondamenta si collegava a una conversazione specifica con un fondatore che avevo avuto la settimana prima. Il capitolo sulla paura si mappava a schemi che il mio terapeuta aveva identificato. Il capitolo sul lasciar andare faceva riferimento a una sessione notturna in cui avevo scritto della libertà creativa che avevo trovato quest'anno.

L'intera operazione ha richiesto circa 40 minuti. Un terapeuta da 300 dollari l'ora che leggesse questo libro e lo applicasse alla mia vita non potrebbe farlo in 40 ore, perché non ha il grafo completo del mio contesto professionale, della mia storia di letture, dei miei appunti delle riunioni e delle mie relazioni con i fondatori, tutto caricato e collegabile.

L'ho fatto con oltre 20 libri ormai: Amplified (Dion Lim), Autobiografia di Bertrand Russell, Designing Your Life, Drama of the Gifted Child, Finite and Infinite Games, Gift from the Sea (Lindbergh), Siddhartha (Hesse), Steppenwolf (Hesse), The Art of Doing Science and Engineering (Hamming), The Dream Machine, The Book on the Taboo Against Knowing Who You Are (Alan Watts), What Do You Care What Other People Think (Feynman), When Things Fall Apart (Pema Chodron), A Brief History of Everything (Ken Wilber) e altri ancora. Ognuno diventa più ricco perché il cervello diventa più ricco. Il secondo mirror conosceva il primo. Il ventesimo conosceva tutti e diciannove.

Come Book-Mirror è Migliorato con l'Iterazione

Il primo mirror di un libro che ho fatto è stato terribile. La Versione 1 aveva tre errori fattuali sulla mia famiglia. Diceva che i miei genitori erano divorziati quando non lo erano. Diceva che ero cresciuto a Hong Kong quando sono nato in Canada. Cose basilari che avrebbero potuto danneggiare la fiducia se le avessi condivise.

Quindi ho aggiunto un passaggio obbligatorio di fact-check. Ogni mirror ora esegue una valutazione cross-modale rispetto ai fatti noti nel cervello prima di essere pubblicato. Opus 4.7 1M coglie gli errori di precisione. GPT-5.5 coglie il contesto mancante. DeepSeek V4-Pro coglie quando qualcosa suona generico.

Poi sono passato al recupero profondo con l'uso dello strumento GBrain. La versione originale era brava nella sintesi ma debole nella specificità. La Versione 3 esegue ricerche cerebrali per sezione. Ogni voce nella colonna di destra cita pagine cerebrali reali. Quando il libro parla di come gestire conversazioni difficili, non sintetizza solo principi generali. Recupera dai miei appunti di riunioni reali con fondatori specifici che stavano avendo conversazioni difficili con i co-fondatori. O da quell'idea che ho avuto un giovedì uscendo con mio fratello James. O dalla chat IM che ho avuto con il mio compagno di stanza del college quando avevo 19 anni. È inquietante.

Questo è cosa significa skillification (usare /skillify in GBrain) nella pratica. Ho preso il primo tentativo manuale, estratto lo schema ripetibile, scritto un file di skill testato con trigger e casi limite, e ogni correzione si è accumulata su tutti i futuri mirror di libri.

Skill Che Costruiscono Skill

Qui è dove diventa ricorsivo, e dove penso ci sia l'intuizione più grande.

Il sistema che gestisce la mia vita non esisteva come monolite. È stato assemblato da skill. E quelle skill sono state a loro volta create da una skill.

Skillify è una meta-skill che crea nuove skill. Quando incontro un flusso di lavoro che ripeterò, dico "skillifica questo" ed esamina cosa è appena successo, estrae lo schema ripetibile, scrive un file di skill testato con trigger e casi limite, e lo registra nel resolver. La pipeline book-mirror è stata skillificata dalla prima volta che l'ho fatta manualmente. Il flusso di lavoro meeting-prep è stato skillificato dopo che ho notato che stavo facendo gli stessi passaggi prima di ogni chiamata.

Le skill si compongono. Book-mirror chiama brain-ops per l'archiviazione, enrich per il contesto, cross-modal-eval per la qualità e pdf-generation per l'output. Ogni skill è focalizzata su una cosa. Si incatenano per creare flussi di lavoro complessi. Quando miglioro una skill, ogni flusso di lavoro che la usa migliora automaticamente. Niente più "ho dimenticato di menzionare questo caso limite nel mio prompt". La skill se lo ricorda.

La Riunione Che Si È Preparata Da Sola

Demis Hassabis è venuto a YC per un fireside chat. La biografia di Sebastian Mallaby su di lui era appena uscita.

Ho chiesto al sistema di prepararmi.

In meno di due minuti ha recuperato: la pagina cerebrale completa di Demis (che si era accumulata per mesi da articoli, trascrizioni di podcast e miei appunti). Le sue convinzioni pubblicate sulle tempistiche dell'AGI ("50% scaling, 50% innovazione", pensa che l'AGI sia a 5-10 anni di distanza). I punti salienti della biografia di Mallaby. Le sue priorità di ricerca dichiarate (apprendimento continuo, modelli del mondo, memoria a lungo termine). Riferimenti incrociati a cose che ho detto pubblicamente sull'AI. Tre script dimostrativi per mostrare la capacità di ragionamento multi-hop del cervello durante la conversazione. E una serie di agganci conversazionali basati su dove le nostre visioni del mondo si sovrappongono e divergono.

Non era solo una ricerca Google migliore. Era una preparazione che usava il mio contesto accumulato su Demis, le mie posizioni e gli obiettivi strategici per la conversazione. Il sistema ha preparato non solo fatti, ma anche angolazioni.

Com'è un Cervello di 100.000 Pagine

Mantengo una base di conoscenza strutturata con circa 100.000 pagine. Ogni persona che incontro ha una pagina con una timeline, una sezione sullo stato (cosa è vero attualmente), thread aperti e un punteggio. Ogni riunione ha una trascrizione, un riepilogo strutturato e qualcosa che chiamo propagazione delle entità: dopo ogni riunione, il sistema esamina ogni persona e azienda menzionata e aggiorna le loro pagine cerebrali con ciò che è stato discusso. Ogni libro che leggo ha un mirror capitolo per capitolo. Ogni articolo, podcast e video con cui interagisco viene inserito, taggato e collegato.

Lo schema è semplice. Ogni pagina ha: verità compilata in cima (la migliore comprensione attuale), una timeline append-only sotto (eventi in ordine cronologico) e sidecar di dati grezzi per il materiale originale. Pensala come una Wikipedia personale dove ogni pagina viene continuamente aggiornata da un'AI che era alla riunione, ha letto l'email, ha guardato il discorso e ha inserito il PDF.

Ecco un esempio di come questo si accumula. Incontro un fondatore durante l'orario di ricevimento. Il sistema crea o aggiorna la sua pagina personale, la pagina della sua azienda, collega gli appunti della riunione, controlla se l'ho già incontrato prima (e mostra cosa abbiamo discusso l'ultima volta), controlla i dati della sua candidatura, recupera le sue metriche più recenti e identifica se qualche mia azienda in portafoglio o contatto è rilevante per il suo problema. Quando entro nella riunione successiva con lui, il sistema ha un pacchetto di contesto completo pronto.

Questa è la differenza tra avere un archivio e avere un sistema nervoso. L'archivio immagazzina cose. Il sistema nervoso le collega, segnala cosa è cambiato e mostra cosa è rilevante per il momento presente.

L'Architettura

Ecco come funziona. Penso che questo sia il modo giusto per costruire un'AI personale, e ho reso open source il tutto così puoi costruirlo da solo.

L'imbracatura è sottile. OpenClaw è il runtime. Riceve i miei messaggi, capisce quale skill si applica e li smista. Poche migliaia di righe di logica di routing. Non sa nulla di libri, riunioni o fondatori. Si limita a instradare.

Le skill sono grasse. Più di 100 ormai, ognuna un file markdown autonomo con istruzioni dettagliate per un compito specifico. Hai già visto book-mirror e meeting-prep sopra. Ecco alcune altre che vengono fornite con GBrain:

  • meeting-ingestion: Dopo ogni riunione, recupera la trascrizione, crea un riepilogo strutturato, poi esamina ogni persona e azienda menzionata e aggiorna le loro pagine cerebrali con ciò che è stato discusso. La pagina della riunione non è il prodotto finale. La propagazione delle entità a ogni pagina di persona e azienda è il vero valore.
  • enrich: Dai un nome di persona. Recupera da cinque fonti diverse, unisce tutto in un'unica pagina cerebrale con carriera, informazioni di contatto, cronologia delle riunioni e contesto relazionale. Fonti citate per ogni affermazione.
  • media-ingest: Gestisce video, audio, PDF, screenshot, repository GitHub. Trascrive, estrae entità, archivia nella giusta posizione cerebrale. Lo uso costantemente per video YouTube, podcast e memo vocali.
  • perplexity-research: Ricerca web potenziata dal cervello. Cerca sul web tramite Perplexity, ma prima di sintetizzare, controlla cosa il cervello già sa così può dirti cosa è realmente nuovo rispetto a ciò che hai già catturato.

Ne ho dozzine altre che ho costruito per il mio lavoro e che probabilmente renderò open source: email-triage, investor-update-ingest che rileva gli aggiornamenti del portafoglio nella mia email ed estrae le metriche nelle pagine aziendali, calendar-check per il rilevamento di conflitti e impossibilità di viaggio, e un intero stack di ricerca giornalistica che uso per il lavoro civico. Ogni skill codifica conoscenza operativa che richiederebbe mesi a un nuovo assistente umano per imparare. Quando qualcuno mi chiede come "prompto" la mia AI, la risposta è: non lo faccio. Le skill sono i prompt.

I dati sono grassi. 100.000 pagine di conoscenza strutturata nel repository del cervello. Ogni persona, azienda, riunione, libro, articolo e idea con cui ho interagito, tutti collegati, tutti ricercabili, tutti in crescita ogni giorno.

Il codice è grasso. Anche il codice che lo alimenta (script per trascrizione, OCR, archiviazione social media, sincronizzazione calendario, integrazioni API) è importante, ma i dati sono dove risiede il valore composto. Eseguo più di 100 cron al giorno che controllano tutte le cose: social media, Slack, email, qualsiasi cosa a cui presti attenzione, anche i miei Agenti OpenClaw/Hermes lo guardano per me.

I modelli sono intercambiabili. Uso Opus 4.7 1M per la precisione. GPT-5.5 per il richiamo e l'estrazione esaustiva. DeepSeek V4-Pro per il lavoro creativo e le terze prospettive. Groq con Llamma per la velocità. La skill decide quale modello chiamare per quale compito. L'imbracatura non si preoccupa. Quando qualcuno chiede "quale modello AI è il migliore", la risposta è: domanda sbagliata. Il modello è solo il motore. Tutto il resto è l'auto.

Il Costruttore delle 2 di Notte e il Sistema che si Accumula

La gente mi chiede della produttività. Non la vedo in quel modo. Quello a cui penso è l'accumulo.

Ogni riunione che faccio si aggiunge al cervello. Ogni libro che leggo arricchisce il contesto per il libro successivo. Ogni skill che costruisco rende più veloce il flusso di lavoro successivo. Ogni pagina di persona che aggiorno rende più precisa la preparazione della riunione successiva. Il sistema oggi è 10 volte quello di due mesi fa, e tra due mesi sarà di nuovo 10 volte.

Quando sono ancora sveglio alle 2 di notte a programmare (e lo sono, regolarmente, perché l'AI mi ha restituito la gioia di costruire), non sto solo scrivendo software. Sto aggiungendo a un sistema che migliora ogni ora. 100 cronjob 24 ore su 24, 7 giorni su 7. L'ingestione delle riunioni viene eseguita automaticamente. Il triage delle email viene eseguito ogni 10 minuti. Il grafo della conoscenza si arricchisce da ogni conversazione. Il sistema elabora le trascrizioni quotidiane ed estrae schemi che mi sono persi in tempo reale.

Questo non è uno strumento di scrittura. Non è un motore di ricerca. Non è un chatbot. È un secondo cervello che funziona davvero, non come metafora, ma come sistema in esecuzione con 100.000 pagine, oltre 100 skill, 15 cron job e il contesto accumulato di ogni relazione professionale, riunione, libro e idea con cui ho interagito nell'ultimo anno.

Ho reso open source l'intero stack. GStack è il framework di skill di programmazione (oltre 87.000 stelle) che ho usato per costruirlo. Lo uso ancora come skill all'interno dell'Agente OpenClaw/Hermes quando l'agente ha bisogno di programmare. C'è un ottimo browser programmabile (sia con testa che senza) lì dentro. GBrain è l'infrastruttura di conoscenza. OpenClaw e Hermes Agent sono le imbracature, dovresti scegliere ma di solito uso entrambe. I repository dei dati sono su GitHub.

La tesi è semplice: il futuro appartiene agli individui che costruiscono sistemi di AI che si accumulano, non agli individui che usano strumenti di AI centralizzati di proprietà aziendale. La differenza è la differenza tra tenere un diario e avere un sistema nervoso.

Come Iniziare

Se vuoi costruire questo:

  1. Scegli un'imbracatura. OpenClaw, Hermes Agent, o costruiscine una tua da zero con Pi. Mantienila sottile. L'imbracatura è solo il router. Ospitala sul tuo computer di riserva a casa con Tailscale, o usa Render o Railway nel cloud.
  2. Inizia un cervello con GBrain. Mi sono ispirato al LLM Wiki di Karpathy, l'ho implementato in OpenClaw e l'ho esteso in GBrain. È il miglior sistema di recupero che ho benchmarkato (97,6% di richiamo su LongMemEval, battendo MemPalace senza LLM nel ciclo di recupero) e include 39 skill installabili, inclusa tutto ciò che è descritto in questo articolo. Un comando per installare. Un repository git dove ogni persona, riunione, articolo e idea ha una pagina.
  3. Fai qualcosa di interessante. Non iniziare pianificando la tua architettura di skill. Inizia facendo una cosa. Scrivi un report. Fai ricerche su una persona. Scarica una stagione di punteggi NBA e costruisci un modello predittivo per le tue scommesse sportive. Analizza il tuo portafoglio. Qualunque cosa ti interessi davvero. Fallo con il tuo agente, itera finché non è buono, poi esegui Skillify (la meta-skill di prima) per estrarre lo schema in una skill riutilizzabile. Poi esegui check_resolvable per verificare che la nuova skill sia collegata al resolver. Quel ciclo trasforma il lavoro una tantum in infrastruttura che si accumula.
  4. Continua a usarlo e guarda l'output. La skill sarà mediocre all'inizio. Questo è il punto. Usala, leggi cosa produce, e quando qualcosa non va, esegui cross-modal eval: invia l'output attraverso più modelli e falli valutare a vicenda sulle dimensioni che ti interessano. È così che ho individuato gli errori fattuali in book-mirror. La correzione è stata incorporata nella skill, e ogni mirror successivo è stato pulito. Tra sei mesi avrai qualcosa che nessun chatbot può replicare, perché il valore non è nel modello. È in ciò che hai insegnato al sistema sulla tua vita specifica, il tuo lavoro e il tuo giudizio.

La prima cosa che ho costruito con questo sistema è stata terribile. La centesima era qualcosa di cui mi fiderei per il mio calendario, la mia posta in arrivo, la preparazione delle mie riunioni e la mia lista di letture. Il sistema ha imparato. Io ho imparato. La curva di accumulo è reale.

Skill grasse. Codice grasso. Imbracatura sottile. Il LLM da solo è solo un motore. Puoi costruire la tua auto.

Tutto ciò che ho descritto qui, tutte le skill, la pipeline book-mirror, il framework cross-modal eval, il ciclo skillify, l'architettura del resolver, più oltre 30 skillpack installabili, è open source e gratuito su GitHub: github.com/garrytan/gbrain. Vai e costruisci.

More patterns to decode

Recent viral articles

Explore more viral articles

Creato per i creator.

Trova idee negli articoli virali su 𝕏, capisci perché funzionano e trasforma quei pattern nel tuo prossimo angolo di contenuto.