Meta-Meta-Prompting: O segredo para fazer agentes de IA funcionarem

Meta-Meta-Prompting: O segredo para fazer agentes de IA funcionarem

@garrytan
INGLÊShá 5 dias · 09/05/2026

AI features

1.4M
3.5K
486
129
11.0K

TL;DR

Garry Tan explica sua arquitetura de 'Fat Skills, Thin Harness' para agentes de IA, detalhando como ele utiliza ferramentas de código aberto como o GBrain para criar uma base de conhecimento pessoal cumulativa e fluxos de trabalho automatizados.

As pessoas continuam me perguntando por que passo minhas noites programando até as 2 da manhã. Eu tenho um emprego, e um grande: sou CEO do Y Combinator. Ajudamos milhares de construtores por ano a realizar seus sonhos de criar startups reais, com receita real e crescimento acelerado.

Nos últimos 5 meses, a IA me transformou em um construtor novamente. No final do ano passado, as ferramentas ficaram boas o suficiente para eu voltar a construir. Não projetos de brinquedo. Sistemas reais que se acumulam. Quero mostrar a você, com exemplos específicos, como é a IA pessoal quando você para de tratá-la como uma janela de chat e começa a tratá-la como um sistema operacional. E eu compartilho isso como código aberto e em artigos como este porque quero que você acelere junto comigo.

Isso faz parte de uma série: Fat Skills, Fat Code, Thin Harness apresentou a arquitetura central. Resolvers cobriu a tabela de roteamento para inteligência. The LOC Controversy foi sobre como cada pessoa técnica se multiplicou por 100x a 1000x. Naked models are stupider argumentou que o modelo é o motor, não o carro. E the skillify manifesto explicou por que a LangChain levantou US$ 160 milhões e te deu um suporte de agachamento e um conjunto de halteres sem um plano de treino, e então te deu o plano de treino que você precisava.

O Livro Que Me Leu de Volta

No mês passado, eu estava lendo When Things Fall Apart, de Pema Chödrön. São 162 páginas, 22 capítulos sobre abordagens budistas para o sofrimento, a falta de chão e o desapego. Um amigo recomendou durante um período difícil.

Pedi à minha IA para fazer um espelho do livro.

O que isso significa concretamente: O sistema extraiu todos os 22 capítulos do livro e, para cada capítulo, executou um subagente que fez duas coisas simultaneamente: resumiu as ideias do autor e, em seguida, mapeou cada ideia para a minha vida real. Não algo genérico do tipo "isso se aplica a líderes". Mapeamento específico. O sistema conhece minha história familiar (pais imigrantes, pai de Hong Kong e Cingapura, mãe de Mianmar). Conhece meu contexto profissional (comandar o YC, construir ferramentas de código aberto, orientar milhares de fundadores). Sabe o que tenho lido, no que tenho pensado às 2 da manhã, no que meus terapeutas e eu estamos trabalhando.

O resultado foi uma página cerebral de 30.000 palavras. Cada capítulo foi renderizado em duas colunas: o que Pema diz e como isso se conecta ao que estou realmente vivendo. O capítulo sobre a falta de chão se conectou a uma conversa específica com um fundador que tive na semana anterior. O capítulo sobre medo mapeou padrões que meu terapeuta havia identificado. O capítulo sobre desapego fez referência a uma sessão noturna onde eu havia escrito sobre a liberdade criativa que encontrei este ano.

Tudo levou cerca de 40 minutos. Um terapeuta de US$ 300/hora lendo este livro e aplicando-o à minha vida não conseguiria fazer isso em 40 horas, porque ele não tem o grafo completo do meu contexto profissional, meu histórico de leitura, minhas anotações de reuniões e meus relacionamentos com fundadores, todos carregados e passíveis de referência cruzada.

Já fiz isso com mais de 20 livros até agora: Amplified (Dion Lim), Autobiography of Bertrand Russell, Designing Your Life, Drama of the Gifted Child, Finite and Infinite Games, Gift from the Sea (Lindbergh), Siddhartha (Hesse), Steppenwolf (Hesse), The Art of Doing Science and Engineering (Hamming), The Dream Machine, The Book on the Taboo Against Knowing Who You Are (Alan Watts), What Do You Care What Other People Think (Feynman), When Things Fall Apart (Pema Chödrön), A Brief History of Everything (Ken Wilber) e mais. Cada um fica mais rico porque o cérebro fica mais rico. O segundo espelho sabia sobre o primeiro. O vigésimo sabia sobre todos os dezenove.

Como o Book-Mirror Melhorou Através da Iteração

O primeiro espelho de livro que fiz foi terrível. A Versão 1 tinha três erros factuais sobre minha família. Dizia que meus pais eram divorciados quando não eram. Dizia que cresci em Hong Kong quando nasci no Canadá. Coisas básicas que poderiam ter prejudicado a confiança se eu tivesse compartilhado.

Então, adicionei uma etapa obrigatória de verificação de fatos. Agora, todo espelho passa por uma avaliação cruzada de modelos contra fatos conhecidos no cérebro antes de ser entregue. O Opus 4.7 1M captura erros de precisão. O GPT-5.5 captura contexto ausente. O DeepSeek V4-Pro captura quando algo parece genérico.

Depois, atualizei para recuperação profunda com uso da ferramenta GBrain. A versão original era boa em síntese, mas fraca em especificidade. A Versão 3 faz buscas cerebrais por seção. Cada entrada na coluna da direita cita páginas cerebrais reais. Quando o livro fala sobre lidar com conversas difíceis, não sintetiza apenas princípios gerais. Ele extrai das minhas anotações reais de reuniões com fundadores específicos que estavam tendo conversas difíceis com cofundadores. Ou daquela ideia que tive numa quinta-feira saindo com meu irmão James. Ou do chat que tive com meu colega de quarto da faculdade quando tinha 19 anos. É impressionante.

É isso que a skillificação (usar /skillify no GBrain) significa na prática. Peguei a primeira tentativa manual, extraí o padrão repetível, escrevi um arquivo de skill testado com gatilhos e casos extremos, e cada correção se acumulou em todos os futuros espelhos de livro.

Skills Que Constroem Skills

Aqui é onde fica recursivo, e onde acho que está o maior insight.

O sistema que gerencia minha vida não existia como um monólito. Foi montado a partir de skills. E essas skills foram criadas por uma skill.

Skillify é uma meta-skill que cria novas skills. Quando encontro um fluxo de trabalho que vou repetir, digo "skillify this" e ele examina o que acabou de acontecer, extrai o padrão repetível, escreve um arquivo de skill testado com gatilhos e casos extremos, e o registra no resolver. O pipeline do book-mirror foi skillificado desde a primeira vez que o fiz manualmente. O fluxo de trabalho de preparação de reuniões foi skillificado depois que percebi que estava fazendo os mesmos passos antes de cada chamada.

Skills se compõem. O book-mirror chama brain-ops para armazenamento, enrich para contexto, cross-modal-eval para qualidade e pdf-generation para saída. Cada skill é focada em uma coisa. Elas se encadeiam para criar fluxos de trabalho complexos. Quando melhoro uma skill, todo fluxo de trabalho que a usa fica melhor automaticamente. Chega de "esqueci de mencionar este caso extremo no meu prompt." A skill se lembra.

A Reunião Que Se Preparou Sozinha

Demis Hassabis veio ao YC para um bate-papo informal. A biografia dele escrita por Sebastian Mallaby tinha acabado de ser lançada.

Pedir ao sistema para me preparar.

Em menos de dois minutos, ele trouxe: a página cerebral completa do Demis (que vinha sendo acumulada há meses a partir de artigos, transcrições de podcasts e minhas próprias anotações). Suas crenças publicadas sobre cronogramas de AGI ("50% escala, 50% inovação", acha que a AGI está a 5-10 anos de distância). Os destaques da biografia de Mallaby. Suas prioridades de pesquisa declaradas (aprendizado contínuo, modelos de mundo, memória de longo prazo). Referências cruzadas com coisas que eu disse publicamente sobre IA. Três scripts de demonstração para mostrar a capacidade de raciocínio multi-salto do cérebro durante a conversa. E um conjunto de ganchos de conversa baseados em onde nossas visões de mundo se sobrepõem e divergem.

Isso não foi apenas uma pesquisa melhor no Google. Foi uma preparação que usou meu contexto acumulado sobre Demis, minhas próprias posições e os objetivos estratégicos para a conversa. O sistema preparou não apenas fatos, mas ângulos.

Como São 100.000 Páginas de Cérebro

Mantenho uma base de conhecimento estruturada com cerca de 100.000 páginas. Cada pessoa que conheço ganha uma página com uma linha do tempo, uma seção de estado (o que é verdade atualmente), tópicos em aberto e uma pontuação. Cada reunião ganha uma transcrição, um resumo estruturado e algo que chamo de propagação de entidades: após cada reunião, o sistema percorre cada pessoa e empresa mencionada e atualiza suas páginas cerebrais com o que foi discutido. Cada livro que leio ganha um espelho capítulo por capítulo. Cada artigo, podcast e vídeo com que me envolvo é ingerido, etiquetado e referenciado.

O esquema é simples. Cada página tem: verdade compilada no topo (a melhor compreensão atual), uma linha do tempo somente de acréscimos abaixo (eventos em ordem cronológica) e sidecars de dados brutos para material de origem. Pense nisso como uma Wikipedia pessoal onde cada página é continuamente atualizada por uma IA que esteve na reunião, leu o e-mail, assistiu à palestra e ingeriu o PDF.

Aqui está um exemplo de como isso se acumula. Encontro um fundador no horário de expediente. O sistema cria ou atualiza a página da pessoa, a página da empresa, faz referência cruzada das anotações da reunião, verifica se já o encontrei antes (e traz à tona o que discutimos da última vez), verifica os dados da inscrição, extrai as métricas mais recentes e identifica se alguma das minhas empresas do portfólio ou contatos é relevante para o problema dele. Quando entro na próxima reunião com ele, o sistema tem um pacote de contexto completo pronto.

Esta é a diferença entre ter um arquivo e ter um sistema nervoso. O arquivo armazena coisas. O sistema nervoso as conecta, sinaliza o que mudou e traz à tona o que é relevante para o momento.

A Arquitetura

Aqui está como funciona. Acho que esta é a maneira certa de construir IA pessoal, e abri o código de tudo para que você possa construir a sua.

O harness é enxuto. O OpenClaw é o runtime. Ele recebe minhas mensagens, descobre qual skill se aplica e despacha. Alguns milhares de linhas de lógica de roteamento. Não sabe nada sobre livros, reuniões ou fundadores. Apenas roteia.

As skills são robustas. Mais de 100 agora, cada uma um arquivo Markdown autocontido com instruções detalhadas para uma tarefa específica. Você já viu o book-mirror e o meeting-prep acima. Aqui estão mais algumas que vêm com o GBrain:

  • meeting-ingestion: Após cada reunião, extrai a transcrição, cria um resumo estruturado e, em seguida, percorre cada pessoa e empresa mencionada e atualiza suas páginas cerebrais com o que foi discutido. A página da reunião não é o produto final. A propagação de entidades de volta para cada página de pessoa e empresa é o valor real.
  • enrich: Dê o nome de uma pessoa. Ele extrai de cinco fontes diferentes, mescla tudo em uma única página cerebral com trajetória de carreira, informações de contato, histórico de reuniões e contexto de relacionamento. Fontes citadas em cada afirmação.
  • media-ingest: Lida com vídeo, áudio, PDF, capturas de tela, repositórios GitHub. Transcreve, extrai entidades, arquiva no local cerebral correto. Uso isso constantemente para vídeos do YouTube, podcasts e memorandos de voz.
  • perplexity-research: Pesquisa web aumentada pelo cérebro. Pesquisa na web via Perplexity, mas antes de sintetizar, verifica o que o cérebro já sabe para poder dizer o que é realmente novo versus o que você já capturou.

Tenho dezenas de outras que construí para meu próprio trabalho e que provavelmente abrirei como código aberto: email-triage, investor-update-ingest que detecta atualizações de portfólio no meu e-mail e extrai métricas para páginas de empresas, calendar-check para detecção de conflitos e impossibilidade de viagem, e uma pilha inteira de pesquisa jornalística que uso para trabalho cívico. Cada skill codifica conhecimento operacional que levaria meses para um novo assistente humano aprender. Quando alguém pergunta como eu "faço prompt" na minha IA, a resposta é: não faço. As skills são os prompts.

Os dados são robustos. 100.000 páginas de conhecimento estruturado no repositório do cérebro. Cada pessoa, empresa, reunião, livro, artigo e ideia com que me envolvi, todos ligados, todos pesquisáveis, todos crescendo a cada dia.

O código é robusto. O código que o alimenta (scripts para transcrição, OCR, arquivamento de mídia social, sincronização de calendário, integrações de API) também importa, mas os dados são onde o valor composto reside. Executo mais de 100 crons por dia que verificam todas as coisas: mídia social, Slack, e-mail, tudo que presto atenção, meus Agentes OpenClaw/Hermes também verificam para mim.

Os modelos são intercambiáveis. Uso Opus 4.7 1M para precisão. GPT-5.5 para recall e extração exaustiva. DeepSeek V4-Pro para trabalho criativo e terceiras perspectivas. Groq com Llamma para velocidade. A skill decide qual modelo chamar para qual tarefa. O harness não se importa. Quando alguém pergunta "qual modelo de IA é o melhor", a resposta é: pergunta errada. O modelo é apenas o motor. Todo o resto é o carro.

O Construtor das 2 da Manhã e o Sistema de Acumulação

As pessoas me perguntam sobre produtividade. Não penso dessa forma. Penso em acumulação.

Cada reunião que participo adiciona algo ao cérebro. Cada livro que leio enriquece o contexto para o próximo livro. Cada skill que construo torna o próximo fluxo de trabalho mais rápido. Cada página de pessoa que atualizo torna a preparação para a próxima reunião mais precisa. O sistema hoje é 10x melhor do que era há dois meses, e daqui a dois meses será 10x melhor novamente.

Quando ainda estou acordado às 2 da manhã programando (e estou, regularmente, porque a IA me devolveu a alegria de construir), não estou apenas escrevendo software. Estou adicionando a um sistema que fica melhor a cada hora. 100 cronjobs 24/7. A ingestão de reuniões é executada automaticamente. A triagem de e-mail é executada a cada 10 minutos. O grafo de conhecimento se enriquece a partir de cada conversa. O sistema processa transcrições diárias e extrai padrões que perdi em tempo real.

Isso não é uma ferramenta de escrita. Não é um mecanismo de busca. Não é um chatbot. É um segundo cérebro que realmente funciona, não como uma metáfora, mas como um sistema em execução com 100.000 páginas, mais de 100 skills, 15 cron jobs e o contexto acumulado de cada relacionamento profissional, reunião, livro e ideia com que me envolvi no último ano.

Abri o código de toda a pilha. GStack é o framework de skills de programação (mais de 87.000 estrelas) que usei para construí-lo. Ainda o uso como uma skill dentro do Agente OpenClaw/Hermes quando o agente precisa programar. Há um ótimo navegador programável (com e sem cabeça) lá. GBrain é a infraestrutura de conhecimento. OpenClaw e Hermes Agent são os harnesses, você deve escolher, mas eu geralmente uso ambos. Os repositórios de dados estão no GitHub.

A tese é simples: o futuro pertence a indivíduos que constroem sistemas de IA que se acumulam, não a indivíduos que usam ferramentas de IA centralizadas de propriedade corporativa. A diferença é a diferença entre manter um diário e ter um sistema nervoso.

Como Começar

Se você quiser construir isso:

  1. Escolha um harness. OpenClaw, Hermes Agent, ou construa o seu próprio do zero com Pi. Mantenha-o enxuto. O harness é apenas o roteador. Hospede-o no seu computador reserva em casa com Tailscale, ou use Render ou Railway na nuvem.
  2. Inicie um cérebro com GBrain. Me inspirei no LLM Wiki do Karpathy, implementei no OpenClaw e estendi para o GBrain. É o melhor sistema de recuperação que já comparei (97,6% de recall no LongMemEval, superando o MemPalace sem LLM no loop de recuperação) e vem com 39 skills instaláveis, incluindo tudo descrito neste artigo. Um comando para instalar. Um repositório git onde cada pessoa, reunião, artigo e ideia ganha uma página.
  3. Faça algo interessante. Não comece planejando sua arquitetura de skills. Comece fazendo uma coisa. Escreva um relatório. Pesquise uma pessoa. Baixe uma temporada de pontuações da NBA e construa um modelo de previsão para suas apostas esportivas. Analise seu portfólio. O que você realmente se importa. Faça com seu agente, itere até ficar bom e, em seguida, execute o Skillify (a meta-skill de antes) para extrair o padrão em uma skill reutilizável. Depois, execute check_resolvable para verificar se a nova skill está conectada ao resolver. Esse loop transforma trabalho único em infraestrutura que se acumula.
  4. Continue usando e olhe para a saída. A skill será medíocre no início. Esse é o objetivo. Use-a, leia o que ela produz e, quando algo estiver errado, execute a avaliação cruzada de modelos: envie a saída através de vários modelos e peça que eles avaliem uns aos outros nas dimensões que você considera importantes. Foi assim que peguei os erros factuais no book-mirror. A correção foi incorporada à skill, e todo espelho desde então tem sido limpo. Em seis meses, você terá algo que nenhum chatbot pode replicar, porque o valor não está no modelo. Está no que você ensinou ao sistema sobre sua vida, trabalho e julgamento específicos.

A primeira coisa que construí com este sistema foi terrível. A centésima foi algo em que confiaria minha agenda, minha caixa de entrada, minha preparação para reuniões e minha lista de leitura. O sistema aprendeu. Eu aprendi. A curva de acumulação é real.

Fat skills. Fat code. Thin harness. O LLM por si só é apenas um motor. Você pode construir seu próprio carro.

Tudo o que descrevi aqui, todas as skills, o pipeline do book-mirror, o framework de avaliação cruzada de modelos, o loop skillify, a arquitetura do resolver, além de mais de 30 skillpacks instaláveis, é código aberto e gratuito no GitHub: github.com/garrytan/gbrain. Vá construir.

More patterns to decode

Recent viral articles

Explore more viral articles

Feito para criadores.

Encontre ideias em artigos virais no 𝕏, perceba porque funcionaram e transforme esses padrões no seu próximo ângulo de conteúdo.