Meta-Meta-Prompting: El secreto para hacer que los agentes de IA funcionen

Meta-Meta-Prompting: El secreto para hacer que los agentes de IA funcionen

@garrytan
INGLÉShace 1 semana · 09 may 2026

AI features

1.4M
3.5K
486
129
11.0K

TL;DR

Garry Tan explica su arquitectura de "Fat Skills, Thin Harness" para agentes de IA, detallando cómo utiliza herramientas de código abierto como GBrain para crear una base de conocimientos personal acumulativa y flujos de trabajo automatizados.

La gente no para de preguntarme por qué paso mis noches programando hasta las 2 de la mañana. Tengo un trabajo, y uno grande: soy CEO de Y Combinator. Ayudamos a miles de creadores al año a hacer realidad sus sueños de construir startups reales con ingresos reales que crecen rápido.

En los últimos 5 meses, la IA me volvió a convertir en creador. A finales del año pasado, las herramientas se volvieron lo suficientemente buenas como para que yo volviera a construir. No proyectos de juguete. Sistemas reales que generan rendimientos compuestos. Quiero mostrarte, con ejemplos concretos, cómo se ve realmente una IA personal cuando dejas de tratarla como una ventana de chat y empiezas a tratarla como un sistema operativo. Y lo regalo como código abierto y en artículos como este porque quiero que avances rápido conmigo.

Esto es parte de una serie: Fat Skills, Fat Code, Thin Harness presentó la arquitectura central. Resolvers cubrió la tabla de enrutamiento para la inteligencia. The LOC Controversy trató sobre cómo cada persona técnica se multiplicó a sí misma por 100x o 1000x. Naked models are stupider argumentó que el modelo es el motor, no el auto. Y the skillify manifesto explicó por qué LangChain recaudó $160M y te dio una jaula de sentadillas y un juego de mancuernas sin un plan de entrenamiento, y luego te dio ese plan de entrenamiento que necesitabas.

El libro que me leyó a mí

El mes pasado estaba leyendo When Things Fall Apart de Pema Chödrön. Son 162 páginas, 22 capítulos sobre enfoques budistas al sufrimiento, la falta de suelo firme y el soltar. Un amigo me lo recomendó durante un período difícil.

Le pedí a mi IA que hiciera un "espejo de libro".

Lo que eso significa concretamente: El sistema extrajo los 22 capítulos del libro y, luego, para cada capítulo, ejecutó un sub-agente que hizo dos cosas simultáneamente: resumió las ideas del autor y luego mapeó cada idea a mi vida real. No una papilla genérica de "esto aplica a los líderes". Un mapeo específico. Conoce mi historia familiar (padres inmigrantes, papá de Hong Kong y Singapur, mamá de Birmania). Conoce mi contexto profesional (dirigir YC, construir herramientas de código abierto, mentorizar a miles de fundadores). Sabe lo que he estado leyendo, en lo que he estado pensando a las 2 de la mañana, en lo que mis terapeutas y yo estamos trabajando.

El resultado fue una página cerebral de 30,000 palabras. Cada capítulo se presentaba en dos columnas: lo que dice Pema y cómo se mapea a lo que estoy viviendo realmente. El capítulo sobre la falta de suelo firme se conectó con una conversación específica con un fundador que tuve la semana anterior. El capítulo sobre el miedo se mapeó a patrones que mi terapeuta había identificado. El capítulo sobre soltar hacía referencia a una sesión nocturna donde había escrito sobre la libertad creativa que había encontrado este año.

Todo el proceso tomó unos 40 minutos. Un terapeuta de $300/hora leyendo este libro y aplicándolo a mi vida no podría hacer esto en 40 horas, porque no tiene el gráfico completo de mi contexto profesional, mi historial de lecturas, mis notas de reuniones y mis relaciones con fundadores, todo cargado y referenciable de forma cruzada.

He hecho esto con más de 20 libros hasta ahora: Amplified (Dion Lim), Autobiography of Bertrand Russell, Designing Your Life, Drama of the Gifted Child, Finite and Infinite Games, Gift from the Sea (Lindbergh), Siddhartha (Hesse), Steppenwolf (Hesse), The Art of Doing Science and Engineering (Hamming), The Dream Machine, The Book on the Taboo Against Knowing Who You Are (Alan Watts), What Do You Care What Other People Think (Feynman), When Things Fall Apart (Pema Chodron), A Brief History of Everything (Ken Wilber), y más. Cada uno se vuelve más rico porque el cerebro se vuelve más rico. El segundo espejo conocía al primero. El vigésimo conocía a los diecinueve anteriores.

Cómo el espejo de libro mejoró con la iteración

El primer espejo de libro que hice fue terrible. La Versión 1 tenía tres errores fácticos sobre mi familia. Decía que mis padres estaban divorciados cuando no lo estaban. Decía que crecí en Hong Kong cuando nací en Canadá. Cosas básicas que podrían haber dañado la confianza si lo hubiera compartido.

Así que agregué un paso obligatorio de verificación de datos. Ahora, cada espejo ejecuta una evaluación multimodal cruzada contra hechos conocidos en el cerebro antes de enviarse. Opus 4.7 1M detecta errores de precisión. GPT-5.5 detecta contexto faltante. DeepSeek V4-Pro detecta cuando algo suena genérico.

Luego, mejoré a recuperación profunda con el uso de herramientas GBrain. La versión original era buena para la síntesis pero débil en especificidad. La Versión 3 realiza búsquedas cerebrales por sección. Cada entrada de la columna derecha cita páginas cerebrales reales. Cuando el libro habla de lidiar con conversaciones difíciles, no solo sintetiza principios generales. Extrae de mis notas de reuniones reales con fundadores específicos que estaban teniendo conversaciones difíciles con cofundadores. O de esa idea que tuve un jueves pasando el rato con mi hermano James. O del chat instantáneo que tuve con mi compañero de cuarto de la universidad cuando tenía 19 años. Es asombroso.

Esto es lo que significa la "skillificación" (usar /skillify en GBrain) en la práctica. Tomé el primer intento manual, extraje el patrón repetible, escribí un archivo de skill probado con disparadores y casos límite, y cada corrección se acumuló en todos los futuros espejos de libro.

Skills que construyen skills

Aquí es donde se vuelve recursivo, y donde creo que está la idea más importante.

El sistema que maneja mi vida no existía como un monolito. Se ensambló a partir de skills. Y esas skills fueron creadas a su vez por una skill.

Skillify es una meta-skill que crea nuevas skills. Cuando me encuentro con un flujo de trabajo que voy a repetir, digo "skillifica esto" y examina lo que acaba de suceder, extrae el patrón repetible, escribe un archivo de skill probado con disparadores y casos límite, y lo registra en el resolver. El pipeline del espejo de libro fue skillificado desde la primera vez que lo hice manualmente. El flujo de trabajo de preparación de reuniones fue skillificado después de que noté que estaba haciendo los mismos pasos antes de cada llamada.

Las skills se componen. El espejo de libro llama a brain-ops para almacenamiento, enrich para contexto, cross-modal-eval para calidad y pdf-generation para la salida. Cada skill se enfoca en una cosa. Se encadenan para crear flujos de trabajo complejos. Cuando mejoro una skill, cada flujo de trabajo que la usa mejora automáticamente. No más "olvidé mencionar este caso límite en mi prompt". La skill lo recuerda.

La reunión que se preparó sola

Demis Hassabis vino a YC para una charla informal. La biografía de Sebastian Mallaby sobre él acababa de publicarse.

Le pedí al sistema que me preparara.

En menos de dos minutos extrajo: la página cerebral completa de Demis (que se había estado acumulando durante meses a partir de artículos, transcripciones de podcasts y mis propias notas). Sus creencias publicadas sobre los plazos de la AGI ("50% escalamiento, 50% innovación", cree que la AGI está a 5-10 años). Los aspectos destacados de la biografía de Mallaby. Sus prioridades de investigación declaradas (aprendizaje continuo, modelos del mundo, memoria a largo plazo). Referencias cruzadas a cosas que he dicho públicamente sobre IA. Tres guiones de demostración para mostrar la capacidad de razonamiento de múltiples saltos del cerebro durante la conversación. Y un conjunto de ganchos de conversación basados en dónde se superponen y divergen nuestras visiones del mundo.

Esto no fue solo una mejor búsqueda en Google. Fue una preparación que utilizó mi contexto acumulado sobre Demis, mis propias posiciones y los objetivos estratégicos de la conversación. El sistema preparó no solo hechos, sino ángulos.

Cómo se ven 100,000 páginas de cerebro

Mantengo una base de conocimiento estructurada con aproximadamente 100,000 páginas. Cada persona que conozco tiene una página con una línea de tiempo, una sección de estado (lo que es cierto actualmente), hilos abiertos y una puntuación. Cada reunión tiene una transcripción, un resumen estructurado y algo que llamo propagación de entidades: después de cada reunión, el sistema recorre cada persona y empresa mencionada y actualiza sus páginas cerebrales con lo que se discutió. Cada libro que leo tiene un espejo capítulo por capítulo. Cada artículo, podcast y video con el que interactúo se ingiere, etiqueta y referencia de forma cruzada.

El esquema es simple. Cada página tiene: verdad compilada en la parte superior (la mejor comprensión actual), una línea de tiempo de solo añadido debajo (eventos en orden cronológico) y sidecars de datos sin procesar para el material fuente. Piénsalo como una Wikipedia personal donde cada página se actualiza continuamente por una IA que estuvo en la reunión, leyó el correo electrónico, vio la charla e ingirió el PDF.

Aquí hay un ejemplo de cómo esto se acumula. Conozco a un fundador en horas de oficina. El sistema crea o actualiza su página personal, su página de empresa, referencia de forma cruzada las notas de la reunión, verifica si lo he conocido antes (y muestra lo que discutimos la última vez), verifica los datos de su solicitud, extrae sus últimas métricas e identifica si alguna de mis empresas de cartera o contactos es relevante para su problema. Para cuando entro a la siguiente reunión con ellos, el sistema tiene un paquete de contexto completo listo.

Esta es la diferencia entre tener un archivador y tener un sistema nervioso. El archivador guarda cosas. El sistema nervioso las conecta, señala lo que ha cambiado y muestra lo que es relevante para el momento presente.

La arquitectura

Así es como funciona. Creo que esta es la forma correcta de construir una IA personal, y publiqué todo como código abierto para que puedas construirla tú mismo.

El arnés es delgado. OpenClaw es el runtime. Recibe mis mensajes, determina qué skill aplica y despacha. Unos pocos miles de líneas de lógica de enrutamiento. No sabe nada sobre libros, reuniones o fundadores. Solo enruta.

Las skills son gruesas. Más de 100 ahora, cada una es un archivo Markdown autocontenido con instrucciones detalladas para una tarea específica. Ya viste book-mirror y meeting-prep arriba. Aquí hay algunas más que vienen con GBrain:

  • meeting-ingestion: Después de cada reunión, extrae la transcripción, crea un resumen estructurado y luego recorre cada persona y empresa mencionada y actualiza sus páginas cerebrales con lo que se discutió. La página de la reunión no es el producto final. La propagación de entidades de vuelta a cada página de persona y empresa es el valor real.
  • enrich: Dale el nombre de una persona. Extrae de cinco fuentes diferentes, fusiona todo en una sola página cerebral con trayectoria profesional, información de contacto, historial de reuniones y contexto de relación. Fuentes citadas en cada afirmación.
  • media-ingest: Maneja video, audio, PDF, capturas de pantalla, repositorios de GitHub. Transcribe, extrae entidades, archiva en la ubicación cerebral correcta. Uso esto constantemente para videos de YouTube, podcasts y notas de voz.
  • perplexity-research: Investigación web aumentada por el cerebro. Busca en la web a través de Perplexity, pero antes de sintetizar, verifica lo que el cerebro ya sabe para poder decirte qué es realmente nuevo versus lo que ya has capturado.

Tengo docenas más que he construido para mi propio trabajo que probablemente publicaré como código abierto: email-triage, investor-update-ingest que detecta actualizaciones de cartera en mi correo electrónico y extrae métricas en páginas de empresas, calendar-check para detección de conflictos e imposibilidad de viajes, y todo un stack de investigación periodística que uso para trabajo cívico. Cada skill codifica conocimiento operativo que le tomaría meses aprender a un nuevo asistente humano. Cuando alguien pregunta cómo "prompteo" a mi IA, la respuesta es: no lo hago. Las skills son los prompts.

Los datos son gruesos. 100,000 páginas de conocimiento estructurado en el repositorio del cerebro. Cada persona, empresa, reunión, libro, artículo e idea con la que he interactuado, todos vinculados, todos buscables, todos creciendo cada día.

El código es grueso. El código que lo alimenta (scripts para transcripción, OCR, archivo de redes sociales, sincronización de calendario, integraciones de API) también importa, pero los datos son donde reside el valor compuesto. Ejecuto más de 100 crons por día que verifican todas las cosas: redes sociales, Slack, correo electrónico, cualquier cosa a la que preste atención, mis agentes OpenClaw/Hermes también lo revisan por mí.

Los modelos son intercambiables. Uso Opus 4.7 1M para precisión. GPT-5.5 para recuperación y extracción exhaustiva. DeepSeek V4-Pro para trabajo creativo y terceras perspectivas. Groq con Llamma para velocidad. La skill decide qué modelo llamar para cada tarea. Al arnés no le importa. Cuando alguien pregunta "cuál es el mejor modelo de IA", la respuesta es: pregunta equivocada. El modelo es solo el motor. Todo lo demás es el auto.

El creador de las 2 AM y el sistema de rendimientos compuestos

La gente me pregunta sobre productividad. No pienso en eso de esa manera. En lo que pienso es en rendimientos compuestos.

Cada reunión que tomo se añade al cerebro. Cada libro que leo enriquece el contexto para el siguiente libro. Cada skill que construyo hace que el siguiente flujo de trabajo sea más rápido. Cada página de persona que actualizo hace que la siguiente preparación de reunión sea más precisa. El sistema de hoy es 10x lo que era hace dos meses, y dentro de dos meses será 10x otra vez.

Cuando todavía estoy despierto a las 2 AM programando (y lo estoy, regularmente, porque la IA me devolvió la alegría de construir), no solo estoy escribiendo software. Estoy añadiendo a un sistema que mejora cada hora. 100 cronjobs 24/7. La ingesta de reuniones se ejecuta automáticamente. El triaje de correo electrónico se ejecuta cada 10 minutos. El grafo de conocimiento se enriquece a sí mismo a partir de cada conversación. El sistema procesa transcripciones diarias y extrae patrones que pasé por alto en tiempo real.

Esto no es una herramienta de escritura. No es un motor de búsqueda. No es un chatbot. Es un segundo cerebro que realmente funciona, no como una metáfora, sino como un sistema en ejecución con 100,000 páginas, más de 100 skills, 15 cron jobs y el contexto acumulado de cada relación profesional, reunión, libro e idea con la que he interactuado en el último año.

Publiqué todo el stack como código abierto. GStack es el framework de skills de codificación (más de 87,000 estrellas) que usé para construirlo. Todavía lo uso como una skill dentro del agente OpenClaw/Hermes cuando el agente necesita codificar. Hay un excelente navegador programable (tanto con cabeza como sin cabeza) allí. GBrain es la infraestructura de conocimiento. OpenClaw y Hermes Agent son los arneses, deberías elegir pero yo usualmente uso ambos. Los repositorios de datos están en GitHub.

La tesis es simple: el futuro pertenece a las personas que construyen sistemas de IA de rendimientos compuestos, no a las personas que utilizan herramientas de IA centralizadas propiedad de corporaciones. La diferencia es la diferencia entre llevar un diario y tener un sistema nervioso.

Cómo empezar

Si quieres construir esto:

  1. Elige un arnés. OpenClaw, Hermes Agent, o construye el tuyo propio desde cero con Pi. Mantenlo delgado. El arnés es solo el enrutador. Hospédalo en tu computadora de repuesto en casa con Tailscale, o usa Render o Railway en la nube.
  2. Inicia un cerebro con GBrain. Me inspiré en el LLM Wiki de Karpathy, lo implementé en OpenClaw y lo extendí a GBrain. Es el mejor sistema de recuperación que he evaluado (97.6% de recuperación en LongMemEval, superando a MemPalace sin LLM en el bucle de recuperación) y viene con 39 skills instalables, incluyendo todo lo descrito en este artículo. Un comando para instalar. Un repositorio git donde cada persona, reunión, artículo e idea tiene una página.
  3. Haz algo interesante. No empieces planificando tu arquitectura de skills. Empieza haciendo algo. Escribe un informe. Investiga a una persona. Descarga una temporada de resultados de la NBA y construye un modelo de predicción para tus apuestas deportivas. Analiza tu cartera. Lo que sea que realmente te importe. Hazlo con tu agente, itera hasta que sea bueno, y luego ejecuta Skillify (la meta-skill de antes) para extraer el patrón en una skill reutilizable. Luego ejecuta check_resolvable para verificar que la nueva skill esté conectada al resolver. Ese bucle convierte el trabajo único en infraestructura de rendimientos compuestos.
  4. Sigue usándolo y mira el resultado. La skill será mediocre al principio. Ese es el punto. Úsala, lee lo que produce, y cuando algo esté mal, ejecuta cross-modal eval: envía la salida a través de múltiples modelos y haz que se califiquen entre sí en las dimensiones que te importan. Así es como detecté los errores fácticos en book-mirror. La corrección se integró en la skill, y todos los espejos posteriores han sido limpios. En seis meses tendrás algo que ningún chatbot puede replicar, porque el valor no está en el modelo. Está en lo que le has enseñado al sistema sobre tu vida, trabajo y juicio específicos.

Lo primero que construí con este sistema fue terrible. El centésimo fue algo en lo que confiaría mi calendario, mi bandeja de entrada, mi preparación de reuniones y mi lista de lectura. El sistema aprendió. Yo aprendí. La curva de rendimientos compuestos es real.

Fat skills. Fat code. Thin harness. El LLM por sí solo es solo un motor. Puedes construir tu propio auto.

Todo lo que describí aquí, todas las skills, el pipeline del espejo de libro, el framework de evaluación multimodal cruzada, el bucle skillify, la arquitectura del resolver, más de 30 skillpacks instalables, es código abierto y gratuito en GitHub: github.com/garrytan/gbrain. Ve a construir.

More patterns to decode

Recent viral articles

Explore more viral articles

Creado para creadores.

Encuentra ideas en artículos virales de 𝕏, descubre por qué funcionaron y convierte esos patrones en tu próximo ángulo de contenido.