
Meta-Meta-Prompting: El secreto para hacer que los agentes de IA funcionen
AI features
- Views
- 1.4M
- Likes
- 3.5K
- Reposts
- 486
- Comments
- 129
- Bookmarks
- 11.0K
TL;DR
Garry Tan explica su arquitectura de "Fat Skills, Thin Harness" para agentes de IA, detallando cómo utiliza herramientas de código abierto como GBrain para crear una base de conocimientos personal acumulativa y flujos de trabajo automatizados.
Reading the ESPAÑOL translation
La gente no para de preguntarme por qué paso mis noches programando hasta las 2 a. m. Tengo un trabajo, y uno grande: soy CEO de Y Combinator. Ayudamos a miles de creadores cada año a hacer realidad sus sueños de construir startups reales con ingresos reales que crecen rápido.
En los últimos 5 meses, la IA me volvió a convertir en creador. A finales del año pasado, las herramientas se volvieron lo suficientemente buenas como para que volviera a construir. No proyectos de juguete. Sistemas reales que se acumulan. Quiero mostrarte, con ejemplos concretos, cómo se ve realmente una IA personal cuando dejas de tratarla como una ventana de chat y empiezas a tratarla como un sistema operativo. Y lo regalo como código abierto y en artículos como este porque quiero que te aceleres conmigo.
Esto es parte de una serie: Habilidades gordas, código gordo, arnés fino presentó la arquitectura central. Resolvedores cubrió la tabla de enrutamiento para la inteligencia. La controversia de las líneas de código trataba sobre cómo cada persona técnica se multiplicó a sí misma por 100x a 1000x. Los modelos desnudos son más tontos argumentaba que el modelo es el motor, no el auto. Y el manifiesto skillify explicaba por qué LangChain recaudó $160M y te dio un soporte de sentadillas y un juego de mancuernas sin un plan de entrenamiento, y luego te dio ese plan de entrenamiento que necesitabas.
El libro que me leyó de vuelta
El mes pasado estaba leyendo When Things Fall Apart de Pema Chödrön. Son 162 páginas, 22 capítulos sobre enfoques budistas al sufrimiento, la falta de suelo y el soltar. Un amigo me lo recomendó durante un período difícil.
Le pedí a mi IA que hiciera un espejo del libro.
Lo que eso significa concretamente: el sistema extrajo los 22 capítulos del libro y, luego, para cada capítulo, ejecutó un subagente que hizo dos cosas simultáneamente: resumió las ideas del autor y luego mapeó cada idea a mi vida real. No una papilla genérica de "esto aplica a los líderes". Un mapeo específico. Conoce mi historia familiar (padres inmigrantes, papá de Hong Kong y Singapur, mamá de Birmania). Conoce mi contexto profesional (dirigir YC, construir herramientas de código abierto, mentorizar a miles de fundadores). Sabe lo que he estado leyendo, lo que he estado pensando a las 2 a. m., en qué están trabajando mis terapeutas y yo.
El resultado fue una página cerebral de 30,000 palabras. Cada capítulo se presentaba en dos columnas: lo que dice Pema y cómo se mapea a lo que realmente estoy viviendo. El capítulo sobre la falta de suelo se conectó con una conversación específica con un fundador que había tenido la semana anterior. El capítulo sobre el miedo se mapeó a patrones que mi terapeuta había identificado. El capítulo sobre soltar hacía referencia a una sesión nocturna donde había escrito sobre la libertad creativa que había encontrado este año.
Todo tomó unos 40 minutos. Un terapeuta de $300/hora leyendo este libro y aplicándolo a mi vida no podría hacer esto en 40 horas, porque no tiene el gráfico completo de mi contexto profesional, mi historial de lectura, mis notas de reuniones y mis relaciones con fundadores, todo cargado y referenciable.
He hecho esto con más de 20 libros hasta ahora: Amplified (Dion Lim), Autobiography of Bertrand Russell, Designing Your Life, Drama of the Gifted Child, Finite and Infinite Games, Gift from the Sea (Lindbergh), Siddhartha (Hesse), Steppenwolf (Hesse), The Art of Doing Science and Engineering (Hamming), The Dream Machine, The Book on the Taboo Against Knowing Who You Are (Alan Watts), What Do You Care What Other People Think (Feynman), When Things Fall Apart (Pema Chodron), A Brief History of Everything (Ken Wilber), y más. Cada uno se vuelve más rico porque el cerebro se vuelve más rico. El segundo espejo sabía del primero. El vigésimo sabía de los diecinueve.
Cómo el espejo de libros mejoró con la iteración
El primer espejo de libro que hice fue terrible. La versión 1 tenía tres errores fácticos sobre mi familia. Decía que mis padres estaban divorciados cuando no lo estaban. Decía que crecí en Hong Kong cuando nací en Canadá. Cosas básicas que podrían haber dañado la confianza si lo hubiera compartido.
Así que agregué un paso obligatorio de verificación de hechos. Ahora cada espejo ejecuta una evaluación multimodal contra hechos conocidos en el cerebro antes de enviarse. Opus 4.7 1M detecta errores de precisión. GPT-5.5 detecta contexto faltante. DeepSeek V4-Pro detecta cuando algo suena genérico.
Luego mejoré a recuperación profunda con uso de herramientas GBrain. La versión original era buena en síntesis pero débil en especificidad. La versión 3 hace búsquedas cerebrales por sección. Cada entrada de la columna derecha cita páginas cerebrales reales. Cuando el libro habla de lidiar con conversaciones difíciles, no solo sintetiza principios generales. Extrae de mis notas de reuniones reales con fundadores específicos que estaban teniendo conversaciones difíciles con cofundadores. O de esa idea que tuve un jueves pasando el rato con mi hermano James. O del chat de mensajería instantánea que tuve con mi compañero de cuarto de la universidad cuando tenía 19 años. Es inquietante.
Esto es lo que significa la habilificación (usar /skillify en GBrain) en la práctica. Tomé el primer intento manual, extraje el patrón repetible, escribí un archivo de habilidad probado con disparadores y casos límite, y cada corrección se acumuló en todos los futuros espejos de libros.
Habilidades que construyen habilidades
Aquí es donde se vuelve recursivo, y donde creo que está la mayor idea.
El sistema que dirige mi vida no existía como un monolito. Fue ensamblado a partir de habilidades. Y esas habilidades fueron creadas a su vez por una habilidad.
Skillify es una meta-habilidad que crea nuevas habilidades. Cuando encuentro un flujo de trabajo que voy a repetir, digo "skillify esto" y examina lo que acaba de suceder, extrae el patrón repetible, escribe un archivo de habilidad probado con disparadores y casos límite, y lo registra en el resolvedor. El pipeline del espejo de libros fue habilificado desde la primera vez que lo hice manualmente. El flujo de trabajo de preparación de reuniones fue habilificado después de notar que estaba haciendo los mismos pasos antes de cada llamada.
Las habilidades se componen. El espejo de libros llama a brain-ops para almacenamiento, enrich para contexto, cross-modal-eval para calidad y pdf-generation para salida. Cada habilidad se enfoca en una cosa. Se encadenan para crear flujos de trabajo complejos. Cuando mejoro una habilidad, cada flujo de trabajo que la usa mejora automáticamente. No más "olvidé mencionar este caso límite en mi prompt". La habilidad lo recuerda.
La reunión que se preparó sola
Demis Hassabis vino a YC para una charla informal. La biografía de Sebastian Mallaby sobre él acababa de salir.
Le pedí al sistema que me preparara.
En menos de dos minutos extrajo: la página cerebral completa de Demis (que se había estado acumulando durante meses a partir de artículos, transcripciones de podcasts y mis propias notas). Sus creencias publicadas sobre los plazos de la AGI ("50% escalado, 50% innovación", cree que la AGI está a 5-10 años). Los aspectos destacados de la biografía de Mallaby. Sus prioridades de investigación declaradas (aprendizaje continuo, modelos del mundo, memoria a largo plazo). Referencias cruzadas a cosas que he dicho públicamente sobre IA. Tres guiones de demostración para mostrar la capacidad de razonamiento de múltiples saltos del cerebro durante la conversación. Y un conjunto de ganchos de conversación basados en dónde se superponen y divergen nuestras visiones del mundo.
Esto no fue solo una mejor búsqueda en Google. Fue una preparación que usó mi contexto acumulado sobre Demis, mis propias posiciones y los objetivos estratégicos para la conversación. El sistema preparó no solo hechos, sino ángulos.
Cómo se ven 100,000 páginas de cerebro
Mantengo una base de conocimiento estructurada con alrededor de 100,000 páginas. Cada persona que conozco tiene una página con una línea de tiempo, una sección de estado (lo que es cierto actualmente), hilos abiertos y una puntuación. Cada reunión tiene una transcripción, un resumen estructurado y algo que llamo propagación de entidades: después de cada reunión, el sistema recorre cada persona y empresa mencionada y actualiza sus páginas cerebrales con lo que se discutió. Cada libro que leo obtiene un espejo capítulo por capítulo. Cada artículo, podcast y video con el que interactúo se ingiere, etiqueta y referencia cruzada.
El esquema es simple. Cada página tiene: verdad compilada en la parte superior (la mejor comprensión actual), una línea de tiempo de solo anexos debajo (eventos en orden cronológico) y sidecars de datos sin procesar para el material fuente. Piensa en ello como una Wikipedia personal donde cada página se actualiza continuamente por una IA que estuvo en la reunión, leyó el correo electrónico, vio la charla e ingirió el PDF.
Aquí hay un ejemplo de cómo esto se acumula. Conozco a un fundador en horario de oficina. El sistema crea o actualiza su página de persona, su página de empresa, referencia cruzada las notas de la reunión, verifica si lo he conocido antes (y muestra lo que discutimos la última vez), verifica sus datos de solicitud, extrae sus últimas métricas e identifica si alguna de mis empresas de cartera o contactos es relevante para su problema. Para cuando entro a la siguiente reunión con ellos, el sistema tiene un paquete de contexto completo listo.
Esta es la diferencia entre tener un archivador y tener un sistema nervioso. El archivador almacena cosas. El sistema nervioso las conecta, señala lo que ha cambiado y muestra lo que es relevante para el momento actual.
La arquitectura
Así es como funciona. Creo que esta es la forma correcta de construir una IA personal, y publiqué todo como código abierto para que puedas construirla tú mismo.
El arnés es delgado. OpenClaw es el tiempo de ejecución. Recibe mis mensajes, determina qué habilidad aplica y despacha. Unas pocas miles de líneas de lógica de enrutamiento. No sabe nada sobre libros, reuniones o fundadores. Solo enruta.
Las habilidades son gordas. Más de 100 ahora, cada una es un archivo markdown autocontenido con instrucciones detalladas para una tarea específica. Ya has visto el espejo de libros y la preparación de reuniones arriba. Aquí hay algunas más que vienen con GBrain:
- meeting-ingestion: Después de cada reunión, extrae la transcripción, crea un resumen estructurado y luego recorre cada persona y empresa mencionada y actualiza sus páginas cerebrales con lo que se discutió. La página de la reunión no es el producto final. La propagación de entidades de vuelta a cada página de persona y empresa es el valor real.
- enrich: Dale el nombre de una persona. Extrae de cinco fuentes diferentes, fusiona todo en una sola página cerebral con la trayectoria profesional, información de contacto, historial de reuniones y contexto de relación. Fuentes citadas en cada afirmación.
- media-ingest: Maneja video, audio, PDF, capturas de pantalla, repositorios de GitHub. Transcribe, extrae entidades, archiva en la ubicación cerebral correcta. Uso esto constantemente para videos de YouTube, podcasts y notas de voz.
- perplexity-research: Investigación web aumentada por el cerebro. Busca en la web a través de Perplexity, pero antes de sintetizar, verifica lo que el cerebro ya sabe para que pueda decirte qué es realmente nuevo versus lo que ya has capturado.
Tengo docenas más que he construido para mi propio trabajo que probablemente publicaré como código abierto: email-triage, investor-update-ingest que detecta actualizaciones de cartera en mi correo electrónico y extrae métricas en páginas de empresa, calendar-check para detección de conflictos e imposibilidad de viajes, y toda una pila de investigación periodística que uso para trabajo cívico. Cada habilidad codifica conocimiento operativo que le tomaría meses aprender a un nuevo asistente humano. Cuando alguien me pregunta cómo "prompteo" mi IA, la respuesta es: no lo hago. Las habilidades son los prompts.
Los datos son gordos. 100,000 páginas de conocimiento estructurado en el repositorio del cerebro. Cada persona, empresa, reunión, libro, artículo e idea con la que he interactuado, todo vinculado, todo buscable, todo creciendo cada día.
El código es gordo. El código que lo alimenta (scripts para transcripción, OCR, archivo de redes sociales, sincronización de calendario, integraciones de API) también importa, pero los datos son donde vive el valor compuesto. Ejecuto más de 100 crons por día que verifican todas las cosas: redes sociales, Slack, correo electrónico, cualquier cosa a la que preste atención, mis Agentes OpenClaw/Hermes también lo miran por mí.
Los modelos son intercambiables. Ejecuto Opus 4.7 1M para precisión. GPT-5.5 para recuperación y extracción exhaustiva. DeepSeek V4-Pro para trabajo creativo y terceras perspectivas. Groq con Llamma para velocidad. La habilidad decide qué modelo llamar para cada tarea. Al arnés no le importa. Cuando alguien pregunta "¿qué modelo de IA es el mejor?", la respuesta es: pregunta equivocada. El modelo es solo el motor. Todo lo demás es el auto.
El creador de las 2 a. m. y el sistema que se acumula
La gente me pregunta sobre productividad. No pienso en eso de esa manera. En lo que pienso es en la acumulación.
Cada reunión que tomo se añade al cerebro. Cada libro que leo enriquece el contexto para el siguiente libro. Cada habilidad que construyo hace que el siguiente flujo de trabajo sea más rápido. Cada página de persona que actualizo hace que la siguiente preparación de reunión sea más precisa. El sistema hoy es 10x lo que era hace dos meses, y dentro de dos meses será 10x otra vez.
Cuando todavía estoy despierto a las 2 a. m. programando (y lo estoy, regularmente, porque la IA me devolvió la alegría de construir), no solo estoy escribiendo software. Estoy añadiendo a un sistema que mejora cada hora. 100 cronjobs 24/7. La ingesta de reuniones se ejecuta automáticamente. El triaje de correo electrónico se ejecuta cada 10 minutos. El gráfico de conocimiento se enriquece a sí mismo a partir de cada conversación. El sistema procesa transcripciones diarias y extrae patrones que me perdí en tiempo real.
Esto no es una herramienta de escritura. No es un motor de búsqueda. No es un chatbot. Es un segundo cerebro que realmente funciona, no como metáfora, sino como un sistema en ejecución con 100,000 páginas, más de 100 habilidades, 15 cron jobs y el contexto acumulado de cada relación profesional, reunión, libro e idea con la que he interactuado en el último año.
Publiqué toda la pila como código abierto. GStack es el marco de habilidades de codificación (más de 87,000 estrellas) que usé para construirlo. Todavía lo uso como una habilidad dentro del Agente OpenClaw/Hermes cuando el agente necesita codificar. Hay un excelente navegador programable (tanto con cabeza como sin cabeza) allí. GBrain es la infraestructura de conocimiento. OpenClaw y Hermes Agent son los arneses, deberías elegir pero normalmente hago ambos. Los repositorios de datos están en GitHub.
La tesis es simple: el futuro pertenece a las personas que construyen sistemas de IA que se acumulan, no a las personas que usan herramientas de IA centralizadas propiedad de corporaciones. La diferencia es la diferencia entre llevar un diario y tener un sistema nervioso.
Cómo empezar
Si quieres construir esto:
- Elige un arnés. OpenClaw, Hermes Agent, o construye el tuyo propio desde cero con Pi. Mantenlo delgado. El arnés es solo el enrutador. Hospédalo en tu computadora de repuesto en casa con Tailscale, o usa Render o Railway en la nube.
- Inicia un cerebro con GBrain. Me inspiré en el LLM Wiki de Karpathy, lo implementé en OpenClaw y lo extendí a GBrain. Es el mejor sistema de recuperación que he evaluado (97.6% de recuperación en LongMemEval, superando a MemPalace sin LLM en el bucle de recuperación) y viene con 39 habilidades instalables que incluyen todo lo descrito en este artículo. Un comando para instalar. Un repositorio git donde cada persona, reunión, artículo e idea obtiene una página.
- Haz algo interesante. No empieces planificando tu arquitectura de habilidades. Empieza haciendo algo. Escribe un informe. Investiga a una persona. Descarga una temporada de puntuaciones de la NBA y construye un modelo de predicción para tus apuestas deportivas. Analiza tu cartera. Lo que realmente te importe. Hazlo con tu agente, itera hasta que sea bueno, y luego ejecuta Skillify (la meta-habilidad de antes) para extraer el patrón en una habilidad reutilizable. Luego ejecuta check_resolvable para verificar que la nueva habilidad esté conectada al resolvedor. Ese bucle convierte el trabajo único en infraestructura que se acumula.
- Sigue usándolo y mira el resultado. La habilidad será mediocre al principio. Ese es el punto. Úsala, lee lo que produce, y cuando algo esté mal, ejecuta evaluación multimodal: envía la salida a través de múltiples modelos y haz que se califiquen entre sí en las dimensiones que te importan. Así fue como detecté los errores fácticos en el espejo de libros. La corrección se integró en la habilidad, y cada espejo desde entonces ha sido limpio. En seis meses tendrás algo que ningún chatbot puede replicar, porque el valor no está en el modelo. Está en lo que le has enseñado al sistema sobre tu vida, trabajo y juicio específicos.
Lo primero que construí con este sistema fue terrible. El centésimo fue algo en lo que confiaría mi calendario, mi bandeja de entrada, mi preparación de reuniones y mi lista de lectura. El sistema aprendió. Yo aprendí. La curva de acumulación es real.
Habilidades gordas. Código gordo. Arnés delgado. El LLM por sí solo es solo un motor. Puedes construir tu propio auto.
Todo lo que describí aquí, todas las habilidades, el pipeline del espejo de libros, el marco de evaluación multimodal, el bucle skillify, la arquitectura del resolvedor, más de 30 paquetes de habilidades instalables, es código abierto y gratuito en GitHub: github.com/garrytan/gbrain. Ve a construir.


