Meta-Meta-Prompting: Das Geheimnis für funktionierende KI-Agenten

Meta-Meta-Prompting: Das Geheimnis für funktionierende KI-Agenten

@garrytan
ENGLISCHvor 3 Tagen · 09. Mai 2026

AI features

1.4M
3.5K
486
129
11.0K

TL;DR

Garry Tan erläutert seine „Fat Skills, Thin Harness“-Architektur für KI-Agenten und beschreibt, wie er Open-Source-Tools wie GBrain nutzt, um eine wachsende persönliche Wissensdatenbank sowie automatisierte Workflows zu erstellen.

Die Leute fragen mich ständig, warum ich meine Nächte damit verbringe, bis 2 Uhr morgens zu programmieren. Ich habe einen Job – und zwar einen großen – als CEO von Y Combinator. Wir helfen jedes Jahr Tausenden von Gründern, ihren Traum zu verwirklichen, echte Startups mit echtem Umsatz zu bauen, die schnell wachsen.

In den letzten 5 Monaten hat mich KI wieder zum Entwickler gemacht. Ende letzten Jahres wurden die Werkzeuge gut genug, dass ich wieder anfing zu bauen. Keine Spielzeugprojekte. Echte Systeme, die sich vermehren. Ich möchte dir anhand konkreter Beispiele zeigen, wie persönliche KI tatsächlich aussieht, wenn man aufhört, sie als Chatfenster zu behandeln, und anfängt, sie als Betriebssystem zu betrachten. Und ich gebe es als Open Source und in Artikeln wie diesem weiter, weil ich möchte, dass du mit mir beschleunigst.

Dies ist Teil einer Serie: Fette Skills, fetter Code, dünner Harness stellte die Kernarchitektur vor. Resolver behandelte die Routing-Tabelle für Intelligenz. Die LOC-Kontroverse drehte sich darum, wie jeder Techniker sich selbst um das 100- bis 1000-fache vervielfacht hat. Nackte Modelle sind dümmer argumentierte, dass das Modell der Motor ist, nicht das Auto. Und das Skillify-Manifest erklärte, warum LangChain 160 Millionen Dollar eingesammelt hat und dir eine Kniebeugenstange und Hantelset ohne Trainingsplan gab – und dir dann den Trainingsplan lieferte, den du brauchtest.

Das Buch, das mich zurückgelesen hat

Letzten Monat las ich Pema Chödröns „Wenn alles auseinanderfällt“. Es hat 162 Seiten, 22 Kapitel über buddhistische Ansätze zu Leid, Bodenlosigkeit und Loslassen. Ein Freund empfahl es mir in einer schwierigen Zeit.

Ich bat meine KI, einen Buchspiegel zu erstellen.

Was das konkret bedeutet: Das System extrahierte alle 22 Kapitel des Buches und ließ dann für jedes Kapitel einen Unter-Agenten laufen, der zwei Dinge gleichzeitig tat: die Ideen des Autors zusammenfassen und dann jede Idee auf mein tatsächliches Leben abbilden. Kein generisches „Das gilt für Führungskräfte“-Geschwafel. Spezifische Zuordnung. Es kennt meine Familiengeschichte (Einwanderereltern, Vater aus Hongkong und Singapur, Mutter aus Burma). Es kennt meinen beruflichen Kontext (Leitung von YC, Bau von Open-Source-Tools, Betreuung Tausender Gründer). Es weiß, was ich gelesen habe, worüber ich um 2 Uhr morgens nachdenke, woran meine Therapeuten und ich arbeiten.

Das Ergebnis war eine 30.000 Wörter umfassende Gehirnseite. Jedes Kapitel wurde in zwei Spalten dargestellt: was Pema sagt und wie es sich auf das bezieht, was ich gerade durchmache. Das Kapitel über Bodenlosigkeit verknüpfte sich mit einem bestimmten Gründergespräch, das ich in der Vorwoche geführt hatte. Das Kapitel über Angst spiegelte Muster wider, die mein Therapeut identifiziert hatte. Das Kapitel über Loslassen bezog sich auf eine nächtliche Sitzung, in der ich über die kreative Freiheit geschrieben hatte, die ich dieses Jahr gefunden habe.

Das Ganze dauerte etwa 40 Minuten. Ein Therapeut für 300 Dollar pro Stunde, der dieses Buch liest und auf mein Leben anwendet, könnte das in 40 Stunden nicht schaffen, weil er nicht den vollständigen Graphen meines beruflichen Kontextes, meiner Lesehistorie, meiner Besprechungsnotizen und meiner Gründerbeziehungen geladen und kreuzreferenzierbar hat.

Ich habe das jetzt mit über 20 Büchern gemacht: „Amplified“ (Dion Lim), „Autobiography of Bertrand Russell“, „Designing Your Life“, „Drama of the Gifted Child“, „Finite and Infinite Games“, „Gift from the Sea“ (Lindbergh), „Siddhartha“ (Hesse), „Steppenwolf“ (Hesse), „The Art of Doing Science and Engineering“ (Hamming), „The Dream Machine“, „The Book on the Taboo Against Knowing Who You Are“ (Alan Watts), „What Do You Care What Other People Think“ (Feynman), „When Things Fall Apart“ (Pema Chödrön), „A Brief History of Everything“ (Ken Wilber) und mehr. Jedes wird reichhaltiger, weil das Gehirn reichhaltiger wird. Der zweite Spiegel wusste vom ersten. Der zwanzigste wusste von allen neunzehn.

Wie der Buch-Spiegel durch Iteration besser wurde

Der erste Buch-Spiegel, den ich machte, war schrecklich. Version 1 enthielt drei sachliche Fehler über meine Familie. Sie behauptete, meine Eltern seien geschieden, obwohl sie es nicht waren. Sie sagte, ich sei in Hongkong aufgewachsen, dabei wurde ich in Kanada geboren. Grundlegende Dinge, die das Vertrauen beschädigt hätten, wenn ich sie geteilt hätte.

Also fügte ich einen obligatorischen Faktencheck-Schritt hinzu. Jeder Spiegel durchläuft jetzt vor der Auslieferung eine modalübergreifende Bewertung anhand bekannter Fakten im Gehirn. Opus 4.7 1M erfasst Präzisionsfehler. GPT-5.5 erfasst fehlenden Kontext. DeepSeek V4-Pro erfasst, wenn etwas generisch klingt.

Dann habe ich auf tiefe Abfrage mit GBrain-Tool-Nutzung aufgerüstet. Die ursprüngliche Version war gut in der Synthese, aber schwach in der Spezifität. Version 3 führt pro Abschnitt Gehirnsuchen durch. Jeder Eintrag in der rechten Spalte zitiert tatsächliche Gehirnseiten. Wenn das Buch über den Umgang mit schwierigen Gesprächen spricht, synthetisiert es nicht nur allgemeine Prinzipien. Es zieht aus meinen tatsächlichen Besprechungsnotizen mit bestimmten Gründern, die schwierige Gespräche mit Mitgründern führten. Oder aus jener Idee, die ich an einem Donnerstag beim Abhängen mit meinem Bruder James hatte. Oder aus dem IM-Chat mit meinem College-Mitbewohner, als ich 19 war. Es ist unheimlich.

Das ist es, was Skillifizierung (mit /skillify in GBrain) in der Praxis bedeutet. Ich nahm den ersten manuellen Versuch, extrahierte das wiederholbare Muster, schrieb eine getestete Skill-Datei mit Triggern und Randfällen, und jede Korrektur wirkte sich auf alle zukünftigen Buch-Spiegel aus.

Skills, die Skills bauen

Hier wird es rekursiv, und hier liegt meiner Meinung nach die größte Erkenntnis.

Das System, das mein Leben steuert, existierte nicht als Monolith. Es wurde aus Skills zusammengesetzt. Und diese Skills wurden selbst von einem Skill erstellt.

Skillify ist ein Meta-Skill, der neue Skills erstellt. Wenn ich auf einen Workflow stoße, den ich wiederholen werde, sage ich „skillify this“, und es untersucht, was gerade passiert ist, extrahiert das wiederholbare Muster, schreibt eine getestete Skill-Datei mit Triggern und Randfällen und registriert sie im Resolver. Die Buch-Spiegel-Pipeline wurde beim ersten manuellen Durchlauf skillifiziert. Der Meeting-Vorbereitungs-Workflow wurde skillifiziert, nachdem mir auffiel, dass ich vor jedem Anruf die gleichen Schritte ausführte.

Skills setzen sich zusammen. Buch-Spiegel ruft brain-ops für Speicherung, enrich für Kontext, cross-modal-eval für Qualität und pdf-generation für Ausgabe auf. Jeder Skill konzentriert sich auf eine Sache. Sie verketten sich zu komplexen Workflows. Wenn ich einen Skill verbessere, wird jeder Workflow, der ihn verwendet, automatisch besser. Kein „Vergessen, diesen Randfall in meinem Prompt zu erwähnen“ mehr. Der Skill erinnert sich.

Das Meeting, das sich selbst vorbereitete

Demis Hassabis kam zu YC für ein Kamingespräch. Sebastian Mallabys Biografie über ihn war gerade erschienen.

Ich bat das System, mich vorzubereiten.

In weniger als zwei Minuten zog es Folgendes: Demis‘ vollständige Gehirnseite (die sich seit Monaten aus Artikeln, Podcast-Transkripten und meinen eigenen Notizen angesammelt hatte). Seine veröffentlichten Ansichten über AGI-Zeitpläne („50 % Skalierung, 50 % Innovation“, hält AGI für 5–10 Jahre entfernt). Die Höhepunkte der Mallaby-Biografie. Seine erklärten Forschungsprioritäten (kontinuierliches Lernen, Weltmodelle, Langzeitgedächtnis). Querverweise auf Dinge, die ich öffentlich über KI gesagt habe. Drei Demo-Skripte, um die mehrstufige Argumentationsfähigkeit des Gehirns während des Gesprächs zu demonstrieren. Und eine Reihe von Gesprächshaken, die auf den Überschneidungen und Unterschieden unserer Weltanschauungen basieren.

Das war nicht nur eine bessere Google-Suche. Das war eine Vorbereitung, die meinen angesammelten Kontext über Demis, meine eigenen Positionen und die strategischen Ziele des Gesprächs nutzte. Das System bereitete nicht nur Fakten vor, sondern auch Blickwinkel.

Wie 100.000 Seiten Gehirn aussehen

Ich unterhalte eine strukturierte Wissensbasis mit etwa 100.000 Seiten. Jede Person, die ich treffe, erhält eine Seite mit einer Zeitleiste, einem Zustandsabschnitt (was aktuell wahr ist), offenen Threads und einer Bewertung. Jedes Meeting erhält ein Transkript, eine strukturierte Zusammenfassung und etwas, das ich Entitätsweitergabe nenne: Nach jedem Meeting durchläuft das System jede erwähnte Person und Firma und aktualisiert deren Gehirnseiten mit dem Besprochenen. Jedes Buch, das ich lese, erhält einen kapitelweisen Spiegel. Jeder Artikel, Podcast und jedes Video, mit dem ich mich beschäftige, wird aufgenommen, getaggt und kreuzreferenziert.

Das Schema ist einfach. Jede Seite hat: kompilierte Wahrheit oben (das aktuelle beste Verständnis), eine nur-anhängende Zeitleiste darunter (Ereignisse in chronologischer Reihenfolge) und Rohdaten-Seitenwagen für Quellenmaterial. Stell dir ein persönliches Wikipedia vor, bei dem jede Seite kontinuierlich von einer KI aktualisiert wird, die beim Meeting war, die E-Mail gelesen, den Vortrag gesehen und das PDF aufgenommen hat.

Hier ist ein Beispiel, wie sich das vermehrt. Ich treffe einen Gründer in der Sprechstunde. Das System erstellt oder aktualisiert seine Personenseite, seine Firmenseite, kreuzreferenziert die Besprechungsnotizen, prüft, ob ich ihn schon einmal getroffen habe (und zeigt, was wir beim letzten Mal besprochen haben), prüft seine Bewerbungsdaten, zieht seine neuesten Kennzahlen und identifiziert, ob eines meiner Portfoliounternehmen oder Kontakte für sein Problem relevant ist. Wenn ich zum nächsten Meeting mit ihm gehe, hat das System ein vollständiges Kontextpaket bereit.

Das ist der Unterschied zwischen einem Aktenschrank und einem Nervensystem. Der Aktenschrank speichert Dinge. Das Nervensystem verbindet sie, markiert, was sich geändert hat, und zeigt, was gerade relevant ist.

Die Architektur

So funktioniert es. Ich denke, das ist der richtige Weg, persönliche KI zu bauen, und ich habe das Ganze als Open Source veröffentlicht, damit du es selbst bauen kannst.

Der Harness ist dünn. OpenClaw ist die Laufzeitumgebung. Es empfängt meine Nachrichten, findet heraus, welcher Skill zutrifft, und leitet weiter. Ein paar tausend Zeilen Routing-Logik. Es weiß nichts über Bücher, Meetings oder Gründer. Es leitet nur weiter.

Die Skills sind fett. Über 100 mittlerweile, jede eine eigenständige Markdown-Datei mit detaillierten Anweisungen für eine bestimmte Aufgabe. Du hast bereits Buch-Spiegel und Meeting-Vorbereitung oben gesehen. Hier sind ein paar weitere, die mit GBrain ausgeliefert werden:

  • meeting-ingestion: Nach jedem Meeting zieht es das Transkript, erstellt eine strukturierte Zusammenfassung und durchläuft dann jede erwähnte Person und Firma und aktualisiert deren Gehirnseiten mit dem Besprochenen. Die Meeting-Seite ist nicht das Endprodukt. Die Entitätsweitergabe zurück zu jeder Personen- und Firmenseite ist der wahre Wert.
  • enrich: Gib einen Personennamen ein. Es zieht aus fünf verschiedenen Quellen, führt alles zu einer einzigen Gehirnseite mit Karriereverlauf, Kontaktinformationen, Meeting-Historie und Beziehungskontext zusammen. Zitierte Quellen zu jeder Behauptung.
  • media-ingest: Verarbeitet Video, Audio, PDF, Screenshots, GitHub-Repos. Transkribiert, extrahiert Entitäten, legt am richtigen Gehirnort ab. Ich benutze das ständig für YouTube-Videos, Podcasts und Sprachnotizen.
  • perplexity-research: Gehirn-unterstützte Web-Recherche. Durchsucht das Web über Perplexity, aber bevor es synthetisiert, prüft es, was das Gehirn bereits weiß, damit es dir sagen kann, was wirklich neu ist im Vergleich zu dem, was du bereits erfasst hast.

Ich habe Dutzende weitere für meine eigene Arbeit gebaut, die ich wahrscheinlich als Open Source veröffentlichen werde: email-triage, investor-update-ingest, das Portfolio-Updates in meinen E-Mails erkennt und Kennzahlen in Firmenseiten extrahiert, calendar-check für Konflikterkennung und Reiseunmöglichkeit, und einen ganzen journalistischen Forschungsstapel, den ich für Bürgerarbeit nutze. Jeder Skill kodiert operatives Wissen, das ein neuer menschlicher Assistent Monate brauchen würde, um zu lernen. Wenn jemand fragt, wie ich meine KI „prompte“, ist die Antwort: Ich tue es nicht. Die Skills sind die Prompts.

Die Daten sind fett. 100.000 Seiten strukturierten Wissens im Brain-Repo. Jede Person, Firma, jedes Meeting, Buch, jeder Artikel und jede Idee, mit der ich mich beschäftigt habe, alle verlinkt, alle durchsuchbar, alle wachsen jeden Tag.

Der Code ist fett. Der Code, der es füttert (Skripte für Transkription, OCR, Social-Media-Archivierung, Kalendersynchronisation, API-Integrationen) ist auch wichtig, aber die Daten sind der Ort, an dem der zusammengesetzte Wert lebt. Ich lasse mehr als 100 Cron-Jobs pro Tag laufen, die all die Dinge überprüfen: Social Media, Slack, E-Mail, alles, worauf ich achte, meine OpenClaw/Hermes Agents schauen auch für mich darauf.

Die Modelle sind austauschbar. Ich verwende Opus 4.7 1M für Präzision. GPT-5.5 für Abruf und erschöpfende Extraktion. DeepSeek V4-Pro für kreative Arbeit und dritte Perspektiven. Groq mit Llamma für Geschwindigkeit. Der Skill entscheidet, welches Modell für welche Aufgabe aufgerufen wird. Der Harness kümmert sich nicht darum. Wenn jemand fragt, „welches KI-Modell ist am besten“, ist die Antwort: falsche Frage. Das Modell ist nur der Motor. Alles andere ist das Auto.

## Der 2-Uhr-Morgens-Entwickler und das sich vermehrende System

Die Leute fragen mich nach Produktivität. Ich denke nicht so darüber. Worüber ich nachdenke, ist Vermehrung.

Jedes Meeting, das ich nehme, fügt dem Gehirn hinzu. Jedes Buch, das ich lese, bereichert den Kontext für das nächste Buch. Jeder Skill, den ich baue, macht den nächsten Workflow schneller. Jede Personenseite, die ich aktualisiere, macht die nächste Meeting-Vorbereitung schärfer. Das System heute ist 10x besser als vor zwei Monaten, und in zwei Monaten wird es wieder 10x besser sein.

Wenn ich immer noch um 2 Uhr morgens auf bin und programmiere (und das bin ich, regelmäßig, weil KI mir die Freude am Bauen zurückgegeben hat), schreibe ich nicht nur Software. Ich füge einem System hinzu, das jede Stunde besser wird. 100 Cron-Jobs rund um die Uhr. Die Meeting-Erfassung läuft automatisch. Die E-Mail-Triage läuft alle 10 Minuten. Der Wissensgraph bereichert sich selbst aus jedem Gespräch. Das System verarbeitet tägliche Transkripte und extrahiert Muster, die ich in Echtzeit verpasst habe.

Das ist kein Schreibwerkzeug. Es ist keine Suchmaschine. Es ist kein Chatbot. Es ist ein zweites Gehirn, das tatsächlich funktioniert, nicht als Metapher, sondern als laufendes System mit 100.000 Seiten, über 100 Skills, 15 Cron-Jobs und dem angesammelten Kontext jeder beruflichen Beziehung, jedes Meetings, jedes Buches und jeder Idee, mit der ich mich im letzten Jahr beschäftigt habe.

Ich habe den gesamten Stack als Open Source veröffentlicht. GStack ist das Coding-Skill-Framework (über 87.000 Sterne), das ich verwendet habe, um es zu bauen. Ich verwende es immer noch als Skill innerhalb von OpenClaw/Hermes Agent, wenn der Agent codieren muss. Es gibt einen großartigen programmierbaren Browser (sowohl mit Kopf als auch kopflos) darin. GBrain ist die Wissensinfrastruktur. OpenClaw und Hermes Agent sind die Harnesses, du solltest wählen, aber ich mache normalerweise beides. Die Daten-Repos sind auf GitHub.

Die These ist einfach: Die Zukunft gehört Einzelpersonen, die sich vermehrende KI-Systeme bauen, nicht Einzelpersonen, die unternehmenseigene zentralisierte KI-Tools verwenden. Der Unterschied ist der Unterschied zwischen einem Tagebuch führen und ein Nervensystem haben.

## Wie man anfängt

Wenn du das bauen willst:

1. Wähle einen Harness. OpenClaw, Hermes Agent, oder baue deinen eigenen von Grund auf mit Pi. Halte ihn dünn. Der Harness ist nur der Router. Hoste ihn auf deinem Ersatzcomputer zu Hause mit Tailscale, oder verwende Render oder Railway in der Cloud.
1. Starte ein Gehirn mit GBrain. Ich wurde von Karpathys LLM Wiki inspiriert, habe es in OpenClaw implementiert und zu GBrain erweitert. Es ist das beste Abrufsystem, das ich benchmarkt habe (97,6 % Abruf bei LongMemEval, schlägt MemPalace ohne LLM in der Abrufschleife) und es liefert 39 installierbare Skills, einschließlich allem, was in diesem Artikel beschrieben wird. Ein Befehl zum Installieren. Ein Git-Repo, in dem jede Person, jedes Meeting, jeder Artikel und jede Idee eine Seite bekommt.
1. Mach etwas Interessantes. Fang nicht damit an, deine Skill-Architektur zu planen. Fang damit an, eine Sache zu tun. Schreib einen Bericht. Recherchiere eine Person. Lade eine Saison NBA-Ergebnisse herunter und baue ein Vorhersagemodell für deine Sportwetten. Analysiere dein Portfolio. Was auch immer dir wirklich wichtig ist. Mach es mit deinem Agenten, iteriere, bis es gut ist, und führe dann Skillify (den Meta-Skill von früher) aus, um das Muster in einen wiederverwendbaren Skill zu extrahieren. Führe dann check_resolvable aus, um zu überprüfen, ob der neue Skill in den Resolver eingebunden ist. Diese Schleife verwandelt einmalige Arbeit in sich vermehrende Infrastruktur.
1. Verwende es weiter und sieh dir die Ausgabe an. Der Skill wird anfangs mittelmäßig sein. Das ist der Punkt. Verwende ihn, lies, was er produziert, und wenn etwas nicht stimmt, führe cross-modal eval aus: sende die Ausgabe durch mehrere Modelle und lass sie sich gegenseitig in den Dimensionen bewerten, die dir wichtig sind. So habe ich die sachlichen Fehler im Buch-Spiegel erwischt. Die Korrektur wurde in den Skill eingebacken, und seitdem ist jeder Spiegel sauber. In sechs Monaten wirst du etwas haben, das kein Chatbot replizieren kann, weil der Wert nicht im Modell liegt. Er liegt in dem, was du dem System über dein spezifisches Leben, deine Arbeit und dein Urteilsvermögen beigebracht hast.

Das erste, was ich mit diesem System gebaut habe, war schrecklich. Das hundertste war etwas, dem ich meinen Kalender, meinen Posteingang, meine Meeting-Vorbereitung und meine Leseliste anvertrauen würde. Das System lernte. Ich lernte. Die Vermehrungskurve ist real.

Fette Skills. Fetter Code. Dünner Harness. Das LLM allein ist nur ein Motor. Du kannst dein eigenes Auto bauen.

Alles, was ich hier beschrieben habe, alle Skills, die Buch-Spiegel-Pipeline, das modalübergreifende Evaluierungs-Framework, die Skillify-Schleife, die Resolver-Architektur, plus über 30 installierbare Skillpacks, ist Open Source und kostenlos auf GitHub: github.com/garrytan/gbrain. Leg los."

More patterns to decode

Recent viral articles

Explore more viral articles

Für Creator gebaut.

Finde Content-Ideen in viralen Artikeln auf 𝕏, entschlüssele, warum sie funktioniert haben, und verwandle bewährte Muster in deinen nächsten Creator-Angle.