Meta-Meta-Prompting:AI エージェントを機能させるための秘訣

Meta-Meta-Prompting:AI エージェントを機能させるための秘訣

@garrytan
英語3 日前 · 2026年5月09日

AI features

1.3M
3.4K
463
124
10.7K

TL;DR

Garry Tan 氏が、AI エージェントのための「Fat Skills, Thin Harness」アーキテクチャについて解説。GBrain などのオープンソースツールを活用し、知識を蓄積するパーソナルナレッジベースと自動化ワークフローを構築する方法を詳述します。

人々はなぜ私が毎晩午前 2 時までコーディングしているのかとよく尋ねます。私には仕事があります。それも大きな仕事、Y Combinator の CEO としてです。私たちは毎年何千人ものビルダーが、実際の収益を上げて急成長するリアルなスタートアップを築くという夢を実現する手助けをしています。

この 5 か月間で、AI が私を再びビルダーに変えました。昨年末、ツールが十分に良くなり、私は再び構築を始めました。おもちゃのプロジェクトではありません。複合的に成長する本物のシステムです。具体的な例を挙げて、AI をチャットウィンドウとして扱うのをやめ、オペレーティングシステムとして扱い始めたときに、パーソナル AI が実際にどのように見えるかを示したいと思います。そして、私はそれをオープンソースとして、またこのような記事として公開しています。それは、あなたにも私と一緒にスピードアップしてほしいからです。

これはシリーズの一部です:Fat Skills, Fat Code, Thin Harness でコアアーキテクチャを紹介しました。Resolvers ではインテリジェンスのルーティングテーブルについて説明しました。The LOC Controversy は、すべての技術者が自分自身を 100 倍から 1000 倍に増幅させた方法についてでした。Naked models are stupider では、モデルはエンジンであって車ではないと主張しました。そして the skillify manifesto では、なぜ LangChain が 1 億 6000 万ドルを調達し、ワークアウトプランなしでスクワットラックとダンベルセットを提供し、その後あなたが必要としていたワークアウトプランを提供したのかを説明しました。

私を読み返した本

先月、Pema Chödrön の『When Things Fall Apart』を読んでいました。162 ページ、22 章からなる、仏教的な苦しみ、根拠のなさ、手放すことへのアプローチについての本です。困難な時期に友人から勧められました。

私は AI にブックミラーを依頼しました。

具体的に何をしたかというと:システムは本の全 22 章を抽出し、各章に対して、著者のアイデアを要約し、同時にすべてのアイデアを私の実際の人生にマッピングするサブエージェントを実行しました。「これはリーダーに当てはまります」といった一般的な話ではありません。具体的なマッピングです。システムは私の家族歴(移民の両親、父は香港とシンガポール出身、母はビルマ出身)を知っています。私の職業的背景(YC の運営、オープンソースツールの構築、何千人もの創業者のメンタリング)を知っています。私が何を読んでいるか、午前 2 時に何を考えているか、セラピストと何に取り組んでいるかを知っています。

出力は 30,000 語のブレインページでした。各章は 2 つのコラムで表示されました:Pema が言っていること、そしてそれが私が実際に経験していることにどのようにマッピングされるか。根拠のなさについての章は、先週行った特定の創業者との会話に結びつきました。恐怖についての章は、セラピストが特定したパターンにマッピングされました。手放すことについての章は、今年見つけた創造的自由について書いた深夜のセッションを参照していました。

全体で約 40 分かかりました。時給 300 ドルのセラピストがこの本を読んで私の人生に適用しようとしても、40 時間ではできません。なぜなら、彼らは私の職業的文脈、読書履歴、ミーティングノート、創業者との関係性の完全なグラフをすべて読み込んで相互参照できる状態にないからです。

私はこれまでに 20 冊以上の本でこれを行いました:『Amplified』(Dion Lim)、『Bertrand Russell 自伝』、『Designing Your Life』、『Drama of the Gifted Child』、『Finite and Infinite Games』、『Gift from the Sea』(Lindbergh)、『Siddhartha』(Hesse)、『Steppenwolf』(Hesse)、『The Art of Doing Science and Engineering』(Hamming)、『The Dream Machine』、『The Book on the Taboo Against Knowing Who You Are』(Alan Watts)、『What Do You Care What Other People Think』(Feynman)、『When Things Fall Apart』(Pema Chodron)、『A Brief History of Everything』(Ken Wilber)など。それぞれがより豊かになります。なぜならブレイン自体がより豊かになるからです。2 つ目のミラーは 1 つ目を知っていました。20 個目は 19 個すべてを知っていました。

ブックミラーが反復によってどのように改善されたか

私が最初に行ったブックミラーはひどいものでした。バージョン 1 には私の家族に関する 3 つの事実誤認がありました。両親が離婚していないのに離婚していると書かれていました。私がカナダ生まれなのに香港で育ったと書かれていました。もし共有していたら信頼を損なう可能性があった基本的な間違いです。

そこで、必須のファクトチェックステップを追加しました。現在、すべてのミラーは、出力前にブレイン内の既知の事実に対してクロスモーダル評価を実行します。Opus 4.7 1M は精度エラーをキャッチします。GPT-5.5 は欠落したコンテキストをキャッチします。DeepSeek V4-Pro は、何かが一般的に読める場合をキャッチします。

次に、GBrain ツールを使用したディープ検索にアップグレードしました。元のバージョンは合成には優れていましたが、具体性には弱かったです。バージョン 3 ではセクションごとのブレイン検索を行います。右のコラムのすべてのエントリは、実際のブレインページを引用します。本が難しい会話の扱いについて語るとき、一般的な原則を合成するだけではありません。難しい会話を共同創業者と行っていた特定の創業者との実際のミーティングノートを引き出します。あるいは、兄のジェームズと過ごした木曜日に私が思いついたアイデア。あるいは、19 歳のときに大学のルームメイトと交わした IM チャット。不気味なほど正確です。

これがスキル化(GBrain で /skillify を使用)が実際に意味することです。最初の手動の試みを取り、繰り返し可能なパターンを抽出し、トリガーとエッジケースを含むテスト済みのスキルファイルを作成し、すべての修正が将来のすべてのブックミラーに複合的に反映されました。

スキルを構築するスキル

ここからが再帰的になり、最大の洞察があると私が考える部分です。

私の人生を動かすシステムは、一枚岩として存在していたわけではありません。スキルから組み立てられました。そして、それらのスキル自体もスキルによって作成されました。

Skillify は新しいスキルを作成するメタスキルです。繰り返し行うワークフローに遭遇したとき、「これをスキル化して」と言うと、システムは今起こったことを調べ、繰り返し可能なパターンを抽出し、トリガーとエッジケースを含むテスト済みのスキルファイルを作成し、それをリゾルバに登録します。ブックミラーパイプラインは、私が初めて手動で行ったときからスキル化されました。ミーティング準備ワークフローは、すべての通話の前に同じ手順を踏んでいることに気づいた後にスキル化されました。

スキルは構成可能です。ブックミラーは、ストレージに brain-ops、コンテキストに enrich、品質に cross-modal-eval、出力に pdf-generation を呼び出します。各スキルは 1 つのことに集中しています。それらが連鎖して複雑なワークフローを作成します。1 つのスキルを改善すると、それを使用するすべてのワークフローが自動的に良くなります。「プロンプトにこのエッジケースを書くのを忘れた」ということはもうありません。スキルが覚えています。

自分自身を準備したミーティング

Demis Hassabis が YC にファイアサイドチャットに来ました。彼の伝記(Sebastian Mallaby 著)がちょうど出版されたところでした。

私はシステムに準備を依頼しました。

2 分もかからずに、次のものを引き出しました:Demis の完全なブレインページ(数か月にわたって記事、ポッドキャストのトランスクリプト、私自身のメモから蓄積されていたもの)。彼の公開された AGI タイムラインに関する信念(「50% スケーリング、50% イノベーション」、AGI は 5 ~ 10 年先と考えている)。Mallaby の伝記のハイライト。彼の表明した研究優先事項(継続学習、ワールドモデル、長期記憶)。私が AI について公に述べたこととの相互参照。会話中にブレインのマルチホップ推論能力を示すための 3 つのデモスクリプト。そして、私たちの世界観が重なる部分と分岐する部分に基づいた会話のフックのセット。

これは単なる優れた Google 検索ではありませんでした。これは、Demis に関する私の蓄積されたコンテキスト、私自身の立場、そして会話の戦略的目標を使用した準備でした。システムは事実だけでなく、角度も準備しました。

10 万ページのブレインの姿

私は約 10 万ページの構造化された知識ベースを維持しています。私が出会うすべての人には、タイムライン、状態セクション(現在真実であること)、未解決のスレッド、スコアが付いたページがあります。すべてのミーティングには、トランスクリプト、構造化されたサマリー、そして私がエンティティ伝播と呼ぶものがあります。各ミーティングの後、システムは言及されたすべての人と会社をウォークスルーし、議論された内容でブレインページを更新します。私が読むすべての本には、章ごとのミラーが作成されます。私が関わるすべての記事、ポッドキャスト、ビデオは、取り込まれ、タグ付けされ、相互参照されます。

スキーマはシンプルです。各ページには、上部にコンパイルされた真実(現在の最良の理解)、その下に追加専用のタイムライン(時系列のイベント)、および生データのサイドカー(ソースマテリアル用)があります。これは、ミーティングに出席し、メールを読み、講演を視聴し、PDF を取り込んだ AI によってすべてのページが継続的に更新される、個人用 Wikipedia と考えてください。

これがどのように複合的に機能するかの例を示します。オフィスアワーで創業者に会います。システムはその人のページ、会社のページを作成または更新し、ミーティングノートを相互参照し、以前に会ったことがあるかどうかを確認し(前回議論した内容を表示)、申請データを確認し、最新の指標を取得し、私のポートフォリオ企業や連絡先のうち、その人の問題に関連するものがあるかどうかを特定します。次にその人と会うときまでに、システムは完全なコンテキストパックを準備しています。

これが、ファイリングキャビネットを持つことと神経系を持つことの違いです。ファイリングキャビネットは物を保管します。神経系はそれらを接続し、何が変わったかをフラグし、今関連するものを表面化します。

アーキテクチャ

これがどのように機能するかです。これがパーソナル AI を構築する正しい方法だと考えており、全体をオープンソース化したので、自分で構築できます。

ハーネスは薄いです。OpenClaw がランタイムです。私のメッセージを受信し、どのスキルが適用されるかを判断し、ディスパッチします。数千行のルーティングロジックです。本やミーティング、創業者については何も知りません。ルーティングするだけです。

スキルは太いです。現在 100 以上あり、それぞれが 1 つの特定のタスクのための詳細な指示を含む自己完結型のマークダウンファイルです。上記でブックミラーとミーティング準備はすでに見ました。以下は GBrain に同梱されているさらにいくつかのスキルです:

  • meeting-ingestion:各ミーティングの後、トランスクリプトを取得し、構造化されたサマリーを作成し、言及されたすべての人と会社をウォークスルーし、議論された内容でブレインページを更新します。ミーティングページは最終成果物ではありません。すべての人と会社のページへのエンティティ伝播が本当の価値です。
  • enrich:人の名前を指定します。5 つの異なるソースから情報を取得し、キャリアの軌跡、連絡先情報、ミーティング履歴、関係性のコンテキストを含む単一のブレインページにすべてをマージします。すべての主張に引用元が付きます。
  • media-ingest:ビデオ、オーディオ、PDF、スクリーンショット、GitHub リポジトリを処理します。文字起こし、エンティティ抽出、適切なブレインの場所へのファイル保存を行います。YouTube ビデオ、ポッドキャスト、ボイスメモに常に使用しています。
  • perplexity-research:ブレイン拡張型ウェブリサーチ。Perplexity を介してウェブを検索しますが、合成する前にブレインが既に知っていることを確認し、何が実際に新しい情報で、何が既にキャプチャ済みかを教えてくれます。

他にも自分の仕事用に構築したスキルが数十あり、おそらくオープンソース化する予定です:email-triage、investor-update-ingest(メール内のポートフォリオ更新を検出し、指標を会社ページに抽出)、calendar-check(競合検出と旅行不可能性の検出)、そして市民活動に使用するジャーナリズム研究スタック全体。各スキルは、新しい人間のアシスタントが習得するのに数か月かかる運用知識をエンコードしています。誰かが私がどのように AI に「プロンプト」しているか尋ねるとき、答えはこうです:していません。スキルがプロンプトです。

データは太いです。ブレインリポジトリには 10 万ページの構造化知識があります。私が関わったすべての人、会社、ミーティング、本、記事、アイデアが、すべてリンクされ、すべて検索可能で、毎日成長しています。

コードは太いです。それを供給するコード(文字起こし、OCR、ソーシャルメディアアーカイブ、カレンダー同期、API 統合のためのスクリプト)も重要ですが、複合的な価値が存在するのはデータです。私は毎日 100 以上の cron ジョブを実行して、すべてのものをチェックしています:ソーシャルメディア、Slack、メール、私が注意を払っているものは何でも、私の OpenClaw/Hermes エージェントも私のために見てくれています。

モデルは交換可能です。精度には Opus 4.7 1M を実行しています。想起と網羅的な抽出には GPT-5.5。創造的な作業と第三の視点には DeepSeek V4-Pro。速度には Groq with Llamma。スキルがどのタスクにどのモデルを呼び出すかを決定します。ハーネスは気にしません。誰かが「どの AI モデルが最適か」と尋ねるとき、答えはこうです:間違った質問です。モデルは単なるエンジンです。それ以外のすべてが車です。

午前 2 時のビルダーと複合システム

人々は私に生産性について尋ねます。私はそのようには考えていません。私が考えているのは複合です。

私が行うすべてのミーティングはブレインに追加されます。私が読むすべての本は、次の本のコンテキストを豊かにします。私が構築するすべてのスキルは、次のワークフローを高速化します。私が更新するすべての人のページは、次のミーティング準備をよりシャープにします。今日のシステムは 2 か月前の 10 倍であり、2 か月後にはまた 10 倍になるでしょう。

私がまだ午前 2 時にコーディングしているとき(そして定期的にそうしています。なぜなら AI が構築する喜びを取り戻してくれたからです)、私は単にソフトウェアを書いているのではありません。毎時間良くなるシステムに追加しているのです。24 時間 365 日、100 の cron ジョブ。ミーティング取り込みは自動的に実行されます。メールのトリアージは 10 分ごとに実行されます。知識グラフはすべての会話から自己強化します。システムは毎日のトランスクリプトを処理し、リアルタイムで見逃したパターンを抽出します。

これはライティングツールではありません。検索エンジンでもありません。チャットボットでもありません。これは実際に機能するセカンドブレインであり、比喩としてではなく、10 万ページ、100 以上のスキル、15 の cron ジョブ、そして過去 1 年間に関わったすべての職業上の関係、ミーティング、本、アイデアの蓄積されたコンテキストを備えた実行中のシステムです。

スタック全体をオープンソース化しました。GStack は、それを構築するために使用したコーディングスキルフレームワーク(87,000 以上のスター)です。エージェントがコーディングする必要があるとき、今でも OpenClaw/Hermes Agent 内のスキルとして使用しています。そこには優れたプログラム可能なブラウザ(ヘッド付きとヘッドレスの両方)があります。GBrain は知識インフラです。OpenClawHermes Agent はハーネスです。どちらかを選ぶべきですが、私は通常両方を使います。データリポジトリは GitHub にあります。

テーゼはシンプルです:未来は、複合的な AI システムを構築する個人に属し、企業所有の中央集権型 AI ツールを使用する個人には属しません。その違いは、日記をつけることと神経系を持つことの違いです。

始め方

これを構築したい場合:

  1. ハーネスを選びます。OpenClawHermes Agent、または Pi を使ってゼロから独自のものを作成します。薄く保ちます。ハーネスは単なるルーターです。自宅の予備のコンピュータに Tailscale でホストするか、Render や Railway をクラウドで使用します。
  2. GBrain でブレインを開始します。Karpathy の LLM Wiki に触発され、OpenClaw に実装し、GBrain に拡張しました。私がベンチマークした中で最高の検索システム(LongMemEval で 97.6% の再現率、検索ループに LLM なしで MemPalace を上回る)であり、この記事で説明されているすべてを含む 39 のインストール可能なスキルが同梱されています。1 つのコマンドでインストール。すべての人、ミーティング、記事、アイデアにページが作成される git リポジトリ。
  3. 何か面白いことをします。スキルアーキテクチャの計画から始めないでください。何かをすることから始めます。レポートを書く。人を調査する。NBA のスコアのシーズンをダウンロードし、スポーツベッティングの予測モデルを構築する。ポートフォリオを分析する。あなたが実際に気にかけていることなら何でも。エージェントを使って実行し、良くなるまで反復し、その後 Skillify(前述のメタスキル)を実行してパターンを再利用可能なスキルに抽出します。次に check_resolvable を実行して、新しいスキルがリゾルバに配線されていることを確認します。このループが、一回限りの作業を複合的なインフラに変えます。
  4. 使い続け、出力を確認します。スキルは最初は平凡です。それがポイントです。それを使用し、生成されたものを読み、何かがおかしい場合は、クロスモーダル評価を実行します:複数のモデルに出力を送り、あなたが気にする次元で互いにスコアリングさせます。それが私がブックミラーの事実誤認を発見した方法です。修正はスキルに組み込まれ、それ以降のすべてのミラーはクリーンです。6 か月後には、どのチャットボットも再現できないものを持っているでしょう。なぜなら、価値はモデルにあるのではなく、あなたの特定の人生、仕事、判断についてシステムに教えたことにあるからです。

このシステムで最初に構築したものはひどいものでした。100 番目は、自分のカレンダー、受信箱、ミーティング準備、読書リストを任せられるものでした。システムは学習しました。私も学習しました。複合曲線は本物です。

太いスキル。太いコード。薄いハーネス。LLM 単体は単なるエンジンです。あなた自身の車を構築できます。

ここで説明したすべて、すべてのスキル、ブックミラーパイプライン、クロスモーダル評価フレームワーク、skillify ループ、リゾルバアーキテクチャ、さらに 30 以上のインストール可能なスキルパックは、オープンソースで GitHub で無料です:github.com/garrytan/gbrain。さあ、構築しましょう。

More patterns to decode

Recent viral articles

Explore more viral articles

クリエイターのために。

𝕏 のバズ記事から企画の種を見つけ、伸びた理由を分解し、次のコンテンツ案に変えましょう。