Meta-Meta-Prompting: Bí quyết giúp các AI Agent vận hành hiệu quả

Meta-Meta-Prompting: Bí quyết giúp các AI Agent vận hành hiệu quả

@garrytan
TIẾNG ANH4 ngày trước · 09 thg 5, 2026

AI features

1.4M
3.5K
486
129
11.0K

TL;DR

Garry Tan giải thích về kiến trúc "Fat Skills, Thin Harness" dành cho các AI Agent, đồng thời chia sẻ chi tiết cách ông sử dụng các công cụ mã nguồn mở như GBrain để tạo ra một cơ sở tri thức cá nhân không ngừng phát triển cùng các quy trình làm việc tự động.

Mọi người cứ hỏi tôi tại sao lại thức đến 2 giờ sáng để code. Tôi có một công việc, và là một công việc lớn, với tư cách là CEO của Y Combinator. Chúng tôi giúp hàng nghìn người xây dựng mỗi năm để biến ước mơ của họ thành hiện thực, tạo ra những startup thực thụ với doanh thu thực tế và tăng trưởng nhanh.

Trong 5 tháng qua, AI đã biến tôi trở lại thành một người xây dựng. Cuối năm ngoái, các công cụ đã đủ tốt để tôi quay lại xây dựng. Không phải những dự án đồ chơi. Mà là những hệ thống thực sự có khả năng cộng dồn. Tôi muốn cho bạn thấy, bằng những ví dụ cụ thể, AI cá nhân thực sự trông như thế nào khi bạn ngừng coi nó như một cửa sổ trò chuyện và bắt đầu coi nó như một hệ điều hành. Và tôi chia sẻ nó dưới dạng mã nguồn mở và trong các bài viết như thế này bởi vì tôi muốn bạn cùng tăng tốc với tôi.

Đây là một phần của chuỗi bài viết: Fat Skills, Fat Code, Thin Harness đã giới thiệu kiến trúc cốt lõi. Resolvers đề cập đến bảng định tuyến cho trí thông minh. The LOC Controversy nói về việc mọi người kỹ thuật đều tự nhân lên gấp 100 đến 1000 lần. Naked models are stupider lập luận rằng mô hình chỉ là động cơ, không phải là chiếc xe. Và the skillify manifesto giải thích tại sao LangChain đã huy động được 160 triệu đô la và đưa cho bạn một cái giá đỡ tạ và bộ tạ đơn mà không có kế hoạch tập luyện, và sau đó đưa cho bạn kế hoạch tập luyện mà bạn cần.

Cuốn Sách Đã Đọc Lại Tôi

Tháng trước, tôi đang đọc cuốn "When Things Fall Apart" của Pema Chödrön. Cuốn sách dày 162 trang, 22 chương về các phương pháp Phật giáo đối phó với đau khổ, sự mất nền tảng và buông bỏ. Một người bạn đã giới thiệu nó trong một giai đoạn khó khăn.

Tôi đã yêu cầu AI của mình thực hiện một "bản sao gương" của cuốn sách.

Điều đó có nghĩa cụ thể là: Hệ thống đã trích xuất tất cả 22 chương của cuốn sách, và sau đó, với mỗi chương, chạy một tác nhân phụ thực hiện đồng thời hai việc: tóm tắt ý tưởng của tác giả, và sau đó ánh xạ mọi ý tưởng vào cuộc sống thực tế của tôi. Không phải những lời sáo rỗng chung chung kiểu "điều này áp dụng cho các nhà lãnh đạo". Mà là ánh xạ cụ thể. Nó biết lịch sử gia đình tôi (cha mẹ là người nhập cư, bố đến từ Hồng Kông và Singapore, mẹ đến từ Miến Điện). Nó biết bối cảnh nghề nghiệp của tôi (điều hành YC, xây dựng các công cụ mã nguồn mở, cố vấn cho hàng nghìn nhà sáng lập). Nó biết tôi đã đọc gì, tôi đã nghĩ gì lúc 2 giờ sáng, những gì tôi và các nhà trị liệu của tôi đang làm việc cùng.

Kết quả là một trang "bộ não" dài 30.000 từ. Mỗi chương được hiển thị dưới dạng hai cột: những gì Pema nói, và nó ánh xạ như thế nào đến những gì tôi thực sự đang trải qua. Chương về sự mất nền tảng kết nối với một cuộc trò chuyện cụ thể với một nhà sáng lập mà tôi đã có vào tuần trước. Chương về nỗi sợ hãi ánh xạ đến các khuôn mẫu mà nhà trị liệu của tôi đã xác định. Chương về buông bỏ đề cập đến một buổi đêm khuya nơi tôi đã viết về sự tự do sáng tạo mà tôi tìm thấy trong năm nay.

Toàn bộ quá trình mất khoảng 40 phút. Một nhà trị liệu với giá 300 đô la/giờ đọc cuốn sách này và áp dụng nó vào cuộc sống của tôi không thể làm điều này trong 40 giờ, bởi vì họ không có toàn bộ đồ thị về bối cảnh nghề nghiệp, lịch sử đọc sách, ghi chú cuộc họp và các mối quan hệ với nhà sáng lập của tôi được tải sẵn và có thể tham chiếu chéo.

Tôi đã làm điều này với hơn 20 cuốn sách: Amplified (Dion Lim), Autobiography of Bertrand Russell, Designing Your Life, Drama of the Gifted Child, Finite and Infinite Games, Gift from the Sea (Lindbergh), Siddhartha (Hesse), Steppenwolf (Hesse), The Art of Doing Science and Engineering (Hamming), The Dream Machine, The Book on the Taboo Against Knowing Who You Are (Alan Watts), What Do You Care What Other People Think (Feynman), When Things Fall Apart (Pema Chodron), A Brief History of Everything (Ken Wilber), và nhiều hơn nữa. Mỗi cuốn sách càng trở nên phong phú hơn vì bộ não ngày càng phong phú hơn. Bản sao gương thứ hai đã biết về bản đầu tiên. Bản thứ hai mươi đã biết về tất cả mười chín bản trước.

Cách "Bản Sao Gương Sách" Trở Nên Tốt Hơn Qua Từng Lần Lặp

Bản sao gương sách đầu tiên tôi thực hiện thật tệ. Phiên bản 1 có ba lỗi thực tế về gia đình tôi. Nó nói bố mẹ tôi đã ly hôn trong khi thực tế không phải vậy. Nó nói tôi lớn lên ở Hồng Kông trong khi tôi sinh ra ở Canada. Những điều cơ bản có thể làm hỏng lòng tin nếu tôi chia sẻ nó.

Vì vậy, tôi đã thêm một bước kiểm tra thực tế bắt buộc. Mọi bản sao gương hiện nay đều chạy đánh giá đa phương thức dựa trên các sự kiện đã biết trong bộ não trước khi được xuất bản. Opus 4.7 1M phát hiện lỗi chính xác. GPT-5.5 phát hiện thiếu ngữ cảnh. DeepSeek V4-Pro phát hiện khi nội dung đọc chung chung.

Sau đó, tôi nâng cấp lên truy xuất sâu với công cụ GBrain. Phiên bản gốc giỏi tổng hợp nhưng yếu về tính cụ thể. Phiên bản 3 thực hiện tìm kiếm trong bộ não theo từng phần. Mọi mục ở cột bên phải đều trích dẫn các trang bộ não thực tế. Khi cuốn sách nói về việc xử lý các cuộc trò chuyện khó khăn, nó không chỉ tổng hợp các nguyên tắc chung. Nó lấy từ các ghi chú cuộc họp thực tế của tôi với những nhà sáng lập cụ thể đang có những cuộc trò chuyện khó khăn với đồng sáng lập. Hoặc ý tưởng tôi có vào một ngày thứ Năm đi chơi với anh trai James. Hoặc cuộc trò chuyện IM tôi đã có với bạn cùng phòng đại học khi tôi 19 tuổi. Thật kỳ lạ.

Đây là ý nghĩa thực tế của "skillification" (sử dụng /skillify trong GBrain). Tôi đã lấy nỗ lực thủ công đầu tiên, trích xuất khuôn mẫu có thể lặp lại, viết một tệp kỹ năng đã được kiểm thử với các trình kích hoạt và trường hợp ngoại lệ, và mọi bản sửa lỗi đều được cộng dồn vào tất cả các bản sao gương sách trong tương lai.

Kỹ Năng Xây Dựng Kỹ Năng

Đây là nơi nó trở nên đệ quy, và tôi nghĩ đó là insight lớn nhất.

Hệ thống vận hành cuộc sống của tôi không tồn tại như một khối nguyên khối. Nó được lắp ráp từ các kỹ năng. Và những kỹ năng đó tự chúng được tạo ra bởi một kỹ năng.

Skillify là một siêu kỹ năng tạo ra các kỹ năng mới. Khi tôi gặp một quy trình công việc mà tôi sẽ lặp lại, tôi nói "skillify cái này" và nó xem xét những gì vừa xảy ra, trích xuất khuôn mẫu có thể lặp lại, viết một tệp kỹ năng đã được kiểm thử với các trình kích hoạt và trường hợp ngoại lệ, và đăng ký nó trong bộ phân giải. Quy trình tạo bản sao gương sách đã được skillified ngay từ lần đầu tiên tôi làm thủ công. Quy trình chuẩn bị cuộc họp đã được skillified sau khi tôi nhận thấy mình đang làm các bước giống nhau trước mỗi cuộc gọi.

Các kỹ năng kết hợp với nhau. Bản sao gương sách gọi brain-ops để lưu trữ, enrich để lấy ngữ cảnh, cross-modal-eval để đảm bảo chất lượng, và pdf-generation để xuất kết quả. Mỗi kỹ năng tập trung vào một việc. Chúng kết nối với nhau để tạo ra các quy trình làm việc phức tạp. Khi tôi cải thiện một kỹ năng, mọi quy trình làm việc sử dụng nó đều tự động trở nên tốt hơn. Không còn cảnh "quên đề cập đến trường hợp ngoại lệ này trong prompt của tôi." Kỹ năng đó sẽ ghi nhớ.

Cuộc Họp Tự Chuẩn Bị

Demis Hassabis đã đến YC cho một buổi trò chuyện bên lò sưởi. Cuốn tiểu sử của Sebastian Mallaby về ông ấy vừa được phát hành.

Tôi yêu cầu hệ thống chuẩn bị cho tôi.

Trong vòng chưa đầy hai phút, nó đã lấy được: Trang bộ não đầy đủ của Demis (đã được tích lũy trong nhiều tháng từ các bài báo, bản ghi podcast và ghi chú của riêng tôi). Niềm tin đã công bố của ông ấy về lộ trình AGI ("50% mở rộng quy mô, 50% đổi mới", cho rằng AGI còn 5-10 năm nữa). Những điểm nổi bật từ cuốn tiểu sử của Mallaby. Các ưu tiên nghiên cứu đã nêu của ông ấy (học liên tục, mô hình thế giới, bộ nhớ dài hạn). Tham chiếu chéo đến những điều tôi đã nói công khai về AI. Ba kịch bản demo để thể hiện khả năng suy luận đa bước của bộ não trong suốt cuộc trò chuyện. Và một tập hợp các móc nối trò chuyện dựa trên nơi thế giới quan của chúng tôi trùng lặp và khác biệt.

Đây không chỉ là một tìm kiếm Google tốt hơn. Đây là sự chuẩn bị sử dụng ngữ cảnh tích lũy của tôi về Demis, quan điểm của riêng tôi và các mục tiêu chiến lược cho cuộc trò chuyện. Hệ thống chuẩn bị không chỉ các sự kiện, mà còn cả các góc nhìn.

Bộ Não 100.000 Trang Trông Như Thế Nào

Tôi duy trì một cơ sở kiến thức có cấu trúc với khoảng 100.000 trang. Mỗi người tôi gặp đều có một trang với dòng thời gian, phần trạng thái (những gì đang đúng hiện tại), các chủ đề đang mở và một điểm số. Mỗi cuộc họp đều có bản ghi, một bản tóm tắt có cấu trúc và một thứ tôi gọi là "entity propagation": sau mỗi cuộc họp, hệ thống sẽ xem xét từng người và công ty được đề cập và cập nhật trang bộ não của họ với những gì đã được thảo luận. Mỗi cuốn sách tôi đọc đều có một bản sao gương theo từng chương. Mỗi bài báo, podcast và video tôi tương tác đều được đưa vào, gắn thẻ và tham chiếu chéo.

Lược đồ rất đơn giản. Mỗi trang có: sự thật đã tổng hợp ở trên cùng (sự hiểu biết tốt nhất hiện tại), một dòng thời gian chỉ nối thêm bên dưới (các sự kiện theo thứ tự thời gian) và các phần dữ liệu thô cho tài liệu nguồn. Hãy nghĩ về nó như một Wikipedia cá nhân nơi mọi trang được cập nhật liên tục bởi một AI đã tham dự cuộc họp, đọc email, xem bài nói chuyện và đưa vào tệp PDF.

Đây là một ví dụ về cách điều này cộng dồn. Tôi gặp một nhà sáng lập tại giờ làm việc. Hệ thống tạo hoặc cập nhật trang cá nhân của họ, trang công ty của họ, tham chiếu chéo các ghi chú cuộc họp, kiểm tra xem tôi đã gặp họ trước đây chưa (và hiển thị những gì chúng tôi đã thảo luận lần trước), kiểm tra dữ liệu đăng ký của họ, lấy các chỉ số mới nhất của họ và xác định xem có bất kỳ công ty nào trong danh mục đầu tư hoặc mối quan hệ nào của tôi có liên quan đến vấn đề của họ hay không. Vào lúc tôi bước vào cuộc họp tiếp theo với họ, hệ thống đã có sẵn một gói ngữ cảnh đầy đủ.

Đây là sự khác biệt giữa việc có một tủ hồ sơ và có một hệ thần kinh. Tủ hồ sơ lưu trữ mọi thứ. Hệ thần kinh kết nối chúng, đánh dấu những gì đã thay đổi và hiển thị những gì có liên quan đến thời điểm hiện tại.

Kiến Trúc

Đây là cách nó hoạt động. Tôi nghĩ đây là cách đúng đắn để xây dựng AI cá nhân, và tôi đã mã nguồn mở toàn bộ để bạn có thể tự xây dựng nó.

Bộ điều khiển (harness) mỏng. OpenClaw là runtime. Nó nhận tin nhắn của tôi, xác định kỹ năng nào phù hợp và điều phối. Một vài nghìn dòng logic định tuyến. Nó không biết gì về sách, cuộc họp hay nhà sáng lập. Nó chỉ định tuyến.

Các kỹ năng dày. Hiện có hơn 100 kỹ năng, mỗi kỹ năng là một tệp markdown độc lập với hướng dẫn chi tiết cho một nhiệm vụ cụ thể. Bạn đã thấy book-mirror và meeting-prep ở trên. Dưới đây là một vài kỹ năng khác đi kèm với GBrain:

  • meeting-ingestion: Sau mỗi cuộc họp, nó lấy bản ghi, tạo một bản tóm tắt có cấu trúc, và sau đó xem xét từng người và công ty được đề cập và cập nhật trang bộ não của họ với những gì đã được thảo luận. Trang cuộc họp không phải là sản phẩm cuối cùng. Việc entity propagation trở lại mọi trang cá nhân và công ty mới là giá trị thực sự.
  • enrich: Đưa tên một người. Nó lấy từ năm nguồn khác nhau, hợp nhất mọi thứ thành một trang bộ não duy nhất với quỹ đạo sự nghiệp, thông tin liên lạc, lịch sử cuộc họp và bối cảnh mối quan hệ. Trích dẫn nguồn cho mọi tuyên bố.
  • media-ingest: Xử lý video, âm thanh, PDF, ảnh chụp màn hình, kho lưu trữ GitHub. Phiên âm, trích xuất thực thể, lưu vào đúng vị trí trong bộ não. Tôi sử dụng cái này liên tục cho các video YouTube, podcast và ghi chú thoại.
  • perplexity-research: Nghiên cứu web được tăng cường bởi bộ não. Tìm kiếm web qua Perplexity, nhưng trước khi tổng hợp, nó kiểm tra những gì bộ não đã biết để có thể cho bạn biết điều gì thực sự mới so với những gì bạn đã ghi lại.

Tôi có hàng tá kỹ năng khác mà tôi đã xây dựng cho công việc của riêng mình và có thể sẽ mã nguồn mở: email-triage, investor-update-ingest phát hiện các cập nhật danh mục đầu tư trong email của tôi và trích xuất các chỉ số vào trang công ty, calendar-check để phát hiện xung đột và bất khả thi về lịch trình, và toàn bộ một stack nghiên cứu báo chí mà tôi sử dụng cho công việc dân sự. Mỗi kỹ năng mã hóa kiến thức vận hành mà một trợ lý con người mới sẽ mất nhiều tháng để học. Khi ai đó hỏi tôi "prompt" AI của tôi như thế nào, câu trả lời là: Tôi không làm vậy. Các kỹ năng chính là các prompt.

Dữ liệu dày. 100.000 trang kiến thức có cấu trúc trong kho lưu trữ bộ não. Mọi người, công ty, cuộc họp, sách, bài báo và ý tưởng tôi đã tương tác, tất cả đều được liên kết, tất cả đều có thể tìm kiếm, tất cả đều phát triển mỗi ngày.

Mã nguồn dày. Mã nguồn nuôi dưỡng nó (các tập lệnh cho phiên âm, OCR, lưu trữ mạng xã hội, đồng bộ lịch, tích hợp API) cũng quan trọng, nhưng dữ liệu mới là nơi giá trị cộng dồn tồn tại. Tôi chạy hơn 100 cron mỗi ngày để kiểm tra mọi thứ: mạng xã hội, Slack, email, bất cứ thứ gì tôi chú ý đến, các tác nhân OpenClaw/Hermes của tôi cũng xem xét chúng cho tôi.

Các mô hình có thể hoán đổi cho nhau. Tôi chạy Opus 4.7 1M cho độ chính xác. GPT-5.5 cho khả năng thu hồi và trích xuất toàn diện. DeepSeek V4-Pro cho công việc sáng tạo và góc nhìn thứ ba. Groq với Llamma cho tốc độ. Kỹ năng quyết định mô hình nào sẽ gọi cho nhiệm vụ nào. Bộ điều khiển không quan tâm. Khi ai đó hỏi "mô hình AI nào là tốt nhất", câu trả lời là: sai câu hỏi. Mô hình chỉ là động cơ. Mọi thứ khác là chiếc xe.

Người Xây Dựng Lúc 2 Giờ Sáng và Hệ Thống Cộng Dồn

Mọi người hỏi tôi về năng suất. Tôi không nghĩ về nó theo cách đó. Điều tôi nghĩ đến là sự cộng dồn.

Mỗi cuộc họp tôi tham gia đều bổ sung vào bộ não. Mỗi cuốn sách tôi đọc đều làm phong phú thêm ngữ cảnh cho cuốn sách tiếp theo. Mỗi kỹ năng tôi xây dựng đều làm cho quy trình làm việc tiếp theo nhanh hơn. Mỗi trang cá nhân tôi cập nhật đều làm cho việc chuẩn bị cuộc họp tiếp theo sắc bén hơn. Hệ thống hôm nay mạnh gấp 10 lần so với hai tháng trước, và hai tháng nữa nó sẽ lại mạnh gấp 10 lần.

Khi tôi vẫn thức lúc 2 giờ sáng để code (và tôi thường xuyên như vậy, bởi vì AI đã trả lại cho tôi niềm vui xây dựng), tôi không chỉ viết phần mềm. Tôi đang thêm vào một hệ thống trở nên tốt hơn mỗi giờ. 100 cronjob 24/7. Quá trình đưa vào cuộc họp chạy tự động. Việc phân loại email chạy mỗi 10 phút. Đồ thị tri thức tự làm giàu từ mọi cuộc trò chuyện. Hệ thống xử lý các bản ghi hàng ngày và trích xuất các khuôn mẫu mà tôi đã bỏ lỡ trong thời gian thực.

Đây không phải là một công cụ viết lách. Nó không phải là một công cụ tìm kiếm. Nó không phải là một chatbot. Nó là một bộ não thứ hai thực sự hoạt động, không phải như một phép ẩn dụ, mà là một hệ thống đang chạy với 100.000 trang, hơn 100 kỹ năng, 15 cron job và ngữ cảnh tích lũy của mọi mối quan hệ nghề nghiệp, cuộc họp, cuốn sách và ý tưởng mà tôi đã tương tác trong năm qua.

Tôi đã mã nguồn mở toàn bộ stack. GStack là framework kỹ năng lập trình (hơn 87.000 sao) mà tôi đã sử dụng để xây dựng nó. Tôi vẫn sử dụng nó như một kỹ năng bên trong tác nhân OpenClaw/Hermes khi tác nhân cần code. Có một trình duyệt có thể lập trình tuyệt vời (cả có đầu và không đầu) trong đó. GBrain là cơ sở hạ tầng kiến thức. OpenClawHermes Agent là các bộ điều khiển, bạn nên chọn nhưng tôi thường dùng cả hai. Các kho dữ liệu nằm trên GitHub.

Luận điểm rất đơn giản: tương lai thuộc về những cá nhân xây dựng các hệ thống AI cộng dồn, không phải những cá nhân sử dụng các công cụ AI tập trung do công ty sở hữu. Sự khác biệt là sự khác biệt giữa việc giữ một cuốn nhật ký và có một hệ thần kinh.

Cách Bắt Đầu

Nếu bạn muốn xây dựng điều này:

  1. Chọn một bộ điều khiển. OpenClaw, Hermes Agent, hoặc tự xây dựng từ đầu với Pi. Giữ nó mỏng. Bộ điều khiển chỉ là bộ định tuyến. Lưu trữ nó trên máy tính dự phòng ở nhà với Tailscale, hoặc sử dụng Render hoặc Railway trên đám mây.
  2. Bắt đầu một bộ não với GBrain. Tôi đã lấy cảm hứng từ LLM Wiki của Karpathy, triển khai nó trong OpenClaw và mở rộng nó thành GBrain. Đây là hệ thống truy xuất tốt nhất mà tôi đã đánh giá (độ thu hồi 97,6% trên LongMemEval, vượt qua MemPalace mà không cần LLM trong vòng lặp truy xuất) và nó đi kèm 39 kỹ năng có thể cài đặt bao gồm mọi thứ được mô tả trong bài viết này. Một lệnh để cài đặt. Một kho git nơi mọi người, cuộc họp, bài báo và ý tưởng đều có một trang.
  3. Làm một điều gì đó thú vị. Đừng bắt đầu bằng cách lên kế hoạch kiến trúc kỹ năng của bạn. Hãy bắt đầu bằng cách làm một việc. Viết một báo cáo. Nghiên cứu một người. Tải xuống một mùa giải điểm số NBA và xây dựng mô hình dự đoán cho cá cược thể thao của bạn. Phân tích danh mục đầu tư của bạn. Bất cứ điều gì bạn thực sự quan tâm. Hãy làm điều đó với tác nhân của bạn, lặp lại cho đến khi nó tốt, và sau đó chạy Skillify (siêu kỹ năng từ phần trước) để trích xuất khuôn mẫu thành một kỹ năng có thể tái sử dụng. Sau đó chạy check_resolvable để xác minh kỹ năng mới đã được kết nối vào bộ phân giải. Vòng lặp đó biến công việc một lần thành cơ sở hạ tầng cộng dồn.
  4. Tiếp tục sử dụng nó và xem xét đầu ra. Kỹ năng sẽ tệ lúc đầu. Đó là vấn đề. Sử dụng nó, đọc những gì nó tạo ra, và khi có điều gì đó không ổn, hãy chạy cross-modal eval: gửi đầu ra qua nhiều mô hình và để chúng chấm điểm lẫn nhau trên các khía cạnh bạn quan tâm. Đó là cách tôi phát hiện ra các lỗi thực tế trong book-mirror. Bản sửa lỗi đã được tích hợp vào kỹ năng, và mọi bản sao gương kể từ đó đều sạch sẽ. Trong sáu tháng, bạn sẽ có thứ mà không chatbot nào có thể sao chép, bởi vì giá trị không nằm ở mô hình. Nó nằm ở những gì bạn đã dạy cho hệ thống về cuộc sống, công việc và khả năng phán đoán cụ thể của bạn.

Điều đầu tiên tôi xây dựng với hệ thống này thật tệ. Điều thứ một trăm là thứ tôi tin tưởng giao phó lịch, hộp thư đến, việc chuẩn bị cuộc họp và danh sách đọc của mình. Hệ thống đã học. Tôi đã học. Đường cong cộng dồn là có thật.

Kỹ năng dày. Mã nguồn dày. Bộ điều khiển mỏng. LLM tự nó chỉ là một động cơ. Bạn có thể tự xây dựng chiếc xe của mình.

Mọi thứ tôi mô tả ở đây, tất cả các kỹ năng, quy trình tạo bản sao gương sách, framework đánh giá đa phương thức, vòng lặp skillify, kiến trúc bộ phân giải, cùng với hơn 30 gói kỹ năng có thể cài đặt, đều là mã nguồn mở và miễn phí trên GitHub: github.com/garrytan/gbrain. Hãy đi xây dựng.

json
1{
2 "translate_text": "People keep asking me why I am spending my nights coding til 2AM. I have a job and a big one, as CEO of Y Combinator. We help thousands of builders a year to create their dreams of building real startups with real revenue that grow fast.\n\nIn the last 5 months, AI made me a builder again. Late last year, the tools got good enough that I went back to building. Not toy projects. Real systems that compound. I want to show you, with specific examples, what personal AI actually looks like when you stop treating it as a chat window and start treating it as an operating system. And I give it away as open source and in articles like this because I want you to speed up with me.\n\nThis is part of a series: [Fat Skills, Fat Code, Thin Harness](https://x.com/garrytan/status/2042925773300908103) introduced the core architecture. [Resolvers](https://x.com/garrytan/status/2044479509874020852) covered the routing table for intelligence. [The LOC Controversy](https://x.com/garrytan/status/2045404377226285538) was about how every technical person just multiplied themselves by 100x to 1000x. [Naked models are stupider](https://x.com/garrytan/status/2045798603059548364) argued that the model is the engine, not the car. And [the skillify manifesto](https://x.com/garrytan/status/2046876981711769720) explained why LangChain raised $160M and gave you a squat rack and dumbell set without a workout plan, and then gave you that workout plan you needed.\n\n## The Book That Read Me Back\n\nLast month I was reading Pema Chödrön's When Things Fall Apart. It's 162 pages, 22 chapters on Buddhist approaches to suffering, groundlessness, and letting go. A friend recommended it during a hard period.\n\nI asked my AI to do a book mirror.\n\nWhat that means concretely: The system extracted all 22 chapters of the book, and then, for each chapter, ran a sub-agent that did two things simultaneously: summarized the author's ideas, and then mapped every idea to my actual life. Not generic \"this applies to leaders\" pablum. Specific mapping. It knows my family history (immigrant parents, dad from Hong Kong and Singapore, mom from Burma). It knows my professional context (running YC, building open-source tools, mentoring thousands of founders). It knows what I've been reading, what I've been thinking about at 2am, what my therapists and I are working on.\n\nThe output was a 30,000-word brain page. Each chapter rendered as two columns: what Pema says, and how it maps to what I'm actually living through. The chapter on groundlessness connected to a specific founder conversation I'd had the week before. The chapter on fear mapped to patterns my therapist had identified. The chapter on letting go referenced a late-night session where I'd written about the creative freedom I'd found this year.\n\nThe whole thing took about 40 minutes. A $300/hour therapist reading this book and applying it to my life couldn't do this in 40 hours, because they don't have the full graph of my professional context, my reading history, my meeting notes, and my founder relationships all loaded and cross-referenceable.\n\nI've done this with over 20 books now: Amplified (Dion Lim), Autobiography of Bertrand Russell, Designing Your Life, Drama of the Gifted Child, Finite and Infinite Games, Gift from the Sea (Lindbergh), Siddhartha (Hesse), Steppenwolf (Hesse), The Art of Doing Science and Engineering (Hamming), The Dream Machine, The Book on the Taboo Against Knowing Who You Are (Alan Watts), What Do You Care What Other People Think (Feynman), When Things Fall Apart (Pema Chodron), A Brief History of Everything (Ken Wilber), and more. Each one gets richer because the brain gets richer. The second mirror knew about the first. The twentieth knew about all nineteen.\n\n## How Book-Mirror Got Better Through Iteration\n\nThe first book mirror I did was terrible. Version 1 had three factual errors about my family. It said my parents were divorced when they weren't. Said I grew up in Hong Kong when I was born in Canada. Basic stuff that could have damaged trust if I'd shared it.\n\nSo I added a mandatory fact-check step. Every mirror now runs cross-modal evaluation against known facts in the brain before it ships. Opus 4.7 1M catches precision errors. GPT-5.5 catches missing context. DeepSeek V4-Pro catches when something reads as generic.\n\nThen I upgraded to deep retrieval with GBrain tool use. The original version was good at synthesis but weak on specificity. Version 3 does per-section brain searches. Every right-column entry cites actual brain pages. When the book talks about dealing with difficult conversations, it doesn't just synthesize general principles. It pulls from my actual meeting notes with specific founders who were having tough conversations with co-founders. Or that idea I had on a Thursday hanging out with my brother James. Or the IM chat I had with my college roommate when I was 19. It's uncanny.\n\nThis is what skillification (using /skillify in GBrain) means in practice. I took the first manual attempt, extracted the repeatable pattern, wrote a tested skill file with triggers and edge cases, and every fix compounded across all future book mirrors.\n\n## Skills That Build Skills\n\nHere's where it gets recursive, and where I think the biggest insight is.\n\nThe system that runs my life didn't exist as a monolith. It was assembled from skills. And those skills were themselves created by a skill.\n\nSkillify is a meta-skill that creates new skills. When I encounter a workflow I'm going to repeat, I say \"skillify this\" and it examines what just happened, extracts the repeatable pattern, writes a tested skill file with triggers and edge cases, and registers it in the resolver. The book-mirror pipeline was skillified from the first time I did it manually. The meeting-prep workflow was skillified after I noticed I was doing the same steps before every call.\n\nSkills compose. Book-mirror calls brain-ops for storage, enrich for context, cross-modal-eval for quality, and pdf-generation for output. Each skill is focused on one thing. They chain together to create complex workflows. When I improve one skill, every workflow that uses it gets better automatically. No more \"forgot to mention this edge case in my prompt.\" The skill remembers.\n\n## The Meeting That Prepped Itself\n\nDemis Hassabis came to YC for a fireside chat. Sebastian Mallaby's biography of him had just come out.\n\nI asked the system to prep me.\n\nIn under two minutes it pulled: Demis's full brain page (which had been accumulating for months from articles, podcast transcripts, and my own notes). His published beliefs about AGI timelines (\"50% scaling, 50% innovation,\" thinks AGI is 5-10 years away). The Mallaby biography highlights. His stated research priorities (continual learning, world models, long-term memory). Cross-references to things I've said publicly about AI. Three demo scripts for showing the brain's multi-hop reasoning capability during the conversation. And a set of conversation hooks based on where our worldviews overlap and diverge.\n\nThis wasn't just a better Google search. This was preparation that used my accumulated context about Demis, my own positions, and the strategic goals for the conversation. The system prepped not just facts, but angles.\n\n## What 100,000 Pages of Brain Looks Like\n\nI maintain a structured knowledge base with about 100,000 pages. Every person I meet gets a page with a timeline, a state section (what's currently true), open threads, and a score. Every meeting gets a transcript, a structured summary, and something I call entity propagation: after every meeting, the system walks through every person and company mentioned and updates their brain pages with what was discussed. Every book I read gets a chapter-by-chapter mirror. Every article, podcast, and video I engage with gets ingested, tagged, and cross-referenced.\n\nThe schema is simple. Each page has: compiled truth at the top (the current best understanding), an append-only timeline below (events in chronological order), and raw data sidecars for source material. Think of it as a personal Wikipedia where every page is continuously updated by an AI that was at the meeting, read the email, watched the talk, and ingested the PDF.\n\nHere's an example of how this compounds. I meet a founder at office hours. The system creates or updates their person page, their company page, cross-references the meeting notes, checks if I've met them before (and surfaces what we discussed last time), checks their application data, pulls their latest metrics, and identifies if any of my portfolio companies or contacts are relevant to their problem. By the time I walk into the next meeting with them, the system has a full context pack ready.\n\nThis is the difference between having a filing cabinet and having a nervous system. The filing cabinet stores things. The nervous system connects them, flags what's changed, and surfaces what's relevant to right now.\n\n## The Architecture\n\nHere's how it works. I think this is the right way to build personal AI, and I open-sourced the whole thing so you can build it yourself.\n\nThe harness is thin. OpenClaw is the runtime. It receives my messages, figures out which skill applies, and dispatches. A few thousand lines of routing logic. It doesn't know anything about books or meetings or founders. It just routes.\n\nThe skills are fat. Over 100 of them now, each a self-contained markdown file with detailed instructions for one specific task. You've already seen book-mirror and meeting-prep above. Here are a few more that ship with [GBrain](https://github.com/garrytan/gbrain):\n\n- meeting-ingestion: After every meeting, it pulls the transcript, creates a structured summary, and then walks through every person and company mentioned and updates their brain pages with what was discussed. The meeting page is not the end product. The entity propagation back to every person and company page is the real value.\n- enrich: Give it a person's name. It pulls from five different sources, merges everything into a single brain page with career arc, contact info, meeting history, and relationship context. Cited sources on every claim.\n- media-ingest: Handles video, audio, PDF, screenshots, GitHub repos. Transcribes, extracts entities, files to the right brain location. I use this constantly for YouTube videos, podcasts, and voice memos.\n- perplexity-research: Brain-augmented web research. Searches the web via Perplexity, but before synthesizing, checks what the brain already knows so it can tell you what's actually new vs. what you've already captured.\n\nI have dozens more I've built for my own work that I'll probably open source: email-triage, investor-update-ingest that detects portfolio updates in my email and extracts metrics into company pages, calendar-check for conflict detection and travel impossibility, and a whole journalistic research stack I use for civic work. Each skill encodes operational knowledge that would take a new human assistant months to learn. When someone asks how I \"prompt\" my AI, the answer is: I don't. The skills are the prompts.\n\nThe data is fat. 100,000 pages of structured knowledge in the brain repo. Every person, company, meeting, book, article, and idea I've engaged with, all linked, all searchable, all growing every day.\n\nThe code is fat. The code that feeds it (scripts for transcription, OCR, social media archival, calendar sync, API integrations) matters too, but the data is where the compound value lives. I run more than 100 crons per day that check all the things: social media, Slack, email, whatever I pay attention to, my OpenClaw/Hermes Agents look at for me too.\n\nThe models are interchangeable. I run Opus 4.7 1M for precision. GPT-5.5 for recall and exhaustive extraction. DeepSeek V4-Pro for creative work and third perspectives. Groq with Llamma for speed. The skill decides which model to call for which task. The harness doesn't care. When someone asks \"which AI model is best,\" the answer is: wrong question. The model is just the engine. Everything else is the car.\n\n## The 2am Builder and the Compounding System\n\nPeople ask me about productivity. I don't think about it that way. What I think about is compounding.\n\nEvery meeting I take adds to the brain. Every book I read enriches the context for the next book. Every skill I build makes the next workflow faster. Every person page I update makes the next meeting prep sharper. The system today is 10x what it was two months ago, and two months from now it'll be 10x again.\n\nWhen I'm still up at 2am coding (and I am, regularly, because AI gave me back the joy of building), I'm not just writing software. I'm adding to a system that gets better every hour. 100 cronjobs 24/7. The meeting ingestion runs automatically. The email triage runs every 10 minutes. The knowledge graph enriches itself from every conversation. The system processes daily transcripts and extracts patterns I missed in real time.\n\nThis is not a writing tool. It's not a search engine. It's not a chatbot. It's a second brain that actually works, not as a metaphor, but as a running system with 100,000 pages, 100+ skills, 15 cron jobs, and the accumulated context of every professional relationship, meeting, book, and idea I've engaged with in the last year.\n\nI open-sourced the whole stack. [GStack](https://github.com/garrytan/gstack) is the coding skill framework (87,000+ stars) that I used to build it. I still use it as a skill inside OpenClaw/Hermes Agent when the agent needs to code. There's a great programmable browser (both headed and headless) in there. [GBrain](https://github.com/garrytan/gbrain) is the knowledge infrastructure. [OpenClaw](https://openclaw.ai/) and [Hermes Agent](https://hermes-agent.nousresearch.com/) are the harnesses, you should choose but I usually do both. The data repos are on GitHub.\n\nThe thesis is simple: the future belongs to individuals who build compounding AI systems, not to individuals who use corporate-owned centralized AI tools. The difference is the difference between keeping a journal and having a nervous system.\n\n## How to Start\n\nIf you want to build this:\n\n1. Pick a harness. [OpenClaw](https://openclaw.ai/), [Hermes Agent](https://github.com/nicobailon/hermes-agent), or build your own from scratch with [Pi](https://github.com/anthropics/anthropic-cookbook/tree/main/misc/prompt_caching). Keep it thin. The harness is just the router. Host it on your spare computer at home with Tailscale, or use Render or Railway in the cloud.\n1. Start a brain with [GBrain](https://github.com/garrytan/gbrain). I got [inspired by Karpathy's LLM Wiki](https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f), implemented it in OpenClaw, and extended it into GBrain. It's the [best retrieval system I've benchmarked](https://github.com/garrytan/gbrain-evals) (97.6% recall on LongMemEval, beating MemPalace with no LLM in the retrieval loop) and it ships 39 installable skills including everything described in this article. One command to install. A git repo where every person, meeting, article, and idea gets a page.\n1. Do something interesting. Don't start by planning your skill architecture. Start by doing a thing. Write a report. Research a person. Download a season of NBA scores and build a prediction model for your sports bets. Analyze your portfolio. Whatever you actually care about. Do it with your agent, iterate until it's good, and then run Skillify (the meta-skill from earlier) to extract the pattern into a reusable skill. Then run check_resolvable to verify the new skill is wired into the resolver. That loop turns one-off work into compounding infrastructure.\n1. Keep using it and look at the output. The skill will be mediocre at first. That's the point. Use it, read what it produces, and when something is off, run cross-modal eval: send the output through multiple models and have them score each other on the dimensions you care about. That's how I caught the factual errors in book-mirror. The fix got baked into the skill, and every mirror since has been clean. In six months you'll have something no chatbot can replicate, because the value isn't in the model. It's in what you've taught the system about your specific life, work, and judgment.\n\nThe first thing I built with this system was terrible. The hundredth was something I'd trust with my calendar, my inbox, my meeting prep, and my reading list. The system learned. I learned. The compound curve is real.\n\nFat skills. Fat code. Thin harness. The LLM on its own is just an engine. You can build your own car.\n\nEverything I described here, all the skills, the book mirror pipeline, the cross-modal eval framework, the skillify loop, the resolver architecture, plus 30+ installable skillpacks, is open source and free on GitHub: [github.com/garrytan/gbrain](https://github.com/garrytan/gbrain). Go build.",
3 "answer": "0.001200"
4}

More patterns to decode

Recent viral articles

Explore more viral articles

Được xây dựng cho nhà sáng tạo.

Tìm ý tưởng từ các bài viết viral trên 𝕏, giải mã vì sao chúng hiệu quả và biến pattern đó thành góc nội dung tiếp theo của bạn.