Meta-Meta-Prompting: Yapay Zeka Ajanlarını Çalıştırmanın Sırrı

Meta-Meta-Prompting: Yapay Zeka Ajanlarını Çalıştırmanın Sırrı

@garrytan
İNGILIZCE3 gün önce · 09 May 2026

AI features

1.4M
3.5K
486
129
11.0K

TL;DR

Garry Tan, yapay zeka ajanları için geliştirdiği 'Fat Skills, Thin Harness' mimarisini açıklıyor; GBrain gibi açık kaynaklı araçları kullanarak nasıl katlanarak büyüyen bir kişisel bilgi tabanı ve otomatik iş akışları oluşturduğunu detaylandırıyor.

İnsanlar bana neden geceleri sabah 2'ye kadar kod yazdığımı sorup duruyor. Bir işim var hem de büyük bir iş, Y Combinator'ın CEO'su olarak. Her yıl binlerce kurucuya, hızla büyüyen, gerçek geliri olan gerçek girişimler kurma hayallerini gerçekleştirmelerinde yardımcı oluyoruz.

Son 5 ayda yapay zeka beni yeniden bir üretici yaptı. Geçen yılın sonunda, araçlar yeniden üretmeye başlayacak kadar iyi hale geldi. Oyuncak projeler değil. Biriken gerçek sistemler. Size, kişisel yapay zekanın, onu bir sohbet penceresi olarak görmeyi bırakıp bir işletim sistemi olarak ele almaya başladığınızda gerçekte neye benzediğini, somut örneklerle göstermek istiyorum. Ve bunu açık kaynak olarak ve bu makale gibi yazılarla paylaşıyorum çünkü sizin de benimle birlikte hızlanmanızı istiyorum.

Bu bir serinin parçası: Kalın Beceriler, Kalın Kod, İnce Çerçeve temel mimariyi tanıttı. Çözümleyiciler zeka için yönlendirme tablosunu ele aldı. LOC Tartışması her teknik insanın kendini nasıl 100 katından 1000 katına çıkardığıyla ilgiliydi. Çıplak modeller daha aptaldır modelin motor olduğunu, araba olmadığını savundu. Ve becerileştirme manifestosu LangChain'in neden 160 milyon dolar topladığını ve size bir egzersiz programı olmadan bir squat rack ve dambıl seti verdiğini ve ardından size ihtiyacınız olan o egzersiz programını verdiğini açıkladı.

Beni Okuyan Kitap

Geçen ay Pema Chödrön'ün Her Şey Dağılırken kitabını okuyordum. 162 sayfa, acı çekme, temelsizlik ve bırakma üzerine Budist yaklaşımları hakkında 22 bölüm. Zor bir dönemde bir arkadaşım tavsiye etmişti.

Yapay zekama bir kitap aynası yapmasını istedim.

Bunun somut anlamı: Sistem kitabın 22 bölümünün tamamını çıkardı ve ardından her bölüm için aynı anda iki şey yapan bir alt-ajan çalıştırdı: yazarın fikirlerini özetledi ve ardından her fikri gerçek hayatımla eşleştirdi. "Bu liderler için geçerlidir" türünden genel geçer laflar değil. Spesifik eşleme. Aile geçmişimi biliyor (göçmen ebeveynler, babam Hong Kong ve Singapur'dan, annem Burma'dan). Profesyonel bağlamımı biliyor (YC'yi yönetmek, açık kaynak araçlar geliştirmek, binlerce kurucuya mentorluk yapmak). Ne okuduğumu, sabah 2'de ne düşündüğümü, terapistlerimle ve benim üzerinde ne çalıştığımızı biliyor.

Çıktı 30.000 kelimelik bir beyin sayfasıydı. Her bölüm iki sütun halinde sunuldu: Pema'nın söyledikleri ve bunun gerçekte yaşadıklarımla nasıl bağlantılı olduğu. Temelsizlikle ilgili bölüm, bir önceki hafta yaptığım belirli bir kurucu sohbetine bağlandı. Korkuyla ilgili bölüm, terapistimin belirlediği kalıplarla eşleşti. Bırakma üzerine bölüm, bu yıl bulduğum yaratıcı özgürlük hakkında yazdığım gece geç saatlerdeki bir oturuma atıfta bulundu.

Tüm süreç yaklaşık 40 dakika sürdü. Saati 300 dolar olan bir terapistin bu kitabı okuyup hayatıma uygulaması 40 saatte bile bunu yapamazdı çünkü profesyonel bağlamımın, okuma geçmişimin, toplantı notlarımın ve kurucu ilişkilerimin tam grafiğine sahip değiller.

Bunu şimdi 20'den fazla kitapla yaptım: Amplified (Dion Lim), Bertrand Russell'ın Otobiyografisi, Hayatını Tasarla, Üstün Yetenekli Çocuğun Dramı, Sonlu ve Sonsuz Oyunlar, Denizden Bir Hediye (Lindbergh), Siddhartha (Hesse), Bozkırkurdu (Hesse), Bilim ve Mühendislik Yapma Sanatı (Hamming), Rüya Makinesi, Kim Olduğunu Bilmenin Tabusu Üzerine Kitap (Alan Watts), Başkalarının Ne Düşündüğü Umurunda mı (Feynman), Her Şey Dağılırken (Pema Chodron), Her Şeyin Kısa Bir Tarihi (Ken Wilber) ve daha fazlası. Her biri, beyin zenginleştikçe daha da zenginleşiyor. İkinci ayna birinciyi biliyordu. Yirminci ayna on dokuzuncuyu biliyordu.

Kitap-Aynası Tekrarlama Yoluyla Nasıl Gelişti?

Yaptığım ilk kitap aynası berbattı. Sürüm 1'de ailemle ilgili üç olgusal hata vardı. Ailemin boşanmış olduğunu söylüyordu, oysa değillerdi. Hong Kong'da büyüdüğümü söylüyordu, oysa Kanada'da doğmuştum. Paylaşsaydım güveni zedeleyebilecek temel şeyler.

Bu yüzden zorunlu bir doğrulama adımı ekledim. Artık her ayna, yayınlanmadan önce beyindeki bilinen gerçeklere karşı çapraz-modal değerlendirme yapıyor. Opus 4.7 1M hassasiyet hatalarını yakalıyor. GPT-5.5 eksik bağlamı yakalıyor. DeepSeek V4-Pro bir şeyin genel geçer okunduğu durumları yakalıyor.

Ardından GBrain araç kullanımıyla derin erişime yükselttim. Orijinal sürüm sentezlemede iyiydi ancak özgüllükte zayıftı. Sürüm 3, bölüm başına beyin aramaları yapıyor. Sağ sütundaki her giriş, gerçek beyin sayfalarına atıfta bulunuyor. Kitap zor konuşmalarla başa çıkmaktan bahsettiğinde, sadece genel ilkeleri sentezlemiyor. Kurucu ortaklarıyla zor konuşmalar yapan belirli kurucularla yaptığım gerçek toplantı notlarımdan alıntı yapıyor. Ya da kardeşim James'le takıldığım bir Perşembe günü aklıma gelen bir fikir. Ya da 19 yaşımdayken üniversite oda arkadaşımla yaptığım IM sohbeti. Tuhaf bir şekilde doğru.

Becerileştirmenin (GBrain'de /skillify kullanmak) pratikte anlamı budur. İlk manuel denemeyi aldım, tekrarlanabilir kalıbı çıkardım, tetikleyiciler ve uç durumlarla test edilmiş bir beceri dosyası yazdım ve her düzeltme gelecekteki tüm kitap aynalarına yansıdı.

Beceriler Oluşturan Beceriler

İşte burada işler özyinelemeli hale geliyor ve bence en büyük içgörü burada yatıyor.

Hayatımı yöneten sistem bir monolit olarak var olmadı. Becerilerden bir araya getirildi. Ve bu beceriler de bir beceri tarafından oluşturuldu.

Skillify, yeni beceriler oluşturan bir meta-beceridir. Tekrarlayacağım bir iş akışıyla karşılaştığımda "bunu becerileştir" diyorum ve az önce olanı inceliyor, tekrarlanabilir kalıbı çıkarıyor, tetikleyiciler ve uç durumlarla test edilmiş bir beceri dosyası yazıyor ve bunu çözümleyiciye kaydediyor. Kitap-aynası hattı, ilk kez manuel olarak yaptığım andan itibaren becerileştirildi. Toplantı-hazırlık iş akışı, her görüşmeden önce aynı adımları yaptığımı fark ettikten sonra becerileştirildi.

Beceriler birleşir. Kitap-aynası, depolama için beyin-işlemlerini, bağlam için zenginleştirmeyi, kalite için çapraz-modal-değerlendirmeyi ve çıktı için pdf-oluşturmayı çağırır. Her beceri tek bir şeye odaklanır. Karmaşık iş akışları oluşturmak için birbirine bağlanırlar. Bir beceriyi geliştirdiğimde, onu kullanan her iş akışı otomatik olarak daha iyi hale gelir. Artık "ipucumda bu uç durumdan bahsetmeyi unuttum" yok. Beceri hatırlar.

Kendini Hazırlayan Toplantı

Demis Hassabis, bir sohbet etkinliği için YC'ye geldi. Sebastian Mallaby'nin onun biyografisi yeni çıkmıştı.

Sistemden beni hazırlamasını istedim.

İki dakikadan kısa sürede şunları çıkardı: Demis'in tam beyin sayfası (aylardır makalelerden, podcast transkriptlerinden ve kendi notlarımdan birikiyordu). AGI zaman çizelgeleri hakkında yayınlanmış inançları ("%50 ölçeklendirme, %50 yenilik", AGI'nin 5-10 yıl uzakta olduğunu düşünüyor). Mallaby biyografisinin öne çıkanları. Belirtilmiş araştırma öncelikleri (sürekli öğrenme, dünya modelleri, uzun süreli bellek). Yapay zeka hakkında kamuoyu önünde söylediğim şeylere çapraz referanslar. Konuşma sırasında beynin çok-atlamalı akıl yürütme yeteneğini göstermek için üç demo betiği. Ve dünya görüşlerimizin örtüştüğü ve ayrıştığı yerlere dayanan bir dizi konuşma kancası.

Bu sadece daha iyi bir Google araması değildi. Bu, Demis hakkındaki birikmiş bağlamımı, kendi pozisyonlarımı ve konuşma için stratejik hedefleri kullanan bir hazırlıktı. Sistem sadece gerçekleri değil, aynı zamanda açıları da hazırladı.

100.000 Sayfalık Beyin Nasıl Görünür?

Yaklaşık 100.000 sayfalık yapılandırılmış bir bilgi tabanı tutuyorum. Tanıştığım her kişi bir zaman çizelgesi, bir durum bölümü (şu anda doğru olan), açık konular ve bir puan içeren bir sayfa alır. Her toplantı bir transkript, yapılandırılmış bir özet ve varlık yayılımı dediğim bir şey alır: her toplantıdan sonra sistem, bahsedilen her kişi ve şirketi dolaşır ve beyin sayfalarını tartışılanlarla günceller. Okuduğum her kitap bölüm bölüm bir ayna alır. Etkileşime girdiğim her makale, podcast ve video alınır, etiketlenir ve çapraz referanslanır.

Şema basit. Her sayfada şunlar bulunur: en üstte derlenmiş gerçek (mevcut en iyi anlayış), altında salt-ekli zaman çizelgesi (kronolojik sırayla olaylar) ve kaynak materyal için ham veri yan bölmeleri. Bunu, her sayfanın toplantıda bulunan, e-postayı okuyan, konuşmayı izleyen ve PDF'yi alan bir yapay zeka tarafından sürekli güncellendiği kişisel bir Wikipedia gibi düşünün.

İşte bunun nasıl biriktiğine dair bir örnek. Ofis saatlerinde bir kurucuyla tanışıyorum. Sistem, kişi sayfalarını, şirket sayfalarını oluşturuyor veya güncelliyor, toplantı notlarını çapraz referanslıyor, daha önce tanışıp tanışmadığımı kontrol ediyor (ve en son ne konuştuğumuzu gösteriyor), başvuru verilerini kontrol ediyor, en son metriklerini çekiyor ve portföy şirketlerimden veya bağlantılarımdan herhangi birinin sorunlarıyla ilgili olup olmadığını belirliyor. Bir sonraki toplantıya girdiğimde, sistem hazır bir bağlam paketiyle beni bekliyor oluyor.

Bir dosya dolabına sahip olmakla bir sinir sistemine sahip olmak arasındaki fark budur. Dosya dolabı şeyleri depolar. Sinir sistemi onları birbirine bağlar, neyin değiştiğini işaretler ve şu an için neyin alakalı olduğunu yüzeye çıkarır.

Mimari

İşte nasıl çalıştığı. Bence kişisel yapay zeka oluşturmanın doğru yolu bu ve her şeyi açık kaynak olarak yayınladım, böylece siz de kendinizinkini oluşturabilirsiniz.

Çerçeve incedir. OpenClaw çalışma zamanıdır. Mesajlarımı alır, hangi becerinin uygulanacağını bulur ve dağıtır. Birkaç bin satırlık yönlendirme mantığı. Kitaplar, toplantılar veya kurucular hakkında hiçbir şey bilmez. Sadece yönlendirir.

Beceriler kalındır. Şu anda 100'ün üzerinde, her biri belirli bir görev için ayrıntılı talimatlar içeren, kendi kendine yeten bir markdown dosyası. Yukarıda kitap-aynası ve toplantı-hazırlık'ı gördünüz. İşte GBrain ile gelen birkaç tane daha:

  • toplanti-alma: Her toplantıdan sonra, transkripti alır, yapılandırılmış bir özet oluşturur ve ardından bahsedilen her kişi ve şirketi dolaşarak beyin sayfalarını tartışılanlarla günceller. Toplantı sayfası nihai ürün değildir. Her kişi ve şirket sayfasına geri varlık yayılımı asıl değerdir.
  • zenginlestir: Bir kişinin adını verin. Beş farklı kaynaktan bilgi çeker, her şeyi kariyer geçmişi, iletişim bilgileri, toplantı geçmişi ve ilişki bağlamı ile tek bir beyin sayfasında birleştirir. Her iddia için kaynak belirtilir.
  • medya-al: Video, ses, PDF, ekran görüntüleri, GitHub depolarını işler. Transkribe eder, varlıkları çıkarır, doğru beyin konumuna dosyalar. Bunu sürekli olarak YouTube videoları, podcast'ler ve sesli notlar için kullanıyorum.
  • perplexity-arastirma: Beyinle güçlendirilmiş web araştırması. Perplexity aracılığıyla web'de arama yapar, ancak sentezlemeden önce beynin zaten ne bildiğini kontrol eder, böylece size gerçekte neyin yeni olduğunu ve neyi zaten yakaladığınızı söyleyebilir.

Kendi işim için oluşturduğum ve muhtemelen açık kaynak yapacağım düzinelerce becerim daha var: e-posta-triyaj, portföy güncellemelerini e-postamda tespit eden ve metrikleri şirket sayfalarına çıkaran yatirimci-guncelleme-alma, çakışma tespiti ve seyahat imkansızlığı için takvim-kontrol ve sivil çalışmalarım için kullandığım bütün bir gazetecilik araştırma yığını. Her beceri, yeni bir insan asistanın öğrenmesi aylar sürecek operasyonel bilgiyi kodlar. Birisi yapay zekamı nasıl "yönlendirdiğimi" sorduğunda cevap şu: Yönlendirmiyorum. Beceriler yönlendirmelerin ta kendisi.

Veri kalındır. Beyin deposunda 100.000 sayfa yapılandırılmış bilgi. Etkileşime girdiğim her kişi, şirket, toplantı, kitap, makale ve fikir, hepsi bağlantılı, hepsi aranabilir, her gün büyüyor.

Kod kalındır. Onu besleyen kod (transkripsiyon, OCR, sosyal medya arşivleme, takvim senkronizasyonu, API entegrasyonları için betikler) de önemlidir, ancak birikmiş değerin yaşadığı yer veridir. Günde 100'den fazla cron işi çalıştırıyorum ve her şeyi kontrol ediyorum: sosyal medya, Slack, e-posta, dikkat ettiğim her şeyi OpenClaw/Hermes Ajanlarım da benim için kontrol ediyor.

Modeller değiştirilebilir. Hassasiyet için Opus 4.7 1M çalıştırıyorum. Hatırlama ve kapsamlı çıkarma için GPT-5.5. Yaratıcı çalışmalar ve üçüncü bakış açıları için DeepSeek V4-Pro. Hız için Groq ile Llamma. Beceri, hangi görev için hangi modeli çağıracağına karar verir. Çerçeve umursamaz. Birisi "hangi yapay zeka modeli en iyisi" diye sorduğunda cevap şu: yanlış soru. Model sadece motordur. Geri kalan her şey arabadır.

Sabah 2'deki Üretici ve Biriken Sistem

İnsanlar bana üretkenlik hakkında sorular soruyor. Ben bu şekilde düşünmüyorum. Düşündüğüm şey birikim.

Yaptığım her toplantı beyne eklenir. Okuduğum her kitap bir sonraki kitap için bağlamı zenginleştirir. Oluşturduğum her beceri bir sonraki iş akışını hızlandırır. Güncellediğim her kişi sayfası bir sonraki toplantı hazırlığını keskinleştirir. Sistem bugün iki ay öncesine göre 10 kat daha iyi ve iki ay sonra yine 10 kat daha iyi olacak.

Sabah 2'de hala kod yazarken (ki düzenli olarak yapıyorum çünkü yapay zeka bana üretmenin keyfini geri verdi), sadece yazılım yazmıyorum. Her saat daha iyi hale gelen bir sisteme katkıda bulunuyorum. 7/24 100 cron işi. Toplantı alımı otomatik olarak çalışıyor. E-posta triyajı her 10 dakikada bir çalışıyor. Bilgi grafiği her konuşmadan kendini zenginleştiriyor. Sistem günlük transkriptleri işliyor ve gerçek zamanlı olarak gözden kaçırdığım kalıpları çıkarıyor.

Bu bir yazma aracı değil. Bir arama motoru değil. Bir sohbet robotu değil. Bu, gerçekten çalışan ikinci bir beyin, bir metafor olarak değil, 100.000 sayfa, 100'den fazla beceri, 15 cron işi ve geçen yıl etkileşime girdiğim her profesyonel ilişki, toplantı, kitap ve fikrin birikmiş bağlamına sahip çalışan bir sistem olarak.

Tüm yığını açık kaynak olarak yayınladım. GStack, onu oluşturmak için kullandığım kodlama becerisi çerçevesidir (87.000'den fazla yıldız). Ajanın kod yazması gerektiğinde hala OpenClaw/Hermes Ajanı içinde bir beceri olarak kullanıyorum. İçinde harika bir programlanabilir tarayıcı var (hem başlıklı hem de başlıksız). GBrain bilgi altyapısıdır. OpenClaw ve Hermes Agent çerçevelerdir, seçmelisiniz ama ben genellikle ikisini de yapıyorum. Veri depoları GitHub'da.

Tez basit: gelecek, biriken yapay zeka sistemleri oluşturan bireylere ait, kurumsal sahipli merkezi yapay zeka araçlarını kullanan bireylere değil. Fark, günlük tutmakla sinir sistemine sahip olmak arasındaki fark gibidir.

Nasıl Başlanır

Bunu oluşturmak istiyorsanız:

  1. Bir çerçeve seçin. OpenClaw, Hermes Agent veya Pi ile sıfırdan kendinizinkini oluşturun. İnce tutun. Çerçeve sadece yönlendiricidir. Tailscale ile evdeki yedek bilgisayarınızda barındırın veya bulutta Render veya Railway kullanın.
  2. GBrain ile bir beyin başlatın. Karpathy'nin LLM Wiki'sinden ilham aldım, OpenClaw'da uyguladım ve GBrain'e genişlettim. Şimdiye kadar kıyasladığım en iyi erişim sistemi (LongMemEval'de %97,6 hatırlama, erişim döngüsünde LLM olmadan MemPalace'i yener) ve bu makalede açıklanan her şey dahil 39 kurulabilir beceriyle birlikte gelir. Kurulum için tek komut. Her kişi, toplantı, makale ve fikrin bir sayfa aldığı bir git deposu.
  3. İlginç bir şey yapın. Beceri mimarinizi planlayarak başlamayın. Bir şey yaparak başlayın. Bir rapor yazın. Bir kişiyi araştırın. Bir NBA sezonunun skorlarını indirin ve spor bahisleriniz için bir tahmin modeli oluşturun. Portföyünüzü analiz edin. Gerçekten önemsediğiniz her neyse. Bunu ajanınızla yapın, iyi olana kadar yineleyin ve ardından kalıbı yeniden kullanılabilir bir beceriye çıkarmak için Skillify'ı (önceki meta-beceri) çalıştırın. Ardından, yeni becerinin çözümleyiciye bağlandığını doğrulamak için check_resolvable'ı çalıştırın. Bu döngü, tek seferlik işi biriken altyapıya dönüştürür.
  4. Kullanmaya devam edin ve çıktıya bakın. Beceri ilk başta vasat olacaktır. Amaç bu. Kullanın, ürettiklerini okuyun ve bir şey ters gittiğinde çapraz-modal değerlendirme yapın: çıktıyı birden çok modelden geçirin ve önemsediğiniz boyutlarda birbirlerini puanlamalarını sağlayın. Kitap-aynasındaki olgusal hataları böyle yakaladım. Düzeltme beceriye işlendi ve o zamandan beri her ayna temiz çıktı. Altı ay içinde hiçbir sohbet robotunun kopyalayamayacağı bir şeye sahip olacaksınız çünkü değer modelde değil. Sisteme belirli hayatınız, işiniz ve muhakemeniz hakkında öğrettiklerinizde.

Bu sistemle oluşturduğum ilk şey berbattı. Yüzüncü şey, takvimime, gelen kutuma, toplantı hazırlığıma ve okuma listeme güvenebileceğim bir şeydi. Sistem öğrendi. Ben öğrendim. Birikim eğrisi gerçek.

Kalın beceriler. Kalın kod. İnce çerçeve. LLM tek başına sadece bir motor. Kendi arabanızı oluşturabilirsiniz.

Burada tanımladığım her şey, tüm beceriler, kitap aynası hattı, çapraz-modal değerlendirme çerçevesi, becerileştirme döngüsü, çözümleyici mimarisi, artı 30'dan fazla kurulabilir beceri paketi, açık kaynak ve GitHub'da ücretsiz: github.com/garrytan/gbrain. Hadi inşa et.

More patterns to decode

Recent viral articles

Explore more viral articles

İçerik üreticileri için tasarlandı.

𝕏 üzerindeki viral makalelerden içerik fikirleri bulun, neden işe yaradıklarını çözün ve kanıtlanmış kalıpları bir sonraki içerik açınıza dönüştürün.