Meta-Meta-Prompting: AI एजेंट्स को काम करने के लिए मजबूर करने का रहस्य

Meta-Meta-Prompting: AI एजेंट्स को काम करने के लिए मजबूर करने का रहस्य

@garrytan
अंग्रेज़ी4 दिन पहले · 09 मई 2026

AI features

1.4M
3.5K
486
129
11.0K

TL;DR

Garry Tan AI एजेंट्स के लिए अपने 'Fat Skills, Thin Harness' आर्किटेक्चर की व्याख्या करते हैं, और बताते हैं कि कैसे वे GBrain जैसे ओपन-सोर्स टूल्स का उपयोग करके एक व्यापक व्यक्तिगत ज्ञान आधार और स्वचालित वर्कफ़्लो तैयार करते हैं।

लोग मुझसे पूछते रहते हैं कि मैं रात में 2 बजे तक कोडिंग क्यों करता हूँ। मेरे पास एक नौकरी है, और वह भी बड़ी — Y Combinator का CEO। हम हर साल हज़ारों बिल्डरों को उनके सपने साकार करने में मदद करते हैं — असली स्टार्टअप बनाने के, असली रेवेन्यू के साथ जो तेज़ी से बढ़ते हैं।

पिछले 5 महीनों में, AI ने मुझे फिर से एक बिल्डर बना दिया। पिछले साल के अंत में, टूल्स इतने अच्छे हो गए कि मैं वापस बिल्डिंग में लग गया। खिलौना प्रोजेक्ट नहीं। असली सिस्टम जो कंपाउंड करते हैं। मैं आपको विशिष्ट उदाहरणों के साथ दिखाना चाहता हूँ कि पर्सनल AI असल में कैसा दिखता है जब आप इसे सिर्फ़ एक चैट विंडो की तरह नहीं, बल्कि एक ऑपरेटिंग सिस्टम की तरह इस्तेमाल करते हैं। और मैं इसे ओपन सोर्स और इस तरह के लेखों में मुफ़्त दे रहा हूँ क्योंकि मैं चाहता हूँ कि आप मेरे साथ तेज़ी से आगे बढ़ें।

यह एक सीरीज़ का हिस्सा है: फैट स्किल्स, फैट कोड, थिन हार्नेस ने मुख्य आर्किटेक्चर पेश किया। रिज़ॉल्वर्स ने इंटेलिजेंस के लिए रूटिंग टेबल को कवर किया। द LOC कॉन्ट्रोवर्सी इस बारे में था कि कैसे हर तकनीकी व्यक्ति ने खुद को 100x से 1000x तक गुणा कर लिया। नेकेड मॉडल्स आर स्टूपिडर ने तर्क दिया कि मॉडल इंजन है, कार नहीं। और द स्किलिफ़ाई मैनिफ़ेस्टो ने समझाया कि LangChain ने $160M क्यों जुटाए और आपको बिना वर्कआउट प्लान के एक स्क्वाट रैक और डम्बल सेट दिया, और फिर वह वर्कआउट प्लान दिया जिसकी आपको ज़रूरत थी।

वह किताब जिसने मुझे वापस पढ़ा

पिछले महीने मैं Pema Chödrön की When Things Fall Apart पढ़ रहा था। यह 162 पेज, 22 अध्यायों में बौद्ध दृष्टिकोण से दुख, आधारहीनता और छोड़ने पर आधारित है। एक मुश्किल दौर में एक दोस्त ने इसे सुझाया था।

मैंने अपने AI से एक बुक मिरर करने को कहा।

इसका मतलब ठोस रूप में: सिस्टम ने किताब के सभी 22 अध्यायों को निकाला, और फिर हर अध्याय के लिए एक सब-एजेंट चलाया जिसने एक साथ दो काम किए: लेखक के विचारों का सारांश दिया, और फिर हर विचार को मेरी वास्तविक ज़िंदगी से मैप किया। सामान्य "यह लीडर्स पर लागू होता है" जैसी बकवास नहीं। विशिष्ट मैपिंग। यह मेरे परिवार के इतिहास को जानता है (इमिग्रेंट माता-पिता, पिता हांगकांग और सिंगापुर से, माँ बर्मा से)। यह मेरे प्रोफ़ेशनल कॉन्टेक्स्ट को जानता है (YC चलाना, ओपन-सोर्स टूल्स बनाना, हज़ारों फाउंडर्स को मेंटर करना)। यह जानता है कि मैं क्या पढ़ रहा हूँ, 2 बजे क्या सोच रहा हूँ, मेरे थेरेपिस्ट और मैं किस पर काम कर रहे हैं।

आउटपुट एक 30,000-शब्दों का ब्रेन पेज था। हर अध्याय दो कॉलम में प्रस्तुत हुआ: Pema क्या कहती हैं, और यह मेरी वास्तविक ज़िंदगी से कैसे जुड़ता है। आधारहीनता पर अध्याय एक विशिष्ट फाउंडर बातचीत से जुड़ा जो मैंने पिछले हफ़्ते की थी। डर पर अध्याय उन पैटर्न से जुड़ा जो मेरे थेरेपिस्ट ने पहचाने थे। छोड़ने पर अध्याय एक देर रात के सेशन को संदर्भित करता है जहाँ मैंने इस साल मिली रचनात्मक आज़ादी के बारे में लिखा था।

पूरी चीज़ में लगभग 40 मिनट लगे। $300/घंटा का थेरेपिस्ट इस किताब को पढ़कर मेरी ज़िंदगी पर लागू नहीं कर सकता 40 घंटों में, क्योंकि उसके पास मेरे प्रोफ़ेशनल कॉन्टेक्स्ट, मेरी पढ़ने की हिस्ट्री, मेरे मीटिंग नोट्स और मेरे फाउंडर रिलेशनशिप्स का पूरा ग्राफ़ लोडेड और क्रॉस-रेफ़रेंसेबल नहीं है।

मैंने अब 20 से अधिक किताबों के साथ ऐसा किया है: Amplified (Dion Lim), Autobiography of Bertrand Russell, Designing Your Life, Drama of the Gifted Child, Finite and Infinite Games, Gift from the Sea (Lindbergh), Siddhartha (Hesse), Steppenwolf (Hesse), The Art of Doing Science and Engineering (Hamming), The Dream Machine, The Book on the Taboo Against Knowing Who You Are (Alan Watts), What Do You Care What Other People Think (Feynman), When Things Fall Apart (Pema Chodron), A Brief History of Everything (Ken Wilber), और भी। हर एक और समृद्ध होता जाता है क्योंकि दिमाग और समृद्ध होता जाता है। दूसरे मिरर को पहले के बारे में पता था। बीसवें को उन्नीसवें के बारे में पता था।

कैसे बुक-मिरर इटरेशन के ज़रिए बेहतर हुआ

पहला बुक मिरर जो मैंने किया वह भयानक था। वर्ज़न 1 में मेरे परिवार के बारे में तीन तथ्यात्मक गलतियाँ थीं। उसने कहा कि मेरे माता-पिता का तलाक हो गया था जबकि ऐसा नहीं था। कहा कि मैं हांगकांग में बड़ा हुआ जबकि मैं कनाडा में पैदा हुआ था। बुनियादी चीज़ें जो भरोसे को नुकसान पहुँचा सकती थीं अगर मैंने इसे शेयर किया होता।

इसलिए मैंने एक अनिवार्य फ़ैक्ट-चेक स्टेप जोड़ा। अब हर मिरर शिप होने से पहले ब्रेन में ज्ञात तथ्यों के खिलाफ क्रॉस-मोडल इवैल्यूएशन चलाता है। Opus 4.7 1M प्रिसिज़न एरर्स पकड़ता है। GPT-5.5 मिसिंग कॉन्टेक्स्ट पकड़ता है। DeepSeek V4-Pro पकड़ता है जब कुछ जेनेरिक लगता है।

फिर मैंने GBrain टूल यूज़ के साथ डीप रिट्रीवल में अपग्रेड किया। मूल वर्ज़न सिंथेसिस में अच्छा था लेकिन स्पेसिफ़िसिटी में कमज़ोर। वर्ज़न 3 हर सेक्शन के लिए ब्रेन सर्च करता है। हर दाएँ कॉलम की एंट्री वास्तविक ब्रेन पेजों को उद्धृत करती है। जब किताब मुश्किल बातचीत से निपटने की बात करती है, तो यह सिर्फ़ सामान्य सिद्धांतों का संश्लेषण नहीं करती। यह मेरे वास्तविक मीटिंग नोट्स से खींचती है जो विशिष्ट फाउंडर्स के साथ थे जो को-फाउंडर्स के साथ मुश्किल बातचीत कर रहे थे। या वह विचार जो मुझे गुरुवार को अपने भाई जेम्स के साथ घूमते हुए आया था। या वह IM चैट जो मैंने अपने कॉलेज रूममेट के साथ 19 साल की उम्र में की थी। यह अजीब है।

यही है स्किलिफिकेशन (GBrain में /skillify का उपयोग) का व्यवहारिक अर्थ। मैंने पहला मैनुअल प्रयास लिया, दोहराए जाने वाले पैटर्न को निकाला, ट्रिगर्स और एज केस के साथ एक परीक्षित स्किल फ़ाइल लिखी, और हर फिक्स ने भविष्य के सभी बुक मिरर्स में कंपाउंड किया।

स्किल्स जो स्किल्स बनाती हैं

यहाँ यह रिकर्सिव हो जाता है, और मुझे लगता है कि यह सबसे बड़ी अंतर्दृष्टि है।

जो सिस्टम मेरी ज़िंदगी चलाता है वह एक मोनोलिथ के रूप में अस्तित्व में नहीं था। इसे स्किल्स से असेंबल किया गया था। और वे स्किल्स खुद एक स्किल द्वारा बनाई गई थीं।

Skillify एक मेटा-स्किल है जो नई स्किल्स बनाती है। जब मैं एक वर्कफ़्लो का सामना करता हूँ जिसे मैं दोहराने वाला हूँ, तो मैं कहता हूँ "skillify this" और यह जाँचता है कि अभी क्या हुआ, दोहराए जाने वाले पैटर्न को निकालता है, ट्रिगर्स और एज केस के साथ एक परीक्षित स्किल फ़ाइल लिखता है, और इसे रिज़ॉल्वर में रजिस्टर करता है। बुक-मिरर पाइपलाइन को पहली बार जब मैंने मैन्युअल रूप से किया तब स्किलिफ़ाई किया गया था। मीटिंग-प्रेप वर्कफ़्लो को स्किलिफ़ाई किया गया जब मैंने देखा कि मैं हर कॉल से पहले वही कदम उठा रहा हूँ।

स्किल्स कंपोज़ होती हैं। बुक-मिरर स्टोरेज के लिए brain-ops, कॉन्टेक्स्ट के लिए enrich, क्वालिटी के लिए cross-modal-eval, और आउटपुट के लिए pdf-generation को कॉल करता है। हर स्किल एक चीज़ पर फोकस करती है। वे जटिल वर्कफ़्लो बनाने के लिए एक साथ जुड़ती हैं। जब मैं एक स्किल में सुधार करता हूँ, तो हर वर्कफ़्लो जो इसका उपयोग करता है, अपने आप बेहतर हो जाता है। अब नहीं "अपने प्रॉम्प्ट में इस एज केस का ज़िक्र करना भूल गया।" स्किल याद रखती है।

वह मीटिंग जिसने खुद को तैयार किया

Demis Hassabis YC में एक फायरसाइड चैट के लिए आए थे। Sebastian Mallaby की उनकी जीवनी अभी-अभी आई थी।

मैंने सिस्टम से मुझे तैयार करने को कहा।

दो मिनट से भी कम समय में इसने निकाला: Demis का पूरा ब्रेन पेज (जो महीनों से लेखों, पॉडकास्ट ट्रांसक्रिप्ट्स और मेरे अपने नोट्स से जमा हो रहा था)। AGI टाइमलाइन के बारे में उनके प्रकाशित विश्वास ("50% स्केलिंग, 50% इनोवेशन," सोचते हैं AGI 5-10 साल दूर है)। Mallaby जीवनी के हाइलाइट्स। उनकी बताई गई रिसर्च प्राथमिकताएँ (कंटिन्युअल लर्निंग, वर्ल्ड मॉडल्स, लॉन्ग-टर्म मेमोरी)। उन चीज़ों के क्रॉस-रेफरेंस जो मैंने AI के बारे में सार्वजनिक रूप से कही हैं। बातचीत के दौरान ब्रेन की मल्टी-हॉप रीज़निंग क्षमता दिखाने के लिए तीन डेमो स्क्रिप्ट्स। और हमारे विश्वदृष्टिकोण के ओवरलैप और अंतर पर आधारित बातचीत के हुक का एक सेट।

यह सिर्फ़ एक बेहतर Google सर्च नहीं था। यह तैयारी थी जिसने Demis के बारे में मेरे संचित कॉन्टेक्स्ट, मेरी अपनी स्थितियों और बातचीत के रणनीतिक लक्ष्यों का उपयोग किया। सिस्टम ने सिर्फ़ तथ्य नहीं, बल्कि एंगल्स भी तैयार किए।

100,000 पेज का ब्रेन कैसा दिखता है

मैं लगभग 100,000 पेजों के साथ एक संरचित नॉलेज बेस बनाए रखता हूँ। हर व्यक्ति जिससे मैं मिलता हूँ, उसे एक पेज मिलता है जिसमें एक टाइमलाइन, एक स्टेट सेक्शन (वर्तमान में क्या सच है), ओपन थ्रेड्स और एक स्कोर होता है। हर मीटिंग को एक ट्रांसक्रिप्ट, एक संरचित सारांश और कुछ मिलता है जिसे मैं एंटिटी प्रोपेगेशन कहता हूँ: हर मीटिंग के बाद, सिस्टम हर व्यक्ति और कंपनी के माध्यम से जाता है जिसका उल्लेख किया गया है और उनके ब्रेन पेजों को चर्चा की गई बातों से अपडेट करता है। मैं जो भी किताब पढ़ता हूँ, उसे एक अध्याय-दर-अध्याय मिरर मिलता है। हर लेख, पॉडकास्ट और वीडियो जिससे मैं जुड़ता हूँ, उसे इन्जेस्ट, टैग और क्रॉस-रेफरेंस किया जाता है।

स्कीमा सरल है। हर पेज में होता है: शीर्ष पर संकलित सत्य (वर्तमान सबसे अच्छी समझ), नीचे एक केवल-जोड़ें टाइमलाइन (घटनाएँ कालानुक्रमिक क्रम में), और स्रोत सामग्री के लिए रॉ डेटा साइडकार। इसे एक पर्सनल विकिपीडिया की तरह समझें जहाँ हर पेज को लगातार एक AI द्वारा अपडेट किया जाता है जो मीटिंग में था, ईमेल पढ़ता था, टॉक देखता था और PDF को इन्जेस्ट करता था।

यहाँ एक उदाहरण है कि यह कैसे कंपाउंड होता है। मैं ऑफिस आवर्स में एक फाउंडर से मिलता हूँ। सिस्टम उनका पर्सन पेज, उनकी कंपनी का पेज बनाता या अपडेट करता है, मीटिंग नोट्स को क्रॉस-रेफरेंस करता है, जाँचता है कि क्या मैं उनसे पहले मिला हूँ (और पिछली बार क्या चर्चा हुई थी, उसे सामने लाता है), उनके एप्लिकेशन डेटा की जाँच करता है, उनके नवीनतम मेट्रिक्स खींचता है, और पहचानता है कि क्या मेरी पोर्टफोलियो कंपनियों या संपर्कों में से कोई उनकी समस्या के लिए प्रासंगिक है। जब तक मैं उनके साथ अगली मीटिंग में जाता हूँ, सिस्टम के पास एक पूरा कॉन्टेक्स्ट पैक तैयार होता है।

यह फ़ाइलिंग कैबिनेट और नर्वस सिस्टम के बीच का अंतर है। फ़ाइलिंग कैबिनेट चीज़ों को स्टोर करता है। नर्वस सिस्टम उन्हें जोड़ता है, जो बदला है उसे फ़्लैग करता है, और जो अभी प्रासंगिक है उसे सामने लाता है।

आर्किटेक्चर

यहाँ बताया गया है कि यह कैसे काम करता है। मुझे लगता है कि पर्सनल AI बनाने का यह सही तरीका है, और मैंने पूरी चीज़ को ओपन-सोर्स कर दिया है ताकि आप इसे खुद बना सकें।

हार्नेस पतला है। OpenClaw रनटाइम है। यह मेरे संदेश प्राप्त करता है, पता लगाता है कि कौन सी स्किल लागू होती है, और डिस्पैच करता है। कुछ हज़ार लाइनों का रूटिंग लॉजिक। इसे किताबों या मीटिंग्स या फाउंडर्स के बारे में कुछ नहीं पता। यह सिर्फ़ रूट करता है।

स्किल्स मोटी हैं। अब 100 से अधिक, प्रत्येक एक स्व-निहित मार्कडाउन फ़ाइल है जिसमें एक विशिष्ट कार्य के लिए विस्तृत निर्देश हैं। आप पहले ही बुक-मिरर और मीटिंग-प्रेप देख चुके हैं। यहाँ कुछ और हैं जो GBrain के साथ शिप होती हैं:

  • meeting-ingestion: हर मीटिंग के बाद, यह ट्रांसक्रिप्ट खींचता है, एक संरचित सारांश बनाता है, और फिर हर व्यक्ति और कंपनी के माध्यम से जाता है जिसका उल्लेख किया गया है और उनके ब्रेन पेजों को चर्चा की गई बातों से अपडेट करता है। मीटिंग पेज अंतिम उत्पाद नहीं है। एंटिटी प्रोपेगेशन वापस हर व्यक्ति और कंपनी पेज पर असली मूल्य है।
  • enrich: किसी व्यक्ति का नाम दें। यह पाँच अलग-अलग स्रोतों से खींचता है, सब कुछ एक ही ब्रेन पेज में करियर आर्क, संपर्क जानकारी, मीटिंग हिस्ट्री और रिलेशनशिप कॉन्टेक्स्ट के साथ मर्ज करता है। हर दावे पर उद्धृत स्रोत।
  • media-ingest: वीडियो, ऑडियो, PDF, स्क्रीनशॉट, GitHub रिपॉजिटरी को संभालता है। ट्रांसक्राइब करता है, एंटिटीज़ निकालता है, सही ब्रेन लोकेशन पर फ़ाइल करता है। मैं YouTube वीडियो, पॉडकास्ट और वॉइस मेमो के लिए इसका लगातार उपयोग करता हूँ।
  • perplexity-research: ब्रेन-ऑगमेंटेड वेब रिसर्च। Perplexity के माध्यम से वेब खोजता है, लेकिन संश्लेषण से पहले, जाँचता है कि ब्रेन पहले से क्या जानता है ताकि वह आपको बता सके कि वास्तव में क्या नया है बनाम आप पहले ही क्या कैप्चर कर चुके हैं।

मेरे पास दर्जनों और हैं जो मैंने अपने काम के लिए बनाए हैं और शायद ओपन सोर्स करूँगा: email-triage, investor-update-ingest जो मेरे ईमेल में पोर्टफोलियो अपडेट का पता लगाता है और कंपनी पेजों में मेट्रिक्स निकालता है, कंफ्लिक्ट डिटेक्शन और यात्रा असंभवता के लिए calendar-check, और नागरिक कार्य के लिए एक पूरा पत्रकारिता रिसर्च स्टैक। हर स्किल ऑपरेशनल नॉलेज को एनकोड करती है जिसे सीखने में एक नए ह्यूमन असिस्टेंट को महीने लगेंगे। जब कोई पूछता है कि मैं अपने AI को कैसे "प्रॉम्प्ट" करता हूँ, तो जवाब है: मैं नहीं करता। स्किल्स ही प्रॉम्प्ट हैं।

डेटा मोटा है। ब्रेन रिपो में 100,000 पेज संरचित ज्ञान। हर व्यक्ति, कंपनी, मीटिंग, किताब, लेख और विचार जिससे मैं जुड़ा हूँ, सभी लिंक्ड, सभी खोजने योग्य, हर दिन बढ़ रहे हैं।

कोड मोटा है। वह कोड जो इसे फीड करता है (ट्रांसक्रिप्शन, OCR, सोशल मीडिया आर्काइवल, कैलेंडर सिंक, API इंटीग्रेशन के लिए स्क्रिप्ट्स) भी मायने रखता है, लेकिन डेटा वह है जहाँ कंपाउंड वैल्यू रहती है। मैं प्रति दिन 100 से अधिक क्रॉन चलाता हूँ जो सभी चीज़ों की जाँच करते हैं: सोशल मीडिया, Slack, ईमेल, जिस पर भी मैं ध्यान देता हूँ, मेरे OpenClaw/Hermes Agents भी मेरे लिए देखते हैं।

मॉडल्स इंटरचेंजेबल हैं। मैं प्रिसिज़न के लिए Opus 4.7 1M चलाता हूँ। रिकॉल और संपूर्ण निष्कर्षण के लिए GPT-5.5। रचनात्मक कार्य और तीसरे दृष्टिकोण के लिए DeepSeek V4-Pro। गति के लिए Groq with Llamma। स्किल तय करती है कि किस कार्य के लिए किस मॉडल को कॉल करना है। हार्नेस को परवाह नहीं है। जब कोई पूछता है "कौन सा AI मॉडल सबसे अच्छा है," तो जवाब है: गलत सवाल। मॉडल सिर्फ़ इंजन है। बाकी सब कार है।

2AM बिल्डर और कंपाउंडिंग सिस्टम

लोग मुझसे प्रोडक्टिविटी के बारे में पूछते हैं। मैं उस तरह से नहीं सोचता। मैं कंपाउंडिंग के बारे में सोचता हूँ।

हर मीटिंग जो मैं लेता हूँ, ब्रेन में जुड़ती है। हर किताब जो मैं पढ़ता हूँ, अगली किताब के लिए कॉन्टेक्स्ट को समृद्ध करती है। हर स्किल जो मैं बनाता हूँ, अगले वर्कफ़्लो को तेज़ बनाती है। हर पर्सन पेज जो मैं अपडेट करता हूँ, अगली मीटिंग प्रेप को तेज़ बनाता है। सिस्टम आज दो महीने पहले की तुलना में 10x है, और दो महीने बाद फिर से 10x होगा।

जब मैं अभी भी 2AM पर कोडिंग कर रहा होता हूँ (और मैं हूँ, नियमित रूप से, क्योंकि AI ने मुझे बिल्डिंग की खुशी वापस दी है), मैं सिर्फ़ सॉफ्टवेयर नहीं लिख रहा हूँ। मैं एक ऐसे सिस्टम में जोड़ रहा हूँ जो हर घंटे बेहतर होता है। 100 क्रॉनजॉब 24/7। मीटिंग इन्जेशन अपने आप चलता है। ईमेल ट्राइएज हर 10 मिनट में चलता है। नॉलेज ग्राफ़ हर बातचीत से खुद को समृद्ध करता है। सिस्टम दैनिक ट्रांसक्रिप्ट प्रोसेस करता है और उन पैटर्न को निकालता है जो मैं रियल टाइम में मिस कर गया था।

यह एक राइटिंग टूल नहीं है। यह एक सर्च इंजन नहीं है। यह एक चैटबॉट नहीं है। यह एक दूसरा दिमाग है जो वास्तव में काम करता है, एक रूपक के रूप में नहीं, बल्कि एक चल रहे सिस्टम के रूप में जिसमें 100,000 पेज, 100+ स्किल्स, 15 क्रॉन जॉब और पिछले साल में मैंने जिन भी प्रोफ़ेशनल रिलेशनशिप, मीटिंग, किताब और विचार से जुड़ा हूँ, उनका संचित कॉन्टेक्स्ट है।

मैंने पूरे स्टैक को ओपन-सोर्स कर दिया है। GStack कोडिंग स्किल फ्रेमवर्क (87,000+ स्टार) है जिसका उपयोग मैंने इसे बनाने के लिए किया। मैं अभी भी इसे OpenClaw/Hermes Agent के अंदर एक स्किल के रूप में उपयोग करता हूँ जब एजेंट को कोड करने की आवश्यकता होती है। इसमें एक शानदार प्रोग्रामेबल ब्राउज़र (हेडेड और हेडलेस दोनों) है। GBrain नॉलेज इंफ्रास्ट्रक्चर है। OpenClaw और Hermes Agent हार्नेस हैं, आपको चुनना चाहिए लेकिन मैं आमतौर पर दोनों करता हूँ। डेटा रिपॉजिटरी GitHub पर हैं।

थीसिस सरल है: भविष्य उन व्यक्तियों का है जो कंपाउंडिंग AI सिस्टम बनाते हैं, न कि उन व्यक्तियों का जो कॉरपोरेट-स्वामित्व वाले केंद्रीकृत AI टूल का उपयोग करते हैं। अंतर एक डायरी रखने और एक नर्वस सिस्टम रखने के बीच का अंतर है।

कैसे शुरू करें

अगर आप इसे बनाना चाहते हैं:

  1. एक हार्नेस चुनें। OpenClaw, Hermes Agent, या Pi के साथ स्क्रैच से अपना खुद का बनाएं। इसे पतला रखें। हार्नेस सिर्फ़ राउटर है। इसे Tailscale के साथ अपने घर के एक अतिरिक्त कंप्यूटर पर होस्ट करें, या क्लाउड में Render या Railway का उपयोग करें।
  2. GBrain के साथ एक ब्रेन शुरू करें। मैं Karpathy के LLM Wiki से प्रेरित हुआ, इसे OpenClaw में लागू किया, और GBrain में विस्तारित किया। यह सबसे अच्छा रिट्रीवल सिस्टम है जिसे मैंने बेंचमार्क किया है (LongMemEval पर 97.6% रिकॉल, रिट्रीवल लूप में बिना LLM के MemPalace को हराता है) और यह इस लेख में वर्णित सब कुछ सहित 39 इंस्टॉलेबल स्किल्स शिप करता है। इंस्टॉल करने के लिए एक कमांड। एक git रिपो जहाँ हर व्यक्ति, मीटिंग, लेख और विचार को एक पेज मिलता है।
  3. कुछ दिलचस्प करें। अपनी स्किल आर्किटेक्चर की योजना बनाकर शुरू न करें। एक चीज़ करके शुरू करें। एक रिपोर्ट लिखें। किसी व्यक्ति पर रिसर्च करें। NBA स्कोर का एक सीज़न डाउनलोड करें और अपने स्पोर्ट्स बेट्स के लिए एक प्रेडिक्शन मॉडल बनाएं। अपने पोर्टफोलियो का विश्लेषण करें। जो भी आप वास्तव में परवाह करते हैं। इसे अपने एजेंट के साथ करें, तब तक इटरेट करें जब तक यह अच्छा न हो जाए, और फिर पैटर्न को एक पुन: प्रयोज्य स्किल में निकालने के लिए Skillify (पहले से मेटा-स्किल) चलाएं। फिर यह सत्यापित करने के लिए check_resolvable चलाएं कि नई स्किल रिज़ॉल्वर में वायर्ड है। वह लूप एक बार के काम को कंपाउंडिंग इंफ्रास्ट्रक्चर में बदल देता है।
  4. इसका उपयोग करते रहें और आउटपुट देखें। स्किल पहले औसत दर्जे की होगी। यही बात है। इसका उपयोग करें, यह जो उत्पन्न करता है उसे पढ़ें, और जब कुछ गलत हो, तो क्रॉस-मोडल eval चलाएं: आउटपुट को कई मॉडलों के माध्यम से भेजें और उन्हें उन आयामों पर एक-दूसरे को स्कोर करने दें जिनकी आप परवाह करते हैं। इसी तरह मैंने बुक-मिरर में तथ्यात्मक त्रुटियों को पकड़ा। फिक्स स्किल में बेक हो गया, और तब से हर मिरर साफ है। छह महीने में आपके पास कुछ ऐसा होगा जिसे कोई चैटबॉट दोहरा नहीं सकता, क्योंकि मूल्य मॉडल में नहीं है। यह उसमें है जो आपने सिस्टम को अपने विशिष्ट जीवन, काम और निर्णय के बारे में सिखाया है।

पहली चीज़ जो मैंने इस सिस्टम के साथ बनाई वह भयानक थी। सौवीं वह थी जिस पर मैं अपना कैलेंडर, अपना इनबॉक्स, अपनी मीटिंग प्रेप और अपनी रीडिंग लिस्ट भरोसा करूँगा। सिस्टम ने सीखा। मैंने सीखा। कंपाउंड कर्व असली है।

फैट स्किल्स। फैट कोड। थिन हार्नेस। LLM अपने आप में सिर्फ़ एक इंजन है। आप अपनी खुद की कार बना सकते हैं।

मैंने यहाँ जो कुछ भी वर्णित किया है, सभी स्किल्स, बुक मिरर पाइपलाइन, क्रॉस-मोडल eval फ्रेमवर्क, स्किलिफ़ाई लूप, रिज़ॉल्वर आर्किटेक्चर, साथ ही 30+ इंस्टॉलेबल स्किलपैक, ओपन सोर्स और GitHub पर मुफ़्त हैं: github.com/garrytan/gbrain। जाओ और बनाओ।

More patterns to decode

Recent viral articles

Explore more viral articles

क्रिएटर्स के लिए बनाया गया।

𝕏 के वायरल लेखों से content ideas खोजें, समझें कि वे क्यों चले, और उन patterns को अपने अगले creator-ready angle में बदलें.