DESIGN.md:Google Stitch 最被低估的功能

DESIGN.md:Google Stitch 最被低估的功能

TL; DR 重點摘要

  • DESIGN.md 是一個 Agent 友善的 Markdown 檔案,用於記錄和同步設計規則(調色盤、字體、間距、元件模式),讓 AI 在生成 UI 時能自動保持品牌一致性。
  • 它的邏輯類似於開發領域的 Agents.md:透過一個人類和 AI 都能讀寫的檔案,為 AI 設定規則。
  • Google Stitch 在 2026 年 3 月發布了 5 項重大功能升級,DESIGN.md 是其中最不起眼,但長期來看最具戰略價值的。
  • DESIGN.md 可以自動從任何 URL 提取設計系統,並可在專案之間匯入/匯出,徹底消除重複設定設計權杖的浪費時間。
  • 這項升級在 Twitter 上獲得超過 1,590 萬次瀏覽,Figma 股價當天應聲下跌 8.8%。

為什麼一個 Markdown 檔案會導致 Figma 股價下跌 8.8%?

2026 年 3 月 19 日,Google Labs 宣布對 Stitch 進行重大升級。消息一出,Figma 股價應聲下跌 8.8% 1。Twitter 上的相關討論超過 1,590 萬次瀏覽。

本文適合正在使用或關注 AI 設計工具的產品設計師、前端開發人員、創業家,以及所有需要維護品牌視覺一致性的內容創作者。

大多數報導都集中在「可見」的功能,例如無限畫布和語音互動。但真正改變產業格局的,可能正是那個最不起眼的東西:DESIGN.md。本文將深入探討這個「最被低估的功能」究竟是什麼,它為何對 AI 時代的設計工作流程至關重要,以及你今天就可以開始使用的實用方法。

Google Stitch 2026 升級:5 大功能全面解析

在深入探討 DESIGN.md 之前,讓我們先快速了解這次升級的全貌。Google 已將 Stitch 從一個 AI UI 生成工具,轉變為一個完整的「氛圍設計」(vibe design)平台 2。氛圍設計意味著你不再需要從線框圖開始;相反,你可以使用自然語言描述業務目標、使用者情緒,甚至是靈感來源,AI 會直接生成高擬真度的 UI。

五個核心功能包括:

  1. AI 原生畫布:全新的無限畫布,支援圖像、文字和程式碼的混合輸入,為想法從早期概念演變為互動原型提供充足空間。
  1. 更智慧的設計 Agent:能夠理解整個專案的演變歷史,跨版本推理,並透過 Agent Manager 管理多個並行的設計方向。
  1. 語音:基於 Gemini Live,你可以直接對畫布說話,AI 會提供即時設計審查、生成變體並調整配色方案。
  1. 即時原型:一鍵將靜態設計轉換為可點擊的互動原型,AI 會根據使用者點擊自動生成下一個畫面。
  1. DESIGN.md (設計系統檔案):一個 Agent 友善的 Markdown 檔案,用於匯入和匯出設計規則。

前四個功能令人興奮;第五個則引人深思。而通常正是那些引人深思的事物,才能真正改變遊戲規則。

什麼是 DESIGN.md,為什麼它和 Agents.md 一樣重要?

如果你熟悉開發領域,你一定知道 Agents.md。它是一個放置在程式碼儲存庫根目錄的 Markdown 檔案,用於告訴 AI 程式碼助理「這個專案的規則是什麼」:程式碼風格、架構慣例、命名規範。有了它,Claude Code 和 Cursor 等工具在生成程式碼時就不會「自由發揮」,而是遵循團隊既定的標準 3

DESIGN.md 的作用完全相同,只是對象從程式碼變成了設計。

它是一個 Markdown 格式的檔案,記錄了一個專案完整的設計規則:配色方案、字體層級、間距系統、元件模式和互動規範 4。人類設計師可以閱讀它,AI 設計 Agent 也能閱讀它。當 Stitch 的設計 Agent 讀取你的 DESIGN.md 時,它生成的每一個 UI 畫面都會自動遵循相同的視覺規則。

沒有 DESIGN.md,AI 生成的 10 個頁面可能有 10 種不同的按鈕樣式。有了它,10 個頁面看起來就像是同一個設計師製作的。

這就是為什麼 AI 商業分析師 Bradley Shimmin 指出,當企業使用 AI 設計平台時,他們需要「確定性元素」來引導 AI 的行為,無論是企業設計規範還是標準化的需求資料集 5。DESIGN.md 正是這種「確定性元素」的最佳載體。

為什麼 DESIGN.md 是最被低估的功能

在 Reddit 的 r/FigmaDesign 子版塊上,使用者熱烈討論了 Stitch 的升級。大多數人關注畫布體驗和 AI 生成品質 6。但 Muzli Blog 的深度分析卻一針見血地指出:DESIGN.md 的價值在於,它消除了每次切換工具或啟動新專案時,都需要重新建立設計權杖的麻煩。「這不是理論上的效率提升;它確實節省了一天的設定工作」7

想像一個真實的場景:你是一位創業家,使用 Stitch 設計了產品 UI 的第一個版本。三個月後,你需要建立一個新的行銷登陸頁面。如果沒有 DESIGN.md,你將不得不再次告訴 AI 你的品牌顏色是什麼,標題使用什麼字體,以及按鈕的圓角半徑應該是多少。有了 DESIGN.md,你只需匯入這個檔案,AI 就會立即「記住」你所有的設計規則。

更重要的是,DESIGN.md 不僅僅在 Stitch 內部流通。透過 Stitch 的 MCP Server 和 SDK,它可以連接到 Claude Code、Cursor 和 Antigravity 等開發工具 8。這意味著設計師在 Stitch 中定義的視覺規範,也可以在開發人員編寫程式碼時自動遵循。設計與開發之間的「翻譯」鴻溝,被一個 Markdown 檔案彌合了。

如何開始使用 DESIGN.md:3 步驟指南

使用 DESIGN.md 的門檻極低,這也是它吸引人的地方。以下是建立它的三種主要方式:

方法 1:從現有網站自動提取

在 Stitch 中輸入任何 URL,AI 將自動分析該網站的配色方案、字體、間距和元件模式,生成一個完整的 DESIGN.md 檔案。如果你希望新專案的視覺風格與現有品牌保持一致,這是最快的方法。

方法 2:從品牌資產生成

上傳你的品牌標誌、VI 手冊截圖或任何視覺參考,Stitch 的 AI 將從中提取設計規則並生成 DESIGN.md。對於尚未有系統設計規範的團隊來說,這相當於 AI 為你執行了一次設計審核。

方法 3:手動編寫

進階使用者可以直接使用 Markdown 語法編寫 DESIGN.md,精確指定每個設計規則。這種方法提供了最強的控制力,適用於有嚴格品牌指南的團隊。

如果你喜歡在開始之前收集和整理大量的品牌資產、競爭對手截圖和靈感參考,YouMind 的專案功能可以幫助你將所有這些分散的 URL、圖像和 PDF 儲存並集中管理。整理好資料後,使用 YouMind 的 Craft 編輯器直接編寫和迭代你的 DESIGN.md 檔案。原生的 Markdown 支援意味著你無需在工具之間切換。

常見錯誤提醒:

  • 不要將 DESIGN.md 寫成「願景文件」。它需要具體的值(例如,primary-color: #1A73E8),而不是模糊的描述(例如,「使用品牌藍」)。
  • 定期更新。DESIGN.md 是一個活文件,設計規則應與產品迭代同步演進。
  • 不要試圖在一個檔案中涵蓋所有場景。從核心顏色、字體和間距開始,然後逐步擴展。

AI 設計工具比較:哪一個最適合你?

Google Stitch 的升級讓 AI 設計工具領域更加擁擠。以下是幾個主流工具的定位比較:

工具

最佳使用案例

免費版本

核心優勢

Google Stitch

AI 原生 UI 設計 + 原型製作

DESIGN.md 設計系統 + MCP 生態系統

Figma

專業團隊協作設計

成熟的元件庫和外掛生態系統

Cursor

AI 輔助程式碼編寫

程式碼生成 + 上下文理解

YouMind

設計資產收集 + 規範編寫

專案多來源整合 + Craft Markdown 編輯

v0 by Vercel

快速生成前端元件

React/Next.js 生態系統整合

值得注意的是,這些工具並非互斥。一個完整的 AI 設計工作流程可能涉及:使用 YouMind 專案收集靈感和品牌資產,使用 Stitch 生成 UI 和 DESIGN.md,然後透過 MCP 連接到 Cursor 進行開發。工具之間的互操作性正是 DESIGN.md 等標準化檔案的價值所在。

常見問題

Q: DESIGN.md 與傳統設計權杖有何不同?

A: 傳統設計權杖通常以 JSON 或 YAML 格式儲存,主要用於開發人員。DESIGN.md 使用 Markdown 格式,同時服務於人類設計師和 AI Agent,提供更好的可讀性,並能夠包含更豐富的上下文資訊,例如元件模式和互動規範。

Q: DESIGN.md 只能在 Google Stitch 中使用嗎?

A: 不。DESIGN.md 本質上是一個 Markdown 檔案,可以在任何支援 Markdown 的工具中編輯。透過 Stitch 的 MCP Server,它還可以與 Claude Code、Cursor 和 Antigravity 等工具無縫整合,實現設計規則在整個工具鏈中的同步。

Q: 非設計師可以使用 DESIGN.md 嗎?

A: 當然可以。Stitch 支援從任何 URL 自動提取設計系統並生成 DESIGN.md,因此你不需要任何設計背景。創業家、產品經理和前端開發人員都可以使用它來建立和維護品牌視覺一致性。

Q: Google Stitch 目前是免費的嗎?

A: 是的。Stitch 目前處於 Google Labs 階段,可免費使用。它基於 Gemini 3 Flash 和 3.1 Pro 模型。你可以透過造訪 stitch.withgoogle.com 開始體驗。

Q: 氛圍設計(vibe design)與氛圍程式碼編寫(vibe coding)有何關係?

A: 氛圍程式碼編寫使用自然語言描述意圖,讓 AI 生成程式碼,而氛圍設計使用自然語言描述情感和目標,讓 AI 生成 UI 設計。兩者共享相同的理念,Stitch 透過 MCP 將它們整合,形成從設計到開發的完整 AI 原生工作流程。

總結

Google Stitch 的最新升級,看似發布了 5 項功能,實質上是 Google 在 AI 設計領域的戰略佈局。無限畫布為創意提供了空間,語音互動讓協作更自然,即時原型加速了驗證。但 DESIGN.md 做了更基礎的事情:它解決了 AI 生成內容最大的痛點——一致性。

一個 Markdown 檔案將 AI 從「隨機生成」變為「基於規則的生成」。這個邏輯與 Agents.md 在程式碼領域的作用完全相同。隨著 AI 能力越來越強大,「為 AI 設定規則」的能力也將越來越有價值。

如果你正在探索 AI 設計工具,我建議你從 Stitch 的 DESIGN.md 功能開始。提取你現有品牌的設計系統,生成你的第一個 DESIGN.md 檔案,然後將其匯入到你的下一個專案中。你會發現,品牌一致性不再是一個需要手動監督的問題,而是一個由檔案自動確保的標準。

想要更高效地管理你的設計資產和靈感嗎?試試 YouMind,將分散的參考資料集中到一個專案中,讓 AI 幫助你整理、檢索和創作。

參考資料

[1] Figma 股價在 Google Labs 更新 Stitch 設計工具後下跌

[2] Google 官方部落格:使用 Stitch 進行 AI 設計

[3] 什麼是一個好的 Agents.md?

[4] 新 AI 設計標準:什麼是 DESIGN.md?如何編寫?

[5] Google Stitch 與向 AI 驅動開發的轉變

[6] Reddit:Google 剛剛發布了 Stitch,它可能真的會威脅到 Figma

[7] Google 剛剛推出了氛圍設計,這對 UI 設計師意味著什麼

[8] Google 推出語音驅動的氛圍設計工具來建立 UI

對這篇文章有疑問?

免費使用 AI 提問

相關文章

為什麼 AI Agent 總是健忘?深入探討 MemOS 記憶系統

你可能遇到過這種情況:你花了半小時向一個 AI Agent 講解專案背景,結果第二天開始新會話時,它又從頭問你:「你的專案是關於什麼的?」或者更糟的是,一個複雜的多步驟任務進行到一半,Agent 突然「忘記」了已完成的步驟,開始重複操作。 這並非個案。根據 Zylos Research 2025 年的報告,近 65% 的企業 AI 應用失敗可歸因於上下文漂移或記憶喪失 。問題的根源在於,目前大多數 Agent 框架仍然依賴 Context Window 來維護狀態。會話時間越長,Token 開銷越大,關鍵資訊就越容易被淹沒在冗長的對話歷史中。 本文適合正在建構 AI Agent 的開發者、使用 LangChain / CrewAI 等框架的工程師,以及所有被 Token 費用震驚的技術專業人士。我們將深入分析開源專案 MemOS 如何以「記憶作業系統」的方式解決這個問題,並提供主流記憶解決方案的橫向比較,幫助你做出技術選型決策。 要理解 MemOS 解決了什麼問題,我們首先需要了解 AI Agent 的記憶困境究竟在哪裡。 Context Window 不等於記憶。 許多人認為 Gemini 的 1M Token 視窗或 Claude 的 200K 視窗「足夠了」,但視窗大小和記憶能力是兩回事。JetBrains Research 在 2025 年底的一項研究明確指出,隨著上下文長度增加,LLM 利用資訊的效率會顯著下降 。將整個對話歷史塞入 Prompt,不僅讓 Agent 難以找到關鍵資訊,還會導致「Lost in the Middle」現象,即上下文中間的內容召回效果最差。 Token 成本呈指數級增長。 一個典型的客服 Agent 每次互動大約消耗 3,500 個 Token 。如果每次都需要重新載入完整的對話歷史和知識庫上下文,一個擁有 10,000 日活躍用戶的應用程式,每月 Token 費用很容易突破五位數。這還不包括多輪推理和工具調用帶來的額外消耗。 經驗無法累積和復用。 這是最容易被忽視的問題。如果一個 Agent 今天幫助用戶解決了一個複雜的資料清理任務,下次遇到類似問題時,它並不會「記住」這個解決方案。每一次互動都是一次性的,無法形成可復用的經驗。正如騰訊新聞的一篇分析所說:「沒有記憶的 Agent,只是一個高級聊天機器人」 。 這三個問題疊加,構成了目前 Agent 開發中最棘手的基礎設施瓶頸。 由中國新創公司 MemTensor 開發。它於 2024 年 7 月在世界人工智慧大會 (WAIC) 上首次發布 Memory³ 分層大模型,並於 2025 年 7 月正式開源 MemOS 1.0,目前已迭代至 v2.0「星塵」。該專案採用 Apache 2.0 開源許可證,並在 GitHub 上持續活躍。 MemOS 的核心理念可以用一句話概括:將記憶從 Prompt 中提取出來,作為一個獨立組件在系統層運行。 傳統做法是將所有對話歷史、用戶偏好和任務上下文塞入 Prompt,讓 LLM 在每次推理時都「重新閱讀」所有資訊。MemOS 則採取了完全不同的方法。它在 LLM 和應用程式之間插入了一個「記憶作業系統」層,負責記憶的儲存、檢索、更新和排程。Agent 不再需要每次都載入完整歷史,而是由 MemOS 根據當前任務的語義,智慧地檢索最相關的記憶片段到上下文中。 這種架構帶來了三個直接好處: 首先,Token 消耗顯著降低。 官方 LoCoMo 基準測試數據顯示,MemOS 相較於傳統全載入方式,Token 消耗降低約 60.95%,其中記憶 Token 節省達 35.24% 。智啟知行的一份報告提到,整體準確性提升了 38.97% 。換句話說,用更少的 Token 實現了更好的效果。 其次,跨會話記憶持久化。 MemOS 支援自動從對話中提取關鍵資訊並持久儲存。下次開啟新會話時,Agent 可以直接存取之前累積的記憶,無需用戶重新解釋背景。資料儲存在本地 SQLite 中,100% 本地運行,確保資料隱私。 第三,多 Agent 記憶共享。 多個 Agent 實例可以透過相同的 user_id 共享記憶,實現上下文的自動交接。這對於建構多 Agent 協作系統來說,是一個關鍵能力。 MemOS 最引人注目的設計是其「記憶演化鏈」。 大多數記憶系統專注於「儲存」和「檢索」:儲存對話歷史,並在需要時檢索。MemOS 則增加了另一層抽象。對話內容並非逐字累積,而是透過三個階段演化: 第一階段:對話 → 結構化記憶。 原始對話會被自動提取為結構化的記憶條目,包括關鍵事實、用戶偏好、時間戳記和其他元數據。MemOS 使用其自研的 MemReader 模型(提供 4B/1.7B/0.6B 大小)來執行此提取過程,比直接使用 GPT-4 進行摘要更高效、準確。 第二階段:記憶 → 任務。 當系統識別出某些記憶條目與特定的任務模式相關聯時,它會自動將它們聚合為任務級別的知識單元。例如,如果你重複要求 Agent 執行「Python 資料清理」,相關的對話記憶就會被歸類到一個任務範本中。 第三階段:任務 → 技能。 當一個任務被重複觸發並驗證有效時,它會進一步演化為一個可復用的技能。這意味著 Agent 以前遇到過的問題,很可能不會再問第二次;相反,它會直接調用現有的技能來執行。 這個設計的巧妙之處在於它模擬了人類的學習過程:從具體經驗到抽象規則,再到自動化技能。MemOS 的論文將這種能力稱為「記憶增強生成」(Memory-Augmented Generation),並已在 arXiv 上發表了兩篇相關論文 。 實際數據也證實了這種設計的有效性。在 LongMemEval 評估中,MemOS 的跨會話推理能力比 GPT-4o-mini 基準提高了 40.43%;在 PrefEval-10 個性化偏好評估中,提升更是驚人的 2568% 。 如果你想將 MemOS 整合到你的 Agent 專案中,這裡有一個快速入門指南: 第一步:選擇部署方式。 MemOS 提供兩種模式。雲端模式允許你在 上直接註冊 API Key,並透過幾行程式碼進行整合。本地模式透過 Docker 部署,所有資料儲存在本地 SQLite 中,適用於有資料隱私要求的場景。 第二步:初始化記憶系統。 核心概念是 MemCube(記憶立方體),每個 MemCube 對應一個用戶或一個 Agent 的記憶空間。多個 MemCube 可以透過 MOS(記憶作業系統)層進行統一管理。以下是一個程式碼範例: ``python from memos.mem_os.main import MOS from memos.configs.mem_os import MOSConfig # 初始化 MOS config = MOSConfig.from_json_file("config.json") memory = MOS(config) # 建立用戶並註冊記憶空間 memory.create_user(user_id="your-user-id") memory.register_mem_cube("path/to/mem_cube", user_id="your-user-id") # 添加對話記憶 memory.add( messages=[ {"role": "user", "content": "My project uses Python for data analysis"}, {"role": "assistant", "content": "Understood, I will remember this background information"} ], user_id="your-user-id" ) # 稍後檢索相關記憶 results = memory.search(query="What language does my project use?", user_id="your-user-id") `` 第三步:整合 MCP 協定。 MemOS v1.1.2 及更高版本完全支援模型上下文協定(Model Context Protocol, MCP),這意味著你可以將 MemOS 作為 MCP 伺服器,讓任何支援 MCP 的 IDE 或 Agent 框架直接讀寫外部記憶。 常見陷阱提醒: MemOS 的記憶提取依賴於 LLM 推理。如果底層模型的性能不足,記憶品質會受到影響。Reddit 社區的開發者報告稱,在使用小參數本地模型時,記憶準確性不如調用 OpenAI API 。建議在生產環境中,至少使用 GPT-4o-mini 級別的模型作為記憶處理後端。 在日常工作中,Agent 級別的記憶管理解決了「機器如何記憶」的問題,但對於開發者和知識工作者來說,「人類如何高效累積和檢索資訊」同樣重要。 的專案功能提供了另一種互補的方法:你可以將研究資料、技術文件和網頁連結統一儲存到一個知識空間中,AI 助手會自動整理它們並支援跨文件問答。例如,在評估 MemOS 時,你可以將 GitHub README、arXiv 論文和社區討論一鍵剪輯到同一個專案中,然後直接提問:「MemOS 和 Mem0 在基準測試上有什麼區別?」AI 會從你儲存的所有資料中檢索答案。這種「人 + AI 協同累積」模式與 MemOS 的 Agent 記憶管理相得益彰。 自 2025 年以來,Agent 記憶領域湧現出多個開源專案。以下是四個最具代表性的解決方案比較: 2025 年的一篇知乎文章《AI 記憶系統橫評》對這些解決方案進行了詳細的基準測試復現,結論是 MemOS 在 LoCoMo 和 LongMemEval 等評估集上表現最穩定,是「唯一一個官方評估、GitHub 交叉測試和社區復現結果一致的記憶作業系統」 。 如果你的需求不是 Agent 級別的記憶管理,而是個人或團隊的知識累積和檢索, 提供了另一個維度的解決方案。它的定位是「學習 → 思考 → 創造」的一體化工作室,支援儲存網頁、PDF、影片、播客等各種來源,並由 AI 自動整理和支援跨文件問答。相較於 Agent 記憶系統專注於「讓機器記住」,YouMind 更側重於「幫助人類高效管理知識」。但需要注意的是,YouMind 目前不提供類似 MemOS 的 Agent 記憶 API;它們解決的是不同層次的需求。 選擇建議: Q: MemOS 和 RAG (Retrieval-Augmented Generation) 有什麼區別? A: RAG 專注於從外部知識庫檢索資訊並注入 Prompt,本質上仍然是「每次查詢、每次插入」的模式。而 MemOS 則將記憶作為一個系統級組件進行管理,支援記憶的自動提取、演化和技能化。兩者可以互補使用,MemOS 處理對話記憶和經驗累積,RAG 處理靜態知識庫檢索。 Q: MemOS 支援哪些 LLM?部署有什麼硬體要求? A: MemOS 支援透過 API 調用 OpenAI、Claude 等主流模型,也支援透過 Ollama 整合本地模型。雲端模式沒有硬體要求;本地模式建議 Linux 環境,內建的 MemReader 模型最小為 0.6B 參數,可在普通 GPU 上運行。Docker 部署開箱即用。 Q: MemOS 的資料安全如何?記憶資料儲存在哪裡? A: 在本地模式下,所有資料儲存在本地 SQLite 資料庫中,100% 本地運行,不向任何外部伺服器上傳。在雲端模式下,資料儲存在 MemOS 官方伺服器上。對於企業用戶,建議使用本地模式或私有部署方案。 Q: AI Agent 的 Token 成本通常有多高? A: 以一個典型的客服 Agent 為例,每次互動大約消耗 3,150 個輸入 Token 和 400 個輸出 Token。根據 2026 年 GPT-4o 的定價,一個擁有 10,000 日活躍用戶,平均每個用戶每天 5 次互動的應用程式,每月 Token 費用將在 2,000 美元到 5,000 美元之間。使用 MemOS 等記憶優化方案可以將這個數字降低 50% 以上。 Q: 除了 MemOS,還有哪些方法可以降低 Agent 的 Token 成本? A: 主流方法包括 Prompt 壓縮(例如 LLMLingua)、語義快取(例如 Redis 語義快取)、上下文摘要和選擇性載入策略。Redis 2026 年的技術部落格指出,語義快取在查詢高度重複的場景中可以完全繞過 LLM 推理調用,帶來顯著的成本節省 。這些方法可以與 MemOS 結合使用。 AI Agent 的記憶問題本質上是一個系統架構問題,而不僅僅是模型能力問題。MemOS 的答案是將記憶從 Prompt 中解放出來,作為一個獨立的作業系統層運行。實證數據證明了這條路徑的可行性:Token 消耗降低 61%,時間推理能力提升 159%,並在四大評估集上取得 SOTA。 對於開發者而言,最值得關注的是 MemOS 的「對話 → 任務 → 技能」演化鏈。它將 Agent 從一個「每次都從頭開始」的工具,轉變為一個能夠累積經驗、持續演化的系統。這可能是 Agent 從「可用」走向「有效」的關鍵一步。 如果你對 AI 驅動的知識管理和資訊累積感興趣,歡迎免費試用 ,體驗「學習 → 思考 → 創造」的一體化工作流程。 [1] [2] [3] [4] [5] [6] [7] [8] [9] [10]

Lenny 開放 350 多個電子報資料集:如何使用 MCP 將其與您的 AI 助手整合

你可能聽過 Lenny Rachitsky 這個名字。這位前 Airbnb 產品負責人於 2019 年開始撰寫他的電子報,現在擁有超過 110 萬訂閱者,每年創造超過 200 萬美元的收入,使其成為 Substack 上排名第一的商業電子報 。他的播客也在科技領域排名前十,邀請了矽谷頂尖的產品經理、成長專家和企業家作為嘉賓。 2026 年 3 月 17 日,Lenny 做了一件前所未有的事:他將所有內容資產作為 AI 可讀的 Markdown 資料集提供。憑藉 350 多篇深度電子報文章、300 多份完整的播客逐字稿、一個配套的 MCP 伺服器和一個 GitHub 儲存庫,任何人現在都可以使用這些資料建構 AI 應用程式 。 本文將涵蓋此資料集的完整內容、如何透過 MCP 伺服器將其整合到你的 AI 工具中、社群已建構的 50 多個創意專案,以及你如何利用這些資料創建自己的 AI 知識助理。本文適用於內容創作者、電子報作者、AI 應用程式開發者和知識管理愛好者。 這不是簡單的「內容轉移」。Lenny 的資料集經過精心組織,專為 AI 消耗場景而設計。 在資料規模方面,免費使用者可以存取包含 10 篇電子報文章和 50 份播客逐字稿的入門包,並透過 連接到入門級 MCP 伺服器。付費訂閱者則可以存取完整的 349 篇電子報文章和 289 份播客逐字稿,以及完整的 MCP 存取權限和私人 GitHub 儲存庫 。 在資料格式方面,所有檔案均為純 Markdown 格式,可直接與 Claude Code、Cursor 和其他 AI 工具配合使用。儲存庫中的 index.json 檔案包含結構化中繼資料,例如標題、發布日期、字數、電子報副標題、播客嘉賓資訊和劇集描述。值得注意的是,過去 3 個月內發布的電子報文章不包含在資料集中。 在內容品質方面,這些資料涵蓋了產品管理、使用者成長、創業策略和職涯發展等核心領域。播客嘉賓包括 Airbnb、Figma、Notion、Stripe 和 Duolingo 等公司的執行長和創辦人。這不是隨機抓取的網路內容,而是經過 7 年累積並由 110 萬人驗證的高品質知識庫。 全球 AI 訓練資料集市場在 2025 年達到 35.9 億美元,預計到 2034 年將成長到 231.8 億美元,複合年增長率為 22.9% 。在這個資料即燃料的時代,高品質、利基的內容資料變得極為稀缺。 Lenny 的方法代表了一種新的創作者經濟模式。傳統上,電子報作者透過付費牆保護內容價值。然而,Lenny 卻反其道而行:他將內容作為「資料資產」開放,讓社群在其之上建構新的價值層。這不僅沒有減少他的付費訂閱(事實上,資料集的傳播吸引了更多關注),還圍繞他的內容創建了一個開發者生態系統。 與其他內容創作者的做法相比,這種「內容即 API」的方法幾乎是前所未有的。正如 Lenny 自己所說:「我不認為以前有人做過這樣的事情。」 這個模型的核心洞察是:當你的內容足夠好,資料結構足夠清晰時,社群將幫助你創造你從未想像過的價值。 想像一下這個場景:你是一名產品經理,正在準備一份關於使用者成長策略的簡報。你無需花費數小時篩選 Lenny 的歷史文章,而是可以直接要求 AI 助理從 300 多集播客中檢索所有關於「成長循環」的討論,並自動生成包含具體範例和資料的摘要。這就是結構化資料集帶來的效率飛躍。 將 Lenny 的資料集整合到你的 AI 工作流程中並不複雜。以下是具體步驟。 前往 並輸入你的訂閱電子郵件以獲取登入連結。免費使用者可以下載入門包 ZIP 檔案或直接複製公共 GitHub 儲存庫: ``plaintext git clone https://github.com/LennysNewsletter/lennys-newsletterpodcastdata.git `` 付費使用者可以登入以存取包含完整資料集的私人儲存庫。 MCP (Model Context Protocol) 是 Anthropic 推出的一個開放標準,允許 AI 模型以標準化方式存取外部資料來源。Lenny 的資料集提供了一個官方 MCP 伺服器,你可以直接在 Claude Code 或其他支援 MCP 的客戶端中進行配置。免費使用者可以使用入門級 MCP,而付費使用者則可以存取完整資料的 MCP。 配置完成後,你可以在 AI 對話中直接搜尋和參考 Lenny 的所有內容。例如,你可以問:「在 Lenny 的播客嘉賓中,誰討論了 PLG (Product-Led Growth) 策略?他們的核心見解是什麼?」 一旦你有了資料,你可以根據自己的需求選擇不同的建構路徑。如果你是開發者,你可以使用 Claude Code 或 Cursor 直接基於 Markdown 檔案建構應用程式。如果你更傾向於知識管理,你可以將這些內容匯入你偏好的知識庫工具。 例如,你可以在 中創建一個專門的專案,並將 Lenny 電子報文章的連結批量儲存到其中。YouMind 的 AI 將自動組織這些內容,你可以隨時提問、檢索和分析整個知識庫。這種方法特別適合不編程但希望利用 AI 有效消化大量內容的創作者和知識工作者。 一個常見的誤解需要注意:不要試圖一次性將所有資料傾倒到一個 AI 聊天視窗中。更好的方法是按主題分批處理,或讓 AI 透過 MCP 伺服器按需檢索。 Lenny 之前只發布了播客逐字稿資料,社群已經建構了 50 多個專案。以下是 5 類最具代表性的應用程式。 遊戲化學習:LennyRPG。 產品設計師 Ben Shih 將 300 多份播客逐字稿轉化為 Pokémon 風格的 RPG 遊戲 。玩家在像素化的世界中遇到播客嘉賓,並透過回答產品管理問題來「戰鬥」和「捕捉」他們。Ben 使用 Phaser 遊戲框架、Claude Code 和 OpenAI API,在短短幾週內完成了從概念到發布的整個開發 。 跨領域知識轉移:Tiny Stakeholders。 由 Ondrej Machart 開發的 將播客中的產品管理方法應用於育兒場景。這個專案展示了高品質內容資料的一個有趣特徵:好的框架和心智模型可以跨領域轉移。 結構化知識提取:Lenny Skills Database。 Refound AI 團隊從播客檔案中提取了 ,每項技能都有具體的上下文和來源引用 。他們使用 Claude 進行預處理,並使用 ChromaDB 進行向量嵌入,使整個過程高度自動化。 社群媒體 AI Agent:Learn from Lenny。 是一個在 X (Twitter) 上運行的 AI Agent,它根據播客檔案回答使用者的產品管理問題,每個回覆都包含原始來源。 視覺內容再創作:Lenny Gallery。 將每個播客劇集的核心見解轉化為精美的資訊圖表,將一小時的播客變成可分享的視覺摘要。 這些專案的共同特點是它們不是簡單的「內容轉移」,而是基於原始資料創造了新的價值形式。 面對像 Lenny 這樣的大規模內容資料集,不同的工具適用於不同的使用案例。以下是主流解決方案的比較: 如果你是開發者,Claude Code + MCP 伺服器是最直接的路徑,允許在對話中即時查詢完整資料。如果你是內容創作者或知識工作者,不想編程但希望用 AI 消化這些內容,YouMind 的專案功能更適合:你可以批量匯入文章連結,然後使用 AI 提問和分析整個知識庫。YouMind 目前更適合「收集 → 組織 → AI 問答」的知識管理場景,但尚未支援直接連接外部 MCP 伺服器。對於需要深度程式碼開發的專案,仍然推薦 Claude Code 或 Cursor。 問:Lenny 的資料集完全免費嗎? 答:不完全是。免費使用者可以存取包含 10 篇電子報和 50 份播客逐字稿的入門包,以及入門級 MCP 存取權限。完整的 349 篇文章和 289 份逐字稿需要付費訂閱 Lenny 的電子報(每年約 150 美元)。過去 3 個月內發布的文章不包含在資料集中。 問:什麼是 MCP 伺服器?普通使用者可以使用它嗎? 答:MCP (Model Context Protocol) 是 Anthropic 在 2024 年底推出的一個開放標準,允許 AI 模型以標準化方式存取外部資料。目前主要透過 Claude Code 和 Cursor 等開發工具使用。如果普通使用者不熟悉命令列,可以先下載 Markdown 檔案並將其匯入 YouMind 等知識管理工具,以使用 AI 問答功能。 問:我可以使用這些資料來訓練我自己的 AI 模型嗎? 答:資料集的使用受 檔案的約束。目前,這些資料主要用於 AI 工具中的上下文檢索(例如 RAG),而不是直接用於模型微調。建議在使用前仔細閱讀 GitHub 儲存庫中的許可協議。 問:除了 Lenny,還有其他電子報作者發布過類似的資料集嗎? 答:目前,Lenny 是第一位以如此系統化的方式(Markdown + MCP + GitHub)開放完整內容的領先電子報作者。這種方法在創作者經濟中是前所未有的,但可能會激勵更多創作者效仿。 問:創作挑戰的截止日期是什麼時候? 答:Lenny 發起的創作挑戰截止日期是 2025 年 4 月 15 日。參與者需要根據資料集建構專案,並在電子報評論區提交連結。獲獎者將獲得一年的免費電子報訂閱。 Lenny Rachitsky 發布 350 多篇電子報文章和 300 多份播客逐字稿資料集,標誌著內容創作者經濟的一個重要轉折點:高品質內容不再僅僅是供閱讀的內容;它正在成為可編程的資料資產。透過 MCP 伺服器和結構化的 Markdown 格式,任何開發者和創作者都可以將這些知識整合到他們的 AI 工作流程中。社群已經透過 50 多個專案展示了這種模式的巨大潛力。 無論你是想建構 AI 驅動的知識助理,還是更有效地消化和組織電子報內容,現在都是採取行動的好時機。你可以前往 獲取資料,或者嘗試使用 將你關注的電子報和播客內容匯入你的個人知識庫,讓 AI 幫助你完成從資訊收集到知識創造的整個閉環。 [1] [2] [3] [4] [5] [6] [7]

Grok Imagine 影片生成評測:三冠王實力對決五大模型比較

2026 年 1 月,xAI 的 在一個月內生成了 12.45 億支影片。這個數字在一年前是難以想像的,當時 xAI 甚至還沒有影片產品。從零到巔峰,Grok Imagine 僅用了七個月就實現了這一目標。 更值得注意的是排行榜數據。在 Arcada Labs 營運的 影片評測中,Grok Imagine 獲得了三項第一名:影片生成競技場 Elo 1337(領先第二名模型 33 分)、圖像轉影片競技場 Elo 1298(擊敗 Google Veo 3.1、Kling 和 Sora),以及影片編輯競技場 Elo 1291。沒有其他模型能同時在所有這三個類別中名列前茅。 本文適合目前正在選擇 AI 影片生成工具的創作者、行銷團隊和獨立開發者。你將找到 Grok Imagine、Google Veo 3.1、Kling 3.0、Sora 2 和 Seedance 2.0 這五大模型的全面交叉比較,包括定價、核心功能、優缺點和情境建議。 DesignArena 採用 Elo 評分系統,用戶匿名盲測並在兩個模型的輸出之間投票。這種機制與評估大型語言模型的 LMArena(前身為 LMSYS Chatbot Arena)一致,被業界認為是最接近實際用戶偏好的排名方法。 Grok Imagine 的三個 Elo 分數代表了不同的能力維度。影片生成 Elo 1337 衡量直接從文字提示生成的影片品質;圖像轉影片 Elo 1298 測試將靜態圖像轉換為動態影片的能力;影片編輯 Elo 1291 評估在現有影片上進行風格轉換、添加/移除元素和其他操作的性能。 這三種能力的結合形成了一個完整的影片創作循環。對於實際工作流程,你不僅需要「生成一個好看的影片」,還需要快速從產品圖像創建廣告素材(圖像轉影片),並在不從頭開始的情況下微調生成結果(影片編輯)。Grok Imagine 是目前唯一在這三個階段都排名第一的模型。 值得注意的是,Kling 3.0 在一些獨立基準測試中已重新奪回文字轉影片類別的領先地位。 AI 影片生成排名每週都在變化,但 Grok Imagine 在圖像轉影片和影片編輯類別的優勢目前依然穩固。 以下是截至 2026 年 3 月,五個主流 AI 影片生成模型的核心參數比較。數據來源於官方平台定價頁面和第三方評測。 核心功能: 文字轉影片、圖像轉影片、影片編輯、影片延伸(從影格延伸)、多長寬比支援(1:1、16:9、9:16、4:3、3:4、3:2、2:3)。基於 xAI 自主開發的 Aurora 自迴歸引擎,使用 11 萬個 NVIDIA GB200 GPU 訓練。 定價結構: 免費用戶有基本配額限制;X Premium ($8/月) 提供基本存取權限;SuperGrok ($30/月) 解鎖 720p 和 10 秒影片,每日約 100 支影片的限制;SuperGrok Heavy ($300/月) 每日限制 500 支影片。API 定價為 $4.20/分鐘。 優點: 生成速度極快,輸入提示後幾乎立即返回圖像串流,一鍵將每張圖像轉換為影片。影片編輯功能是獨特的賣點:你可以使用自然語言指令在現有影片上執行風格轉換、添加或移除物件以及控制運動路徑,而無需重新生成。支援最多長寬比,適合同時製作橫向、縱向和方形素材。 缺點: 最大解析度僅為 720p,對於需要高畫質交付的品牌專案來說是一個顯著的缺點。影片編輯輸入上限為 8.7 秒。多次鏈式延伸後圖像品質明顯下降。內容審核政策存在爭議,「辣味模式」曾引起國際關注。 核心功能: 文字轉影片、圖像轉影片、首尾影格控制、影片延伸、原生音訊(對話、音效、背景音樂同步生成)。支援 720p、1080p 和 4K 輸出。可透過 Gemini API 和 Vertex AI 取得。 定價結構: Google AI Plus $7.99/月 (Veo 3.1 Fast),AI Pro $19.99/月,AI Ultra $249.99/月。Veo 3.1 Fast 的 API 定價為 $0.15/秒,Standard 為 $0.40/秒,兩者都包含音訊。 優點: 目前唯一支援真正原生 4K 輸出的模型(透過 Vertex AI)。音訊生成品質在業界領先,對話自動唇形同步,音效與螢幕動作同步。首尾影格控制使逐鏡頭工作流程更易於管理,適合需要鏡頭連續性的敘事專案。Google Cloud 基礎設施提供企業級 SLA。 缺點: 標準時長僅為 4/6/8 秒,明顯短於 Grok Imagine 和 Kling 3.0 的 15 秒上限。長寬比僅支援 16:9 和 9:16。Vertex AI 上的圖像轉影片功能仍處於預覽階段。4K 輸出需要高階訂閱或 API 存取權限,使普通用戶難以使用。 核心功能: 文字轉影片、圖像轉影片、多鏡頭敘事(單次生成 2-6 個鏡頭)、通用參考(支援多達 7 個參考圖像/影片以鎖定角色一致性)、原生音訊、唇形同步。由快手開發。 定價結構: 免費方案提供每日 66 點數(約 1-2 支 720p 影片),Standard $5.99/月,Pro $37/月(3000 點數,約 50 支 1080p 影片),Ultra 更高。每秒 API 價格為 $0.029,是五大模型中最便宜的。 優點: 無與倫比的性價比。Pro 方案每支影片成本約為 $0.74,遠低於其他模型。多鏡頭敘事是殺手級功能:你可以在結構化提示中描述多個鏡頭的主題、時長和攝影機運動,模型會自動處理鏡頭之間的轉場和剪輯。支援原生 4K 輸出。文字渲染能力是所有模型中最強的,適合電商和行銷情境。 缺點: 免費方案有浮水印,不能用於商業用途。高峰時段排隊時間可能超過 30 分鐘。生成失敗仍會消耗點數。與 Grok Imagine 相比,它缺乏影片編輯功能(只能生成,不能修改現有影片)。 核心功能: 文字轉影片、圖像轉影片、分鏡編輯、影片延伸、角色一致性引擎。Sora 1 已於 2026 年 3 月 13 日正式退役,Sora 2 成為唯一版本。 定價結構: 免費方案已於 2026 年 1 月停用。ChatGPT Plus $20/月(有限配額),ChatGPT Pro $200/月(優先存取)。API 定價:720p $0.10/秒,1080p $0.30-$0.70/秒。 優點: 物理模擬能力是所有模型中最強的。重力、流體和材質反射等細節極其逼真,適合高度寫實的情境。支援長達 60 秒的影片生成,遠超其他模型。分鏡功能允許逐影格編輯,為創作者提供精確控制。 缺點: 價格門檻是五大模型中最高的。每月 $200 的 Pro 訂閱讓個人創作者望而卻步。服務穩定性問題頻繁:2026 年 3 月,多次出現影片卡在 99% 完成度、「伺服器過載」等錯誤。沒有免費方案意味著你無法在付費前充分評估。 核心功能: 文字轉影片、圖像轉影片、多模態參考輸入(最多 12 個檔案,涵蓋文字、圖像、影片、音訊)、原生音訊(音效 + 音樂 + 8 種語言唇形同步)、原生 2K 解析度。由字節跳動開發,於 2026 年 2 月 12 日發布。 定價結構: Dreamina 免費方案(每日免費點數,帶浮水印),即夢基礎會員 69 人民幣/月(約 $9.60),Dreamina 國際付費方案。透過 BytePlus 提供 API,定價約為 $0.02-$0.05/秒。 優點: 12 個檔案的多模態輸入是獨家功能。你可以同時上傳角色參考圖像、場景照片、動作影片片段和背景音樂,模型會綜合所有參考資料生成影片。這種程度的創意控制在其他模型中完全沒有。原生 2K 解析度對所有用戶開放(不像 Veo 3.1 的 4K 需要高階訂閱)。每月 69 人民幣的入門價格是 Sora 2 Pro 的二十分之一。 缺點: 中國以外的存取體驗仍有摩擦,Dreamina 國際版直到 2026 年 2 月下旬才推出。內容審核相對嚴格。學習曲線相對陡峭,充分利用多模態輸入需要時間探索。最大時長為 10 秒,短於 Grok Imagine 和 Kling 3.0 的 15 秒。 選擇 AI 影片生成模型的核心問題不是「哪個最好」,而是「你正在優化哪個工作流程?」 以下是根據實際情境提供的建議: 批量製作社群媒體短影片:選擇 Grok Imagine 或 Kling 3.0。 你需要快速製作各種長寬比的素材,頻繁迭代,且對解析度要求不高。Grok Imagine 的「生成 → 編輯 → 發布」循環最流暢;Kling 3.0 的免費方案和低成本適合預算有限的個人創作者。 品牌廣告和產品宣傳影片:選擇 Veo 3.1。 當客戶要求 4K 交付、同步影音和鏡頭連續性時,Veo 3.1 的首尾影格控制和原生音訊是無可替代的。Google Cloud 的企業級支援也使其更適合有合規要求的商業專案。 電商產品影片和帶有文字的素材:選擇 Kling 3.0。 文字渲染能力是 Kling 的獨特優勢。產品名稱、價格標籤和宣傳文案可以清晰地出現在影片中,這是其他模型難以持續做到的。每秒 $0.029 的 API 價格也使大規模生產成為可能。 電影級概念預覽和物理模擬:選擇 Sora 2。 如果你的場景涉及複雜的物理互動(水面反射、布料動態、碰撞效果),Sora 2 的物理引擎仍然是業界標準。60 秒的最大時長也適合完整的場景預覽。但請準備好每月 $200 的預算。 多素材參考的創意專案:選擇 Seedance 2.0。 當你擁有角色設計圖像、場景參考、動作影片片段和背景音樂,並且希望模型綜合所有素材生成影片時,Seedance 2.0 的 12 個檔案多模態輸入是唯一的選擇。適合動畫工作室、音樂影片製作和概念藝術團隊。 無論你選擇哪種模型,提示詞品質直接決定輸出品質。Grok Imagine 的官方建議是「像向攝影指導簡報一樣撰寫提示詞」,而不是簡單地堆疊關鍵字。 一個有效的影片提示詞通常包含五個層次:場景描述、主體動作、攝影機運動、光線與氛圍、風格參考。 例如,「桌上的一隻貓」和「一隻橘貓懶洋洋地從木製餐桌邊緣探頭,溫暖的側光,淺景深,緩慢推入鏡頭,膠片顆粒質感」將產生完全不同的結果。後者為模型提供了足夠的創意錨點。 如果你想快速上手,而不是從頭摸索, 包含 400 多個社群精選的影片提示詞,涵蓋電影、產品廣告、動畫、社群內容等風格,支援一鍵複製和直接使用。這些經過社群驗證的提示詞範本可以顯著縮短你的學習曲線。 問:Grok Imagine 影片生成是免費的嗎? 答:有免費配額,但非常有限。免費用戶每 2 小時約有 10 次圖像生成,影片需要從圖像轉換。完整的 720p/10 秒影片功能需要 SuperGrok 訂閱($30/月)。X Premium($8/月)提供基本存取權限,但功能有限。 問:2026 年最便宜的 AI 影片生成工具是哪個? 答:根據每秒 API 成本,Kling 3.0 最便宜($0.029/秒)。根據訂閱入門價格,Seedance 2.0 的即夢基礎會員每月 69 人民幣(約 $9.60)性價比最高。兩者都提供免費方案供評估。 問:Grok Imagine 和 Sora 2 哪個更好? 答:這取決於你的需求。Grok Imagine 在圖像轉影片和影片編輯方面排名更高,生成速度更快,且更便宜(SuperGrok $30/月 vs. ChatGPT Pro $200/月)。Sora 2 在物理模擬和長影片(最長 60 秒)方面更強。如果你需要快速迭代短影片,選擇 Grok Imagine;如果你需要電影級的真實感,選擇 Sora 2。 問:AI 影片生成模型排名可靠嗎? 答:DesignArena 和 Artificial Analysis 等平台使用匿名盲測 + Elo 評分系統,類似於西洋棋排名系統,在統計上是可靠的。然而,排名每週都在變化,不同基準測試的結果可能有所不同。建議將排名作為參考,而不是唯一的決策依據,並根據你自己的實際測試做出判斷。 問:哪個 AI 影片模型支援原生音訊生成? 答:截至 2026 年 3 月,Grok Imagine、Veo 3.1、Kling 3.0、Sora 2 和 Seedance 2.0 都支援原生音訊生成。其中,Veo 3.1 的音訊品質(對話唇形同步、環境音效)被多個評測認為是最好的。 2026 年,AI 影片生成進入了真正的多模型競爭時代。Grok Imagine 在七個月內從零到 DesignArena 三冠王的歷程證明,新進者可以完全顛覆格局。然而,「最強」不等於「最適合你」:Kling 3.0 的 $0.029/秒使批量生產成為現實,Veo 3.1 的 4K 原生音訊為品牌專案樹立了新標準,Seedance 2.0 的 12 個檔案多模態輸入開闢了全新的創意途徑。 選擇模型的關鍵在於明確你的核心需求:無論是迭代速度、輸出品質、成本控制還是創意彈性。最有效率的工作流程通常不是押注單一模型,而是根據專案類型靈活組合它們。 想快速上手 Grok Imagine 影片生成嗎?造訪 ,獲取 400 多個社群精選的影片提示詞,一鍵複製,涵蓋電影、廣告、動畫等風格,幫助你跳過提示詞探索階段,直接製作高品質影片。 [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19]