
如果 Anthropic 不願展示其最危險 AI 的內部構造,GitHub 上總會有人猜測。
一位名叫 Kye Gomez 的開發者發布了 OpenMythos,這是一個開源的重建版本,旨在揭示他所認為的 Claude Mythos 的底層運作方式。該儲存庫在發布後的數週內獲得了超過 10,000 個 GitHub 星標,並附帶一個詳盡的「readme」文件,其中充滿了方程式、引用文獻以及一份禮貌的免責聲明,強調其與 Anthropic 無關。
這是一種猜測。但這是一種結構化的、以程式碼形式呈現的猜測。
以下是關於 Mythos 的快速回顧:Mythos 在三月下旬意外洩露到公眾視野,當時 Anthropic 不小心發布了草稿材料,將其描述為該公司迄今為止最能幹的模型—比 Opus 高一個等級。後續的 Mythos Preview,結果在網路安全方面表現出色到無法發布。
根據 Anthropic 的說法,Mythos 在 Mozilla 測試期間在 Firefox 中發現了 271 個漏洞。它成為第一個完成 32 步企業網路攻擊模擬的 AI 模型。Anthropic 將其鎖定在 Glasswing 計畫中,這是一個由約 40 個合作夥伴組成的經審查聯盟,包括微軟、蘋果、亞馬遜和美國國家安全局(NSA)。
公眾永遠無法接觸到它。所以 Gomez 試圖弄清楚它是如何運作的。
OpenMythos 的核心猜測是 Mythos 是一種循環深度變壓器(Recurrent-Depth Transformer)—也稱為循環變壓器(looped transformer)。標準模型堆疊數百個獨特的層。循環模型則採用較小的堆疊,並在每次前向傳播中多次執行它。
換句話說,相同的權重會經過更多的迭代。在任何 token 發出之前,在連續潛在空間中進行更深層次的思考。
該儲存庫認為這解釋了 Mythos 的兩個最奇怪的特質:它能夠推理出其他模型無法解決的新穎問題,但其原始記憶力卻不均勻。這是循環架構的標誌—強調組合而非儲存。
OpenMythos 引用了來自加州大學聖地亞哥分校和 Together AI 於 2026 年 4 月發表的論文 Parcae,該論文解決了循環模型中長期存在的穩定性問題—一個 7.7 億參數的 Parcae 模型在品質上與一個 13 億固定深度變壓器模型相當,並具有可預測的循環次數縮放定律。該儲存庫還借鑒了 DeepSeek 的多潛在注意力(Multi-Latent Attention)來壓縮記憶體,以及混合專家(Mixture-of-Experts)設置來處理跨領域的廣度。
它所沒有的是權重,所以基本上這是一種沒有執行者的技術。
OpenMythos 仍是理論性的。程式碼定義了從 10 億到 1 兆參數的模型變體,但你必須自己訓練它們—readme 文件指向 FineWeb-Edu 上一個 30 億參數的訓練腳本和一個 Chinchilla 調整後的 300 億 token 目標,這是在 H100 GPU 上會產生數十萬美元運算費用的訓練類型。目前還沒有人完成。
那麼,為什麼這很重要?
因為這是一個月內第二次有人試圖突破 Mythos 的防線。第一次是 Vidoc Security 的一項研究,他們使用 GPT-5.4 和 Claude Opus 4.6 在一個開源代理中重現了 Mythos 幾項最令人擔憂的漏洞發現。沒有 Glasswing 存取權限,每次掃描費用不到 30 美元。角度不同,結論相同:Mythos 周圍的護城河可能比行銷宣傳的要淺。
OpenMythos 和 Vidoc 的復現工作方向不同。Vidoc 使用現有模型重現了 Mythos 的輸出—即漏洞發現本身。OpenMythos 則試圖重現其架構—產生這些輸出的實際機器。一個說你不需要 Mythos 也能找到 Mythos 發現的漏洞。另一個則說,最終你可能會自己建造一個類似 Mythos 的東西。
Anthropic 幾乎肯定不會公開 Gomez 的架構猜測,OpenMythos 中的幾項設計選擇也是明確的保留—readme 文件特意模糊其詞,以讓用戶知道這只是一種方法。它反覆提到「可能」、「懷疑」和「幾乎肯定」。真正的 Mythos 可能根本不是循環變壓器。或者它可能是一個 Gomez 尚未逆向工程的帶有細節的版本。
OpenMythos 所展示的是,研究文獻中已經包含了大部分組成部分。循環變壓器、混合專家模型、多潛在注意力、自適應計算時間、Parcae 的穩定性修復—這些都不是專有的。這個儲存庫,更多地是關於如何構建一個 Mythos 級模型,公開已知知識的一個清單。
該儲存庫採用 MIT 許可證,並且已經有 2,700 個分支。訓練腳本就在那裡,等待著擁有 GPU 叢集和一篇論文需要證明的人。