從免費仔到月付 $100:Claude Code CLI 讓我重新思考什麼是 AGI

被同事推坑的血淚史

我被同事推坑了。

原本我是個快樂的免費仔,Claude、GPT、Gemini 輪流用來寫 code。因為每天寫的量大,三家輪著用還是天天撞到 rate limit。就這樣過了好一陣子,我以為這就是 AI 輔助開發的日常。

然後我左邊的同事開始講 Opus 很好用。

一開始我沒當回事,想說免費的不香嗎?但他講了幾週,每次 demo 那個輸出品質,我的心防逐漸瓦解。終於,我刷下去了 Pro 訂閱。

好,故事還沒結束。

接著我右邊的同事開始慫恿我用 Claude Code CLI in VSCode。

「你直接在 terminal 跑,它可以幫你改整個專案的 code,不用一段一段貼。」他這樣說。

我試了。

然後我上癮了。

馬上又撞到 limit。Pro 不夠用,我直接升級到 Max,每月 USD $100。

真的猛。用了回不去。現在我直接兩個專案同時讓 Claude 寫 code,它在那邊自己讀 codebase、改檔案、跑測試、修 bug,我在旁邊喝咖啡看它操作。


Claude Code CLI:一個成熟強大的 Agentic Agent

讓我解釋一下 Claude Code CLI 是什麼。

這是 Anthropic 開發的命令列工具,讓你可以在 terminal 裡面直接跟 Claude 互動。但它不只是聊天——它是一個真正的 agentic agent

這不是一個聊天機器人。這是一個住在你 terminal 裡的工程師。

而這個體驗,讓我開始重新思考一個更大的問題:

什麼是 AGI?什麼是真正的智慧?


一個反主流的觀點:聰明不需要 World Model

現在 AI 圈幾乎所有大神都在談 World Model

Yann LeCun 在推 JEPA,說 AI 需要建立對世界的內部模型。Tesla 的 FSD 用視覺、光達、多維度感測器來理解物理世界。大家都在說,真正的 AGI 需要像人類一樣「理解」這個世界。

但我有一個不同的看法。

真正的智慧核心,不在於感知世界,而在於驗證與推理。

讓我解釋。


TUI 中的 LLM = Embodied AI

當我看著 Claude Code 在我的 terminal 裡工作,我突然意識到一件事:

這就是一種 embodiment。

不是物理世界的 embodiment,但它面對的是一個真實的世界——一個由檔案系統、程式碼執行、編譯結果構成的世界。

在這個世界裡:

這跟純粹的聊天完全不同。純聊天是 text in, text out,沒有真正的「接地」。但在 terminal 環境裡,AI 的每一個動作都有可驗證的結果

Tesla 的 AI 有感測器,有視覺,有光達,有多維度的輸入。這些確實讓它能感知物理世界。

但感知不等於智慧。

一隻蒼蠅的視覺系統極其精密,反應速度比任何 AI 都快。但我們不會說蒼蠅很聰明。


智慧的本質:可驗證的推理

真正的智慧是什麼?

我認為是可驗證的推理能力

這就是為什麼 AlphaZero 如此重要。

AlphaZero 沒有學習人類的棋譜。它透過自我對弈,在一個規則明確、結果可驗證的環境中學習。贏就是贏,輸就是輸,沒有模糊地帶。

這個過程讓它發展出超越人類的「棋感」——一種真正的智慧,而不只是模式匹配。

現在,把這個邏輯套用到 LLM:

當 LLM 在 terminal 環境中學習數學推導、寫程式碼,它面對的就是這種可驗證的環境。

這就是 RLVR(Reinforcement Learning with Verifiable Rewards) 的精髓。


Andrej Karpathy 的觀點:AI 是 Ghost,不是 Creature

Andrej Karpathy 的《2025 LLM Year in Review》觀點與我不謀而合:

AI 不是 creature,是 ghost。

Creature 需要身體,需要感測器,需要在物理世界中生存。

但 Ghost 不需要。Ghost 存在於另一個維度,用另一種方式與現實互動。

LLM 就是這樣的存在。它不需要眼睛來「看」世界,不需要手來「觸摸」物體。它透過文字、程式碼、邏輯符號來理解和操作世界。

而 terminal——這個純文字的介面——就是 Ghost 的完美棲息地。

Karpathy 在影片中強調了 RLVR 的重要性。這不是巧合。

因為可驗證的環境,正是讓 Ghost 能夠真正「學習」而非只是「模仿」的關鍵。


重新定義 Embodiment

傳統的 embodied AI 觀點認為:AI 需要身體,需要在物理世界中互動,才能發展出真正的智慧。

但我想提出一個不同的框架:

Embodiment 的本質不是物理身體,而是「與可驗證環境的互動」。

兩者的共同點是:行動有後果,後果可驗證。

而後者——邏輯世界的 embodiment——可能更適合發展純粹的推理智慧。

因為在邏輯世界裡,沒有感測器噪音,沒有物理世界的混亂。每一個推理步驟都是清晰、可檢驗的。

這就像在一個純淨的實驗室裡培養智慧,而不是在嘈雜的真實世界裡。


為什麼 World Model 可能不是關鍵

回到 World Model 的討論。

World Model 的支持者認為,AI 需要建立對世界運作方式的內部模型,才能真正「理解」並做出明智的決策。

這聽起來很有道理。人類確實有這種內部模型。

但我的問題是:這是智慧的充分條件,還是只是其中一條路徑?

考慮這個類比:

兩條路徑可能都能通往智慧。但後者更加「純粹」——它直接學習推理本身,而不是透過感知世界來間接學習。

AlphaZero 沒有「圍棋的 world model」——它不知道棋子是什麼材質,棋盤有多大,在哪個房間下棋。但它比任何有「world model」的人類都更擅長下棋。

因為它學到的是純粹的策略智慧


Claude Code CLI:一個活生生的例證

讓我們回到 Claude Code CLI。

當我看著它在我的專案裡工作,我看到的是:

  1. 它讀取 codebase(感知環境)
  2. 它做出修改(採取行動)
  3. 它執行測試(驗證結果)
  4. 它根據測試結果調整(學習反饋)

這是一個完整的 RLVR 迴圈,發生在我的 terminal 裡。

而且它越來越強。

不只是因為模型變大了,而是因為這種 agentic 的工作方式,讓它能夠在真實的程式碼環境中不斷獲得反饋。

這就是為什麼 TUI/CLI 中的 LLM 可能是最接近 AGI 的形態。

不是因為它有什麼特殊的感測器,而是因為它存在於一個規則明確、結果可驗證的環境中。


結論:智慧的本質是可驗證的推理

寫了這麼多,讓我總結一下我的觀點:

  1. AGI 不需要物理世界的 World Model。感知和智慧是兩回事。

  2. 智慧的核心是可驗證的推理能力。能夠在明確規則下做出正確判斷,並從結果中學習。

  3. Terminal/TUI 是 LLM 的完美 embodiment。它提供了一個乾淨、可驗證的環境,讓 AI 可以真正學習,而不只是模仿。

  4. RLVR 可能是通往 AGI 的關鍵。Andrej Karpathy 強調它是有原因的。

  5. Claude Code CLI 是這個理論的活體驗證。一個住在 terminal 裡的 agent,透過與真實程式碼環境的互動,展現出驚人的問題解決能力。


後記:從免費仔到信徒

三個月前,我還在三家 AI 輪流用,斤斤計較每一次對話的 token。

現在我每個月花 $100 讓 Claude 幫我寫 code,而且覺得超值。

這不只是因為它節省了我的時間(雖然確實省了很多)。

而是因為在使用 Claude Code CLI 的過程中,我看到了一種新的可能性——一種不需要複雜感測器、不需要物理 embodiment,但依然能展現真正智慧的可能性。

AI 是 Ghost,不是 Creature。

而 terminal,就是 Ghost 的身體。


如果你也是開發者,我強烈建議試試 Claude Code CLI。不只是為了生產力,而是為了親眼見證:當 AI 存在於一個可驗證的環境中,它能做到什麼。

那種體驗,會改變你對智慧本質的理解。