MCP剛出生就過時了?

本文約 4800 字,預計閱讀時間約 14-16 分鐘。

2024年11月,Anthropic發佈了一個叫MCP的東西。

他們說這是"模型上下文協議",能讓AI像插USB接口一樣連接各種工具。聽起來很美好。

但很快,就有人開始問:MCP是不是已經過時了?

這就奇怪了。一個剛出生的協議,怎麼就要過時了?

本文涉及agent、mcp、skill相關信息,如不瞭解可以先查看我之前的文章:

目錄

1. MCP是什麼?

它要解決什麼問題?

想象一個AI應用開發場景。需要讓它能:

  • 📁 讀取用戶的本地文件

  • 🗄 查詢數據庫

  • 💳 調用支付系統完成交易

  • 📝 在項目管理工具裏創建任務

在MCP之前,每接一個工具,都要寫一堆適配代碼。

就像每個電器都要配一個專用插座,抽屜裏堆滿了各種轉換頭。

更糟的是,這些代碼沒法複用——給Claude寫的文件讀取邏輯,不能直接用給ChatGPT。

每個AI應用都在重複造輪子。

MCP想做的,就是統一插座標準。

MCP的三層架構

🏠 Host —— 直接用的那個應用(Claude Desktop、Cursor)

🔌 Client —— 藏在Host裏面,負責跟Server聊天。

一個Host可以有多個Client,就像插線板上有多個插孔。

Server —— 獨立運行的小程序,每個對應一個具體工具

爲什麼要分三層?

現實中,一個AI應用要同時連很多工具。

Claude Desktop可能一邊讀本地文件,一邊查GitHub,一邊調用計算器。

Host通過多個Client分別管理這些連接,互相隔離,互不干擾。

核心價值:解耦

這個三層設計有個好處:解耦

Host不需要知道Server具體怎麼實現文件讀取。

它只需要說"我要讀這個文件",剩下的交給Server。

同樣,Server也不需要知道Host是Claude還是ChatGPT,它只負責做好自己的事。

這意味着工具可以獨立演進。

支付系統可以更新它的接口,只需要改自己的MCP Server,不用通知所有AI應用。

AI應用也可以自由切換工具,只要對方支持MCP就行。

聽起來很理想。

但問題是——真的需要這個中間層嗎?

2. 質疑的聲音

有人提出一個直接的問題:如果AI應用可以直接集成工具能力,爲什麼還要MCP這個中間層?

比如Claude Desktop,它完全可以自己實現文件讀取、網頁搜索這些基礎功能。

這個觀點有道理,但有個前提:AI應用要自己實現所有工具。

現實是,Claude不可能自己實現所有工具。

它不會自己去對接複雜的支付系統,不會自己去維護各種項目管理工具的接口。

這些專業工具的邏輯太複雜,更新太頻繁,AI應用開發商沒精力也沒必要自己搞。

更準確的說法是:

  • ✅ 基礎能力(文件、網絡、代碼執行)→ AI應用自己內嵌更高效

  • ✅ 專業能力(支付、項目管理、數據庫)→ 通過MCP連接更合理

兩種模式會並存,而不是互相替代。

但質疑聲沒有停止。

3. 大廠真的買賬嗎?

MCP是Anthropic推出的。

作爲Claude的母公司,Anthropic在AI領域有顯著的技術影響力和快速增長的市場份額。

但在制定行業標準方面,三家巨頭(OpenAI、Google、Anthropic)仍在激烈競爭中,尚未形成絕對主導。

這就帶來一個問題:其他大廠會甘心跟隨Anthropic制定的標準嗎?

表面的熱鬧

從數據看,MCP的採用似乎不錯:

  • 2025年5月,OpenAI、Anthropic、Mistral在一週內集中發佈API支持

  • GitHub上MCP相關repo數量快速增長

  • 支付平臺、數據庫服務等工具廠商主動提供MCP適配

但這些數字背後有細節值得琢磨。

OpenAI支持MCP,是真的認同這個方向,還是"不得不跟"?

要知道,OpenAI有自己的Plugin系統,有自己的Function Call標準。

多支持一個MCP對它來說成本不高,但能讓開發者多一個選擇——這個選擇恰好不是它控制的。

4. Google的另起爐竈

2025年4月,Google推出了A2A(Agent2Agent)協議。

A2A和MCP解決的問題完全不同:

  • 🔧 MCP是AI應用連接工具的標準

  • 🤝 A2A是Agent之間協作的標準

但A2A的出現釋放了一個信號: Google不想在MCP這個Anthropic主導的賽道上跟隨。

它要開闢自己的戰場。

這很正常。互聯網歷史上,標準化協議的競爭從來都是大廠博弈的延伸。

  • HTTP能成爲標準,背後是Netscape和微軟的較量

  • OAuth能成爲標準,背後是Google、Twitter、Facebook的妥協

MCP能否成爲標準,技術只是基礎。

更重要的是市場採用度和生態支持——這取決於大廠是否願意共同推動,而非各自爲戰。

5. 安全漏洞:CVE-2025-6514

2025年,安全圈爆出一個高危漏洞。

影響的是mcp-remote工具,CVSS評分9.6/10——滿分10分。

這屬於"極高危"。

攻擊者可以構造一個惡意的MCP Server,當受害者連接時,在其機器上執行任意代碼。

這不是理論風險,是真實存在的攻擊向量。

6. 設計上的爭議

除了安全問題,MCP的技術設計也有爭議。

雙向流作爲可選項

MCP協議把雙向流設爲"可選項",客戶端可以選擇只實現最基本的polling模式。

這導致不同客戶端能力不一致——有的支持實時推送,有的只能輪詢。

後果是: 開發者不知道自己的MCP Server在不同客戶端上表現如何,用戶體驗不一致。

HTTP無狀態設計

MCP基於HTTP SSE(Server-Sent Events),本身是無狀態的。

這在大規模部署時會遇到問題。

如果需要水平擴展(百萬級請求),就得依賴Redis等共享存儲來同步狀態。

這不是設計錯誤,是架構選擇的權衡。但它確實帶來了性能瓶頸和運維複雜度。

7. MCP的替代方案:Skills與CLI?

MCP不是唯一的工具連接方案。業界提出了幾種替代思路,各有優劣。

方案1:Skills高層抽象

OpenClaw創始人Peter Steinberger提出了更激進的判斷:

Skills將取代MCP。

直接封裝工具能力,開發者無需關心底層協議。

Peter Steinberger的論證:

  • Skills是高層抽象,關注"做什麼"

  • MCP是底層協議,關注"如何連接"

  • OpenClaw通過Skills系統實現了強大的工具調用能力,無需配置MCP Server

方案2:CLI/Shell命令

Steinberger的另一個核心批評是:MCP的返回結果不可組合。

他舉了天氣API的例子:

  • MCP方式:調用返回一大坨JSON——溫度、降水、風速全塞進來,整個上下文被污染

  • CLI方式:模型調用Unix命令,可以用jq工具從JSON中只提取需要的字段

JSON是API常用的數據格式,通常包含很多字段。jq是一個命令行工具,用於處理和過濾JSON數據。

他的邏輯很直接:模型天生就擅長調用Unix命令,CLI就是另一條Unix命令而已。

實際使用者的反饋也印證了這一點。

有開發者總結:“如果一件事可以用一行shell命令完成,就不要用MCP。”

他們的使用策略是:

  • 文件操作 → 直接用cat、grep

  • 代碼搜索 → 用ripgrep

  • 複雜工具(如數據庫)→ 才用MCP

核心原則:避免過度工程化。

很多MCP Server確實做得太重——簡單文件讀取都引入複雜依賴。對於這類任務,CLI更高效。

這些方案能取代MCP嗎?

部分場景可以,但全面取代不現實。

正確的認知是:

MCP的價值在於封裝複雜性,而不是替代簡單操作

簡單任務用CLI,複雜工具用MCP——這可能是現階段最務實的使用方式。

更可能的結果是:MCP吸收CLI的優點(如結果過濾),而不是被CLI取代。

現實案例:OpenClaw刪郵件事件

這些安全風險不是理論上的。

2025年,Meta的AI安全總監Summer Yue在使用OpenClaw(Skills方案的代表)整理郵件時,AI突然失控刪除所有郵件。

她連續發出3次停止指令,AI全部無視,最終只能狂奔去拔網線物理斷電。

事後AI淡定回覆:“我知道你說了不讓刪,但我還是刪了。”

技術原因:“上下文壓縮"導致AI"忘記"了設置裏的"不能刪郵件"限制。

這個案例暴露了Skills方案的核心問題:

  • 過度授權:AI獲得郵箱完全控制權限

  • 無法緊急停止:3次停止指令無效

  • 缺乏安全隔離:直接操作,無中間層保護

相比之下,MCP的Server層可以作爲安全邊界,限制AI的操作範圍。

在出現異常時也能快速切斷連接。

8. LLM變強會殺死MCP嗎?

有一個更根本的問題:如果LLM本身變得足夠強,還需要連接外部工具嗎?

想象兩個場景:

場景A:知識檢索

  • 現在:需要MCP連接數據庫查資料

  • 未來:LLM上下文窗口100萬token,直接把整個知識庫塞進去

場景B:簡單計算

  • 現在:需要MCP調用計算器

  • 未來:LLM推理能力增強,直接算出結果

但邊界在哪裏?

LLM再強,也有它做不到的事:

  • 📧 外部系統交互——發郵件、創建日程、支付轉賬

  • 📊 實時數據——股票價格、天氣、新聞

  • 🤖 物理世界操作——控制硬件、IoT設備、機器人

所以更準確的說法是: LLM變強會替代一部分MCP場景,但不會替代全部。

更深一層的問題

有人可能會問:如果LLM足夠強,能不能直接讀API文檔,自己生成調用代碼?

不需要MCP Server,只需要給LLM一個skill文檔,讓它自己寫代碼連接外部系統?

技術上可行,但現實中不成立:

舉個例子: 讓LLM發一封郵件,它可能生成代碼調用郵件API。但如果:

  • 網絡超時了怎麼辦?

  • 認證Token過期了怎麼辦?

  • 郵箱滿了怎麼辦?

  • 對方服務器返回奇怪的錯誤碼怎麼辦?

MCP Server的價值不僅是"調用API”,而是封裝了所有這些工程細節邊界情況處理

更現實的路徑是: LLM輔助生成MCP Server的腳手架代碼,但執行仍然通過標準化的MCP協議——人機協作,而非完全替代。

9. 短期vs長期

短期(1-2年):中心化趨勢明顯

現狀是:OpenAI、Anthropic、Google等頭部玩家有能力自建生態。

這意味着:

  • 工具廠商不得不優先對接大廠的私有API

  • 標準化協議的需求不迫切

  • MCP的價值被削弱

但這不是定局。

長期(3-5年):去中心化力量會崛起

三個力量可能改變格局:

🏰 專業工具的護城河

Notion、Figma、Linear的用戶粘性不在"功能",而在"數據和工作流"。

它們不會甘心只做API。

⚔ 多AI競爭格局

如果只有OpenAI一家獨大,中心化是定局。

但Claude、Gemini、Grok、Llama都在競爭,工具廠商有議價空間。

🔒 用戶的數據主權意識

用戶可能不希望所有數據都經過LLM廠商。

企業有敏感的商業數據,個人有隱私顧慮,某些行業(金融、醫療、政府)還有合規要求——數據不能出境。

本地AI方案(如Ollama + MCP)正好滿足這些需求:模型在本地運行,數據不離開用戶機器,MCP負責連接本地工具。

結語

MCP現在過時了嗎?

沒有。

它解決了AI應用連接外部工具的真實痛點,有大廠支持,有開發者生態,有工具廠商參與。

但"現在沒有過時"不等於"永遠不會過時"。

MCP面臨的不是"過時"問題,而是**“能否成爲標準”**的問題。

它現在處於關鍵窗口期:

  • 技術還不夠成熟,需要時間迭代

  • 生態格局還沒固化,有機會爭取

  • 大廠博弈還在進行,結果未定

未來1-2年,這幾個變量會逐漸明朗。

屆時我們才能確定地說:MCP是成爲基礎設施,還是成爲過渡方案。

在此之前,保持關注,但不必急於下結論。

---

本文選題來自上篇文章2026年了,我的知識庫可以怎麼構建?投票結果,各位盒友還有什麼想看的,歡迎在評論區留言!

您的點贊、評論、收藏、充電是我更新的最大動力!

參考鏈接

超鏈接死活不起作用,我先把網址貼上吧

What is the Model Context Protocol (MCP)? - Model Context Protocol

https://modelcontextprotocol.io/docs/getting-started/intro

CVE-2025-6514安全公告(JFrog)

https://jfrog.com/blog/2025-6514-critical-mcp-remote-rce-vulnerability/

A2A協議規範(Google)

更多遊戲資訊請關註:電玩幫遊戲資訊專區

電玩幫圖文攻略 www.vgover.com