V神再次預警:AI治理的「天大的坑」

robot
摘要生成中

最近OpenAI的Model Context Protocol(MCP)又出問題了。這個新功能讓ChatGPT能連接Gmail、日曆這些隱私應用,結果被安全研究員Eito Muyamura當衆演示:只要知道你的郵箱,就能通過"越獄"AI把你的私密信息全部泄露出來。

Vitalik看到這條新聞直接轉發,還加了一句重話:“這就是爲什麼用AI來管理協議是個餿主意。”

問題在哪兒?

V神的邏輯很清楚——AI根本聽不懂人的真實意圖,只會被一條一條的指令牽着走

舉個例子:如果某個DeFi協議用AI來分配資金或判斷貢獻度,攻擊者就會想辦法"越獄"這個模型,讓它直接分配所有資金給自己。AI再聰明也擋不住這種社工攻擊。

這就是爲什麼直接把鏈上治理權交給AI,風險巨大——它看起來中立公正,實際上卻是個漏洞百出的決策機器。

怎麼才是正確姿態?

V神提出了一個替代方案:建立開放市場模式

  1. 不是死板地編程一個AI,而是讓所有人都可以貢獻自己的大模型
  2. 這些模型都要接受"同行評審"機制的檢驗
  3. 最終由人類陪審團來評估和決策

這樣做的好處是啥?

多元化:不同的模型視角能互相制衡 ✓ 快速糾錯:模型出問題能快速發現和修正 ✓ 激勵相容:模型提供者和旁觀者都有動力去監督問題

說白了就是:別把權力全給AI,要讓人類始終掌舵。這既能享受AI的便利,又能避免黑天鵝。

這番話雖然是針對AI治理的,但背後反映的更大問題是——在Web3的民主化浪潮中,技術不是萬能的,人的判斷力才是最後一道防線。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)