剛剛看到與 Sam Altman 和 Matt Garman 的 Stratechery 采訪,談到 OpenAI 和 AWS 之間真正發生的事情,說實話,這重新定義了我們一直在思考的企業 AI。



所以大家都在談的標題很明顯:微軟與 OpenAI 的 Azure 排他性協議已經結束。OpenAI 現在可以通過 AWS 和其他雲端提供模型。但事情的重點是——那幾乎是故事中較無趣的部分。

真正的轉變要更根本。我們正從「公司呼叫 API」轉向「公司在其基礎設施內運行實際的 AI 代理」。可以這樣想:不是 ChatGPT 作為一個你聊天的智能聊天機器人,而是一個實際在你公司內工作的 AI 同事,訪問你的資料庫,尊重你的權限系統,並完成任務。

Bedrock Managed Agents 就是這樣的實踐。它不僅僅是「OpenAI 模型現在可以在 AWS 上使用」。而是 OpenAI 的模型深度嵌入到 AWS 的整個原生堆疊中——身份管理、權限、日誌、安全、部署,全部都在裡面。模型運行在你的 VPC 內,你的資料永遠不離開 AWS,代理理解你公司的邊界。

Sam 提出了一個讓我印象深刻的觀點:他曾經將模型和支援基礎設施視為兩個不同的東西。現在他不再這麼認為了。當 Codex 做出令人驚豔的事情時,你很難分辨到底是模型變得多聰明,還是周圍的系統設計得多好。他們正逐漸融合為一體。

Matt Garman 提到了一個同樣重要的點:企業現在真的在自己拼湊解決方案。他們想要能記住上下文、跨系統工作的代理,理解他們的數據,尊重他們的安全。每家公司都在自己做這件事。AWS 和 OpenAI 正在說:我們來幫你處理這些整合,讓你不用自己拼湊。

權限和安全這一塊非常關鍵。以前是「城堡和護城河」的安全模型——一切都在本地,假設安全。現在你需要零信任架構。每個代理都需要自己的身份、自己的權限。他們還在摸索這個概念,比如:AI 代理應該用你的員工帳號,但以代理身份來識別自己嗎?他們甚至還沒搞定基本概念,但知道這很重要。

令人驚訝的是,這與 20 年前雲端運算的變革如出一轍。AWS 讓新創公司不用自己買伺服器、聘請基礎設施團隊。現在 OpenAI 和 AWS 正在做同樣的事情,為企業 AI 降低門檻:讓代理的部署變得可行,而不用公司自己組裝模型、權限、數據系統和安全架構。

Sam 也提到了一個有趣的未來定價方向。目前他們是按 token 收費,但這已經開始過時。他們的新模型每個 token 的成本更高,但需要的 token 數量少得多,才能得到相同的答案。客戶真正想付錢的是「傳遞的智慧」,而不是「消耗的 token」。這是一個微妙的轉變,但會改變你對整個商業的看法。

在競爭方面,這是從「誰擁有最好的模型」轉向「誰能將模型轉化為真正的企業基礎設施」的時刻。Google 正在全力進行垂直整合。AWS 則走不同路線:強化基礎設施層,與最好的模型合作,讓企業自行選擇適合的方案。Sam 和 Matt 都似乎真心相信他們在打造一些差異化的東西,而不僅僅是「終於可以通過 AWS 訪問 OpenAI」。

還有一點:Sam 提到對前沿模型的需求仍然非常龐大。人們還沒在價格上做比較。每個人都想用最尖端的模型,因為那才是能完成工作的關鍵。但隨著成本下降和較小模型的性能提升,未來可能會出現一個混合局面。不過目前看起來還是早期階段。

整個對話像是兩家公司彼此尊重彼此優勢,攜手打造真正的東西。如果你想了解技術細節,值得閱讀完整的 Stratechery 文章,但核心思想很明確:我們不再談分銷渠道,而是在迎來一個完全不同的計算範式。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆