
Anthropic CEO Dario Amodei
在伺服器、GPU 等硬體供應的背後,是消耗性成本,也就是電費。施耐德電氣能源管理研究中心發布的白皮書里顯示,2023 年 AI 的功率消耗為 4.5GW,占了數據中心(可以理解為機房)總功率消耗的 8%。
怎麼理解呢?
一個普通家庭,每個月用電量大概在 300 千瓦時,一年按 3600 千瓦時來算,按施耐德算出來的耗電量,足夠一千萬個家庭一年的用電。
除了硬體方面,還有人力支出。
進入大模型軍備競賽以來,各個廠商之間對人才的爭奪也逐漸加碼,比的就是誰能開出更高的薪水。

OpenAI 目前正在招人的崗位
2023 年時,OpenAI 的人工支出已經要五個億,團隊還在不斷擴大,費用也在不斷增加。
那麼林林總總加起來,OpenAI 的運營成本可能會去到 85 億美元。
反觀國內,雖然沒有公開的模型廠商成本數據,不過,智譜的 CEO 張鵬曾經坦言,「確實做大模型這件事太燒錢了,而且確實也面臨市場上的需求。」。
收入?不太樂觀
在成本居高不下的同時,是收入的不確定。
The Information 估計,OpenAI 主要的收入來源是產品訂閱和收費的 API 埠,全年收入可能在 35-45 億美元之間。
類似的,Anthropic 的收入也不太樂觀。雖然它背靠亞馬遜這個大客戶,但全年收入預估只有 4-6 億美元。

國內的情況更摸不透一些,to C 的模式並不清晰,而面對中小開發者,幾乎就是在白送。
自從本月初,OpenAI 宣布要斷掉非支持國家和地區的 API 服務,國內的大模型廠商迅速反應,力求在最短的時間,用最低的價格,吸引開發者。
從智譜、minimax,到阿里、百度,價格一低再低,而且直接免費。


面對中小開發者,「合作」才是廠商們更看重的。
用低價招徠開發者和中小企業,本質上是一種合作。這樣能儘可能地迅速擴大市場份額和用戶基數。這是從移動網際網路時代就有的圈地戰術。
而更多的開發者能夠利用 API 開發出各種新穎的應用,就更有助於挖掘大模型的潛在價值和應用場景。
用戶的使用數據,可以幫助模型進一步改進和優化,形成飛輪。
這正是 Perplexity 的信念,CEO Aravind Srinivas 此前接受播客採訪時,就提到了這種「AI 閉環」的理念:做 AI 產品,讓更多人使用,從而使產品更好,良性循環。
CEO Aravind Srinivas
「客戶需求和反饋,是我們技術往前創新突破和邁進的驅動力,讓兩者比較好的閉環,我們在努力做到這樣的事情。」張鵬也有類似的想法,「我們希望是貫通的,商業化的過程、服務客戶的過程當中,就是以我們的技術和產品核心能力驅動的。」
只是,在那個形成循環的關鍵節點,也就是殺手級應用出現之前,只有耕耘和等待。
但等待是有成本的,於是 to B 業務就成了養家掙錢的「孩子」。
根據百鍊智能的統計,去年第 4 季度,大模型類別的項目,平均招標預算在 600 萬左右。今年的一些公開數據里,千萬級的招標也能見到。

圖片來自:百鍊智能
採購這些大模型,到底對業務有沒有幫助,政府和行業龍頭都是在拿真金白銀來測試,也是有下錯注的風險。
美國的軟體行業龍頭 Salesforce 賽富時就栽過跟頭。

Salesforce 本身就是做雲計算和 CRM 系統的公司,尤其擅長 SaaS 業務,在全球範圍內有大量客戶。在疫情的幾年裡,業績還曾經逆勢上揚,從 200 億美元飆升到 400 億美元。
但是今年五月,Salesforce 的股價暴跌至二十多年來最低,營收遠遠低於預期,訂單增長只有 3%。

分析師認為,過去一年裡,他們花了太多錢在 AI 上,再加上業績增長又不行,花出去的錢比掙到手的還多。
高盛發布了一份內部訪談報告,其中採訪了全球股票研究主管 Jim Covello,他認為人工智慧的成本起點太高了。

Jim Covello 接受採訪
即便成本下降,模型公司們還是需要做大量的努力,才能讓自動化變得更能負擔得起。
「有人拿 90 年代來對比,當時伺服器的價格從原本的天價,一路下降。但是一台 $64000 美元的伺服器再怎麼貴,也跟現在的 AI 成本是沒法比的。」
同時,他還指出在 90 年代時,英特爾一直在面臨其他廠商的追趕和壓力,競爭帶來了價格的逐步降低。可是現在,英偉達幾乎一家獨大。
Covello 的話說得很直接,「科技界對於人工智慧的成本,會隨著時間推移而大幅下降,有些自滿了。」
MIT應用經濟學教授 Daron Acemoglu 也接受高盛的採訪,他並不否認,生成式人工智慧有潛力從根本上改變科學發現、研發、等過程,創造新產品和平台。
「但考慮到當今生成式人工智慧技術的重點和架構,這些真正的變革不會很快發生,而且在未來 10 年內發生的可能性極小——如果有的話。」