上下文長度如今成為了各大模型的升級重點,128/256K已經不太夠用,擁有目前公認最強編程模型的Anthropic今天宣布將兩款Claude模型升級1M上下文,而且加量不加價。
Claude Opus 4.6和Sonnet 4.6今天全面開放了1M上下文,而之前超過200K上下文的請求需要加入beta標頭,現在不需要了,請求會自動處理,無需更改代碼。
不僅上下文能力大幅提升,媒體能力也同樣提升了限制,是之前的6倍,每條請求可以支持600張突破或者PDF。
而且這一次是加量不加價,上下文是一個價格,每個長度都有完整的費率限制。

不過Claude Opus 4.6和Sonnet 4.6整體的價格還是目前最貴的,前者1百萬Token的輸入、輸出價格分別是5、25美元,後者是3、15美元,這樣的價格很多程序員都覺得肉疼,寫代碼也不敢全部使用這兩個模型,要搭配其他廉價模型一起用。
最後,即便升級了1M上下文,Claude Opus 4.6和Sonnet 4.6的能力幾乎沒有受到影響,官方公布的測試顯示,Opus 4.6 在MRCR v2上的得分為78.3%,在相同上下文長度的前沿模型中位居最高。

最最後要說一句,DeepSeek在2月份發布的測試模型中也升級了1M上下文,雖然實際表現很不錯,但隨著美國的閉源大模型也普遍支持1M上下文,這方面已經沒什麽驚喜了,外界對DeepSeek的能力期待值越來越高。
此前的傳聞中,DeepSeek V4的一大升級就是編程能力提升,還有爆料說能達甚至超過Claude,但這個目標對開源大模型來說有點高,畢竟Claude是Anthropic砸了那麼多錢燒出來的,而且全球有那麼多開發者使用,獲得的數據反饋還在一步步優化Claude大模型,DeepSeek除非有全新的技術突破,否則很難在這方面超越Claude。






