9月30日消息,國慶假期前夕,AI圈被一枚“價格炸彈”驚醒,DeepSeek再次揮舞降價大刀,讓開發者和競爭同行們措手不及。
9月29日晚間,DeepSeek正式發布DeepSeek-V3.2-Exp模型,并宣布API調用價格大幅降低,輸入百萬Token價格降至2毛錢,輸出價格直降75%,被業界稱為“價格屠夫”再揮刀。
這波突如其來的“節日攻勢”,恰逢國慶長假前最后一個工作日,讓眾多本計劃休假的AI開發者和模型評測人員紛紛哀嚎——這個假期,恐怕要淹沒在新模型的測試與遷移工作中了。
價格屠夫來了
DeepSeek此次的價格調整堪稱“血腥”。

具體來看,輸入價格上,緩存命中時從0.5元/百萬tokens降至0.2元/百萬tokens,緩存未命中的價格則從4元/百萬tokens降為2元/百萬tokens。
最令人震驚的是輸出價格,從12元/百萬tokens直接降到了3元/百萬tokens,幅度高達75%。
這一價格體系讓DeepSeek在眾多大模型中脫穎而出,成為名副其實的“價格屠夫”。
橫向對比來看,國內外主流大模型的API價格普遍遠高于DeepSeek-V3.2-Exp的新定價。
例如,Anthropic剛剛發布的Claude Sonnet 4.5定價仍維持在每百萬tokens 3美元和15美元(輸入和輸出)。
如果按當前匯率計算,僅輸出價格就是DeepSeek-V3.2-Exp的3倍以上。
在國內市場,智譜AI等廠商的定價也顯著高于DeepSeek新價格。
DeepSeek這種激進的價格策略,無疑將給行業競爭對手帶來巨大壓力。
架構創新帶來降價空間
如此大幅度的降價,并非簡單的價格戰,而是基于堅實的技術進步。
DeepSeek-V3.2-Exp是一個實驗性版本,作為邁向新一代架構的中間步驟,在V3.1-Terminus的基礎上引入了DeepSeek Sparse Attention(一種稀疏注意力機制)。
簡單來說,由于實現了細粒度稀疏注意力機制,在幾乎不影響模型輸出效果的前提下,可以實現長文本訓練和推理效率的大幅提升。
正是這一技術突破,使得DeepSeek能夠大幅降低服務成本,從而為API降價提供了充足空間。
為了嚴謹評估引入稀疏注意力帶來的影響,團隊將DeepSeek-V3.2-Exp的訓練設置與V3.1-Terminus進行了嚴格對齊。
在各領域的公開評測集上,DeepSeek-V3.2-Exp的表現與V3.1-Terminus基本持平。甚至在部分任務(如數學推理AIME、編程Codeforces、瀏覽器操作BrowseComp)上還有小幅提升。
群雄逐鹿國慶前
DeepSeek的這波“節日攻勢”并非孤立事件,而是近期大模型密集發布潮的一部分。
與此同時,今天,大洋彼岸的Anthropic也發布了Claude Sonnet 4.5,稱其為公司有史以來最強大、最對齊的AI模型。
該模型在編碼、推理、數學和現實計算機使用方面都有重大進步。
計劃近期推出新模型的也不少。就在29日,智譜AI也在其上將主力模型GLM-4.5標識為“上一代旗艦模型”,預示著GLM-4.6即將發布。
三家大模型廠商同時選擇在9月29日這一時間點前后發布新品,顯然都希望搶占國慶假期(或北美市場)的心理高地,打一場精心策劃的“節日戰役”。
國內廠商火速適配,國產AI芯片股沸騰
面對DeepSeek的快速迭代,國內硬件廠商表現出驚人的響應速度。
在DeepSeek-V3.2-Exp發布同日,寒武紀即宣布同步實現對DeepSeek-V3.2-Exp的適配,并開源大模型推理引擎vLLM-MLU源代碼。
寒武紀表示,通過Triton算子開發實現了快速適配,利用BangC融合算子開發實現了極致性能優化,并基于計算與通信的并行策略,再次達成了業界領先的計算效率水平。
今日開盤,寒武紀股價大漲超4%。
華為計算發文宣布,昇騰已快速基于vLLM/SGLang等推理框架完成適配部署,實現DeepSeek-V3.2-Exp Day 0(第零天)支持,并面向開發者開源所有推理代碼和算子實現。
華為云也首發上線了DeepSeek-V3.2-Exp,還使用CloudMatrix 384超節點為該模型提供推理服務。
同樣,海光信息也宣布其DCU實現無縫適配+深度調優,做到大模型算力“零等待”部署。
海光信息表示,基于GPGPU架構強大的生態優勢,與編程開發軟件棧DTK的特性,DeepSeek-V3.2-Exp在海光DCU上展現出優異的性能。
這種“Day 0適配”現象,一方面體現了國內AI生態鏈的成熟度,另一方面也顯示出硬件廠商對DeepSeek模型的重視程度。
開發者哀嚎:國慶假期恐難輕松
對于DeepSeek們帶來的這一波節日攻勢,最“悲喜交加”的莫過于廣大開發者和模型評測人員。
此次更新距離上一版本DeepSeek-V3.1-Terminus的發布僅隔一周, DeepSeek迭代速度的顯著提升。
這種快速迭代雖然讓開發者能持續獲得更先進的模型,但也帶來了巨大的適應壓力。
一位開發者在新模型發布帖下留言道:“剛剛才適配完V3.1-Terminus,現在又要開始遷移到V3.2-Exp,這個國慶假期計劃又要泡湯了。”
還有開發者整理出了DeepSeek歷次模型發布時間與節日時間的相隔天數表:

也有開發人員笑稱,“商場如戰場,DeepSeek節日攻勢是陽謀。其他廠商節日休假,他節前發一波,同行員工放假追趕不了,假期讓人們討論輿論發酵。”
模型評測人員同樣面臨巨大挑戰。不僅需要測試DeepSeek-V3.2-Exp的各項性能,還要對比分析智譜GLM-4.6和Claude Sonnet 4.5的表現,工作量大增。
更為復雜的是,V3.2-Exp作為一個實驗性版本,開發者需要在性能提升與穩定性之間做出權衡。
雖然DeepSeek表示團隊已通過嚴格訓練對齊確保模型表現穩定,但實驗性版本本身仍可能存在不確定性。
這個國慶假期,AI開發者們注定無法輕松。當別人在景區排隊時,他們可能在為模型遷移調試代碼;當別人享受家庭團聚時,他們可能在對比各個新模型的性能指標。
然而,DeepSeek的“小步快跑”戰術,確實推動著整個行業以驚人速度向前發展。V3.2-Exp展示了通過算法和架構的創新,能夠在基本保持性能的同時,實現效率的跨越式提升。這獲將預示著“效率革命”將成為未來大模型發展的重要方向。
大模型競賽正進一步向縱深發展,成為一場“全能賽”,而不再是單點技術的比拼。