變天了 DeepSeek自砍一刀 AI價格腰斬

京港台:2025-10-4 21:38| 來源:科技狐 | 評論( 9 )  | 我來說幾句

變天了 DeepSeek自砍一刀 AI價格腰斬

來源:倍可親(backchina.com)

  太卷了,又降價了!DeepSeek 這是鐵了心要當 AI 圈的價格屠夫。

  最近(9 月 29 日晚),DeepSeek 官宣全新模型 V3.2-Exp 正式發布並開源,緊接著,API 價格也跟著跳水。

  降價還不是象徵性地降一點,而是直接腰斬:成本直接砍掉 50% 以上,輸出價格甚至暴跌 75%。

  API 輸入價格(緩存命中)從每百萬 tokens 0.5 元降到 0.2 元,輸出價格從 12 元砍到只剩 3 元,簡直是三折跳樓甩賣的力度。

  而且是馬上生效,毫不拖泥帶水,這波速度,屬實帶點國產廠商的豪爽氣質。

  這也讓 DeepSeek 的 V3.2-Exp,成為了「性價比最高」的 API 之一。

  其實老狐覺得連之一都可以省略了,目前主流 AI 大廠,能給到這個價格的,幾乎一個沒有。

  網友們看完新報價直接發出靈魂拷問:「百萬輸出 3 塊,這誰卷得過呀?」

  值得一提的是,這波降價不是瞎搞促銷,而是人家真在底層模型上做了優化。這一切的關鍵,是這次發布的 V3.2-Exp 模型核心創新技術:DeepSeek Sparse Attention(稀疏注意力機制,簡稱 DSA)。

  為啥這玩意這麼重要?稍微跟狐友們科普一下:

  聽著很抽象對吧?但其實你可以把它想象成一種「聰明的省電模式」。傳統的注意力機制是每個 token 都要跟其他所有 token 打招呼,一句話幾十個字,它們內部得互相問好幾十次,累不累?

  當然累啊,不僅計算慢,還特別燒錢(你懂的,伺服器、GPU、電費、維護啥的都不是小錢)。

  而 DSA 這個新招數呢?它只讓重要的 token 說話,不重要的就自動閉麥,節省了大量計算資源和時間。

  結果就是:推理更快了,成本更低了,關鍵是模型表現還沒掉鏈子,跟前一版本 V3.1-Terminus 的水平差不多。就是說,在不犧牲效果的前提下,成功把算力這口鍋輕了好幾斤。

  為啥叫「Exp」?因為這是個實驗性版本,意思是團隊在探索新架構的路上,邁出的關鍵一步,不是最終版本,但已經實用到可以全面開用。所以你現在用到的 DeepSeek API,全都已經是這個新模型了。

  如果你是開發者,恭喜你,沒動代碼,調用成本直接砍半,喜提史上最值更新。

  如果你還想對比下老模型的效果,DeepSeek也很貼心地保留了 V3.1-Terminus 的 API 介面直到 10 月 15 日,修改個 base_url 就能切換測試,不影響當前價格。

  真學術范十足的安排,官方都勸你自己實測,不怕 PK,實力說話。

  咱們再從開發者的角度,直白點說這波更新到底有多香。

  比如你做長文本處理的,文檔摘要、歷史對話、代碼分析這種,最怕的就是上下文太長,token 一多,價格跟著飆,跑一次你得猶豫半天。

  這回好了,DSA 專門優化了「長上下文」任務的推理效率,成本一下就被拉下來了。再長的上下文也不用擔心破產式調用了,終於能踏實跑大任務了。

  而從模型訓練的角度,V3.2-Exp 的開發過程其實也是科技感拉滿。他們這次用的是「專家蒸餾+統一強化學習」雙管齊下策略。

  先是針對數學、編程、邏輯推理等多個領域,各自訓練出了專精模型,再把這些「專家」的知識整合進最終大模型中(這波叫做蒸餾)。

  然後在強化學習階段,用一種新的 GRPO 策略(Group Relative Policy Optimization),把智能體能力、人類偏好(alignment)、推理水平全融合到一次訓練中。

  這樣訓練有兩個好處:

  每個領域都不落下,性能均衡

  不會出現「新技能學了,舊知識忘了」的災難性遺忘問題

  更硬核的是,DeepSeek 還把 GPU 運算元開源了,兩套版本,TileLang 和 CUDA 全放出來了,研究、部署、二開隨你選,開源力度拉滿。MIT協議,不限商用,真誠到令人髮指。

  你要做本地部署?也OK。Docker 鏡像準備好了,還兼容各種硬體平台,包括 NVIDIA H200、AMD MI350、甚至國產 NPU。

  而這波重磅發布的時間點嘛……DeepSeek又一次選擇了節前。

  沒錯,他們是真的熱愛在大家放假前丟重磅炸彈。前有 V3.1、再有 Terminus,這次 V3.2-Exp 又趕在國慶之前放出,這公司更新節奏,堪比高鐵發車。

  不過,也不是沒人質疑:你這幾次都是「小步快跑」,真正的大招呢?比如一直被期待的 V4、R2,什麼時候上線?

  甚至在 X(原推特)上就有海外網友留言問 DeepSeek:「你們啥時候發 V4?」底下有人直接回:看這節奏,短期內怕是看不到。

  其實從這次發布內容來看,V3.2-Exp 已經是邁向 V4 的關鍵中間步驟了。

  尤其是 DSA 架構的引入,為千億參數級別的大模型做了前期驗證,等下一波大規模模型上線,很可能就是在這個基礎上完成的。

  所以說,這波 DeepSeek 降價不僅不是「營銷噱頭」,反而更像是「提前放出未來技術紅利」。你可以把 V3.2-Exp 看作一款「技術預告片」,但這預告片本身就已經能跑商用、能降成本、還能開源拿去部署。

  這放在全球 AI 廠商里,真沒幾個能做到。

  有人說,在開源模型競爭白熱化的今天,留住開發者靠的不是光說不練,而是持續優化體驗+價格給到位+社區透明度高。這次 DeepSeek 顯然是三管齊下,全拿下了。

  相比之下,大多數廠商仍在拼參數、拼能力、拼精度,但 DeepSeek 選擇了另一條更難模仿的道路:卷服務成本,卷研發效率,卷開源透明度。

  這種紮實且高門檻的優勢,才是真正構築護城河的核心。或許,是時候重新評估國產大模型實力了。

 

        更多科技前沿 文章    >>

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-10-8 00:25

返回頂部