昨晚,DeepSeek 無預警發布了 DeepSeek-V3-0324 模型。雖然官方低調地稱其為“小版本迭代”,但實測表現遠超預期。該模型在代碼生成、前端開發等方面顯著提升,部分能力甚至比肩 Claude 3.7 Sonnet,引發了全球 AI 社區的熱議。
在大模型競技場測試 KCORES 中,DeepSeek-V3-0324 的代碼能力得分為 328.3 分,超越了普通版 Claude 3.7 Sonnet 的 322.3 分,接近 Claude 3.7 Sonnet 思維鏈版本的 334.8 分。在 Aider LLM Leaderboard 排行榜中,DeepSeek-V3-0324 在多語言基準測試中的得分為 55%,比 V3 有顯著提升,略低于 R1。在非思考/推理模型中,它排名第二,僅次于 Claude Sonnet 3.7。
測試數據還顯示,在表現良好的模型中,DeepSeek-V3-0324 的花費最低,比 R1 低很多,僅需約 1/5 的成本,具有極高的性價比。Claude Sonnet 3.7 Thinking 的花費是 DeepSeek-V3-0324 的 33 倍,o1 則是其 167 倍。
目前在 DeepSeek 官網上,只需關閉“深度思考”選項即可使用新模型。Hugging Face 上也提供了開源下載。DeepSeek-V3-0324 包含 685B 參數,較前代 V3 小幅增加,采取 MoE(專家混合)架構,激活參數 370 億。網友實測 DeepSeek-V3-0324 支持 4-bit 量化,可在 512GB M3 Ultra Mac 上以 20+ token/s 速度運行,磁盤占用僅 352GB。新模型采取與 DeepSeek-R1 差不多的 MIT 許可,允許自由修改、商用及模型蒸餾,比上一版 V3 更開放。