DeepSeek又一論文上新!新模型V4更近了?

在業(yè)界對新一代旗艦?zāi)P虳eepSeek V4的翹首期盼中,DeepSeek團隊卻悄然放出了一篇新的學(xué)術(shù)論文論文。

DeepSeek又一論文上新!新模型V4更近了?

這篇論文由DeepSeek聯(lián)合北大、清華共同撰寫,將研究方向投向了決定大模型實際應(yīng)用落地的關(guān)鍵一環(huán)——推理速度,為日益復(fù)雜的AI智能體,提供一套高效的底層系統(tǒng)解決方案論文。

具體來說,新論文介紹了一個名為DualPath的創(chuàng)新推理系統(tǒng),專門針對智能體工作負載下的大模型(LLM)推理性能進行優(yōu)化論文。通過引入“雙路徑讀取KV-Cache(類似記憶緩存)”機制,重新分配存儲網(wǎng)絡(luò)負載,將離線推理吞吐量最高提升 1.87 倍,在線服務(wù)的每秒智能體運行數(shù)平均提升 1.96 倍。

論文在引言部分提到,大模型正從單輪對話機器人和獨立推理模型,快速演進為智能體系統(tǒng) ——能夠自主規(guī)劃、調(diào)用工具,并通過多輪交互解決實際任務(wù)論文。這種應(yīng)用范式的轉(zhuǎn)變,推動大模型推理工作負載發(fā)生重大變革:從傳統(tǒng)的人類-大模型交互,轉(zhuǎn)向人類-大模型-環(huán)境交互,交互輪次可達數(shù)十甚至數(shù)百輪。

上下文會跨輪次累積,最終長度可能達到極值論文。此時模型不需要大量計算,反而需要頻繁從硬盤讀取歷史上下文的 KV-Cache;現(xiàn)有系統(tǒng)中,只有負責預(yù)處理的引擎會讀取KV-Cache,它的網(wǎng)卡帶寬被占滿,而負責生成內(nèi)容的解碼引擎,網(wǎng)卡帶寬基本閑置,導(dǎo)致整個系統(tǒng)速度被卡脖子。

因此,論文提出的DualPath,針對智能體工作負載、重新設(shè)計現(xiàn)代推理架構(gòu)中 KV-Cache加載邏輯,解決大模型做智能體任務(wù)時,速度被 “數(shù)據(jù)讀取”拖慢的核心問題,重要的是把閑置的帶寬資源利用起來,相當于給數(shù)據(jù)讀取 “多開了一條高速路”,實現(xiàn)速度的大幅提升論文。

這一論文成果延續(xù)了DeepSeek一貫的風格,在工程化層面將性能優(yōu)化推向極致論文。有從業(yè)者認為,DeepSeek做這類優(yōu)化屬于缺顯卡的無奈之舉,屬于“臟活兒累活兒”,大家更期待團隊在模型上做創(chuàng)新。

但也有人認為,即便有足夠顯卡,這類優(yōu)化在降低成本、降低token費用方面也很有價值,因為只有足夠便宜,AI才能走向大規(guī)模使用論文。

相比這篇“務(wù)實”的論文,外界顯然更關(guān)注DeepSeek新一代旗艦?zāi)P偷恼婷婺?strong>論文。關(guān)于DeepSeek V4的發(fā)布時間,市場傳聞已幾經(jīng)更迭。從最初傳聞的2月春節(jié)前后,到外媒最新報道的“最快下周”,再到業(yè)內(nèi)人士預(yù)測的3月前后,傳聞鏈條愈發(fā)撲朔迷離。

就在近日,外網(wǎng)有網(wǎng)友爆料稱,DeepSeek 正在測試 V4 Lite 模型,代號為“Sealion-lite”,上下文窗口為 100萬tokens,并原生支持多模態(tài)推理論文。也有消息提及,DeepSeek已在近期將重大更新版本V4向華為等國內(nèi)廠商提供提前訪問權(quán),以支持其優(yōu)化處理器軟件,確保模型在硬件上高效運行。然而,英偉達等廠商尚未獲得類似權(quán)限。

面對傳聞,DeepSeek依舊保持其一貫的沉默,目前并未進行任何回應(yīng)論文。但市場已進入“嚴陣以待”狀態(tài),部分投資機構(gòu)擔憂,新一代模型的發(fā)布會如同去年的版本發(fā)布時那樣,引發(fā)市場的劇烈震蕩。

(本文來自第一財經(jīng))

本站內(nèi)容來自用戶投稿,如果侵犯了您的權(quán)利,請與我們聯(lián)系刪除。聯(lián)系郵箱:[email protected]

本文鏈接://m.cqlhyz.com/post/17281.html

?? /
欧美亚洲日韩国产综合每日更新,国产美女一级A作爱在线观看,亚洲欧洲国产1区二区,国产高清无码精油按摩