8月22日,騰訊云上線DeepSeek-V3.1版本,企業(yè)和開發(fā)者可以通過騰訊云直接調用新版模型的API接口,獲得穩(wěn)定優(yōu)質的服務。同時,騰訊云智能體開發(fā)平臺(ADP)也接入了新版模型,通過平臺內置的RAG、工作流和智能體開發(fā)的能力,用戶可以快速搭建專屬智能體應用。新模型在騰訊云TI平臺上也第一時間上架,用戶可以基于TI平臺,快速部署專屬DeepSeek-V3.1服務。
用戶可以登陸騰訊云官網調用新模型的接口
也可以基于騰訊云智能體開發(fā)平臺內置的DeepSeek-V3.1新模型快速搭建智能體。
騰訊云智能體開發(fā)平臺內置行業(yè)實踐流程、領先的 RAG 算法,只需導入文檔/問答對,即可讓智能體對接企業(yè)多模態(tài)知識,達到穩(wěn)定精確的知識問答效果。支持畫布式靈活編排工作流,可快速將企業(yè)系統(tǒng) API 接入智能體,智能體輸出更穩(wěn)定可控。同時,提供 LLM+RAG 、Multi-agent、Workflow 等多種智能體開發(fā)框架,支持應用配置-應用調試-應用評測-應用發(fā)布一站式工具鏈,助力企業(yè)降低智能體構建門檻。
騰訊云智能體開發(fā)平臺ADP
此外,DeepSeek新版模型在騰訊云TI平臺上也第一時間上架,用戶可一鍵部署DeepSeek-V3.1專屬服務,滿足企業(yè)的個性化需求。TI平臺在業(yè)內率先支持DeepSeek全系模型的企業(yè)級精調與推理全鏈路功能,為金融、醫(yī)療、制造、零售等多個行業(yè)提供了更高效、便捷的AI模型構建及應用方案,進一步降低企業(yè)在大模型應用中的技術門檻和研發(fā)成本。
騰訊云TI平臺
DeepSeek-V3.1在工具調用和智能體支持上進一步增強,思考效率也進一步提升,具體體現(xiàn)在:
混合推理架構:一個模型同時支持思考模式與非思考模式;
更高的思考效率:相比 DeepSeek-R1-0528,DeepSeek-V3.1-Think 能在更短時間內給出答案。其測試結果顯示,經過思維鏈壓縮訓練后,V3.1-Think 在輸出 token數(shù)減少20%-50%的情況下,各項任務的平均表現(xiàn)與R1-0528持平;同時,V3.1 在非思考模式下的輸出長度也得到了有效控制,相比于 DeepSeek-V3-0324 ,能夠在輸出長度明顯減少的情況下保持相同的模型性能。
更強的 Agent 能力:通過 Post-Training 優(yōu)化,新模型在工具使用與智能體任務中的表現(xiàn)有較大提升。比如,在編程智能體上,在代碼修復測評 SWE 與命令行終端環(huán)境下的復雜任務(Terminal-Bench)測試中,DeepSeek-V3.1 相比之前的 DeepSeek 系列模型有明顯提高。
騰訊云是國內率先支持DeepSeek API+聯(lián)網搜索的云廠商。為了提供更優(yōu)質的DeepSeek模型服務,騰訊云在推理加速層面不斷優(yōu)化,通過深挖內核和架構延展,以及PD分離、NIXL傳輸技術,在精度幾乎無損的前提下,實現(xiàn)服務時延的大幅降低,以及吞吐能力的大幅提升。比如用戶使用DeepSeek R1,在3.5K輸入、1K輸出的典型場景下, 保障首Token延時不高于2秒,吐字速率不低于每秒15Tokens的同時,2機16卡的QPM超過200;使用DeepSeek V3-0324,在3.5K輸入、0.67K輸出的典型場景下,2機16卡的QPM達到260。
通過持續(xù)的技術優(yōu)化和產品打磨,騰訊云DeepSeek API以及智能體開發(fā)平臺、TI平臺已經服務了眾多客戶,覆蓋互聯(lián)網、金融、零售、政務、出行等眾多領域。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!