“全球AI大模型正在三個方向上快速發展:一是深度思考模型正與多模態理解能力融合,二是視頻、圖像、語音模型逐步實現生產級水平,三是企業級復雜Agent正在走向成熟,為企業激發新的生產力潛能。”2025年10月16日,火山引擎總裁譚待在FORCE LINK AI創新巡展武漢站上指出。基于此,在當天活動上火山引擎發布了豆包大模型的一系列更新:包括豆包大模型1.6、豆包大模型1.6 lite、豆包語音合成模型2.0、豆包聲音復刻模型2.0等全新模型。
豆包系列模型迎升級,滿足多領域用戶需求
就豆包大模型 1.6來說,它實現了全新升級,這讓其能提供Minimal、Low、Medium、High四種思考長度,平衡企業在不同場景下對模型效果、時延、成本的不同需求,并進一步提升了思考效率。以低思考長度為例,相比模型升級之前的單一思考模式,升級后的豆包1.6模型總輸出Tokens下降77.5%、思考時間下降84.6%,模型效果保持不變。據了解,這也是國內首個原生支持“分檔調節思考長度”的模型。在服務企業用戶的過程中,火山引擎發現當開啟深度思考模式,模型效果平均可提升31%,但會提高模型延遲和使用成本,這導致在實際應用中深度思考模式的使用占比僅有18%。而豆包大模型1.6可以很好地解決這一問題。
就豆包大模型1.6 lite來說,它能進一步地滿足企業的多樣化需求。相比旗艦版本,它更加輕量、推理速度也更快。在效果上,它也優于豆包大模型1.5 pro:在企業級場景測評中較豆包1.5 pro提升14%;在使用量最大的0-32k輸入區間里,綜合使用成本較豆包1.5 pro降低53.3%。
就豆包語音合成模型2.0(Doubao-Seed-TTS 2.0)和豆包聲音復刻模型2.0(Doubao-Seed-ICL 2.0)來說,其具備更強的情感表現力、更精準的指令遵循能力,還能準確朗讀復雜公式。據介紹,該模型基于豆包大語言模型研發語音合成新架構,讓合成和復刻的聲音都能進行深度語義理解,并能拓展出上下文推理能力,從單純的文本朗讀進化為“理解后的精準情感表達”。用戶還能通過自然語言,實現對語速、情緒、聲線、音調、風格變化的精準調整,大幅提升語音的可控性。在教育場景中,復雜公式和符號的朗讀一直是業界難題,目前市面上的同類模型朗讀準確率普遍低于50%。豆包語音模型對此問題進行了針對性優化,目前在小學至高中階段全學科的復雜公式朗讀中,準確率可達90%。自2024年5月首次發布以來,豆包語音模型家族已覆蓋語音合成、語音識別、聲音復刻、實時語音、同聲傳譯、音樂創作、播客創作等7大領域,已覆蓋超過4.6億臺智能終端。可以說,該模型在一定程度上推動語音成為了AI應用的核心交互方式。
![]()
圖 | 豆包語音合成、聲音復刻模型2.0發布,讓聲音能理解、會“表演”
同時,火山引擎還在本次活動上表示,豆包大模型的日均Tokens已經超30萬億。火山引擎總裁譚待表示:“我在很早之前就表達過這一觀點:一家企業說自己AI轉型做得好,首先看自己每天消耗多少Tokens,如果10億Tokens都沒有到,那肯定不好意思說自己在做AI轉型。”他繼續說道:“每次舉辦新的巡展豆包大模型的Tokens都漲了很多,未來還可以漲更多,可能會漲幾百倍,這個趨勢遠遠沒有結束。對于To B的業務來說每個企業都要花錢,企業做決策都很理性,愿意花錢買Tokens當然是因為Tokens創造了價值——讓它的硬件更好賣、讓它的品牌更好、讓它的服務效率更高、讓它的成本降低等等。”
發布智能模型路由,國內首個模型智能選擇解決方案
模型越來越多,當面對具體需求時如何選擇模型才是最有性價比?為了解決這個選擇難題,火山引擎智能模型路由(Smart Model Router)正式面世,據介紹這也是國內首個針對模型智能選擇的解決方案。目前,火山引擎智能模型路由已能支持豆包大模型、DeepSeek、Qwen、Kimi等多種主流模型。以DeepSeek為例,經過實測,在效果優先模式下,在智能路由之后模型的效果相比直接使用DeepSeek-V3.1提升14%;在成本優先模式下,在實現DeepSeek-V3.1相似效果的條件下,模型的綜合成本最高下降超過70%。談及火山引擎智能路由,譚待表示:“Tokens太長也會帶來成本,所以我們今天做了智能路由、做了分段的思考長度,把長度降下來也能進一步降低成本和降低開發難度。”目前,用戶可以在火山方舟上選擇“智能模型路由”功能,該功能支持“平衡模式”、“效果優先模式”和“成本優先模式”三種方案,可針對任務請求自動選擇最合適的模型,達到效果與成本的最優解,即日起用戶即可使用這一功能。譚待解釋稱,分檔理解起來很簡單,因為模型是按Tokens計費的,選擇不同檔位以后輸出的Tokens長度不一樣。很多問題沒有那么復雜,不用思考那么長時間,畢竟思考那么長時間又慢又花錢,而能夠自動選擇就會好很多。與此同時,模型路由本身不收費,路由到哪個模型就按照哪個模型收費。
而在企業合作上,譚待表示:“很多車廠之所以選擇火山引擎是因為知道在模型服務上我們做得最好。”目前,火山引擎和已經幾家車廠在 座艙上做共創,并已和手機智能助手做共創,瑞幸和茶百道等絕大部分茶飲企業都在使用豆包大模型。展望未來譚待表示:“未來,我們將能看到更多案例,不僅僅是汽車和終端零售等領域,可能更加傳統的能源行業合作案例也會展現。”他補充稱:“AI不是一個新概念,今天的AI和10年前、20年前、5年前最大的區別是什么?最大的區別是大模型的服務。對于火山引擎來說,AI云最重要的事情也有可能是唯一的事情就是大模型服務。所以,我們一直努力地在大模型服務商之中保持領先,通過不斷的基礎創新、模型創新、工具創新、AI云原生的創新,來實現Tokens調用和模型服務市場的領先。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.