当前位置:首页 → 电脑软件 → 感谢新加坡让国足晋级 → 九游会官网aj v5.824.1726.457191 IOS版
v9.796.828 安卓免費版
v9.614.3371.205960 IOS版
v8.191 PC版
v3.112 最新版
v3.555 安卓免費版
v1.314 IOS版
v9.774.7315.133035 最新版
v2.849 安卓免費版
v5.799 PC版
v2.803 安卓最新版
v6.673 IOS版
v1.308 安卓最新版
v1.34.3642 安卓最新版
v1.785 安卓版
v8.481.2733.388804 安卓漢化版
v5.33.7777.831365 安卓漢化版
v4.28.8717.979219 安卓免費版
v5.648.6759.230226 安卓免費版
v7.893.2843 安卓版
v6.862.9428.468199 安卓最新版
v2.275.4774.230123 安卓最新版
v7.395.2461.882064 IOS版
v2.185.3077.952979 IOS版
v2.936.7083 IOS版
v7.13.226 安卓版
v1.646.372 安卓漢化版
v2.289.2036.217285 安卓最新版
v6.722.8318.870555 最新版
v6.520.3542.65045 安卓最新版
v5.323.1310.845419 IOS版
v5.616.5132 安卓免費版
v1.500.9243.152401 安卓版
v3.464.3846.813413 安卓最新版
v4.797 安卓最新版
v1.687 PC版
v3.468 安卓漢化版
v6.492.8188.829496 最新版
v9.836 安卓版
v3.798.7065.434665 最新版
v8.810.2294 安卓版
v3.3.1212.840417 安卓最新版
v3.947 IOS版
v2.971 最新版
v5.190.4658.687836 安卓免費版
v4.97 安卓最新版
v4.760 安卓版
v2.226.6263.249483 最新版
v1.846.7435.507061 IOS版
v6.459.9257 PC版
v7.505.9705.946997 安卓漢化版
v9.394.4504.537013 安卓漢化版
v8.894.8170.325828 最新版
v9.356 最新版
v3.42.8452 安卓最新版
v4.397.197 安卓漢化版
v1.18.9935 安卓漢化版
v8.281 PC版
v5.89.5350.337164 安卓漢化版
v3.229.3441.569137 最新版
v3.601 安卓最新版
v2.120 IOS版
v2.252 安卓最新版
v5.864.7994.327313 安卓漢化版
v5.571 安卓最新版
v8.343 最新版
v4.501.8850.712746 IOS版
v3.490.1164.817442 安卓最新版
v9.259.4928 IOS版
v2.603 IOS版
v8.207.3534.577689 安卓漢化版
v2.319.2398 PC版
v7.185.264.797920 PC版
v2.232.9659 安卓最新版
v6.360.170.197048 安卓版
v3.880.579.546359 IOS版
v2.412.5788.761387 IOS版
v2.798.6102.429194 最新版
v6.887.5467.765 IOS版
v2.200.5103.986483 安卓免費版
v7.473.3021.444198 PC版
九游会官网aj
火山引擎披露最新成绩:豆包大模型日均Tokens(大模型文本单位)调用量已突破30万亿。
10月16日,火山引擎发布豆包大模型系列更新,包括豆包大模型1.6原生支持多种思考长度,并推出了豆包大模型1.6 lite、豆包语音合成模型2.0、豆包声音复刻模型2.0等全新模型。
澎湃新闻记者获悉,截至9月底,豆包大模型日均Tokens调用量已突破30万亿,相比今年5月底增长超80%。在企业市场,IDC报告显示,今年上半年中国公有云大模型服务市场,火山引擎以49.2%的份额占比位居中国第一。
“大模型创新和服务是AI市场未来最大变量,我们先把产品做好,生态做好,才能考虑市场未来的发展。”在接受澎湃新闻等媒体采访时,火山引擎CEO谭待表示。
国内首个“分档调节思考长度”的模型
此次升级中,豆包大模型1.6成为国内首个原生支持“分档调节思考长度”的模型,提供Minimal、Low、Medium、High四档选择,可适配企业不同场景需求。
据实测,选择低思考长度档位时,模型总输出Tokens较旧版下降77.5%、思考时间缩短84.6%,且效果保持不变——这一优化直接解决了此前深度思考模式“使用率仅18%”的痛点。
以低思考长度为例,相比模型升级之前的单一思考模式,升级后的豆包1.6模型总输出tokens下降77.5%、思考时间下降84.6%,模型效果保持不变。
此外,火山引擎推出豆包大模型1.6 lite,相比旗舰版本更轻量、推理速度更快。效果上,该模型超越豆包大模型1.5 pro,在企业级场景测评中较豆包1.5 pro提升14%;在使用量最大的0-32k输入区间里,综合使用成本较豆包1.5 pro降低53.3%。
火山引擎总裁谭待告诉澎湃新闻记者,当前全球AI大模型正沿三大方向演进:深度思考与多模态能力融合、音视频模型达生产级水平、企业级复杂Agent走向成熟。
“现在Tokens增长趋势还远远没有结束,未来可能还能涨几百倍。”谭待坦言,在他看来,“Tokens调用量是衡量企业AI转型的关键指标——若日均Tokens不足10亿,很难说真正在做AI转型”,而火山引擎Tokens增长的核心逻辑是“为客户创造更大价值”:企业愿付费使用,本质是Tokens能带来“硬件好卖、效率提升、成本降低”等实际增益。
未来增长趋势:生成类模型
“生成类模型增长非常快,生图生视频用得越来越多,大家平时作为用户,豆包上也会用到这样的能力。”谭待告诉澎湃新闻记者,另一个增长点是AI代码(coding),在国外已经用得非常多,国内受限于模型的限制、能力的限制,还没有完全爆发。
谭待还透露,在过去4年,火山引擎每年营收目标都超预期完成,今年也是如此,“我们应该更早意识到AI变化意味着什么,我们做好布局。把这件事情做好,结果就水到渠成。对我们来说,AI大幅降低企业和开发者使用的门槛。”
当天,面对“模型太多选不准”的行业难题,火山引擎发布国内首个模型智能选择方案——智能模型路由(Smart Model Router),即日起在火山方舟平台开放使用,支持“平衡模式”“效果优先模式”“成本优先模式”三种选择,可自动匹配最优模型,实现“效果与成本双优”。
实测数据显示,在效果优先模式下,路由至DeepSeek模型时效果较直接使用DeepSeek-V3.1提升14%;成本优先模式下,在保持DeepSeek-V3.1相似效果的前提下,综合成本最高下降超70%。值得注意的是,该路由不仅支持豆包全系模型,还兼容DeepSeek、Qwen、Kimi等主流开源模型,且路由本身不收费,仅按最终调用的模型计费。
相关版本
多平台下载
查看所有0条评论>网友评论