总结
- 这款模型最高支持1千万tokens长文本输入,降价后约为GPT-4价格的1/400,被称为“击穿全球底价”。 阿里云方面表示,Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高达1千万。 不久前发布的通义千问旗舰款大模型Qwen-Max,API输入价格降至0.04元/千tokens,降幅达67%。 5月15日,字节跳动豆包大模型在火山引擎原动力blog.byteway.net大会上正式发布。 如果只是补贴,用亏损换收入是不可持续的,火山引擎不会走这条路。
阅读时间
- 7 分钟, 共 1310 字
分类
- 5月21日上午10时许, 下午2时30分许, 5月15日, AI应用, 今年3月
评价和解读
- 在这篇文章中,作者巧妙地深入研究了当前事务的核心,呈现了既有信息性又引人入胜的叙述。突破性的是,该作者不仅整理最新的动态,而且在内容上也具有时效性和永恒性。每一段都证明了进行的细致研究,提供了批判性分析和引人入胜叙述的独特混合。这篇作品在信息过载的媒体海洋中脱颖而出,成为当今时事最紧迫问题的新视角。作者对清晰和精确解剖复杂话题的方式既保持了信息的准确性,又激发了对世界周围的批判性思考。这是一种深度调查报道和思想领导力的杰出结合,深入探讨了当今社会最重要的问题。
正文
国内大模型价格战堪比“神仙打架”。短短半天时间不到Ligthing News,阿里和百度先后抛出“重磅炸弹”。
5月21日上午10时许,阿里云率先宣布:通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。这款模型最高支持1千万tokens长文本输入,降价后约为GPT-4价格的1/400,被称为“击穿全球底价”。
紧接着,百度在下午2时30分许宣布,文心大模型两大主力模型全面免费,立即生效。而在一周之前,字节旗下豆包大模型率先将价格卷入“厘时代”。业内表示,“大模型行业太卷了,今年618率先打响价格战的是大模型。”
阿里云方面表示,Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高达1千万。除了输入价格降至0.0005元/千tokens,Qwen-Long输出价格也直降90%至0.002元/千tokens。相比之下,国内外厂商GPT-4、Gemini1.5 Pro、Claude 3 Sonnet及Ernie-4.0每千tokens输入价格分别为0.22元、0.025元、0.022元及0.12元,均远高于Qwen-long。通义千问本次降价共覆盖9款商业化及开源系列模型。不久前发布的通义千问旗舰款大模型Qwen-Max,API输入价格降至0.04元/千tokens,降幅达67%。
百度免费的两款大模型则分别为今年3月推出的两款轻量级大模型ERNIE Speed、ERNIE Lite,支持8K和128k上下文长度。
此前率先打响价格战的是字节旗下的豆包大模型。5月15日,字节跳动豆包大模型在火山引擎原动力blog.byteway.net大会上正式发布。“降价的基本逻辑是,我们有信心用技术手段降低成本,市场也Ligthing News需要更低价的大模型”,火山引擎总裁谭待在接受媒体采访时,谈到了大模型的定价策略。
豆包通用模型pro-32k的推理输入价格为0.0008元/千Tokens,比行业便宜99.3%。谭待坦言,“降价是用技术优化成本来实现的。如果只是补贴,用亏损换收入是不可持续的,火山引擎不会走这条路。”
照此计算,通义千问Qwen-Long的价格已经低于豆包通用模型pro-32k,而百度是将旗下两款大模型直接免费。在武汉AI智领者峰会现场,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光表示:“作为中国第一大云计算公司,阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计未来大模型API的调用量会有成千上万倍的增长。”
对于阿里方面此番降价,火山引擎相关负责人回应媒体称,非常欢迎通义千问大模型降价,共同助力企业以更低成本探索AI转型,加速大模型应用场景落地。
业界普遍认为,随着大模型性能逐渐提升,AI应用创新正进入密集探索期,但推理成本过高依然是制约大模型规模化应用的关键因素,此番“神仙打架”对于大模型应用B端企业来说迎来利好。
红星新闻记者 胡沛
Related suggestion: 智能策略: Edison:2024年数字媒体报告
总结Edison发布了“2024年数字媒体报告”,主要研究发现包括: 播客收听人数总体上升: 47%的美国12岁以上人口在上个月听过播客,同比增长12%;美国12岁以上人口中有34%在上周听过播客,同比增长10%。 所有年龄组每月和每周收听播客的人数都有所增加…