第687章 大模型价格战卷至“厘时代”!阿里云通义千问降价97%[1/2页]
天才一秒记住本站地址:[百书楼]https://m.baishuxs.cc/最快更新!无广告!
近日,阿里云宣布推出通义千问GPT4级主力模型QwenLong,其API输入价格从0.02元/千tokens降至元/千tokens,直降97%。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。此消息一出,立即引发了业界的广泛关注和热议。
值得一提的是,本月智谱AI、字节跳动的大模型也都纷纷宣布降价。其中,字节的豆包主力模型的定价为元/千Tokens,即千tokens,被认为带动大模型定价进入了“厘时代”。
此轮大模型降价潮,是各家厂商希望进一步抢占市场,从而加速AI应用的商业化落地。
9款商业化及开源系列模型降价
QwenLong是通义千问的长文本增强版模型,性能对标GPT4,上下文长度最高1千万。除了输入价格降至元/千tokens,QwenLong输出价格也降90%至元/千tokens。相比之下,国内外厂商GPT4、Gemini1.5
Pro、Claude
3
So及Ernie4.0每千tokens输入价格分别为0.22元元元及0.12元。
通义千问本次降价共覆盖9款商业化及开源系列模型。不久前发布的通义千问旗舰款大模型QI输入价格降至0.04元/千tokens,降幅为67%。
智谱AI、字节跳动旗下火山引擎也纷纷宣布了降价
5月11日,智谱AI大模型的新注册用户获得额度从500万tokens提升至2500万tokens,个人版
GLM3Turbo模型产品的调用价格从5元/百万tokens降低至1元/百万
Turbo
Batch
批处理API也便宜了50%,价格为1元万tokens。
15日,火山引擎宣布豆包Pro
32k模型定价是千tokens。此外,豆包Pro
128k模型定价是5厘钱/千tokens。
大模型已经开始从“卷大模型技术”向“卷大模型应用”转变
对于此轮降价潮,不少业内分析指出,大模型已经开始从“卷大模型技术”向“卷大模型应用”转变,但推理成本过高依然是制约大模型规模化应用的关键因素。
在武汉AI智领者峰会现场,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光称:“阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计2024年大模型API的日调用次数有望突破100亿。”
刘伟光判断,不管是开源模型还是商业化模型,公共云+API将成为企业使用大模型的主流方式。云上调用成本远对于私有云部署。在追求更大尺寸的模型时,企业要面对GPU采购、软件部署、网络费用、电费、人力成本等等。随着大模型的规模变大,对于私有化部署的成本和复杂性会越来越高。去年还有不少企业考虑购买上百台GPU服务器,来搭建计算网络集群。但今年很多公司已经放弃了自建百台集群的大模型研发。
第687章 大模型价格战卷至“厘时代”!阿里云通义千问降价97%[1/2页]
『加入书签,方便阅读』