国内ai大模型行业如同竞争激烈的电商一样,打起了“全网最低价”战争。
5月21日上午,阿里云官方微信号以标题《降价,立即生效!》的一篇推送宣布旗下大模型通义千问降价。其中,通义千问gpt-4级主力模型qwen-long,api输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。
仅仅大约四个小时后,上周还表态“使用大模型不应该只看价格,更要看综合效果”的百度,也紧随其后发布一篇仅改了两个字的官方推送《免费,立即生效!》,宣布旗下大模型文心一言的两款入门级产品ernie speed和ernie lite直接免费,干脆跳过了降价阶段。
就在两周前,阿里云刚刚发布了通义千问2.5,并号称是超越了gpt-4 turbo的最好用的中文大模型,但整场发布会绝口没提及降价事宜。
通义千问主力模型api输入价格直降97%的“跳楼价”,更像是一起针对竞争对手降价策略后的“应激反应”。
5月15日,字节跳动豆包大模型在火山引擎原动力大会上正式发布。价格也是这场发布会的亮点:c端用户的豆包app可免费使用,豆包主力模型(小于等于32k)在企业市场的定价只有0.0008元/千tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%。
根据火山引擎现场公布的价格计算和对比,一元钱就能买到豆包主力模型的125万tokens,大约是200万个汉字,相当于三本《三国演义》。
“一元钱买125万tokens,相当于三本《三国演义》”,而现在阿里云为通义千问新价格宣传使用的词汇也非常相似,“一元钱买200万tokens,相当于5本《新华字典》”。
“降价”也成为2024年5月份国内ai大模型行业的最大关键词。
在字节跳动豆包大模型之前,5月11日,智谱大模型官宣了新的价格体系:新注册用户可以获得额度从500万 tokens 提升至2500万 tokens,并且入门级产品glm-3 turbo模型调用价格从5元/百万tokens降至1元/百万tokens,降幅高达80%。
除了目前各家先后降价和免费的各种入门级大模型产品,对一些预算有限但也想尝鲜的企业来说,如果有自己的技术能力,还能选择meta的llama 3等开源模型可供使用。
而即便各家大模型厂商不得不跟进竞争对手的降价策略,只要有客户愿意使用,仍然能够得到客户授权的数据用于产品后续的推理训练。目前阶段,不管哪家的大模型产品,对更多用户真实场景数据的需求,是比本来就不多的商业化收入更重要的事。
pico移动os团队将回归字节跳动本部,并入字节产品研发和工程架构中台,销售、内容和运营三大部门或将全部裁撤。