今年618“价格战”
巨头争当“全网最低”
IT时报记者孙妍图东方IC
这届618的价格战是大模型打响的。
字节跳动打前阵,BAT前后脚跟进,主力模型降价97%,百万tokens低至1元,大模型卷至“厘时代”,免费,全面免费,永久免费……堪称炸场级别的降价力度已经许久未见,像是重演“百团大战”“O2O混战”“网约车补贴大战”“云项目1元中标”似的,点燃了行业的战火。
8家大模型集体降价
字节跳动和BAT集体入局大模型价格战。据《IT时报》不完全统计,5月以来,已有8家国内外大模型宣布大降价,包括幻方量化、智谱、GPT-4o、字节豆包、阿里通义千问、百度文心一言、腾讯混元和科大讯飞星火等。
5月15日,字节跳动挑起大模型价格战,豆包通用模型pro-32k版输入价格降至0.0008元/千tokens,豆包通用模型pro128k版输入价格降至0.005元/千tokens。这意味着,1元就能买到豆包主力模型的125万tokens,大约是200万个汉字,相当于3本《三国演义》。
大模型通常以“元/千tokens”为计费单元,字节豆包将以分为单位的使用成本,直接打到了以厘为单位,真正挑起了价格战。
阿里和百度在5月21日前后脚跟进,阿里通义千问GPT-4级主力模型QwenLong的输入价格降至0.0005元/千tokens,直降97%,降价后约为GPT-4价格的1/ 400,击穿全球底价。这意味着,1元就能买到200万tokens,相当于5本《新华字典》。百度文心一言则直接宣布两大主力模型全面免费且立即生效,分别为今年3月推出的轻量级大模型ERNIE Speed和ERNIE Lite,支持8k和128k上下文长度。
5月22日,腾讯混元大模型全面降价,主力模型之一混元-lite模型价格从0.008元/千tokens调整为全面免费,API输入输出总长度计划从目前的4k升级为256k。混元standard、具备处理超38万字符超长文本能力的混元-standard-256k以及最高配置万亿参数模型混元-pro三款大模型的API输入输出价格全面降低,最大降价幅度为87.5%。
同一天,科大讯飞推出业界首个“永久免费”的大模型——星火大模型lite,顶配版讯飞星火Max API价格则低至0.21元/万tokens,相比较而言,百度文心一言 ERNIE4.0和阿里通义千问Qwen-Max的定价为1.2元/万tokens,讯飞星火顶配版只为百度、阿里的五分之一。
真正让国内大模型神经紧张的是,OpenAI从2023年年初至今,已经进行了4次降价,5月13日发布的GPT-4o不仅实现了性能跃升,价格也下降了50%。
巨头烧钱换数据
“当前大模型的定价已经没办法覆盖成本,但大模型厂商为何还要降价?主要目的是为了收集数据。”在主攻AI Agent的澜码科技CEO周健看来,GPT-4o的策略是对公众免费,对开发者收费降低一半,让公众多用,从而收集多轮对话等交互数据,这比静态数据更能快速提高模型能力,而国产大模型也同样处于“烧钱换数据”的阶段。
以往,LLM类的大模型没有时间概念,但GPT-4o已经解决短时记忆问题,能在对话中感知情绪、跟随指令或被人打断,可以用不同情绪的语音讲故事,不过长时记忆能力和社会智能还是不够。
周健打了一个比方,即使GPT-4o像爱因斯坦一样聪明,它也不能胜任一家上市公司的CFO,因为这个角色需要强大的长时记忆,根据不同沟通总结和分析整个公司的组织结构、权力结构等,所以它现阶段还是一个“缸中之脑”。
除了对公众免费以外,OpenAI还在用硬件来收集线下销售、猎头等与客户交流的数据。发布GPT-4o后,OpenAI与美国知名论坛、美股散户大本营Reddit合作,收集社区内容来训练大模型。所以,收集这些真实动态数据的目的,是为了让大模型变得更像人,可以多轮对话、长时记忆、熟知社会交往逻辑。
在上海人工智能研究院高级研发经理徐弘毅看来,大模型打下市场的关键也是数据。当前,大模型的竞争已从算力过渡到优质数据,优质的中文数据十分稀缺,而动态交互数据更显重要。
中文教科书只有英文的十分之一,中文的静态知识数据闭环天然弱于英文,所以只能从动态数据上实现量的突破,只有让真实的人来用,才能收集动态数据。另外,全球70%的数据仅停留在免费公开数据集的层面,要想让大模型掌握专业知识,只能不断吸引各行各业的开发者注入垂直领域的数据集。
低价,无疑是最好的吸引方式。当然,前提是保证相同的质量甚至更快的速度。从去年的GPT-4到今年的GPT-4o,第一个token响应速度快了6倍,但调取价格便宜了12倍。国外厂商以速度博眼球,而国内厂商以价格博市场。不过,也有业内人士和媒体质疑,大模型厂商抛开并发量谈价格“并不科学”,如果不能支持高并发量,就无法保证输出速度和质量。
“大模型集体降价不仅仅是市场策略,更是拐点到来的信号。”曾负责国内首个基于时空数据信用债风险模型的北京市特聘专家杨晓静认为,大模型集体降价的原因有三:首先是基于统筹补贴等政策,云、算力芯片等成本降低带来了技术红利;其次是大模型厂商对规模增长的信心,2024年初,每天国内所有大模型的API调用量不超过1亿次,但预计今年底将有100倍增长;当然,最直接的目标是吸引开发者,从而快速向千行百业覆盖,而目前国内AIGC的用户渗透率仅为6%左右。 下转10版
相关链接
淘宝618消费者开心商家承压10版/新闻·产业