上接01版
“字节想通过豆包大模型推火山引擎和云服务,实际上,视频等内容才是掘金之处。”杨晓静也认为,云、算力、大模型、内容、数据是一条链条,打通后就能形成一个生态闭环,这也是巨头烧钱换数据的内在逻辑。
价格战或向C端传导
“百模大战”真正进入实战阶段,据《IT时报》记者观察,此次降价的主体是文本大模型,主要面向开发者和企业,还未传导至C端用户层面。下一阶段,国内大模型可能会迎来C端用户层面和多模态大模型的降价。让C端用户用得起甚至免费用,从而让大模型变得越来越好用。
在国外,OpenAI以性能优势几乎形成了垄断。OpenAI最新推出的多模态大模型GPT-4o目前仅开放了文本和图像功能,但未来将向C端用户全部免费开放。并支持语音和视频的输入输出。
当前,若要在ChatGPT上体验Plus版本,仍要升级到19.99美元/月的会员。据应用智能公司Appfigures统计,ChatGPT的App净收入在GPT-4o发布当天跃升22%,5月21日的净收入达到90万美元,接近该应用日均收入的两倍。
“国内大模型竞争越发激烈,在没有决出绝对胜出者之前,降价趋势不会停止,甚至是指数级下降。”周健认为。
杨晓静也认为,海量用户和庞大的消费者市场还将加速成本下降。
价格战的背后,是中国大模型想要抓住数据和场景的红利,缩短甚至超越美国的大模型发展速度。数据为核、场景牵引是中国在移动互联网、5G弯道超车的“制胜法宝”,那在大模型时代,这条反超路径是否依然可行?
2024年被认为是大模型商业化落地的元年。IDC预测,2026年中国AI大模型市场规模将达到211亿美元,人工智能将进入大规模落地应用关键期。据徐弘毅的观察,国内大模型更倾向于深入应用场景这条路径,靠业务打下基础。
中美的大模型发展差距一直存在争议,有人说差距是一年半,也有人说是半年。近期,斯坦福大学发布的《2024人工智能指数报告》显示,2023年发布的全球149个知名大模型中,美国占61款,中国占15款,居世界第二,追赶速度较快。而中国的人工智能专利数量占60%,领先其他国家。
想要缩短中美大模型发展差距,中国大模型还得要靠应用场景取胜。
降价,会直接调动企业使用大模型的积极性。根据以往开发信用债风险模型和智能投顾的经验,杨晓静做了一个测算,2005年至2022年18年间,A股市场中累积了82.5万份券商公司类研报,若每份以1万字计算,整体约85亿字,相当于3.4亿个tokens。做智能投研大模型的开发者,如果原先通用大模型的价格来调取API,一次需要花费3.4万元,现在只需要花费1700元。
据杨晓静判断,在金融领域,智能客服这个刚需领域将最快看到AI的注入和降价的影响,调用成本降低后,服务的用户规模也将快速提升。
此外,中国是全球最大的工业机器人安装国,安装量占全球50%,中国AI大模型企业应该抓住工业化升级的时机。“AI服务要变得像水电一样易用易得,像5G一样泛在化,才能像5G 一样弯道超车,达到全球引领。”杨晓静说道。