
新媒易动态
NEWS CENTER
NEWS CENTER
2023-09-18
气候转凉,夏天行将曩昔。假如有人问,云核算厂商在这个火热的夏天做了什么。答案是,他们做了三件事:大模型、大模型,以及大模型。
7月,在华为开发者大会2023(Cloud)期间,华为云公布了盘古大模型3.0,随后进行了生态等方面的升级。而在此前更早时候,阿里云公布了通义千问大模型,并在8月3日宣布其正式开源。
来到9月,云核算厂商的大模型发布更加密布。9月5日,百度智能云在2023百度云智大会发布了千帆大模型渠道2.0,进一步集成百度的文心系列大模型,只隔两天,腾讯就在2023腾讯全球数字生态大会发布了混元大模型,其主要出口则是腾讯云。
至此,我国几大云核算厂商可以说是在大模型范畴重兵集结。相较于AI算法公司与研究机构,云核算厂商做的大模型更靠近产业与使用的一线,并且大模型与云厂商原本的事务系统、营收模块有着相对杂乱的关系。因而,云厂商的大模型之争,绝不是简单的模型之间技能比照。
那么,云核算大厂做大模型究竟是为什么?云+大模型之战的决胜点在哪?
本文中,咱们希望通过多个层次的比照与整理,和我们一起回答这个问题。
首先要清晰两个前提:一是伴随着各职业IT投入的下降,云核算厂商遍及面临着增速放缓,营收不利的状况。根据IDC报告预测,未来五年我国云核算职业的平均增长速度将下调10%左右,云核算厂商的正在遍及下降事务预期。因而,大模型突然爆火,关于云核算职业来说是可贵的窗口,这个机会或许利益没有幻想中大,但现在也不得不做。
另一个状况是,从用户界面来看云+大模型的需求是十分杂乱的。有的用户需求直接调取模型,有的用户需求AI算力来自己练习模型,还有用户需求很多的模型定制化与解决方案集成。因而云厂商做大模型并不是很多人幻想的浴血奋战白刃战。大模型相关事务,需求面向多个市场,多种商业模式。这场赛事更像是一场阵地战,各个战略节点都不能呈现缺口。
在这场大模型鏖战的各个层面,都有一条明线和一条暗线在牵引着局势的发展。
大模型带给云核算厂商最直接的改变,其实并不来自于模型本身,而是大模型火了之后,涌现出来的大模型热潮需求巨大的AI算力。大模型数据规划巨大,且练习模型需求专属的AI算力,这就给云核算服务商短期带来了用云量的升级。在云核算IaaS层市场全体相对低迷的状况下,大模型的呈现也算是注入了一针强心剂。
这个层面上云核算厂商的竞争节点,用一个词归纳便是“堆卡”。谁能供给充沛少排队,且尽量价格低廉的AI算力,谁就算赢了。而AI算力的来历主要是英伟达的GPU,于是就呈现了云核算厂商买空市面上GPU的现象,以及“云厂商都是给英伟达打工”的说法。
但不管怎么说,云核算厂商在IaaS层的堆卡比赛都不会完毕,很多用户依旧会以核算成本和核算功率来作为选择公有云AI算力的考量依据。这个层面上,云核算厂商就需求提升在核算集群性、核算兼容性方面的能力,尽量发挥出每一张GPU的价值。
比如说,百度智能云就许诺在万卡集群练习大模型时,有效练习时间达到95%以上,从而下降用户的练习时间成本,完成更好的核算加速比。阿里云则提出了可以支撑高达十万卡GPU的单集群规划,可让多个万亿参数大模型同时在线练习。