仅只有未实名的,新媒易不收取任何费用,公益非盈利机构
24小时服务热线: 4000-162-306
请扫码咨询

新媒易动态

NEWS CENTER

AI核算与云基础设施

2023-08-25

基础设施供给商是迄今为止这个商场上的最大赢家!

AI基础设施少不了云核算,开年以来,云商场风云迭起。

ChatGPT、GPT-4、文心一言、BARD等生成式AI大模型,背后都有着微软云Azure、百度智能云、谷歌云Google Cloud的算力支撑,而新品发布后,紧接着的战略动作,便是将生成式AI集成到了自家的云服务中。

微软将 Azure 的企业级功用与 OpenAI 的生成式 AI 模型功用相结合,发布了Azure OpenAI服务;百度在三月的两场重磅发布会,一是文心一言的发布,另一个便是百度智能云面向企业的沟通会。

其他有AI大模型才能的云厂商,也并没有干看着,要么揭露表示正在研发,比如谷歌云,要么暗地里用功,尽管还没有类似产品亮相,但也绝没有放话说自己必定不做,比如腾讯云、阿里云、华为云等,都有在释放信号,表示自己有AI大模型方面的积累和才能。

至此,咱们能够得出结论:AI正在改写云商场的竞赛格局。

但是,有了AI,云厂商就能赚到钱吗?答案是,不。

AI与云服务之间究竟有怎样的联系?AI云服务化,究竟是不是一种好的商业形式?为什么云厂商都希望靠AI来“逆天改命”?咱们从三层逻辑,来重新理解云与AI的联系。

第一层逻辑:AI核算与云基础设施

提到AI对云商场的改变,很多人脑海里浮现出的第一个反映便是:AI需要使用算力,而云能够供给算力,AIGC火了,云厂商这不就赚到钱了吗?

前半句合理,后半句未必。

通过向AI用户出售核算资源来盈余,依照使用量计费,这种商业形式是公有云的传统服务形式:IaaS (Infrastructure-as-a-Service)基础设施即服务。

云厂商作为IaaS服务商,那可真是一部血泪史。作为IT基础设施替代方案的公有云,属于重资产职业,建造维护本钱高,前期投入大,又容易打价格战,而且很难涨价溢价,云巨子亚马逊AWS,运营了整整10年才实现盈余。

这一波AI热潮到来之后,看似核算资源的需求增加了,但也无法为IaaS服务“逆天改命”。

几个原因:

1)AI芯片贵重,前期投入本钱很高

当下AIGC正火,适用于AI练习推理的显卡GPU被哄抢、抬价,英伟达GPU供不应求,国产芯片在性能上还达不到100%同等水平,有音讯称,此前A100芯片的单价是五六万,现在现已卖到了八九万。

芯片水涨船高的当下,云厂商的本钱压力是很高的,就连微软都约束了New bing的问答条数,可见“地主家”也扛不住放开了造啊。

2)AI训用分离,云使用量增长有限

传统公有云IaaS服务是依照使用的资源收费的,用云量越大,收入就越高。惋惜的是,AI模型带来的新增云使用量,是比较有限的。

你可能会问了,不是说练习一个万亿参数的AI大模型要耗费几十万芯片的算力吗?这核算需求量分明很大啊?

问题来了,基础模型的练习,的确很耗算力,但很多是离线核算的,便是东部企业的大模型能够放到西部数据中心训好了,到了真正使用的时候,生成一张图片、一段文字,云端核算量不算大,所需要的云资源并不多,云厂商要靠AIGC回本遥遥无期。

3)模型落地,本钱收回周期很长

AI大模型要落地使用,一定会“变小”。此前就有报导,有高校以更小的参数规模,到达与ChatGPT同样的作用。所以,一个AI大模型未来落地所需要的核算本钱,也会呈现十倍以上的降低,这又会延伸云厂商的本钱收回周期。

而且,AI练习一般会“独占”物理机,假如用户购买了足够多的核算资源,后续的需求不会再增加很多。有AI服务器厂商透露,去年很多头部客户做了AI资源的储备,今年的收购需求现已萎缩了。

能够看到,假如想靠公有云IaaS服务作为商业形式,赚钱真的很难。所以,云厂商要吃到AI的盈利,不再过传统云的苦日子,有必要想其他招。

相关推荐