新媒易动态
NEWS CENTER
NEWS CENTER
2023-08-25
基础设施供给商是迄今为止这个商场上的最大赢家!
AI基础设施少不了云核算,开年以来,云商场风云迭起。
ChatGPT、GPT-4、文心一言、BARD等生成式AI大模型,背后都有着微软云Azure、百度智能云、谷歌云Google Cloud的算力支撑,而新品发布后,紧接着的战略动作,便是将生成式AI集成到了自家的云服务中。
微软将 Azure 的企业级功用与 OpenAI 的生成式 AI 模型功用相结合,发布了Azure OpenAI服务;百度在三月的两场重磅发布会,一是文心一言的发布,另一个便是百度智能云面向企业的沟通会。
其他有AI大模型才能的云厂商,也并没有干看着,要么揭露表示正在研发,比如谷歌云,要么暗地里用功,尽管还没有类似产品亮相,但也绝没有放话说自己必定不做,比如腾讯云、阿里云、华为云等,都有在释放信号,表示自己有AI大模型方面的积累和才能。
至此,咱们能够得出结论:AI正在改写云商场的竞赛格局。
但是,有了AI,云厂商就能赚到钱吗?答案是,不。
AI与云服务之间究竟有怎样的联系?AI云服务化,究竟是不是一种好的商业形式?为什么云厂商都希望靠AI来“逆天改命”?咱们从三层逻辑,来重新理解云与AI的联系。
提到AI对云商场的改变,很多人脑海里浮现出的第一个反映便是:AI需要使用算力,而云能够供给算力,AIGC火了,云厂商这不就赚到钱了吗?
前半句合理,后半句未必。
通过向AI用户出售核算资源来盈余,依照使用量计费,这种商业形式是公有云的传统服务形式:IaaS (Infrastructure-as-a-Service)基础设施即服务。
云厂商作为IaaS服务商,那可真是一部血泪史。作为IT基础设施替代方案的公有云,属于重资产职业,建造维护本钱高,前期投入大,又容易打价格战,而且很难涨价溢价,云巨子亚马逊AWS,运营了整整10年才实现盈余。
这一波AI热潮到来之后,看似核算资源的需求增加了,但也无法为IaaS服务“逆天改命”。
几个原因:
1)AI芯片贵重,前期投入本钱很高
当下AIGC正火,适用于AI练习推理的显卡GPU被哄抢、抬价,英伟达GPU供不应求,国产芯片在性能上还达不到100%同等水平,有音讯称,此前A100芯片的单价是五六万,现在现已卖到了八九万。
芯片水涨船高的当下,云厂商的本钱压力是很高的,就连微软都约束了New bing的问答条数,可见“地主家”也扛不住放开了造啊。
2)AI训用分离,云使用量增长有限
传统公有云IaaS服务是依照使用的资源收费的,用云量越大,收入就越高。惋惜的是,AI模型带来的新增云使用量,是比较有限的。
你可能会问了,不是说练习一个万亿参数的AI大模型要耗费几十万芯片的算力吗?这核算需求量分明很大啊?
问题来了,基础模型的练习,的确很耗算力,但很多是离线核算的,便是东部企业的大模型能够放到西部数据中心训好了,到了真正使用的时候,生成一张图片、一段文字,云端核算量不算大,所需要的云资源并不多,云厂商要靠AIGC回本遥遥无期。
3)模型落地,本钱收回周期很长
AI大模型要落地使用,一定会“变小”。此前就有报导,有高校以更小的参数规模,到达与ChatGPT同样的作用。所以,一个AI大模型未来落地所需要的核算本钱,也会呈现十倍以上的降低,这又会延伸云厂商的本钱收回周期。
而且,AI练习一般会“独占”物理机,假如用户购买了足够多的核算资源,后续的需求不会再增加很多。有AI服务器厂商透露,去年很多头部客户做了AI资源的储备,今年的收购需求现已萎缩了。
能够看到,假如想靠公有云IaaS服务作为商业形式,赚钱真的很难。所以,云厂商要吃到AI的盈利,不再过传统云的苦日子,有必要想其他招。