仅只有未实名的,新媒易不收取任何费用,公益非盈利机构
24小时服务热线: 4000-162-306
请扫码咨询

新媒易动态

NEWS CENTER

Meta又推出了免费可商用版别的“羊驼2号”——Llama2,听说性能比肩GPT-3.5

2023-07-25

开源大模型对闭源大模型的冲击,变得十分猛烈。

今年3月,Meta发布了Llama(羊驼),很快成为AI社区内最强壮的开源大模型,也是许多模型的基座模型。有人戏称,当时的大模型集群,便是一堆各种花色的“羊驼”。

而就在前些天,Meta又推出了免费可商用版别的“羊驼2号”——Llama2,听说性能比肩GPT-3.5。

这在整个大模型圈都是十分迸裂的。

我们知道,各个互联网、科技公司都在竞相练习、推出自己的大模型,投入了大量的计算资源和本钱,假如不能有用的完结商业化,那么这些大模型就很难回收本钱,后续的迭代、更新、升级都成问题,不仅研制企业会亏个底掉,更苦恼的大概便是“前功尽弃”的用户了。

而现在有了自在敞开强壮的开源大模型,谁还愿意给闭源大模型送钱呢?

还真的有。

开源是大势所趋,但闭源大模型依然有其存在意义和商业价值。依照现在的AI工业落地经历来看,用好大模型,还是得靠闭源。

今天我们就来聊聊这个问题,到底是谁,需求闭源大模型?

一、到工业去,到工业去

大模型的商业化终点是工业,想必已经是不必过多解说的一致了。

前不久,我参加某一个国产大模型的内部沟通会,对方高层就清晰表示,自己全部用的是闭源代码,并且坚持走闭源路线,便是考虑到练习大模型与职业伙伴合作,其间很多隐私数据是不方便开源的。

见一斑可窥全豹,至少在短期内,大模型走向工业,落地还是要靠闭源。

模型方面,闭源大模型的质量更高。

就拿现在最能打的Llama 2为例,Meta 将 Llama 2 70B 的成果,与闭源模型进行了比较,成果在 MMLU 和 GSM8K 上挨近 GPT-3.5,但在编码基准上,还存在明显差距,不少数据在多样性和质量方面有所欠缺。

当然,开源大模型的优化迭代速度很快。但开源的实质和“有性繁衍”很像,便是经过大量繁衍和变异,好像开篇那张“羊驼集群”相同,面对不确定的未来,借助进化的“优胜劣汰”,让最优质的后代继续出现。所以,开源软件的分支多,对用户来说,这个选择的本钱是很高的,加上开发人员很多,版别控制是一个问题。

安全性方面,闭源大模型的可靠性更高。

开源大模型要遵守开源协议,商业运用需求获得授权,海外开源大模型也要受到属地管辖,github就曾封禁俄罗斯开发者账号。运用海外开源大模型开发产品,供应链的危险,是客观存在的。

那么,运用国产开源大模型呢?安全性得到保证,但从商业视点看,很多客户,如大型政企,也十分看重大模型在业务上的可靠性,采购时往往需求大公司的品牌背书。一方面研制投入更大,口碑更高;另一方面,万一大模型生成不妥,导致商业丢失或商誉问题,运用闭源大模型可以问责服务商,运用开源大模型总不能找全球开发者算账吧?

比方大模型创业公司Huging Face,为客户供给AI咨询,是开源社区的台柱子,表示有大量客户期望把自己的私有数据/专业数据用来训模型,并不想把这些数据给到 OpenAl。

工业化方面,闭源大模型的长期服务能力更强、更可用。

大模型落地,并不是接入API、塞进数据、调参优化就结束了。作为一种新兴技术,大模型与业务场景的交融,还有十分多挑战。比方大模型需求经过蒸馏压缩,减小模型规模,才能在端侧布置,很多企业根本没有这类专业人才。

再比方,大模型与业务结合,需求产品、运营、测试工程师等多种角色共同参加,这些服务能力是以coder为主的开源团队,所很难供给的。此外,大模型的长期应用,算力、存储、网络等配套都要跟上,开源社区无法帮助用户“一站式”解决这些细节问题。

还有数据隐私顾忌,大模型是不能直接为工业所用的,还要经过专有场景数据进行优化,而这些数据练习完的模型会被开源敞开出去,让企业顾忌重重。

我们曾采访过一个才智医疗研制团队,对方表示,大量医疗数据分布在各大医院、研究机构,又涉及患者隐私,大家关于把数据拿出来共同练习一个职业模型,都存在顾忌。一方面是安全得不到保证,另一方面是自己的数据质量高,但从中得不到恰当的回报,和其他数据质量低的机构相同,很难协调。在开源大模型的共建中,如何得到数据、把握配方、确定各方贡献,还存在很多难题。

开源大模型需求平衡技术创新自在和版权收益之间的抵触,而运用闭源大模型就没有这方面的费事,数据和模型的所有权、运用权都很清晰,牢牢掌握在企业自己手里。

相关推荐