
新媒易动态
NEWS CENTER
NEWS CENTER
2025-05-01
对中国而言,开源模型的做法也比闭源模型能够招引更多客户,因为如果是闭源的模型,只能更多会集在国内市场,但开源则能够让更多国外公司也进行运用,举个例子:Perplexity是一家美国公司,但用户能够在Perplexity上运用DeepSeek R1,并完全托管在美国,运用美国的数据中心。#03大模型的下半场2023年3月,在旧金山的探索馆一场开源AI盛会上,羊驼散步在会场上,致敬了Meta的开源大言语模型“LLaMA”。
2023年至今,一年多时间里,生成式AI正在不断产生变化。公众的关注点已从基础模型变为AI原生的运用。在YC W25的Demo Day中,80%的项目都是AI运用。“开源模型将会促进更多Agent的落地。”多位业界人士向硅兔君表达了这个观念。一方面是开源将会下降运用本钱及门槛。例如千问3 有很强的东西调用才能,在伯克利函数调用BFCL评测榜中,千问3创下70.76的新高,将大幅下降Agent调用东西的门槛。
一起,可结合 Qwen-Agent 开源结构来充分实现Qwen3 的智能体才能。Qwen-Agent 是一个依据 Qwen 的指令跟踪、东西运用、规划和内存功用开发 LLM 运用程序的结构,结构内部封装了东西调用模板和东西调用解析器,还附带浏览器助手、代码解释器和自定义助手等示例运用程序,大大下降了编码复杂性。
千问原生支持MCP协议,开发者要定义可用东西,可依据 MCP 配置文件,运用 Qwen-Agent 的集成东西或自行集成其他东西,快速开发一个带有设定、知识库RAG和东西运用才能的智能体。不仅如此,阿里的千问3能够支持不同尺寸模型,千问3对手机、智能眼镜、智能驾驭、人形机器人等智能设备和场景的布置更为友好,一切企业都可免费下载和商用千问3系列模型,这也将大大加快AI大模型在终端上的运用落地。
别的,有从业者指出,闭源模型在To B端并没有很好处理信任问题,很多大企业其实并不愿意将自己的事务接入第三方大模型的API,因为这背面是中心数据是否会成为第三方大模型训练的一部分,这也是开源模型的时机。有一个说法是,开源作为早期产品,在没有经过beta测验之前的市场推广策略,当不知道明日会是什么样的时候,先开源出来,招引开发者。当有人用起来的时候,就有了最佳实践,紧接着就树立起了自己的生态。
不过,因为开源模型的商业链条较长,不如闭源模型来得快和明晰,因而业界人士表示,开源模型更多合适家里有钱有资源的“富二代”的游戏。以Meta来说,Meta做开源模型,更多是搭建生态,为Meta其他事务板块供给支持。阿里做开源的逻辑,则更多是为其云服务。阿里有很强的云设施服务,能够在此基础上训练大模型,别的也能够将大模型布置在自己的云服务商,甚至能够依据用户布置定制专属大模型,用这样的方法走通商业逻辑。
“我的形式是,让大公司、小公司和开源相互竞争。这便是计算机行业产生的工作。”马克·安德里森曾表示。而在大模型逐步变成如水、电、煤相同的标准化产品,开源或许更合适未来的方向。