
新媒易动态
NEWS CENTER
NEWS CENTER
2025-06-07
Lauren:接下来你们的要点方向是什么?咱们看到你们在代码、企业场景方面做了许多,也听说有新模型发布。能够泄漏一点未来规划吗?
Me:关于模型和产品,咱们的目标能够用一个词归纳:Agent。我知道现在许多人都在谈这个概念。咱们想做的是,为这种新形态供给底层支撑。
代码仅仅一个起点,它展现了一个更广泛主题的雏形:模型能否连续作业几个小时乃至更久?那几乎能够说便是咱们的长期目标。
要完成它,模型不只需更强大,还需求一整套配套体系:1、记忆才能(让模型记住自己做过什么)2、高级工具调用(不只仅搜索,还能运用复杂工具)、主动适应安排结构(进入企业后知道该做什么)4、可验证性与日志记录(比方一家公司有 100 个 Agents 运行,怎样监管?)咱们不打当作这个生态里的每一个环节,但期望咱们的模型能成为这些构建的柱石。
Lauren:那新模型快来了?
Mike:永久都有新模型在来的路上。这个领域的更新速度实在太快了——但咱们很快会有一些很帅的新东西发布,敬请期待。
观众发问:作为产品负责人,你现在最头疼的问题是什么?
Mike:对咱们来说,最大的问题是——AI 产品对新手来说仍然太难用。咱们确实规划了一些很有价值的作业流,但它们仍然需求用户“用对方法”。
只需运用途径稍微违背主线,作用就会大打折扣。不像你第一次翻开 Instagram,知道该拍照、该发帖。AI 产品还远没做到那种“开箱即用”的程度。当然,这与咱们当时偏重于“作业场景”而非“日常娱乐”有关。但我常常在想,现在模型的才能现已很强了,可实践能用好的用户仍是太少,潜力还远未释放。
观众发问:你怎样看最近有篇热议的文章 AI 2027(关于 AI 的未来路线预测)它提出模型将被“推延发布”,以便充沛利用它们带来的利润与资源,这点你怎样看?
M:这篇文章有两个点我特别认同。第一是算力的重要性。这个论题并不新鲜,但它确实是每家 AI 公司的核心问题。咱们每天都在讨论:咱们现在的算力储备怎样?下一代要用什么芯片?和谁协作?这些讨论,几乎与文章中提到的一致。
第二点是是否该“成心推延模型发布”,来最大化报答。这个争议很有意思。比方,最近扎克伯格在一次访谈中提到,为 LLaMA 敞开 API 的权衡:你是要把算力花在用户身上,仍是持续强化 RL 练习?这是每家试验室都在面对的选择。咱们也要考虑——咱们是否应该把算力分给一个利润可观的大模型产品,仍是保存给那些“还在萌芽期的疯狂新主意”?后者或许孕育出下一代架构打破。这不是一个简单的平衡题。
我个人更倾向于——尽早让模型进入实在商场。Claude 3.5 系列之所以能做得这么好,便是由于咱们从实践用户反应中快速迭代。假如只在试验室里封闭开发,咱们或许不会走到今天这一步。
观众发问:在一个既做研讨又做产品的大型安排中,怎样平衡两者?是产品来界说研讨方向?仍是研讨决定产品才能,然后产品再接洽?
Me:我经常会要求产品团队去考虑:假如咱们做出的产品,仅仅把一个 API 模型包装了一下,且功用跟别家也差不多——那咱们到底在做什么?咱们有一群世界尖端的研讨人员,假如产品没有充沛用上他们的成果,那便是浪费。
有一个正面案例是 Artifacts:它是专门为 Claude 进行微调打造的产品,作用非常好。但咱们也经历过一段时间,产品和研讨脱节,没有真实把模型才能“装进”产品。咱们正在回归,从头强调“产品=模型才能+交给方法”。
现在咱们在这方面的协作还不够,大约只要 10% 的研讨人员参与到产品中。但咱们也知道——比方让模型更好地履行指令,其实对所有产品都有正面协助,这种基础性研讨咱们仍然在投入。咱们也在调查 OpenAI 的一些做法,比方他们或许会对 ChatGPT 做专门的微调版本,尽管咱们首要是经过 Chat 界面来用它,但背后或许跑的是不同模型。咱们现在没有这么做,这在节约算力的同时,或许也限制了一些差异化体会的完成。
观众发问:你怎样看关于 Agent 之间的沟通协议的未来的标准化?Anthropic 会制定类似标准吗?
Mike:我觉得现在还没有谁真实处理了其中一个关键问题——Agent 要不要泄漏信息、泄漏多少?比方:假如你的 Agent 要与供货商打交道,能够泄漏信用卡信息。但假如它仅仅与一个生疏 Agent 互动,那就该保存隐私。这种“提醒什么、隐藏什么”的判别,既是产品规划问题,也是一项没有处理的研讨课题。
模型天性想“讨好”你,简单泄漏太多;但假如它什么都不说,又或许变得过度保守。这种细腻的判别力,现在还没有被很好地练习出来。
另一个挑战是:怎样在大规模部署时进行可检查。比方,假如一家公司部署了 100个 Agents,要怎样记录他们的行为?怎样设定权限?乃至——这些 Agents 是否应该有“姓名”?咱们还在考虑这些问题,有些更像研讨问题,有些则是行将到来的产品挑战。
观众发问:你觉得现在在做 AI 运用层产品的人,最简单犯的过错是什么?
Me:我不想说是“过错”,但我调查到一个常见现象:许多 AI 产品是从“轻量 AI”开始,后来才逐渐变“重 AI”。但在这个过程中,他们常常仅仅把 AI 功用放在产品的边栏,成了一个非必须进口,体会也比较分裂。
而随着产品功用越来越依靠 AI,这种结构就会拖后腿。所以问题不是 AI 才能不强,而是你是否愿意从底层从头构建产品,让 AI 成为“第一用户”。
另一个很常见的问题是——运用没有暴露足够多的“操作阐明”给模型运用。举个比如,当你让模型帮你做点事,它说“我做不到”,但实践上是你没有规划好接口,让它能够调用这些功用。这本质上是规划问题:你是先造了个 GUI,然后再把 AI 贴上去;但其实,你应该是先考虑 AI 怎样用它,让 AI 成为你的产品的“首要运用者”。