仅只有未实名的,新媒易不收取任何费用,公益非盈利机构
24小时服务热线: 4000-162-306
请扫码咨询

新媒易动态

NEWS CENTER

AGI通用人工智能的概念被Mark Gubrud首次提出

2025-04-17

1997年,AGI——通用人工智能(Artificial General Intelligence)的概念被Mark Gubrud首次提出,若干年后,当波士顿动力的Atlas机器人完成360度空翻,当deepseek写出《基地》风格的小说,咱们突然意识到:那些散落在技能发展长河里的七颗龙珠,正拼凑出AGI神龙的完整图腾。

第一颗龙珠:人脑模拟器——神经网络

咱们才智的源泉——大脑,是一个由亿万神经元交织而成的精密网络。第一颗“技能龙珠”,正是对这生物奇迹的精妙仿照:人工神经网络(ANN)。科学家们测验用计算机代码和数学模型,搭建起一个虚拟的“神经元”网络,希望以此复刻大脑处理信息、学习常识的才能。

简略来说:

幻想一个多层信息处理流水线。数据从“进口”(输入层)进入,流经多个“加工站”(躲藏层),每一站都对信息进行特定的剖析和转化,终究在“出口”(输出层)得到成果。层数越多(也便是“深度学习”),处理就越复杂精密。

前史印记:

这个想法虽由来已久,但真正让它从理论走向实用,离不开计算机算力的爆破式增加和算法的不断优化。它构成了现代人工智能的基石。

实际事例:

你手机里的相册能主动给相片按人物分类,或者你用美图软件进行“一键美颜”,背面都是神经网络在精准识别和处理图像特征。语音助手能听懂你的指令,也是神经网络在解析声响信号。它是构建智能体系的“神经”基础。

第二颗龙珠:赛博藏经阁——向量数据库(Vector database)

光有“大脑结构”还不够,还需求高效存储和检索海量常识的“回忆库”。传统的数据库经过精确的关键词查找,但很难了解“意思附近”或“概念相关”。第二颗龙珠——向量数据库(Vector Database)——应运而生,它像一个“赛博藏经阁”,用全新的方法安排和管理常识。

简略来说:

它不存文字本身,而是把文字、图片、声响等信息转化成一串串数字(称为“向量”或“嵌入”),这些数字能标明信息的“含义”。意思附近的信息,它们的“向量”在数学空间里的距离就更近。查找时,它不是找完全匹配的词,而是找“意思最相关”的内容。

类比一下:

就像图书馆不再按书名首字母排序,而是按“主题内容”把类似的书放在一起。你想找关于“太空游览”的书,它能把一切相关的科幻小说、科普读物、甚至纪录片信息都快速推荐给你。

实际事例:

很多AI应用(比方智能客服、文档问答体系)需求快速从庞大的常识库中找到最相关的答案,它们越来越多地依赖向量数据库。比方现在盛行的RAG(Retrieval-Augmented Generation)技能,便是让大言语模型先去向量数据库这个“藏经阁”里查找相关资料,再结合这些资料生成更精确、更牢靠的答复。它是AI拥有“长时间回忆”和“常识检索”才能的关键。

龙珠:机器注意力——Transformer

要让机器真正了解人类言语的奇妙之处,比方上下文、潜台词、一语双关,需求它具有超凡的“阅读了解”才能。第三颗龙珠——Transformer架构,特别是其中心的“注意力机制”(Attention Mechanism),就赋予了机器这种近乎“读心术”的才能。

简略来说:

Transformer在处理一个词时,能同时“关注”句子中一切其他词,并判别哪些词对了解当前词的意义最重要,给予更高的“注意力权重”。它不再是死板地按顺序读,而是能动态捕捉上下文的关键信息。

革命性影响:

自从2017年《Attention Is All You Need》论文发布以来,Transformer就成为了自然言语处理领域的肯定主角,催生了GPT、BERT等一系列强壮的预练习模型。

实际事例:

你和大模型聊天时,它们能了解你的意图,记住之前的对话内容,并生成连贯、相关的回复,很大程度上得益于Transformer强壮的上下文了解才能。Transformer让机器的“情商”和“智商”都大幅提高。

第四颗龙珠:考虑方法论——CoT(Chain-of-Thought)

仅仅“能说会道”还不够,AGI还需求具有谨慎的逻辑推理才能。第四颗龙珠——思想链(Chain of Thought, CoT)技能,便是教AI怎么“考虑”,怎么一步步地剖析问题,而不是直接“猜”答案。

简略来说:

就像咱们做应用题时,教师要求写出详细的解题步骤相同。CoT引导模型在答复复杂问题(如数学题、逻辑推理题)时,先生成一步步的剖析进程,展示其“考虑轨迹”,然后再给出终究答案。

作用验证:

Google等机构的研究标明,经过CoT提示,大模型在需求多步推理的使命上表现显著提高。因为它仿照了人类“由浅入深、按部就班”的考虑方法。

实际事例:

问deepseek一个需求推理的问题:“一个篮子里有5个苹果,小明拿走2个,又放回1个,请问篮子里现在有几个苹果?请说明理由。” 支撑CoT的模型会答复:“开端有5个。拿走2个,剩余5-2=3个。又放回1个,现在有3+1=4个。所以篮子里现在有4个苹果。” 这个“考虑进程”让成果更可信,也更简单发现潜在过错。

第五颗龙珠:专家集结令——MOE架构

随着模型参数量爆破式增加(动辄千亿、万亿),练习和运转成本也成了巨大担负。第五颗龙珠——混合专家(Mixture of Experts, MoE)架构,采用了一种“分而治之”的战略,组建了一个高效的“专家智囊团”。

简略来说:

MoE不再是练习一个庞大而全能的模型,而是同时练习多个相对小型的“专家网络”,每个专家拿手处理某一类特定使命或数据。当新使命来暂时,一个“门控网络”(Gating Network)会智能地判别应该激活专家来协同处理,而不是每次都动用全部资源。

相关推荐