与所有技术一样,Agent的概念,已经踏入了Gartner的技术成熟度曲线图:正处于技术萌芽期,即将迈入技术膨胀期。
1. 技术性概念。AI Agent是 “以大语言模型为大脑驱动的系统,具备自主理解、感知、规划、记忆和使用工具的能力,能够自动化执行完成复杂任务的系统。(-百度百科)。
2. 从大模型到Agent。到2025年,大模型预训练已经出可实用的成果了,并且也已遇到一些“墙“了(尤其是数据墙,继续训练的边际效应不明显了),从“百模大战”转向“一模千花”了,工作重点从预训练(研发),正在转向推理(运维)和应用(Agent)了。
3. 精妙与祸根。AI Agent是个精妙的概念,借用了经济学中“理性代理人”的概念,可简单(如温控器)也可复杂(如人、企业、国家、生物生态)。它巧妙地回避了AI中诸多的重大争议,比如不用讨论人类智能与人工智能的区别,不用讨论真实智能与模拟智能的区别,不用明确机器要有思想和意识,不用讨论机器是否真正理解问题等:目标导向的行为就是智能。与此同时,这种回避也为Agent泡沫的兴起和未来不及预期的结果埋下了祸根。
4. 不止是AI。现在的Agent具体指AI Agent,更具体指LLM Agent。但即使是在计算机世界里,也已经存在诸多的Agent了,比如:软件Agent,网络Agent,移动Agent,用户Agent,安全Agent,游戏Agent,多Agent和云Agent等。
5. Agent washing。Gartner的研究指出,已经出现了一种被称为“Agent Washing”的现象,某些供应商可能会夸大其产品的功能,通过重新品牌化现有技术为AI Agent,然而实际上却未能验证这些声称的真实Agent能力。典型地如,把大语言模型包装成AI Agent,把子程序执行的任务包装成 AI Agent,把RPA工作流任务包装成 AI Agent,把各种对话助手包装成AI Agent等。事实上,“washing”就是业界一些企业常用的“新瓶装旧酒”的手法,在AI时代的新版本。
6. 本质性冲突。Agent是基于大语言模型的,但大模型的本质是压缩,Agent的本质是交互与执行,二者的结合会面临一些根本性的矛盾。一是模型与环境的脱节,大模型通过压缩海量数据获得知识,但这些知识是静态的,而AI Agent需要在动态环境中实时交互和执行任务,模型可能无法充分理解或适应复杂、多变的环境。二是实时性矛盾,大模型通常需要大量计算资源,而AI Agent需要在实时场景中快速响应。三是透明性,大模型通常是“黑箱”和幻觉,而AI Agent在执行任务时可能需要向用户或监管机构提供透明的决策依据。四是大模型可能继承训练数据中的偏见,而AI Agent在交互和执行中可能放大这些偏见。
7. 终极目标的对齐。目标之上还有潜在的更高级的目标,什么是终极目标?如何确保AI Agent的目标与人类价值观和需求对齐?如何觉察出Agent的目标背离了人类的终极目标?如何让人类熟悉和控制机器陌生的思维和行为方式?如发现目标不一致时,及时自我修正和相应的机制?
8. 技术性概念不技术。“自主理解”、”感知”、”规划”、”记忆”、”使用工具”、”复杂任务“等,在前面的这个技术性定义中,包含多个很难做技术性定义的子概念,难以用机器语言加以描述。
9. Agent泡沫的演化。根据本人7之痒的理论,2012-2018是深度学习周期,2018-2025年是大模型周期,2025-2032年是Agent周期。而在 Agent周期内,2025-2027年将是Agent的膨胀期,2027-2030年是泡沫顶峰,2030-2032年泡沫破灭。
10.后Agent时代。大约会在2030年甚至更早,Agent泡沫破灭。泡沫后,会留下Agent概念中真正有价值的一些内容,证伪那些夸大其词的部分。到2030年前后,如果Agent的概念被被实了,应该会出现“下一代Agent“,”Agent2.0“,或者别的继承性概念。如果到2030年前,Agent的概念已经被证伪了,就会避讳Agent的说法,从大模型重新出发,比如AI 平台、AI 服务、AI 增强人类 、 AI 虚拟实体等概念流行了起来。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...