炒作机器正在稀释Agentic AI

警惕!“Agentic AI”被滥用?真Agentic AI需具备自主决策能力,超越传统自动化和聊天机器人。自动推理是基石,宪法AI是道德约束。“AI驱动”别成“炒作驱动”,企业需警惕LLM失控风险,构建负责任的AI伦理策略,避免“AI幻觉”,在云原生时代实现真正智能!

译自:The Hype Machine Is Diluting Agentic AI

作者:Glenn Nethercutt

每一个重大的技术突破都伴随着一定程度的误解,无论是偶然的还是故意的。我们以前就见过这种情况:云化的软件托管在别人的服务器上,或者“AI驱动”的解决方案只不过是美化了的if-then语句。现在,同样的模式正在Agentic人工智能(AI)中上演——这个概念本应标志着AI能力的变革性转变,但却越来越被营销炒作所稀释。Agentic AI具有开创性,但许多组织在没有提供定义真正Agentic AI的真正智能和自主性的情况下,将此标签应用于他们的产品。

Agentic AI不仅仅是另一层自动化。它不是一个带有一些额外决策树的聊天机器人。它当然不是一个改名的工作流引擎。真正的Agentic AI以自由的方式运行,解决动态的、非确定性的问题,并在不依赖于严格的、预定义的路径的情况下执行。

称之为Agentic并不能让它变得智能

在追逐AI淘金热的竞赛中,我看到企业劫持了“Agentic AI”这个术语,将其简化为仅仅是增强的脚本。这不仅具有误导性,而且破坏了真正的AI进步。

我曾经看过一个演示,其中一个供应商推销他们新的“自主代理”。几分钟后,我就能看出这不是Agentic AI。它只是一个具有更漂亮界面的聊天机器人,采用闪亮的新包装。购买这种炒作的公司期望获得自适应的、具有决策能力的AI,但他们得到的是僵化的、基于规则的自动化,一旦面对复杂的、现实世界的问题,就会崩溃。

那么,如何将真正的Agentic AI与营销海市蜃楼区分开来呢?这很简单。它能否做出超出明确编程的决策?如果系统仅仅遵循工作流程并触发预定义的响应,那么它就不是Agentic。它只是用AI品牌包装起来的旧自动化。

Agentic AI的目的是思考,那么为什么这么多系统只是遵循规则?

多年来,企业一直依赖AI来自动化任务、加速工作流程和大规模分析数据。以我的经验来看,今天的大多数AI并没有思考。它只是以更复杂的品牌执行预先编程的响应。传统的聊天机器人和虚拟助手遵循基于预定义路径和可预测目的地的僵化脚本。这些狭隘的能力通常会导致客户服务中无尽的挫败感和死胡同。

真正的Agentic AI远远超过今天的聊天机器人。它不会生成文本或执行基本命令。它能理解、即时适应并以其自主性行事。

考虑一个简单的客户服务场景,涉及互联网中断

一个标准的聊天机器人会问:“您是否尝试重新启动路由器?”如果它找不到脚本化的响应,则会升级到人工。

一个真正的Agentic代理会自动检测您所在地区的中断,检查您的帐户历史记录,主动为您的不便记入账单,在需要时安排技术人员,并让您随时了解最新情况。所有这些都不需要您提出要求。

这就是区别。

Agentic AI背后的智慧

如果Agentic AI是我们的体验架构师,那么自动推理就是基础。它是AI的一部分,可确保每个决策不仅是可能的,而且是可证明的。还记得你在大学里上的逻辑或数学课吗?证明对于表明你过程中的每一步都是万无一失的都是必要的。现在将其应用于AI决策。

自动推理有助于防止AI的幻觉——AI得出错误结论的时刻。它根据一组约束验证每个操作,以保护一致性和可靠性。

宪法AI:为负责任的创新设定界限

Agentic AI的巨大力量需要控制,而宪法AI是保持其受控的规则制定者。它是Agentic技术的道德支柱。一个分层框架,为AI系统提供安全性,使其在法律、业务标准和人类道德所划定的范围内运行。 去年,我亲眼目睹了一场公关噩梦:一家大型航空公司的聊天机器人向客户提供了不准确的定价信息。我立刻意识到,随着各品牌争相在没有适当的检查和平衡的情况下部署不成熟的人工智能,这将在客户服务方面成为一个日益严峻的挑战。通常,公司所定义的势头会迅速演变成混乱。

我预计完全不受约束的LLM不可避免地会对企业造成无法弥补的损害。没有护栏的速度就是混乱。我认为技术领导者不应该追逐混乱,而应该有节奏地建设。

这就是宪法式人工智能的用武之地。宪法式人工智能的独特之处在于其适应能力。策略可以在多个层面上进行定制,从广泛的组织规则到特定国家的法规。这种方法在确保合规性的同时,还能满足细微的需求。这个过程中的一个关键挑战是在灵活性和严谨性之间取得平衡。例如,一个组织可能需要人工智能来讨论敏感话题,而另一个组织可能完全禁止这样做。宪法式人工智能创建了一个尊重两者的结构。在宪法式人工智能框架中,监督式人工智能模型(传统人工智能的较小、精简版本)会监督较大的系统。这些模型充当道德守门人,以帮助确保没有任何底线被突破。它们并非无所不知,但也不需要如此。它们的工作很简单:毫不例外地执行规则。

速度很容易实现。但我们需要在结构化的前提下进行快速创新。

策略和人工智能伦理:制定参与规则

如果没有健全的伦理策略,自主人工智能可能会失控。政策制定者、企业和技术领导者之间迫切需要合作,以界定自主人工智能可以做什么和不能做什么。

策略框架应该是多方面的,首先是制定全球原则以防止偏见和幻觉。区域调整将有助于遵守当地法律和文化规范,而行业特定规则可以满足独特的运营需求。该系统允许人工智能负责任地运行,而不会过于严格。

但这里有一个问题:策略需要细微差别。过于宽泛的限制可能会适得其反。

最近,我和同事们讨论了人工智能如何完美地遵守规则,但仍然无法满足人类的期望。我使用的一个例子是,人工智能代理关闭了与需要心理健康支持的人的对话。由于其限制性编程,该代理会转移关于自残的评论,而不是提供同情和帮助。

这种情况提醒我,许多现实情况永远无法放入预定义的框中。为了使人工智能能够安全且合乎伦理地运行,我们必须设计能够推理和理解的自主人工智能代理,以便在最佳行动方案需要他们编写自己的规则时采取行动。

为什么你不能伪造自主人工智能

现在,我们正处于人工智能发展的一个决定性时刻。一条路是我们可以追求高效但可预测的人工智能。另一条路呢?真正的自主人工智能,它不仅能做出反应,还能在智能护栏内进行推理、适应和独立行动。自主人工智能是指引我们进入真正决策智能的地图。它是一个数字助理遵循指令和一个数字策略家自主应对复杂性之间的区别。

构建它有正确的方法,也有偷懒的伪造方法。如果你的AI没有做出超出预先编写的工作流程的独立决策,那它就只是另一个被过度炒作的工具。你不能在自动化上涂上一层新油漆就称之为杰作。

Posted in aiTagged

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注