超模态AI助力DevOps自动化进入快车道

建立在因果推理、预测分析和生成模型上的超模态AI,其精准运算法则可能会成为真正的游戏规则改变者,极速推进DevOps的自动化进程。

译自 Take DevOps Automation to Hyperspeed with Hypermodal AI

由大型语言模型(LLM)驱动的生成式AI正处于巨大的营销热潮——这也确实值得期待。但过度营销也导致供应商为提升销量而过度包装其AI解决方案,因此识别热潮和真正价值至关重要。许多组织还在探索LLM的应用范围,而DevOps团队已经发现了一些高效利用LLM提升软件交付价值的方法。

生成式AI最令人振奋的可能在于其自动在线研究的能力,可帮助开发者寻找代码片段或解决问题的指导。LLM可以在其训练的公共历史数据源中找到信息,也可以访问网站并总结信息提供更新的答案。

提示的重要性

如果DevOps团队想大规模地在软件开发中应用LLM,他们需要通过提供特定的环境背景来精准提示。若提示不够严谨,AI输出将变得模糊和泛泛而谈,只能给出无用的建议如“CPU利用高就买更快的硬件”。

由于LLM本质上是概率性的,它们无法提供系统状态和问题根源的精确分析和上下文。因此,DevOps团队还需要因果推理和预测分析等互补技术,使LLM能提供精确的响应。只有这样,团队才能基于包含实时系统信息和对未来场景准确预测的响应,有信心推进DevOps自动化。

生成式AI潜力无穷

生成式AI在提升DevOps团队生产力方面蕴藏巨大潜力。它可以对提供足够场景的提示作出响应,加速数据访问、配置、工作流定义和自动化代码开发等许多任务。例如,LLM可以从GitHub等网站训练用数据中生成代码片段,并在网络上搜寻Stack Overflow等开发者社区已解答的常见问题。许多DevOps团队已经熟悉GitHub Copilot,它可以在开发者注释提示下生成代码。

这些应用可以让DevOps团队专注于更高层的战略和任务,如改进软件架构和规划新功能,而不是重复普通工作。如果提示包含足够场景和上下文描述IT环境实时状态及其组成部分之间的关系和依赖性,生成式AI也可以帮助DevOps团队更快定位发现的问题。

清除使用生成式AI的障碍

但是,将LLM集成到组织的软件开发工具链中也带来新挑战。第一个是实现有意义响应的难题,需要团队构建包含精确场景的提示。克服此技术障碍后,还有理解知识产权和许可限制如GPL的含义,因为LLM可能由开源库数据训练。这带来团队可能无意中以违反这些限制的方式重新使用专有代码的风险。

DevOps团队的非公开数据提示也可能无意中泄露专有知识产权或违反GDPR等隐私和安全法规。因此使用专门构建以符合安全和隐私标准的LLM至关重要。

LLM“幻觉”也是一个已知风险,它可能生成不准确、不一致甚至虚构的语句,因为LLM无法区分虚实。当提示不明确或超出LLM训练范围时,这一挑战尤为明显。LLM可能最终发明不符合编程语言规则的新语法导致坏掉的代码。

超模态AI是成功关键

这些缺陷意味着总需人工验证生成式AI洞见。需要参照源数据验证LLM输出的真实性。给定LLM处理的数据和任务量,每流程人工干预不现实,也无法实现生成式AI在DevOps自动化中的潜力。但是,将生成式AI与基于事实的因果和预测AI相结合形成超模态AI,可以极大地加速解决这些问题。

因果AI观察系统组件关系并解释依赖性和行为原因。预测AI通过分析历史数据模式如工作负载趋势、用户行为、系统容量和应用运行状况,可以进一步增强这一点,以预判并防止未来问题。

DevOps团队可以结合洞见提示获取修复建议,甚至生成新的自动化修复模板工作流。在大型企业IT环境中,每秒必须从海量异构数据点中提取所有场景,包括依赖、会话、指标、跟踪、日志、代码、部署等。手动处理不可扩展,因此必须自动化场景萃取和提示输入。

LLM和因果AI的结合可以释放DevOps团队更关注如创造新功能的高层挑战,同时大幅缩短开发和测试时间。组织已经看到LLM本身可以极大提升软件创新,而建立在因果、预测和生成AI上的超模态AI精准度,可能会是真正的游戏规则改变者。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注