Nutanix 正在通过为基于 Kubernetes 构建的操作提供 AI 驱动的解决方案,来扩展其对云原生的支持。
译自 Nutanix Gives an AI Push to End Kubernetes-Adoption Issues,作者 B Cameron Gain。
西班牙巴塞罗那 — Nutanix 的高管表示,其人工智能辅助流程和工具(面向开发人员、管理员和首席信息官)将为用户组织提供简化的平台和工具。但现在,Nutanix 当然正在积极地利用人工智能扩展其 云原生 支持。
为了实现其历史目标,Nutanix 的工作需要涉及为开源采用和基于开源构建的服务构建势头,以便采用和提供 人工智能驱动的解决方案,用于基于 Kubernetes 构建的操作。这并不是说 Nutanix 在采用和为开源社区做出贡献方面落后了。但至少对于 Kubernetes,Nutanix 的新 Nutanix Kubernetes 平台 (NKP) 的路线图大量涉及 Kubernetes 支持。
该平台结合了 Nutanix 的 Kubernetes 引擎和主要功能,即 D2IQ 产品系列,Nutanix 于 2023 年收购了该系列。D2IQ 之前是 Mesosphere,由 Nutanix 的云原生高级总监兼总经理 [@nutanix] 托比·克瑙普 ( [@mesosphere] 联合创始人) 共同创立。
其理念是帮助用户更轻松地启动并运行 Kubernetes,并以过去无法实现的方式管理 Kubernetes — 利用自动化的 AI 输入和平台承担相关采用和管理任务的能力。这些功能在很大程度上源自 Mesosphere 项目,最终应该涵盖集群管理。由于 Nutanix 传统上一直致力于帮助其用户更好地管理存储、数据管理和操作的复杂性,因此 NKP 不仅支持和自动化云原生任务,还支持和自动化其提供的全部工具和服务。除其他事项外,云原生支持将帮助组织的非专家资源。平台工程 团队是目标用户之一,因为该平台适用于团队成员的混合开发人员和运营角色。
在安装和采用后,管理 服务网格、负载均衡和网络堆栈是 Kubernetes 相关任务,任何非专家可能都不想尝试。相反,这些流程会通过 NKP “实现自动化”,Nutanix 首席执行官 Rajiv Ramaswami 在 .NEXT 2024 期间的一次一对一采访中告诉 The New Stack,这是 Nutanix 的年度用户会议。拉马斯瓦米表示:“从广义上讲,通常情况下,对于新技术,最初会产生兴奋感,然后会逐渐消退,然后你会达到一个临界点,由业务案例和投资回报驱动的实际应用变得普遍。”“Kubernetes 将继续变得越来越重要,并成为我们所做一切的关键。”
Nutanix 的平台已经解决了与多个云供应商合作时的许多兼容性问题。对于采用不同的环境及其 存储管理,NKP 会完成专家的工作。Ramaswami 确认,管理员将能够在各种环境中操作 Kubernetes,而无需聘请其他专家。
Ramaswami 表示:“这简化了管理员的生活,让他们能够使用单个工具跨 AWS、Azure、本地等管理 Kubernetes 集群。”“它还自动执行了使这些 Kubernetes 集群启动并运行所需的许多工作流。”
通过提供和允许选择,我们看到企业 IT 满足了各种偏好,包括云原生和非云原生。Lee Caswell,Nutanix 产品营销高级副总裁,说道。“我们正在多个不同领域以类似的方式进行这项工作,”卡斯韦尔说道。“这种方法使我们能够保持必要的灵活性,并支持各种开发环境。”
Kubernetes 是一种有效的标准,但 IT 管理员和开发人员工作的开发环境各不相同。卡斯韦尔说道,有人说:“我想使用 Red Hat OpenShift,而另一组人更喜欢 Docker,另一组人可能正在使用 Rancher 或使用 EKS。”“当您卸载这些部分时,我们现在所做的基本上是告诉我们的基础设施所有者,‘嘿,你现在拥有它了。您可以帮助您的开发人员访问 Kubernetes 容器,”卡斯韦尔说道。“我们将继续提供他们所需的自由度。”
在某些方面,Nutanix 的 NKP 平台涵盖了可观察性。它提供了对环境(云原生和非云原生,包括本地环境)的性能和安全性的操作见解,AI 聊天机器人 用于故障排除。同样,即使对于一组非 Kubernetes 专家来说,这也是一项繁重的工作。
“很多时候,技能差距是一个真正的问题,”克瑙普告诉 The New Stack。“这些工具共同帮助您立即转变为 Kubernetes 平台工程师,帮助您避免许多常见错误,并根据最佳实践构建您的环境。”
在 .NEXT 2024 期间,Nutanix 在 Kubernetes 基础设施的演示中展示了其 AI 驱动的自动化在实践中还能做些什么。由于很难找到一家软件供应商至少不敷衍地对待其 AI 功能——这些功能通常比没有更敷衍——Nutanix 在会议期间的主题演讲演示中进行了演示。
拉马斯瓦米说,在简单而精确的工作中,演示展示了“如何快速完成许多事情”。当涉及多个步骤时,LLM 变得至关重要。Nutanix 的 AI 平台会自动从存储库中提取 LLM,其中包括 Nvidia 或 Hugging Face 提供的 LLM。用户下载平台并将其附加到硬件,然后将 LLM 连接到客户的应用程序。
在构建 AI 应用程序时,“有很多活动部件”,Nutanix 技术营销总监 Laura Jordana 在她的演示中解释道。它们包括具有计算存储、GPU、Kubernetes 平台、LLM 模型和推理服务器的基础设施层。需要对模型和数据进行访问控制。“然后是需要开发的应用程序,”Jordana 说道。
Jordana 说,Nutanix 提供帮助的方式与我们自动化管理“您的存储和计算”的许多复杂性相同。“我们正在对 GenAI 做同样的事情……Nutanix 云平台的基础是我们的数据服务,”她说。“使用 GPT-in-a-Box 2.0,我们正在自动化创建这些模型和不同端点所需的所有部分。”