AI原生开发迎来新范式!模型上下文协议(MCP)如LLM的USB-C,连接代码与云基础设施。Firefly MCP Server赋能AI Agent访问实时云数据,实现IaC自动化、智能修复,提升开发者效率,构建更智能的云原生系统。
译自:How MCP Puts the Good Vibes Into Cloud Native Development
作者:Eran Bibi
多年来,开发者们第一次表示工作感觉又变得有趣了。
这不仅仅是情感上的表达。这是 AI 原生工作流程极大地重塑开发体验的结果。借助像 Cursor 这样的 AI 代码编辑工具,大型语言模型(LLMs)不再是外部助手;它们嵌入到集成开发环境(IDE)中,与开发者并肩工作,减少摩擦,消除重复模式,并将上下文保留在它所属的位置:编辑器中。
这种方法,被广泛称为 vibe coding,优先考虑创造性的流程而不是样板代码。它不是为了生成更多的代码行。相反,它是为了减少花在那些没人想写的代码上的时间。这对于开发者如何工作、协作以及对他们的技艺的感受产生了真正的影响。
[深入了解 2025 年 IaC 现状的顶级趋势和最令人惊讶的发现。立即注册并计划参加我们的特别活动。]
在过去的几个月中,vibe coding 已经从好奇变成了核心实践。但即使它改善了软件开发体验,它仍然会遇到一道坚硬的墙。
即使在 AI 优先的工作流程中,应用程序开发仍然与基础设施脱节。虽然你的 AI 助手可以生成 Terraform 代码块或调试代码片段,但它不了解已部署的内容、漂移的内容或已存在的内容。身份和访问管理(IAM)配置、孤立的服务、Kubernetes 状态——所有这些上下文都存在于其他工具中,LLM 无法访问。
这种脱节限制了可能性。AI 工具可能比以往任何时候都更智能,但它们仍然在没有可见性的情况下运行。这就是下一个演进要解决的问题。
围绕 模型上下文协议(MCP) 构建的新一代工具正在改变游戏规则——它是由 Anthropic 引入的开源标准,连接了代码和基础设施,并使代理能够真正访问真实的上下文。
MCP 允许 AI 系统以统一的、可预测的方式与结构化数据源、工具甚至其他代理进行交互。可以将其视为 LLM 的 USB-C:一种通用的接口,使 AI 原生应用程序无需复杂和自定义的集成即可连接到真实世界的系统。
这种方法正迅速成为默认设置。
在实践中,这意味着任何 符合 MCP 标准的产品 都可以立即被不断增长的 LLM 驱动的代理、副驾驶和开发者工作流程生态系统访问。这为广泛的用例打开了大门,从 IDE 中实时的、感知基础设施的代码生成到跨云环境的完全自动化修复。
这种转变对开发者的生产力产生了真正的影响,不仅仅是在速度方面,还在于开发者如何工作。
在传统的开发工作流程中,访问云状态需要搜索、切换工具以及解释跨系统的半结构化数据。它速度慢、容易出错且难以扩展。通过 MCP 集成到像 Cursor 这样的工具中改变了这一点。当 LLM 代理可以在上下文中——在编码会话中——从你的云堆栈中提取准确的、实时的数据时,它可以消除猜测并大大缩短反馈循环。
更重要的是,它将开发者的角色从调查者转变为设计者。开发者可以专注于更高阶的工作——解决问题、优化系统以及充满信心地交付功能,而不是花时间弄清楚存在什么、什么坏了或什么漂移了,因为他们的 AI 系统会支持他们。
这种影响已经可见。像 ZoomInfo 和 Hewlett Packard Enterprise (HPE) 这样的早期采用者正在利用 Firefly 的 MCP 功能,不仅用于应用程序开发,还用于加速平台工程工作流程——从而实现对实时云状态做出响应的 基础设施即代码(IaC) 自动化。
AI原生开发的承诺不仅仅是更快的迭代或更简洁的自动完成;它还包括支持能够推理复杂环境、智能地确定优先级并采取有意义行动的系统。但这个承诺取决于一件事:访问真实数据。
现在是利用 AI 优势的时候了,将其暴露于它可以解析、总结、综合和构建的丰富、结构化和动态的数据集中。这不仅限于代码生成或日志解析。它扩展到运行我们系统的基础设施:策略、权限、工作负载、服务拓扑以及嵌入在整个云中的每个信号。
这就是像 Firefly 这样的 MCP 服务器的用武之地。
这是一个例子:Firefly 已经维护了一个深度索引的云环境实时清单——例如 Kubernetes 工作负载、IAM 配置和 GitHub 集成。到目前为止,这种上下文只能通过仪表板或 API 访问。但在代理驱动的世界中,这还不够。因此,Firefly MCP Server 公开了这些数据,使其可供任何 AI 原生工具或代理使用。它将您的基础设施变成一个实时的、可查询的界面——可以在您的 IDE 中、在像 n8n 这样的自动化平台中,或者在为您的组织构建的自定义 LLM 代理中使用。
像这样的 MCP 服务器的兴起标志着从静态集成到动态互操作性的转变。它不再是关于在断开连接的系统之间推送数据。而是关于使代理能够在共享的真实信息上实时运行。
一旦成为可能,用例就会迅速扩展:
- 能够根据您实际的云状态生成代码的基础设施感知型 Copilot。
- 针对生产配置的设计时验证。
- 由代理触发的自动漂移检测和修复
- 由实时清单和策略逻辑驱动的自我修复系统。
- 使用感知使用情况的上下文进行主动成本和性能优化。
这不仅仅是更好的集成。而是关于释放 AI 原生开发的下一层:云上下文不再是事后才考虑的事情,而是每个代理或开发人员做出的每个决策的基础输入。
这种创新将云从一个黑盒变成一个可用、智能的界面,并为从第一天起就构建在循环基础设施中的新型智能系统打开了大门。
但这只是表面现象。
像 Firefly 这样的 MCP 服务器有望成为云和快速扩展的代理生态系统之间的网关。每个具有 MCP 客户端的 LLM 代理现在都可以与您的基础设施交互——不是通过猜测,而是通过提问。一旦存在该界面,用例就会成倍增加:基于现实的 IaC、代理主导的事件修复、自我修复系统、主动成本优化和设计时架构验证。
这不仅仅是构建更好的应用程序。而是关于构建更智能的系统,其中应用程序逻辑、基础设施状态和 AI 推理不再是孤立的领域。
在这个世界中,云数据不是后端细节;而是一流的输入。
围绕 MCP 越来越多的势头反映了一个更广泛的认识:AI 代理的效用取决于它们可以访问的数据和上下文。Firefly MCP Server 正面应对了这一挑战。它将您现有的云清单变成任何 AI 原生系统都可访问的界面。无论您是构建自定义 Copilot、集成自动化工作流程还是启用 AI 辅助的事件响应,Firefly 都会使您的基础设施数据不仅可见而且可用。
这解锁了一种模型,其中每个 AI 代理都可以感知云——不是通过重新发明您的环境,而是通过插入共享的真实信息来源。这是开发人员与基础设施交互方式的演变:更快、更具上下文且更直观。
随着生态系统的成熟,我们可能会看到越来越多的 MCP 驱动的集成,这些集成将云、代码、协作和自动化整合到有凝聚力的开发人员体验中。
简而言之:这是您云的新界面。
它不仅使开发人员更快,而且更专注、更有能力,并最终更快乐。