生成式AI只有掌握这四个基础才能发挥作用

生成式AI可以改变您的业务——但前提是您打好了正确的基础。通过HBR、毕马威等专家的真知灼见,学习必要的知识。

译自 GenAI Won’t Work Until You Nail These 4 Fundamentals,作者 Henry Bassey。

如果你认为生成式AI (GenAI) 是“彻底变革”你业务的终极解决方案,那就再想想吧。媒体报道可能将其描绘成我们这个时代的蒸汽机 或一根削减成本和推动创新的魔杖,但现实情况是,低效率、不可预测的输出和代价高昂的实验将无法为大多数组织带来成果。

事实是,GenAI并非速效药。如果没有明确路线图、干净的数据、强大的治理和乐于拥抱变化的企业文化等坚实的基础,它就会成为另一个夸大其词、最终却无法兑现承诺的技术潮流。许多公司正在积极推进,但很少有公司能做到正确。

那么,贵组织处于什么位置?你们是在为长期成功而努力,还是在重复着与其他人相同的错误?是什么将追逐炒作的采用者与那些真正实现GenAI潜力的公司区分开来?

本文将揭示有效使用GenAI的四个基本要素,这些要素得到了哈佛商业评论 (HBR) 和毕马威的行业调查以及行业领导者的专业见解的支持。你将获得一份克服这些挑战的蓝图,更多可操作的见解可在这份由Boomi赞助的综合HBR报告中找到。

关键要点:

清晰的路线图: 通过优先考虑可行、高价值的用例,将GenAI与业务目标保持一致。 坚实的数据基础: 清理和整合数据,以构建可扩展且准确的GenAI模型。 强大的治理: 制定负责任的AI政策并进行审计,以降低风险。 支持GenAI的企业文化: 教育团队并鼓励跨职能协作以实现一致性。

阻碍GenAI发展的核心问题

了解GenAI的核心挑战是构建可持续GenAI战略的第一步。

许多组织追逐炒作而非价值

组织往往因为兴奋而不是战略意图而跳入GenAI的浪潮。迫切需要显得创新或赶上竞争对手,导致在没有明确目标的情况下仓促实施。

他们将GenAI视为“闪亮的新[玩具]”,正如Charli AI的首席执行官Kevin Collins 恰如其分地指出的那样,但现实的检验来得又快又猛:“获得那个闪亮的新玩具既昂贵又复杂。” 仅2023年,财报电话会议上就提到了超过30,000次AI,这表明人们普遍热情高涨,但却常常缺乏必要的明确目标。

毕马威2023年的一项调查显示,19%的组织缺乏关于GenAI采用的可靠的商业案例。这种缺乏重点的做法,将一项可能具有变革意义的技术变成了一个与业务目标不符的代价高昂的实验。

数据质量差和数据孤岛限制了GenAI的潜力

缺乏战略清晰度并不是唯一的障碍。即使组织设法确定了一个商业案例,他们也常常发现自己被另一个普遍存在的问题所束缚:他们的数据

杂乱无章的数据 阻碍了组织超越入门级用例的能力。数据孤岛、不一致的格式和不完整的记录造成了瓶颈,阻止了GenAI交付其承诺的价值。在HBR白皮书中,佐治亚理工学院IT管理学教授Maryam Alavi表示:

“大型企业尤其存在数据孤岛、同一数据的不同版本、不同的数据元素命名方法、不同的格式以及海量且高速的数据。数据需要在各个方面得到更好的管理——[无论是]集成、安全问题、隐私、访问控制——而不是过去那样。”

超过87%的高管认为数据孤岛和数据不一致是重大障碍,这说明了一个令人警醒的故事。如果没有干净、协调的数据管道,GenAI模型就无法扩展或有效运行。

缺乏治理会造成风险和低效率

薄弱或不存在的治理结构 使公司面临各种道德、法律和运营风险,这些风险可能会破坏其GenAI目标。

根据Info-Tech Research Group调查的数据,只有33%的生成式AI使用者实施了明确的使用策略。这种缺乏监管的做法使得幻觉、偏差和不准确的输出等风险无法得到控制,从而造成潜在的监管和声誉风险。

负责任的AI原则(涵盖公平性、透明度和问责制)往往是被事后考虑的,导致系统与组织价值观不符或不符合法律要求。

文化阻力和不信任感减缓了进展

仅靠治理框架无法解决组织面临的更深层次的人为挑战。公司内部的文化动态往往会造成障碍,任何技术上的精确性都无法克服。

领导者可能会高估自己对生成式AI的理解,根据Alteryx的研究,2023年67%的董事会成员将他们的理解评为“高级”或更好。然而,这种信心很少转化为知情的决策,导致战略目标与实际情况脱节。

另一方面,员工往往持怀疑态度。对许多人来说,生成式AI更像是一种威胁而不是工具,引发了对工作岗位流失或对其输出不信任的担忧。难怪在HBR的研究中,24%的组织将内部阻力列为主要障碍。

这些截然不同的观点——领导者积极推进,员工却退缩——导致了文化上的拉锯战。如果没有一致性,生成式AI的采用就会成为另一种被曲解的善意努力。

释放生成式AI潜力的关键解决方案

尽管存在这些挑战,许多组织仍在采用生成式AI,主要用于一些简单的用例,例如客户关系管理(CRM)软件增强或AI生成内容。但这够了吗?那些准备长期成功的组织正在为高级用例做准备,并采取一种由以下四个基本要素支持的整体方法:

1. 制定可持续和可扩展的生成式AI采用路线图

为生成式AI的采用制定路线图需要一种结构化的方法来评估和优先考虑用例。在HBR白皮书中,Infosys副总裁兼CXO顾问建议根据六个维度评估用例,以确定最有可能产生价值的用例:

  • 业务有效性和可行性:评估用例是否与战略目标一致,以及是否可以实际实施。
  • 量化的业务价值:衡量潜在的影响,例如成本节约或收入增长。
  • 数据准备情况:确定必要的数据是否干净、可访问且已协调。
  • 负责任的AI一致性:避免跨越伦理或监管界限的用例。
  • 文化准备情况:评估组织采用和扩展用例的能力。
  • 成本:平衡预期回报与所需投资。

专业服务公司Earley Information Science的创始人兼首席执行官也在报告中提请注意,关注差异化因素(如商业模式创新或创意生成)以推动竞争优势的重要性。从低风险、高影响的用例开始,可以建立势头,并为高级应用程序做好准备,从而实现长期可扩展性和增长。

2. 为生成式AI的成功构建坚实的数据基础

“你的业务将运行在这些模型上,它们将进行预测。因此,它们最好能做到准确无误,因为是‘垃圾进,垃圾出’。” — Kevin Collins, Charli AI

为了释放生成式AI的潜力,必须解决Arora推荐的五个关键数据准备维度:

  • 数据准备情况:清理和协调数据以消除数据孤岛和不一致性。
  • 模型效力:评估模型与业务需求的匹配程度并改进输出。
  • 用例价值:衡量生成式AI在特定场景中的影响,例如更快的入职或编码效率。
  • 战略一致性:评估生成式AI计划对更广泛的业务目标(如收入增长或运营改进)的贡献。
  • 法规遵从性:监控数据隐私、安全和道德标准,以减少责任并保持信任。

将这些维度与数据准备情况审查、元数据标准化和系统集成等行动相结合,将完善您的数据生态系统,并使您的组织能够有效地扩展生成式AI。

构建这个基础还需要对员工进行技能提升,与供应商合作,并招聘具有技术和解决问题能力的个人。

3. 建立治理以降低风险

为了构建强大的治理框架,您应该:

  • 制定负责任的AI原则: 制定强调数据隐私、公平、问责制和透明度的政策。“系统必须避免在流程中引入偏差,并且对个人和社区具有包容性和尊重性,”HBR报告建议道。
  • 组建跨职能团队: 召集IT、法律、业务领导者和最终用户共同创建和监督治理政策。Info-Tech Research Group的AI研究员建议在整个组织中分配责任,以更好地应对AI风险。
  • 定期进行审计和影响评估: 测试模型的合规性,评估输出并改进流程,以保持与道德和监管标准的一致性。
  • 建立经过测试的用例库: 建议建立“黄金标准用例”基准,以确保政策合规性和运营成功。完善的治理方法可以防止责任,并将生成式AI定位为值得信赖且可扩展的组织工具。

4. 建立拥抱生成式AI的文化

Babson学院教授建议组建跨职能团队:“公司应该有一个小组,也许是一个AI指导委员会,不仅由技术人员组成,还包括在业务方面对[生成式AI]有所了解的人员。”

构建支持生成式AI文化的关键行动:

  • 教育领导层和员工: 就生成式AI作为增强工具而非替代人类专业知识的角色提供连贯的指导。
  • 建立集中领导: 创建卓越中心(CoE)或指定首席AI官来指导战略、治理和采用流程。
  • 鼓励跨职能参与: 让IT、人力资源、风险管理和业务部门参与生成式AI计划的制定和执行。

协作方法弥合了领导层和员工之间的差距,建立信任并使组织目标与生成式AI的潜力保持一致。

总结

生成式AI拥有改变组织的巨大潜力,能够推动创新,简化工作流程并推动新的商业模式。但是,实现这些益处需要的不仅仅是热情。如果不解决这四个根本性差距,即使是最雄心勃勃的生成式AI项目也可能成为代价高昂的实验,无法带来有意义的价值。

您的组织是否已准备好进行必要的投资以建立可持续的、可扩展的生成式AI计划?本文仅触及解锁生成式AI变革力量所需内容的表面。

要更深入地了解如何克服这些挑战并获得更多可行的成功策略,请采用Boomi赞助的这份综合HBR报告中的见解和专家建议。

Posted in aiTagged

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注