翻译自 Open Source Movement Emerging in AI To Counter Greed 。
包括硬件制造商在内的几家公司正在支持新兴的开源运动,以确保 AI 技术便宜且易于使用。
早期的人工智能研究有一种社区氛围——公开分享想法,共同努力改进技术。但随着去年风靡全球的 ChatGPT 的出现,情况发生了很大变化。
谷歌、微软和 Facebook 等科技巨头现在正寻求通过收紧对定义 AI 领域的工具的访问来从 AI 淘金热中获利。他们正在限制对可以回答问题、生成图像和理解口语的工具的访问。
但对一些人来说,尤其是硬件制造商,将人工智能的控制权交给少数富有的科技公司对业务不利。这些公司正在支持新兴的开源运动,因此 AI 技术价格低廉且易于获取。
领先的人工智能公司 OpenAI 是一个著名的叛逃者。该公司成立于 2015 年,是一家非营利组织,旨在促进和分享 AI 研究。它开放了对其大型语言模型的访问,包括 GPT-3,这是 ChatGPT 背后的力量。
但 OpenAI 没有开放其最新的大型语言模型 GPT-4,该模型于上个月发布,并被微软用于其 Bing 搜索。微软已向 OpenAI 投资数十亿美元,OpenAI 于 2019 年成为营利性实体。OpenAI 正在收费接入 GPT-4。
OpenAI 的早期捐助者 Elon Musk 在一条推文中指出,OpenAI 的本意是开源,但“已经成为一家闭源的、利润最大化的公司,由微软有效控制。”可以肯定的是,马斯克承诺向 OpenAI 投资 10 亿美元,但在一场权力斗争后停止了,微软介入提供了急需的现金注入。
开放式 AI 生态系统的一个方面围绕着开放大型语言模型 (LLM) 以供社区进行更密切的审查。除了 OpenAI,科技巨头谷歌、Facebook 和 Nvidia 也在开发自己的大型语言模型并将其部署到硬件中。然而,使用最先进的人工智能工具仅限于研究人员或少数开发人员。
人们担心公开分发的模型被用于邪恶目的。 OpenAI 将安全作为关闭 GPT-4 的理由。出于安全和商业原因,彭博将关闭其最近发布的 Bloomberg-GPT 模型。该模型基于数十年的数据进行训练,这些数据构成了彭博向客户提供的金融服务的基础。
“众所周知,大型语言模型容易受到数据泄漏攻击,有可能根据模型权重提取出大段文本。此外,即使只给研究人员选择性访问,也不能保证模型不会泄漏,”彭博研究人员在详细说明该模型的论文中写道。
研究人员表示,可以通过 API 提供对封闭式大型语言模型的限制性访问,但“即使向研究人员提供选择性访问也不能保证模型不会泄露”。
TensorFlow 和 PyTorch 等开发工具已经开源,但需要 GPU 等高性能硬件才能执行程序。
但越来越多的公司正在加入草根运动以开放大型语言模型,因此专有模型不会主导市场。
硬件制造商正在领先推动开源人工智能的早期发展。Cerebras Systems制造了被认为是世界上最大的人工智能芯片,大小如晶片,上个月发布了具有高达130亿参数的 Cerebras-GPT 模型。
“我们正在开源 weights ,我们正在开源 checkpoints ,我们正在展示并提供完整的配方,以便您可以复制它。我们正在使用最宽松的开源许可证进行此操作,” Cerebras Systems 的 CEO Andrew Feldman 告诉 The New Stack 。
这些模型是 OpenAI 的 GPT-3 的分支,后者具有 1750 亿个参数。 Feldman 对 OpenAI 、 Google 和 Faceboo k越来越专有的方法持悲观态度,并表示 Cerebras 的目标是通过其开源人工智能模型提供一种低成本的替代方案。
“结果的价值越来越大,因此 OpenAI 、 Meta 和其他公司正在将这些模型关闭,不让其他公司使用。这对于生态系统、小公司和大公司来说都是不利的。我认为这是一种努力,试图将这些模型保留在极少数非常大的公司手中,” Feldman 说道。
但他也对科技巨头表示同情,他们公开分享他们的人工智能研究,并且现在正在尝试收回数百万甚至数十亿美元用于培训模型的成本。 Facebook 和 Google 正在耗费数十亿美元升级他们的计算基础设施,包括可以运行人工智能工作负载的 GPU 和其他加速器芯片。
Feldman 表示:“有些商人抬头看着说,‘我们到底为什么要分享这些成果?’”后来又补充说,“所有这些进步都是因为开放性而取得的。现在他们的想法是,嗯,现在可以赚很多钱了。”
Cerebras 的七个人工智能模型可以在任何硬件上执行。但该公司还想利用这个软件来展示其人工智能芯片的性能,这些芯片被认为是世界上最快的之一。
分析人士表示,开源运动正在像 Linux 的发展一样不断发展, Linux 诞生是为了对抗专有操作系统。 Linux 现在是互联网的支柱,并为云原生计算提供了构建块。
英特尔是 Linux 内核最大的贡献者之一,也为开源人工智能开发提供了基础设施。它的一些工具包括 OneAPI ,这是一个开源框架,用于开发和部署应用程序。
"英特尔致力于培育开放的人工智能软件生态系统,通过向上游推广软件优化和 AI-ML 框架,促进可编程性、可移植性和生态系统采用。"英特尔首席技术官格雷格·拉文德在上个月的路线图演示中表示。
这家芯片制造商正在开发各种用于运行人工智能应用程序的芯片,包括 GPU 和加速器,如其 Gaudi 加速器。采用开源方法进行人工智能开发可以使其芯片更具吸引力。英特尔在 Linux 上采取了类似的方法,为 Linux 内核做出硬件驱动程序贡献,以确保其芯片与每个新操作系统发布兼容。
但是,英特尔在人工智能领域的存在与 Nvidia 相比无足轻重。 Nvidia 通过其 GPU 使人工智能计算成为可能。如今,微软和 Facebook 等公司都使用 Nvidia 的 GPU 运行人工智能应用程序。谷歌和亚马逊还为客户提供 Nvidia 最新的 Hopper GPU ,用于运行训练和推断人工智能应用程序。
英伟达想要从其在人工智能领域的主导地位中获利,并认为采用封闭源代码的方法是实现这一目标的途径。该公司正在使用其专有的硬件和软件工具将开发人员锁定在其生态系统中。
Nvidia 的软件开发堆栈,称为 CUDA,已经在 AI 开发人员中流行。用 CUDA 编写的应用程序只能在公司的 GPU 上运行。其他机器学习框架(如 OpenCL 和 ROCm)也可用,但脱离 CUDA 可能是一件昂贵的事情。
这家图形芯片制造商表示,它已经开源了开发垂直AI应用程序的库,但这些库需要使用该公司的 GPU 才能执行。英特尔正试图通过其 SYCL 工具来切断这种专有的方法,SYCL 工具可以剥离 CUDA 特定的代码,这样应用程序就可以在任何 CPU 、 GPU 、 FPGA 或其他加速器上运行。
Nvidia 还围绕 AI 建立了服务业务。公司可以将他们的 AI 需求提交给 Nvidia,Nvidia 然后在其 GPU 上创建和部署应用程序。 Nvidia 希望成为一家 AI 软件巨头,并利用该公司认为可能成为 1 万亿美元市场机会的机会。