开源2024:更多机遇、风险与AI

2024年,开源领域可能出现更多商业化许可证的转变,监管形势进一步演变,同时开源社区将在GenAI的推动下持续创新。

译自 Open Source in 2024: More Volatility, More Risk, More AI,作者 Joe Fay。

开源世界在2023年开年之际形势不稳,技术行业出现大规模裁员,经济动荡,一个新的生成式AI平台不仅能产生答案,还似乎能生成计算机代码。

过去12个月中,生成式AI以飞速发展。Hahttps://www.hashicorp.com/?utm_content=inline-mentionshiCorp的许可证变更表明,风险投资公司似乎不再看好开源模式,而这一切都是在持续的经济不确定性背景下发生的。

那么,我们应该为2024年做好哪些准备呢?

Rust基金会执行主任兼首席执行官Rebecca Rumbul对The New Stack表示:"现在略微更加乐观,这并不是说回到了2021年挥金如土的鼎盛时期。但是我感觉到我所接触的许多公司都略微更加乐观。"

然而,她补充说,开发者关系角色深度裁减后,还有差距需要弥补,她说这样的裁减可能是一种错误的节省。“与开源社区保持良好关系可以从商业角度获得巨大回报。”Rumbul说。

但是还有更直接的方法可以确保获得商业回报。HashiCorp 8月决定将其整个产品线,包括 Terraform ,迁移到商业源代码许可证,在整个行业引起震撼。但这也促成了 OpenTofu 分支的产生,它立即获得了 Linux 基金会的支持。

在其客户大会上,HashiCorp CEO David McJannet质疑了整个基金会模式,并说Linux基金会对 OpenTofu 的支持对开源创新来说是悲剧。他说,这最终可能意味着,"硅谷将不再有开源公司。"

Linux基金会欧洲总经理 Gabriele Columbro 告诉我们,更多的许可证切换和随后的分支很可能发生:"随着越来越多风险投资支持的开源初创公司的出现,其中一定比例的公司会在某个时候决定切换许可证来获得最大利益。"

分支中的分歧?

Columbro说,HashiCorp当初完全有权利这么做。但这一事件可能会鼓励用户更多地考虑开源与项目的开放治理之间的区别,这可能会加强基金会的作用。

"当你选择依赖一个开源项目时,你可能需要自问一个问题。这仅仅是开源吗?那么一个专有公司可能会在任何时候从我脚下拿掉地毯吗?"

他说,一个大公司使用 Terraform 这样的产品,仅仅为了弄清楚许可证变更的影响,就可能面临数十万美元的账单。"我可以想象像摩根大通或谷歌这样的公司花了多少钱才弄清自己在 Terraform 上的立场并进行影响评估。"

而这些计算对于大企业日益增长的开源接受度尤为重要,特别是在金融领域。

Columbro说:"我认为我们正处于金融服务和金融科技完全意识到它们是一个技术中心的行业的边缘,因此以与大技术公司完全相同的方式接受开源,作为其数字化转型的核心支柱,也是这个行业的重要组成部分。"

这将打破金融业的锁定模式,并降低新金融科技进入的门槛,他说。但这也应该创造更多竞争,最终通过更好的体验和更低的成本为消费者带来利益。

这种潜在的反噬可能会让一些供应商三思而行,关闭其代码,一些人预测。

Percona社区负责人 Joe Brockmeier 说:"现在许多管理团队将讨论他们是否愿意冒险转向闭源模型,因为缺点更加明显。"

"虽然这种情况不会完全停止,但它会使这些选择的讨论更加重要。其中一些甚至可能公开进行,以便每个人都了解围绕这些选择所进行的整个思考过程。"

但这并不意味着该行业不应在2024年重新审视许可和相关问题,OpenUK的CEO Amanda Brock建议。

“我认为是时候我们不同派系之间就这些不同观点进行更开放的对话了,我们需要在用户、贡献者和社区之间建立更多理解,”Brock说。

随着2024年的开局,她补充说:"我认为你将看到很多人积极参与试图促成和平。"

开源和生成式AI

考虑到人工智能一般,尤其是生成式人工智能给技术和整个社会带来的冲击,统一战线可以说比以往任何时候都更重要。

11月,英国努力让各国政府就 AI 监管框架达成共识,获得了大量媒体报道,报道暗示开源 AI 是一个特别大的威胁。但与11月底 OpenAI 的恶作剧相比,这可能算不了什么,OpenAI 的丑闻凸显了一些决定性的封闭源公司的潜在主导地位。

DataStax 开发者关系副总裁 Patrick McFadin 说,人们已经“严重恐慌”生成式 AI 的隐私方面,他认为这将导致对 OpenAI 和 hyperscalers 的反弹。

与此同时,他对 TNS 说:"监管开源将几乎是不可能的。一旦事物公开,你就无法监管它。存在开源的大型语言模型,它们正在被训练,并且开始优于 GPT-4,这使得监管它们更难。"

Brock的态度不那么世界末日,但同样严肃。“随着我们看到AI正在正常化,人们开始对它是什么有了更好的理解,并看穿了噱头,我们将对开源的意义以及它如何适应AI进行更好的讨论。”

这将导致“与开源社区及其代表的接触,而不仅仅是与公司的接触,这就是全球范围内所发生的事情。”

她说,今年秋天在英国布莱切利园举行的关于AI安全问题的会议上,中国的加入很重要,因为这表明监管对话正在从主权转向跨境合作。

Brock说,这对更广泛的领域有影响,有助于形成一个国际开源技术部门,其中包括强大的本地生态系统和熟练的全球协作的劳动力。

开源监管前景如何?

但是在技术方面增加国际合作还有很多障碍 - 事实上,在任何事情上增加国际合作都面临障碍。借用一位英国前首相的话来说,领导人面临的最大挑战是“事件,亲爱的孩子。事件。”

如果说过去三年充满事件,2024年同样会如此,不仅因为将要举行空前数量的选举,包括美国总统大选。这些选举本身就成为网络安全事件。但它们也可能预示和塑造进一步的监管和立法,这可能会直接影响开源世界。

美国和欧盟都在AI方面制定立法和监管,但2024年将看到这些努力如何在真实(虚拟)世界中发挥作用。

欧盟的网络弹性法案也将于2024年生效。据报道,最近公布的修订版使其对开源不那么公开问题,但最终文本尚未公布。

与此同时,美国已经在技术上加紧了对中国和俄罗斯的管制,例如切断了对前者GPU的出口,并对后者实施广泛的制裁。今年11月的美国大选后政府更迭,可能预示着一个更加孤立主义的立场。

至少有一些实例表明,因受制裁俄罗斯公司雇佣的编码员的开源项目贡献被拒绝。

Rumbul说:"如果开源仅仅以美国为中心或与美国外交政策一致,我认为这对开源来说将是可怕的。这与开源的精神背道而驰。"

至于Brock,她在2024年一开始就对开源的可持续性发出警告,她如何看待明年呢?"我并不少担心,"她说。

开源社区打造了一件精致的作品,但最精致的物品也可能被从桌上击落摔得粉碎。

她说,“风险”可能比以前更高,“但风险并不总是贬义词。对吧?风险中存在机会。"

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注