TNS拒用AI生成文章的原因

当下,记者和内容创作者面临利用生成式AI完成创作的压力。但我们不会采取这种做法,以下是我们的AI内容政策。

译自 Why The New Stack Won’t Give You AI-Written Articles,作者 Heather Joslyn 是 The New Stack 的主编,她特别关注与软件开发工程师相关的管理和职业问题。她之前担任容器解决方案(一家云原生咨询公司)的主编......

随着在线内容的兴起,特别是自Facebook、YouTube和Twitter在2000年代中期出现以来,公众对新闻媒体的可信度已经失去了信心。

在The New Stack,我们致力于推动这一趋势的逆转。可信度是我们的至宝。我们知道,我们的读者依赖我们来帮助他们理解他们正在使用的技术,并在我们发现空洞的宣传时识别它。

最近,生成式 AI 给我们提出了一个挑战。它在我们报道的内容中发挥着越来越大的作用,这促使我们为 The New Stack 制定了一个管理其使用的政策。

对于一个新兴媒体来说,保持读者的可信度可能是一场艰难的战斗。例如,根据盖洛普民意测验的数据,2022 年,只有 34% 的美国人说他们对新闻媒体有很大或相当大的信任度。而在 2003 年社交媒体出现之前,这个数字是 54%。

来源:盖洛普

2022 年 11 月,这个故事中出现了一个新转折:OpenAI 推出了 ChatGPT-3,这是一种先进的生成式 AI 工具,可以接受文字提示并生成自然语言答案。

这一举动引发了谷歌、Meta 和微软等科技巨头的疯狂竞争,而各行各业的公司也在努力将最新 AI 技术融入他们的工具和工作流中。周二,The New Stack 将参加由 Linux 基金会赞助的 AI.dev 北美会议,以了解目前的最新进展。

这把我们带回到新闻媒体。就像开发者担心他们会被 AI 和机器学习取代一样,我们这些在新闻业和内容产业工作的人也担心我们的机器霸主的潜力。

我最近在为 New Stack Makers 播客采访 PagerDuty 的全球首席技术官 Heath Newburn 时,感到了寒意。他告诉我,他拜访过一位客户,那位客户说他的高管们要求知道由于 AI,他们可以解雇多少人。

这些高管正在大声说出隐秘的部分。尽管,在目前这个阶段,根据我们定期联系的专家所说,AI 更有可能改变而不是消除开发者的工作。至少目前是这样。(同时,这并没有阻止人们发明科技会议演讲者。)

同样,一些新闻媒体已经在使用 AI 来代替真正的人类工作者。《体育画报》在 11 月被发现雇佣了“德鲁·奥蒂斯”这样的人,一个完全由 AI 生成的记者,有虚构的头像和简历,来创作文章。这些文章是产品评论,体育画报说这些是第三方内容提供商提供的。

在 Futurism 杂志披露他并不存在之后,体育画报网站上这位“记者”德鲁·奥蒂斯的照片和简历以及他的文章被删除了。

Futurism 报道这则故事(来自体育画报一位匿名线人的提示)之后,这个体育杂志的网站上移除了该简历和文章。

AI 工具和实验

与世界其他地方一样,记者和内容创作从业者也在努力弄清楚如何与生成式 AI 共存。即使在最近的 ChatGPT 突破之前,这项技术就已经是一种无可否认的时间节省器。

例如:在采访后转录录音是将研究转化为文章的第一步,几十年来一直是记者工作中最糟糕、最乏味的部分之一——就像清理游行过后的马粪一样。但借助 AI,情况已经不再如此。

与世界各地的记者一样,我们 TNS 的大多数人长期以来一直使用语音转录软件来处理我们的音频和视频采访,将文件拖放到应用程序中,几分钟后,当它输出足够好的文本转录时,我们会惊叹不已。(足够好,但不是完美的。我很爱这款应用程序,我想和它结婚,但它仍然会返回一些需要理清的怪异之处,比如它会把“Kubernetes”听成“Cornell West”)。

在 ChatGPT-4 推出后,我们在今年春季稍微试验了一下。我们每天收到大量的新闻稿;其中一些值得与我们的观众分享,但我们小型的人类员工能够报道的新闻数量有限。

所以我们试着将新闻稿输入到生成式 AI 工具中。我们在这个实验中完全透明,将我们的机器人记者 Stackie 标记为 AI 编写的 AI 生成词的作家,并链接到原始新闻稿

我们只做了一次。事实证明,Stackie 需要的编辑量不少于人类记者。而且,整个过程让我们感到很不舒服。所以 Stackie 已经退休了。

The New Stack 的 AI 政策

这是一个覆盖软件和相关技术的绝佳时机。但随着生态系统的扩大,产生更多内容的压力以及更多知识渊博的报道的压力也在增大——跟上创新速度以及我们的观众跟上创新的需求,这样他们可以更好地做好自己的工作并在职业生涯中继续向上发展。

但是我们 TNS 不会走捷径。我们非常重视与您——我们的读者建立的信任纽带。在媒体机构的公信力在公众中较低的时期,我们珍视这一点。

因此,在本月,在我的同事的帮助下,我们制定了一项 AI 政策,并与我们的投稿人、记者和赞助商共享。

生成式 AI 工具的快速采用促使我们正式化 TNS 内部一直以来的共识。但我们要确保每个人都明确规则,他们的作品出现在我们的品牌下:AI 生成的内容不能出现在提交给 TNS 以供发表的文章或其他内容中。

政策的其余部分如下。

这意味着:

我们允许使用 AI 进行研究,作为一种查询您上传的采访、总结和组织信息的方式。但是你的稿件中绝不能包含 AI 生成的措辞。

您提交给 TNS 的所有材料必须用您自己的语言写成。

不要依赖 AI 作为信息来源;生成式 AI 容易出现简单不真实的断言。像验证来自维基百科的事实一样,独立验证从 AI 提示中得到的任何事实。

我们制定这些规则的原因:

The New Stack 的编辑诚信至关重要。我们不能在记者或投稿人的名字下刊登他们没有写的材料。这样做会违背我们与读者、赞助商和我们所报道和服务的技术社区建立的信任和权威纽带。

我们期待在 2024 年及以后为您服务。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注