数据管理和分析对我们的生活和工作方式产生了影响。研究员 Dana Calacci 在 The New Stack 上讲述了员工如何保持控制。
译自 The Rise of Community-Driven Data Analysis in the Age of AI,作者 David Cassel。
Dana Calacci 关心数据分析,但更关心受其影响的人。
或者,正如 Calacci 的网页 所说,“我研究 数据管理和分析 如何影响社区治理。现在,我专注于算法管理如何改变工作现实,数据管理和参与式设计如何帮助创造替代的工作未来,以及平台工人的数据权利。”
Calacci 在 IEEE Spectrum 7 月份的一篇文章 中提供了一个例子——一个带有警示意味的故事,最终得出了一个鼓舞人心的结论。但在此过程中,Calacci 也暗示了关于数据的新思维方式,展示了一些社区如何开创了一种关于数据收集方式的新方法——以及一种关于如何使用这些数据的新方法。
Calacci 写道,在 2020 年初,送货应用程序 Shipt 的零工经济工人“发现他们的工资单变得……不可预测”。此前,他们每送货 5 美元,外加订单金额的 7.5%,但 Shipt 随后在其工资算法中添加了其他因素——包括行驶里程和所需购物时间。
“由于 Shipt 没有发布有关算法的详细信息,它本质上是一个黑盒子,工人无法看到内部,”他们写道。
但 Calacci 写道,工人并没有接受,而是“团结起来,收集数据并与研究人员和组织建立伙伴关系,帮助他们理解自己的工资数据。”
“很明显,需要发生一些事情——不仅仅是在 Facebook 群组里抱怨,”组织他们早期努力的 Shipt 员工 Willie Solits 说。在 麻省理工学院媒体实验室的一段视频 中,Solits 回忆说,“我们需要组织起来,做点什么。”
工人们首先开始拍摄他们的工资单并整理数据。到那个夏天,Calacci 被请来构建一个基于短信的工具,可以更快地扩展他们的数据收集。“到 2020 年 10 月,”他们写道,“我们已经从 200 多名工人那里收到了 5600 多张截图。”
Calacci 写道,这个项目令人兴奋,因为“它是工人主导的。它是由衡量工人自身的体验驱动的……在该工具的帮助下,组织起来的工人及其支持者基本上审计了算法,发现它给 40% 的工人带来了大幅度的降薪。”
但更重要的是,“工人们证明了可以对抗算法的不透明权威,尽管公司不愿意,但仍然可以创造透明度。”
新的数据导致了 工人抗议 和媒体报道——尽管 Calacci 的文章承认,目前尚不清楚这是否最终改善了他们的状况。“我们不知道,这令人沮丧。”
在 Hacker News 上的讨论 中,一些评论者认为,数据最终表明,超过一半的 Shipt 工人 没有 经历过降薪。但 Calacci 在社交媒体上回应 说,“真正的问题是,工资突然变得不透明和不可预测。”
因此,无论新算法是否公平,Calacci 认为重要的是工人与应用程序之间的权力动态。或者,正如他们在文章中所说,“在一个更公平的世界里……这种透明度应该默认提供给工人。”
最后,“我们的实验为其他想要利用数据进行组织的零工经济工人提供了一个例子,它提高了人们对算法管理弊端的认识。需要对平台的商业模式进行彻底的改变。”
很高兴讲述工人如何帮助推动对 Shipt 算法薪酬体系的审计的故事
[@IEEESpectrum]! 我想强调一下 Hacker News 上的一些讨论(🧵):[https://t.co/29Z7SERID2]— dr. dana calacci (@dcalacci)
[2024 年 7 月 10 日]
在4 月份发表的一篇文章中,Shipt 员工 Willie Solis 写道:“我们能够通过在 Facebook 群组中众包信息来证明,我们的小费并没有像应该的那样全部都到我们手里。”
Calacci 的文章引用了2021 年的一项活动,该活动展示了其他鼓舞人心的工人主导的数据项目——提醒人们,“有一些研究人员和技术人员有兴趣将他们的技术技能应用于此类项目。”
在与 The New Stack 的电子邮件采访中,Calacci 分享了更多社区来源的数据项目的例子。
康奈尔大学有一个公民与技术实验室(由J. Nathan Matias领导,他是传播学助理教授),专门与社区合作“研究技术对社会的影响”——并测试“改变数字空间以更好地服务公众利益”的想法。 1 月份,该实验室的研究人员研究了数百家纽约市雇主如何响应一项要求他们测试其招聘算法是否存在偏差的法律——在 155 名本科生的帮助下。结果如何?报告写道:“在 391 家雇主中,有 18 家雇主发布了招聘算法审计报告,13 家发布了透明度通知,告知求职者他们的权利。”
但研究人员得出结论,“大多数雇主以一种实际上不可能让求职者了解其权利的方式实施了该法律”,并写道,该法律“赋予雇主极大的合规自由裁量权,并有强烈的动机避免透明度。”
Mozilla有一个宣传/研究团队,其项目之一是一个浏览器扩展,允许人们捐赠他们关于他们后悔观看的 YouTube 视频的数据。
2022 年,Jesse McCrosky,一位数据科学家,与Becca Ricks,Mozilla 基金会 的开源研究和调查主管,合作进行了一项研究,分析了 22,722 人捐赠的数据。他们的结论是什么?他们写道:“人们不觉得他们对自己的 YouTube 推荐有太多控制权——我们的研究表明他们实际上没有。”
“我们发现 YouTube 的用户控制会影响推荐内容,但这种影响微不足道,大多数不想要的内容仍然会漏网。”
他们的报告最终建议 YouTube 应该“为研究人员提供更好的工具”,以及政策制定者应该“通过和/或澄清法律,为公共利益研究提供法律保护。”
Calacci 说,2020 年的书“数据女权主义”中还有许多其他例子,该书承诺“一种新的思考数据科学和数据伦理的方式,这种方式受到交叉女权主义思想的启发。”
这是一个 Calacci 非常重视的话题。他们在我们的电子邮件采访中说:“我希望看到更多研究人员将社区的问题和担忧视为严肃的调查来源。”“许多社区对他们的环境、他们使用的技术以及它如何影响他们的福祉和健康有真正的问题想要得到解答。
“这些可以通过将社区视为共同研究者来转化为严格的研究问题——就像我们在 Shipt 工作中所做的那样。”
Calacci 认为这个问题即将变得更加重要。他们的文章以当工人监控工具由人工智能驱动时可能出现更多不平等的可能性而结束。“零工经济工人正在进行的斗争是争取工作场所权利的更大战争的前线,这将影响我们所有人。”
Calacci 在去年 12 月发表在 ACM Interactions 杂志上的一篇文章中详细阐述了这一点,指出我们已经生活在一个“算法决定生产力评分、跟踪工作场所的文本通信以及定期截取员工电脑屏幕截图供雇主审查的软件”的世界中。
“在[大型语言模型]时代,所有这些监控——以及它产生的数据——都变成了未来人工智能系统的潜在训练材料。” 但在名为“将系统饿死作为一种劳工策略”的部分,Calacci 指出,LLM 需要人类内容进行训练,这“对希望对未来 AI 模型开发方向施加一定控制的工人来说,是一个希望的曙光”。如果工人选择停止工作,他们就可以有效地让这些系统缺乏它们需要改进的数据。
自动化一直被宣传为一股不可阻挡的力量,但这与现实相去甚远。在《交互杂志》的一篇新文章中,我论证了工人——以及研究人员和倡导者盟友——可以而且应该共同帮助引导工作中的自动化:[https://t.co/iXwyZIbl82][pic.twitter.com/nzgGxBjrqm]——Dana Calacci 博士 (@dcalacci)
[2023 年 11 月 16 日]
在我们的电子邮件采访中,Calacci 描述了更大斗争的轮廓。“科技工作者,以及更广泛的创意工作者,需要开始考虑他们的数据是如何被用来训练控制其他办公室的工人的系统的,以及如何通过 [生成式 AI] 创建新的、有价值的内容。他们的数据有助于决定 AI 系统能够做什么。这意味着获得对其使用方式的某种法律控制至关重要。
他们告诉 The New Stack:“工人应该尝试效仿编剧工会和美国演员工会,在他们的集体谈判协议中协商数据保护条款,或者工会化以获得制定一项条款的力量。”“如果没有联邦或州级对工人的数据保护,这是他们可以采取的最佳措施,以帮助控制和指导技术在未来如何影响他们的工作场所。”
Calacci 的文章甚至阐述了自动化成为一种赋权工具的可能性,呼吁发展“参与式 AI 和治理”。但他们写道:“实现这些目标需要做的不仅仅是开发新技术。它要求我们改变对工作场所技术和整体自动化的看法。
“我们不应该将自动化视为工人必须适应的不可避免的力量,而应该将其视为一个社会过程,这个过程可以而且应该由受其影响最大的人——工人自己——来塑造。”
Calacci 将在宾夕法尼亚州立大学担任人类中心 AI 助理教授的新职位上继续这项工作。“对我来说,人类中心 AI 首先意味着揭示新 AI 工具对人们的影响,”Calacci 在他们的电子邮件中说。
但除此之外,“这意味着创建能够减轻这些危害的系统,从设计替代算法和界面到部署对抗性工具来抵抗或破坏现有的 AI。”