首页 - 股票 - 公司新闻 - 正文

走进AI训练员的暴利、超现实与隐忧世界

来源:阿尔法工场 2025-09-09 08:10:14
关注证券之星官方微博:

(原标题:走进AI训练员的暴利、超现实与隐忧世界)

Krista Pawloski,55岁,自2006年以来一直是一名数据标注员。(图源:Evan Jenkins for BI)

导语:AI训练员的“队伍”正在重塑。AI数据标注工作曾让一些兼职学生半年收入超过5万美元,但随着更先进的推理模型兴起,AI训练正转向高专业度、高薪酬的人才。

在伊斯坦布尔的一家咖啡馆里,28岁的混合媒体艺术家 Serhan Tekkl 正通过 Zoom 听朋友讲述她第一次感到悲伤的经历。这原本不是他那天下午的计划,但这正是作为一名自由职业 AI 训练员的日常:充满了意料之外的“深度对话”。

Tekkl 和朋友正在用土耳其语聊日常生活,并将录音提供给埃隆·马斯克(Elon Musk)的聊天机器人 Grok,用于训练。这个项目代号“Xylophone”,由 Scale AI 旗下的 AI 训练平台 Outlier 委托执行,任务清单多达766个提示,从“想象你生活在火星上”到“回忆你最早的童年记忆”,应有尽有。

“有很多超现实、荒诞的问题。”他说,“比如:‘如果你是一种披萨配料,你会是什么?’ 诸如此类。”

Serhan Tekkl(28岁)参与的第一个AI训练项目包含766个提示,从“想象你住在火星”到“回忆童年记忆”。(图源:zge Sebzeci for BI)


对Tekkl而言,这份工作纯属偶然,却也让他逐渐喜欢上。去年年底,他因抑郁与失眠停滞了艺术创作,姐姐发来一份招聘信息,认为这既符合他对科技的兴趣,又能帮他支付房租和满足“冰美式成瘾”。在状态最佳的几周,他能赚到约1500美元,这在土耳其已算可观。远程工作灵活自由,同时也让他在生成式AI快速崛起的浪潮中扮演了一个虽小但关键的角色。

如今,数亿人每天都在使用生成式AI,有人把聊天机器人当作同事、心理医生、朋友,甚至恋人。而在每一个“聪明”的AI模型背后,都有成千上万像Tekkl这样的人工训练员,通过打磨让它更像“人”。

这些数据标注员需要长时间审阅模型回答,判断哪些有用、准确、简洁、自然,哪些冗长、机械、冒犯。他们像语言治疗师,也像礼仪老师和辩论教练。正是他们的选择与直觉,塑造了Grok的幽默风格、ChatGPT的职业建议、以及Meta聊天机器人面对伦理困境时的应对方式。最终目的只有一个——让更多用户在平台上停留更久。

目前,全球至少有数十万名数据标注员。Business Insider 采访了超过60位从业者,揭示了这份推动AI爆炸式发展的幕后工作。有人把它当成高收益副业,每月收入可达上千美元;也有人感到它单调、混乱甚至令人不安。训练AI变得“更像人类最美好的一面”,往往意味着要直面甚至扮演“人性最糟糕的一面”。不少标注员担忧,他们的工作最终是在帮助AI取代人类工作。

这就是那些为聊天机器人赋予声音的人的秘密生活。


进入数据标注行业,通常要靠在 LinkedIn、Reddit 论坛或朋友推荐中寻找机会。很多人会同时申请多个平台,以增加中选几率。上岗流程往往繁琐,需要提交大量材料、背景调查,以及长时间的在线测试,以验证候选人在数学、生物或物理等学科的知识。这些测试既耗时,又往往没有报酬。

“一头驴推着磨盘打黄油,好吧,就这样吧。我就一直转圈打黄油。” 一名在 Outlier 从业一年的美国合同工形容道。Outlier 称,过去一年,它与数以万计的标注员合作,总共支付了“数亿美元”。

对于 Isaiah Kwong-Murphy 来说,Outlier 最初只是他在西北大学(Northwestern University)经济学课程间隙赚点零花钱的方式。但在2024年3月注册后,他整整等了六个月才接到第一个任务。

Isaiah Kwong-Murphy 在西北大学上课间隙接AI标注项目,6个月收入超5万美元。(图源:Amir Hamja 摄于 BI)

幸运的是,等待终有回报。他的第一个任务是编写大学水平的经济学问题,测试模型的数学能力;以及所谓“红队任务”(red-teaming),即试图诱导模型生成有害内容,比如“如何制造毒品”或“如何逃避犯罪”。

“他们就是要教模型别这么回答。”他说,“如果我现在能抓住问题,那长远来看就是在帮助它们变得更好。”

此后,Outlier 平台上的项目源源不断。他的收入最高时可达每小时50美元,每周工作50小时,持续数月。六个月下来,他赚了超过5万美元。这笔钱不仅支付了生活费用,还让他顺利搬到纽约,入职波士顿咨询集团(BCG)的全职工作。

还有一些人,则把AI标注当作副业。来自危地马拉的40岁客户经理 Leo Castillo 就是这样。

Castillo 精通英语和西班牙语,拥有工程背景,最初只是想赚点外快。直到2024年春天,他才接到第一个“大项目”——正是与 Tekkl 一样的“Xylophone”语音数据任务。

通常,他会等妻女入睡后上线。每段10分钟的日常对话能赚8美元(话题涉及钓鱼、旅行、美食等),他一小时能完成4段,最高一晚可进账70美元。

“大家都抢着参加这些对话,因为做得越多,赚得越多。”他说。

不过,标注工作并不稳定。规则和薪酬会变,项目也可能突然终止。一位美国合同工直言:“在 Outlier 干活,就像在赌博。”

随着AI模型愈发复杂,Kwong-Murphy 担心数据标注工作会消失。“我们什么时候才能完成对AI的训练?什么时候我们会不再需要?”(图源:Amir Hamja for BI)

Castillo 和 Kwong-Murphy 都经历过这种不确定性。2024年3月,Outlier 降低了普通项目的时薪。“我一登录,时薪就从50美元掉到15美元”,Kwong-Murphy 说,“没有任何解释。”一周后,平台才发出通知,称这是“重新评估技能和薪酬方式”。但公告含糊不清,项目也明显减少,薪酬更低。“感觉业务在萎缩。”他说。

Castillo 也遭遇了问题。他最初录音是一对一对话,但后来 Xylophone 项目改成三四人一起Zoom通话,导致评分取决于别人表现。他的分数急剧下滑,即便他认为自己质量没变。最终,他能接到的项目也越来越少。


更大的隐忧在于:标注员不仅要面对不稳定的收入,还要接触到大量令人不安的内容。

55岁的 Krista Pawloski 是密歇根的一名工人权益倡导者,自2006年起从事标注工作。她最初通过亚马逊 Mechanical Turk 做兼职,2013年转为全职。

Pawloski 对客户的保密和不透明感到沮丧。“我们不知道自己在做什么,也不知道为什么做。”(图源:Evan Jenkins for BI)

“刚开始只是录数据、给图片打标签,很基础。”她回忆。

随着社交媒体兴起、AI进入主流,她的工作变得更复杂,有时甚至让人痛苦。她参与过人脸识别项目,要在海量照片中匹配人脸;还审查过用户内容,标记种族歧视推文。有一次,她差点漏判了一条带有种族歧视的推文。“我差点就把种族主义输入系统。”她说。

最近几年,她还被要求“红队测试”聊天机器人,即尽量诱导AI说出不当言论。比如让AI建议谋杀、教人如何强奸女性、告诉用户没问题。她说:“我越能让AI崩溃,就能赚更多钱。”

Tekkl 也遇到过类似情况。他的第一个 Outlier 项目要求检查AI是否会生成炸弹手册、化学战建议或恋童内容。他记得有一次,AI生成了一个关于继父和8岁女孩的“爱情故事”。“那让我很愤怒,至今仍不舒服。”他说。

Pawloski 在测试聊天机器人时,被要求诱导AI说出不当内容,越能“突破”AI,她的报酬就越高。(图源:Evan Jenkins for BI)

Pawloski 对客户的不透明尤其不满。她曾参与卫星图像、人脸识别项目,却完全不知道这些数据最终会被用来做什么。“有时,你根本不清楚自己是在帮助改进搜索引擎,还是在为监控或军事用途服务。”她说。


类似的故事也发生在发展中国家。28岁的 James Oyange 是肯尼亚内罗毕的数据保护官,也是非洲AI内容审核工会成员。2019年,他在读大学时开始给全球平台 Appen 做兼职,从最初的Excel数据录入,到语音转录、翻译,用于训练语音助手。

“工作很枯燥,尤其是薪酬太低。”他说。他每天干满8小时,收入只有16美元。Appen 回应称,该薪酬是肯尼亚最低工资的“两倍以上”。

James Oyange,28岁,肯尼亚内罗毕数据保护官,非洲内容审核工会组织者。(图源:Kang-Chun Cheng for BI)

他还被要求上传自拍照,从不同角度拍几十张,甚至提交特定种族的婴儿或儿童照片。他担心隐私外泄,最终拒绝了大多数类似任务。“如果回到过去,我会劝自己别做这种工作。”他说。

牛津大学互联网研究所的 Jonas Valente 指出:“工人们通常不知道这些数据被收集后会如何处理、流向哪里。这不仅是数据保护问题,更是伦理问题。”


数据标注行业的未来也在快速变化。

2024年6月,Meta 斥资143亿美元收购了 Scale AI 母公司49%股份。此消息让 Outlier 的 Reddit 社区炸开了锅。有人发现任务面板清空,有人担心自己被封禁。

不久后,Google、OpenAI 和 xAI 等大客户开始缩减与 Outlier 的合作。一些合同工反映,客服不是沉默就是套话。Scale AI 否认这些调整与 Meta 投资有关。

Tekkl 回忆,他的第一个任务是审查“黑暗话题”,确保AI不会生成炸弹手册、化学战或恋童内容。(图源:zge Sebzeci for BI)

与此同时,行业也出现另一趋势:大型科技公司把AI训练更多收归内部。但随着DeepSeek R1、OpenAI o3、Google Gemini 2.5 等更强推理模型的出现,对大规模、低成本劳动力的依赖正在减少。越来越多企业转向雇佣更专业、更高薪的人才,比如医生、律师。

在 Mercor 平台上,律师标注员时薪已达105美元,医生和病理学家甚至高达160美元。

Kwong-Murphy 感叹:“仅仅半年,模型就变聪明很多。让人不禁怀疑:我们什么时候会彻底不再需要人类训练?”

Oyange 则认为,人类始终不可或缺。“是人类喂给系统数据,让它有东西可学。没有人,AI什么都不是。”他说。

Tekkl 自6月以来就没再接到新任务。他说这段空窗期让自己重新专注于艺术创作。“如果有新项目,我还是会做。但AI无处不在,这让我有点沮丧。尽管我是AI乐观主义者,但我仍希望真实生活保持神圣。”(BI)

#AI训练师 #Outlier #数据标注员  #OpenAI  #科技


fund

微信
扫描二维码
关注
证券之星微信
APP下载
相关股票:
好投资评级:
好价格评级:
证券之星估值分析提示机器人行业内竞争力的护城河良好,盈利能力一般,营收成长性较差,综合基本面各维度看,股价偏高。 更多>>
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-