人们在加利福尼亚州门洛公园(Menlo Park)的公司总部以外的元标志附近谈论。
Jeff Chiu/ap
隐藏字幕
切换标题
Jeff Chiu/ap
多年来,当Meta推出Instagram,WhatsApp和Facebook的新功能时,审阅者团队评估了可能的风险:它是否违反了用户的隐私?会对未成年人造成伤害?它会加剧误导性或有毒内容的传播吗?
直到最近,人类评估者几乎完全由人类评估者进行了元中的隐私和诚信审查。
但是现在,根据NPR获得的内部公司文件,所有风险评估的最多90%将很快自动化。
实际上,这意味着诸如Meta算法的关键更新,新的安全功能以及对在公司平台上共享内容的更改将主要由人工智能支持的系统批准,而该系统将不再受到辩论如何使平台更改的工作人员审查的审查。
内部的Meta,这种变化被视为产品开发人员的胜利,他们现在可以更快地发布应用程序更新和功能。但是,现任和前META员工担心新的自动化推动是以允许AI对Meta应用程序如何造成现实世界危害的棘手决定的代价。
一位前元高管说:“在功能上意味着更多的东西在功能上意味着更多的东西发起速度,对审查和反对的速度较小,这意味着您正在造成更高的风险。” “产品变化的负面外部性在开始引起世界问题之前就不太可能被阻止。”
梅塔在一份声明中说,它已经投资了数十亿美元来支持用户隐私。
自2012年以来,该机构就如何处理用户的个人信息达成了协议,在该机构达成了一项协议之后,META一直受到联邦贸易委员会的监督。结果,根据当前和以前的Meta员工,需要对产品进行隐私审查。
Meta在声明中说,产品风险审查的变化旨在简化决策,并补充说“人类专业知识”仍用于“新颖和复杂的问题”,并且只有“低风险决策”才被自动化。
但是NPR审查的内部文件显示,Meta正在考虑对敏感领域的评论,包括AI安全,青年风险和称为正直的类别,这些综合涵盖了诸如暴力内容和虚假的蔓延之类的事物。
前元员工:'工程师不是隐私专家
描述新过程的幻灯片说,在大多数情况下,在完成有关该项目的问卷后,产品团队现在将在大多数情况下都会收到“即时决定”。 AI驱动的决定将确定风险领域和要求解决方案。在启动之前,产品团队必须验证其已满足这些要求。
META创始人兼首席执行官Mark Zuckerberg在Llamacon 2025举行的AI开发人员会议上发表讲话,在加利福尼亚州Menlo Park,2025年4月29日,星期二。(AP Photo/Jeff Chiu)
Jeff Chiu/AP/AP
隐藏字幕
切换标题
Jeff Chiu/AP/AP
在先前的系统下,产品和功能更新无法发送给数十亿用户,直到他们收到风险评估者的祝福。现在,建造元产品的工程师有权对风险做出自己的判断。
在某些情况下,包括涉及新风险的项目或产品团队想要其他反馈的项目,幻灯片说,人类将对项目进行手动审查,但默认情况下不会像以前一样。现在,制造产品的团队将召集该电话。
Zvika Krieger说:“大多数产品经理和工程师都不是隐私专家,这不是他们工作的重点。这不是他们主要评估的内容,而不是他们提出优先级级的,” Zvika Krieger是Meta的负责任创新总监,直到2022年,META的产品团队一直在启动Meta的产品中评估了Meta的产品。
他补充说:“过去,其中一些自我评估已成为箱式检查练习,这些练习错过了重大风险。”
克里格说,虽然可以通过自动化来简化元评论的余地,但“如果您推得太远,不可避免地,审查质量和结果就会受到影响。”
Meta淡化了新系统将向世界引入问题的担忧,指出它正在审核自动化系统对未经人类评估的项目做出的决定。
元文件表明,欧盟的用户可能与这些变化有些隔离。内部公告称,欧盟的产品和用户数据的决策和监督将留在爱尔兰的欧洲总部。欧盟有有关在线平台的法规,包括《数字服务法》,该法案要求包括Meta在内的公司更严格地监管其平台并保护用户免受有害内容的影响。
产品审查过程的一些更改首先由技术新闻网站Information报告。 NPR看到的内部文件显示,在公司结束事实检查计划并放松其仇恨言论政策后不久,已通知员工的改建。
综上所述,这些变化反映了Meta的新重点,支持更加不受约束的语音并更快地更新其应用程序 – 多年来,该公司已制定的各种护栏拆除了其平台的滥用。公司首席执行官马克·扎克伯格(Mark Zuckerberg)努力与特朗普总统求爱的努力之后,该公司的重大转变也是如此,他的选举胜利扎克伯格称其为“文化转折点”。
移动更快以评估风险自欺欺人'?
推动产品评论更改的另一个因素是,在Tiktok,OpenAI,SNAP和其他技术公司的竞争日益激烈的竞争中,更广泛的多年努力来帮助该公司行动更快。
梅塔(Meta)本周早些时候表示,它更多地依靠AI来帮助执行其内容审核政策。
该公司在其最新的季度诚信报告中写道:“我们开始看到(大语模型)在某些政策领域的人类绩效之外运行。”它说,它还使用这些AI模型来筛选一些公司“高度自信”的帖子,不要违反规则。
梅塔说:“这使我们的审阅者释放了能力,允许他们优先考虑更有可能侵犯内容的专业知识。”
这家技术政策公司Anchor Change的创始人兼首席执行官Katie Harbath在Facebook上制定了十年的公共政策,他说使用自动化系统来标记潜在的风险可以帮助减少重复的努力。
她说:“如果您想快速移动并拥有高质量的人,就需要融入更多的AI,因为人类只能在一段时间内做很多事情。”但是她补充说,这些系统还需要对人类进行制衡。
另一名前元员工在不愿透露姓名的情况下进行了交谈,因为他们也担心公司的报复,他质疑在风险评估上移动更快是否是元的好策略。
这位前雇员说:“这几乎是自欺欺人的。每次推出新产品时,都会有很多审查 – 审查通常会发现该公司应该更加认真地对待问题。”
Meta产品首席隐私官米歇尔·普罗蒂(Michel Protti)在3月的一篇文章中表示,该公司正在“授权产品团队”,目的是“不断发展的Meta的风险管理流程”。
一名熟悉产品风险评估的META员工说,自动化的推出一直在4月和5月上升,他们无权公开谈论内部操作。
普罗蒂说,自动化风险审查并给产品团队提供更多关于90%案件中产品更新带来的潜在风险的说法,旨在“简化决策”。但是一些内部人士说,从风险评估过程中删除人类的乐趣摘要大大降低了变化可能造成的问题。
“我认为,鉴于我们为什么存在的意图,这是相当不负责任的,”接近风险审查过程的元员工说。“我们提供了人类的观点,即事情如何出错。”
您是否有有关Meta更改的信息?通过信号上的加密通信与这些作者联系。 鲍比·艾琳 可在Ballyn.77和 香农·邦德 可在Shannonbond.01上找到
关键词: