Tiktok的研究人员和用户说,在热门视频应用程序:DeepFake Videos上,还有另一种类型的欺骗,这些视频复制了真正创作者的确切单词,但语音不同。在这种情况下,左侧的屏幕截图是原始的Tiktok视频。右边是使用显然AI生成的角色的副本。
Bronson Arcuri/npr/@aliunfiltered_
隐藏字幕
切换标题
Bronson Arcuri/npr/@aliunfiltered_
在过去的一周中,数以百万计的tiktokkers观看了某种版本的视频,错误地指出,“他们正在鳄鱼alcatraz上安装焚化炉”,指的是一种互联网阴谋论,即在佛罗里达州的国家运营的移民拘留所在佛罗里达州的州立移民拘留所建立了炉子,尽管没有证据,但仍在佛罗里达州的佛罗里达州经历了广泛的蔓延。

流传谣言的视频之一吸引了近2000万次观看次数。它激发了关于Tiktok的对话,创作者用自己的摄入量进行了权衡,并在少数情况下试图揭穿毫无根据的理论。
但是,有一个帐户在这种熟悉的在线病毒性的熟悉的cacophony中脱颖而出:一种现实的蒂克托克(Tiktokker),对焚化炉阴谋直接描述了相机。据两位法医媒体专家NPR咨询了,演讲者的形象和声音似乎是用人工智能工具创建的。扭曲:视频中使用的单词与几天前不同Tiktok帐户发布的另一个视频中的单词完全相同。复制的版本吸引了Tiktok的200,000多个观看次数。

Deepfakes的研究人员 – AI生成的图像和视频是如此合理,以至于他们可以欺骗人们认为自己是真实的 – 说这种重复似乎代表了AI的一种新方式来欺骗:让AI背诵真实的人的真实话语,直到陷入僵局,“ UMS”和“ UHS”。
德克萨斯州达拉斯的创作者阿里·帕尔默(Ali Palmer)在tiktok上发布为@aliunfiltered_,制作了一个视频,讲述了一位父亲跳下迪斯尼游轮(Disney Cruise船)以拯救了他的孩子,该孩子用她的确切单词删除了与AI制作的视频。
她说,在tiktok上复制的情况猖ramp,但通常会重新发布整个视频的垃圾邮件帐户。她说,由AI生成的人背诵她的话的AI驱动的帐户是新的。
33岁的帕尔默(Palmer)说:“这令人沮丧。感觉就像侵犯了隐私。我永远无法想象复制某人然后在上面赚钱。只是肮脏。”
有了所有类型的复制,Palmer已将其报告给Tiktok,但什么也没有发生。 “这令人难以置信。”

加利福尼亚大学伯克利分校的教授汉西·法里德(Hany Farid)研究了数字取证,他说,这里有什么新鲜事物是普通人的话正在被盗。
法里德说:“一直以来,我们一直在看到人民的身份被选为做诸如Hawk Crypto骗局或推动伪造的癌症之类的事情,但通常它是一个名人或有影响力的人。”
Farid使用数字法医工具分析了复制的焚化炉视频,迪士尼巡航视频以及同一帐户应根据NPR的要求发布的其他视频,并得出结论,它们是AI的产品。
他说:“这是当今的AI工具非常容易做到的事情,而且很容易通过内容中的裂缝滑落。”
虽然使用AI复制视频似乎并没有违反Tiktok的政策,但该平台确实表示,它要求用户“标记所有包含现实图像,音频和视频的AI生成的内容”。鉴定出的NPR复制视频未标记为AI生成的。
近年来,除了越来越多地用于恶意目的外,Deepfakes越来越复杂。

该技术已被用来模仿政治家,包括国务卿马可·卢比奥,前总统乔·拜登和乌克兰总统沃迪米尔·泽伦斯基。 Deepfake“裸体”工具的兴起促使国会通过联邦法律与非自愿亲密图像的传播作斗争,包括AI产生的假裸照。
从小说中进一步模糊的事实是,这种最新的方法是通过让虚构的创造者背诵真正的创造者的话,试图利用Tiktok病毒时刻。

很难衡量在Tiktok上的实践的广泛性,这是全球超过10亿人使用的。 NPR无法识别出复制创作者言语的帐户背后的人或动机。帐户没有回应置评请求。蒂克托克(Tiktok)也不是大多数言语被任何语的创造者。
NPR使用其他创作者的单词确定的两个帐户,显然使用AI生成的图像和声音确实有一些相似之处:他们每个人都有大约10,000个关注者,但不会跟随任何人。两个帐户发布的许多视频 描绘了黑人角色,伯克利的法里说似乎是用AI制成的“低品质的深击”。每个帐户都窃取了另一个Tiktok创作者关于各种病毒主题的话,从一个在瓜达拉哈拉(Guadalajara)进行改头换面的女人到一个穿着狗项圈的女人到梅根·马克尔(Meghan Markle)在医院送货室里跳舞。
在Markle视频中,创作者接受了英国口音。在其他情况下,声音假定寄存器完全不同。
克莱姆森大学媒体媒体法医学枢纽的交流教授兼联合主任达伦·林维尔(Darren Linvill)说:“最大的看来是,当您退后一步并查看整个帐户时,当您查看一个视频与另一个视频相比,很明显,角色的声音从视频变为视频。” Linvill还应NPR的要求审查了视频,并得出结论,它们是在AI工具的帮助下制作的。
这两个说法共同抓住了数百万观看的观点,抓住了病毒式的故事,这些故事比政治戏剧更偏向小报饲料。但是,追踪国家赞助的信息战的研究人员说,测试新的榨汁病毒策略是政府支持的参与者经常做的事情。

Linvill研究了包括中国,俄罗斯和伊朗在内的国家如何使用数字工具进行宣传。他说,创建AI角色,例如人造新闻主播,是国家支持的影响力运营也使用的策略。虽然NPR发现没有迹象表明其确定的帐户是此类活动的一部分,但欺骗性使用的策略通常存在重叠 寻求在社交媒体平台上参与的国家参与者和帐户。
林维尔说:“在社交媒体上窃取内容与社交媒体一样古老。” “我们在这里看到的是AI在做我们看到的AI一遍又一遍擅长的事情,这正在使事情变得系统化,使过程更便宜,更快,更容易。
亚历克斯·亨德里克斯(Alex Hendricks)本周在蒂克托克(Tiktok)滚动,当时他看到有关佛罗里达焚化炉阴谋的两个背对背视频。看到许多创作者对同一主题进行权衡是正常的,但是这些视频将他击中 不寻常的是,独白是异常相同的,只是在不同的声音中。
因此,亨德里克斯(Hendricks)制作了一个tiktok视频,指出了这一点。然而,它几乎没有任何观点。
32岁的亨德里克斯(Hendricks)说:“我知道Tiktok上有很多虚假新闻,因为AI,我对任何事情都持怀疑态度,但是这种复制感到新颖而疯狂。”他说:“这就是为什么我告诉所有人:不要相信您看到的任何东西。在Tiktok上分享之前,您看到的一切。” “但是我不确定他们会听。”
关键词: