The news is by your side.

威尔·史密斯音乐会的视频重点介绍了对AI伪造人群的关注:NPR

6


在Openai的宣传视频中,由于其新的视频生成平台Sora 2的大型公共活动中,仍显示了AI造成的人群。AI人群场景传统上对OpenAI和Google等公司提出了巨大的技术挑战。但是他们的模型一直在改善。

Openai


隐藏字幕

切换标题

Openai

威尔·史密斯音乐会 视频 最近通过互联网撕毁 – 不是因为他的表现,而是为了人群。鹰眼的观众注意到观众以及其他视觉故障的奇怪的手指和脸,并怀疑AI操纵。

人群场景对AI图像创建工具(尤其是视频)提出了特定的技术挑战。 (史密斯的团队尚未公开评论,也没有回应NPR的请求。)“您正在管理这么多复杂的细节,” AI Image Creation的专家Kyt Janae说。 “你们每个人都在人群中。他们都独立地移动并具有独特的特征 – 他们的头发,脸,帽子,手机,衬衫。”

但是最新的AI视频生成模型,例如Google的 VEO 3 和Openai的 Sora 2 越来越好。贾纳说:“我们正在进入一个世界上一年的慷慨估计,现实的界限将变得非常模糊。” “并且验证什么是真实的,什么不是真实的,几乎必须成为一种练习。”

为什么人群图像很重要

在一个社会中,这种观察可能会带来严重的后果,在这个社会中,在摇滚音乐会,抗议活动和政治集会等公共活动中,大量互动的人群的形象具有主要的货币。 “我们想要一个视觉指标,一种确定某人是否成功的方式。” Gado图像,一家使用AI来帮助管理视觉档案的公司。 “而且人群的大小通常是一个很好的指标。”

一个 报告 在全球咨询公司Capgemini中,使用AI在社交媒体上共享的近四分之三的图像是使用AI生成的。随着技术越来越擅长创造令人信服的人群场景,操纵视觉效果从未如此简单。随之而来的是一个创造性的机会,也是社会危害。史密斯说:“ AI是作弊和膨胀人群规模的好方法。”

他补充说,这种现象也有一个翻转的一面。 “如果有一个真实的形象浮出水面,并且显示出政治上不便或有害的东西,也会有一种倾向于说:'不,那是AI是假的。'”

这是一个例子,发生在2024年8月,当时的共和党党提名人唐纳德·特朗普 传播虚假主张 那个民主党竞争对手卡马拉·哈里斯(Kamala Harris)的团队利用AI创造了大量支持者的形象。

查普曼大学讲师查理·芬克(Charlie Fink),他为AI和其他新兴技术写作 福布斯说,欺骗人们认为假冒人群是真实的,或者真正的人群场景是假的,因为图像的交付方式是假的。芬克说:“面临的挑战是,大多数人都在小屏幕上观看内容,大多数人对他们所看到和听到的内容并不十分批评。” “如果看起来真实,那是真实的。”

平衡创造力与公共安全

对于AI图像生成器和社交媒体平台背后的技术公司,AI生成的剧照和视频土地上,在使用户能够创建越来越现实和可信的内容之间,可以实现微妙的平衡,包括详细的人群场景,并减轻潜在的危害。

Google DeepMind的首席科学家Oliver Wang说:“我们可以创建结果越现实和可信,它为人们提供了更多的创造性表达方式。” “但是错误的信息是我们非常重视的。因此,我们正在用可见的水印和无形的水印来盖章。”

但是,可见的(即面向公众)在使用Google的VEO3创建的视频上显示的水印很小且易于错过,藏在屏幕的角落。 (像Google一样看不见的水印 合成普通用户的眼睛看不见;它们可以帮助科技公司监视幕后的AI内容。)

AI标签系统仍在跨平台上使用不均匀。尚无行业范围内的标准,尽管NPR公司谈到了这个故事,但他们有动力开发它们。

Instagram的母公司Meta, 现在 当用户披露或系统检测到它时,标签上传了AI生成的内容。 Google Videos使用其自己的生成AI工具创建的YouTube上会自动在描述中具有标签。它 那些使用其他工具在使用AI时使用其他工具创建媒体的人。蒂克托克 需要 创建者标记AI生成或大量编辑的内容,以显示现实的场景或人。我们的团队可能会删除,限制或标记未标记的内容,具体取决于可能造成的伤害。

同时,自从那场有争议的音乐会视频发布以来,威尔·史密斯(Will Smith)一直在与AI一起玩得开心。他张贴了一个好玩的 后续 在其中,来自歌手镜头的摄像机在舞台上表现出色,以示出了一个挤满了拳头的猫的观众。史密斯包括一条评论:“人群是poppin'tonite !!”





关键词: