什么是 Deepfake
期限 “深假” 是一个混合 “深度学习” 人工智能的一种形式和
“伪造的。” 深度伪造是一种合成媒体(视频、图像或音频),经过数字处理或完全使用复杂的人工智能技术生成,以令人信服地展示一个人似乎在说或做一些他们实际上从未说过或做过的事情。
什么是AI斜率
“AI slop”一词是指使用生成式人工智能创建的数字内容(例如文本、图像、视频或音频),其特点是缺乏努力、质量或更深层次的含义,通常以压倒性的数量产生。
它具有贬义,类似于“垃圾邮件”用于描述不需要的低价值内容。
人工智能的溢出被视为互联网的“环境污染”问题,大规模生产的成本几乎为零,但信息生态系统的成本却是巨大的。
人工智能的溢出模糊了人类创造的真实性、机器产生的噪音和欺诈之间的界限,从而极大地削弱了互联网的信任度。
谎言!这都是该死的谎言!
AI slop 和 Deepfakes 本质上是相似的,因为两者都是由相同强大的生成 AI 模型(文本到图像/视频)创建的合成媒体形式。它们都模糊了人造内容和数字制造之间的界限,从而导致了在线信任的广泛侵蚀。 Deepfake 是一种有针对性的、高质量的伪造,旨在恶意欺骗(例如伪造政治演讲),而 AI slop 是出于对准确性或努力的漠视而大量生产的低质量内容,通常只是为了点击。
然而,这两种类型的内容充斥着数字生态系统,使用户越来越难以区分真实的、经过验证的信息和机器生成的噪音。
AI 坡度的主要特征
- 低质量/最少的努力: 内容通常生成速度很快,几乎不需要人工审核准确性、连贯性或原创性。
- 高容量/重复: 它被大量生产以淹没平台,通常优先考虑数量和速度而不是实质内容。
- 利润驱动: 它经常是为“内容农业”而创建的,旨在操纵搜索引擎优化(SEO)或社交媒体算法来产生广告收入或参与度。
AI 倾斜示例
- 图片: 超现实或怪异的图像(如病毒式传播的“虾耶稣”)、低质量或不一致的库存照片,或带有细微缺陷的图像的社交媒体帖子(如多余的手指或乱码文本)。
- 文本: SEO 优化的文章含糊、重复或不准确;大量制作、省力的博客文章;或完全由人工智能编写的书籍。
- 社交媒体: 虚假的社交媒体资料,或纯粹为了吸引标题和参与而设计的耸人听闻、轻松的视频和帖子。
人们普遍担心人工智能的快速扩散正在污染互联网,使人们更难找到高质量、真实的人类创造的内容,并模糊了真实信息和捏造信息之间的界限。
造成不信任的主要原因并不是恶意深度伪造(尽管这是一个相关的信任问题);内容的庞大和平庸使得网络变得不可靠。
人工智能的失利导致不信任
模糊现实、捏造“真相”
- “胡言乱语”的问题: 人工智能模型的建立是为了生成听起来可信且权威的文本,但不一定是真实的文本。人工智能溢出通常是在不关心准确性的情况下创建的,这意味着它完全有信心地呈现微妙的不准确或彻头彻尾的谎言。
- 病毒错误信息: 由于人工智能可以如此廉价和快速地生成内容,因此它允许大规模创建和传播误导性内容(例如自然灾害期间的虚假图像或荒谬的名人声明),这些内容在经过事实核查之前很容易像病毒一样传播开来。
- 规范虚假内容: 当用户不断接触人工智能生成的“刚刚好”的图像、视频和文章时,他们就会变得不敏感。不断的曝光让观众质疑其来源
全部 数字内容,导致一种状态,除非另有证明,否则任何东西都不能完全信任。
破坏权威和信誉
- 降低搜索结果的质量: 人工智能倾斜网站的设计目的只是为了操纵搜索引擎优化,将真正高质量、经过研究和专家的人类内容推向排名靠后的位置。当您搜索重要信息并且最重要的结果模糊、重复或不准确时,您就会对搜索引擎作为可靠的网络指南的能力失去信心。
- “我们不在乎”的信号: 当一个品牌、新闻网站或企业发布的内容显然很通用、充满流行语或由于人工智能快速旋转而编辑得不好时,它会传递出一种自满和不努力的信息。这种 DILLIGAF 态度损害了品牌信任,并表明该公司不够关心、没有意图进行沟通。
- 虚假评论和社交证明: AI slop 用于生成虚假评论并创建不真实的社交媒体参与(机器人对一千张 AI 图像评论“伟大的摄影”)。这破坏了人们用来判断质量的社会证明系统(例如评级、点赞和评论),使人无法相信产品或趋势是否真正受欢迎。
互联网的“实体化”
“Enshittification”是作家和活动家创造的一个术语 科里·多克托罗。 人工智能技术的广泛采用正在加速一些批评者所说的数字平台的“enshitification”——由于平台将利润(通过批量生产、算法友好的内容)置于用户价值之上,因此服务质量下降。
- 随着互联网上充斥着越来越多的机器生成的“垃圾”,人类创造者很难被人看到,整个数字环境变得越来越没有用,越来越令人沮丧。
- 这一循环强化了这样一种观念,即互联网正日益成为一个令人不愉快、不可靠的空间,旨在培养参与度,而不是以有意义的方式进行联系、通知或娱乐。
不信任的核心是无法自信地回答两个简单的问题:“这是一个真人做的吗?”和“这是真的吗?”
保护自己:数字素养很重要
保护自己免受人工智能溢出和深度伪造的影响需要采取双重方法:关键消费(保护)和负责任的行为(不传播)。核心防御是将强大的媒体素养技能应用于您在网上看到的所有内容。
临界消耗(保护)
保护自己免受人工智能溢出和深度造假扩散的影响需要养成严格消费的强烈习惯。核心做法是拒绝盲目相信你所看到的,并开发系统的方法来验证真实性。 这涉及到检查来源——优先考虑来自已建立的、经过事实核查的新闻媒体的内容,而不是出于经济动机传播省力内容的匿名或标题诱饵帐户。
您必须放慢速度并仔细寻找明显的人工智能错误,例如扭曲的手、丢失的珠宝或视频中不自然的动作,从而检查媒体本身。
来源验证:
- 检查来源,而不仅仅是内容。 优先考虑来自知名、信誉良好的新闻和专家来源的内容。
- 追根溯源。 使用反向图像/视频搜索工具(如 Google 或 TinEye)查找媒体的原始来源和上下文。
检查媒体并发现“真相”:
放慢速度并仔细检查。 寻找人工智能生成器经常出错的视觉伪影。
寻找异常情况
- 照片: 例如扭曲的手、多余或缺失的手指、融化或弄脏的背景细节、不自然的阴影或不一致的珠宝。
- 视频: 对于视频,请注意机器人、生涩或不自然的身体动作,以及任何对口型问题。
事实核查和怀疑:
- 假设它可能是假的。 如果某条内容引发了强烈的情绪反应(震惊、愤怒或敬畏),请立即暂停并假设它是操纵诱饵。
- 独立验证索赔。 在接受或分享之前,请与多个可信的独立新闻机构反复核对该故事。
如何不传播 AI 垃圾(负责任的行为)
您的个人分享习惯是阻止合成内容传播的最有力工具:
- 停止情感分享: 如果一段内容(图像、视频或标题)引起立即、强烈的情绪反应(愤怒、震惊、恐惧或敬畏),请暂停。内容创作者利用情绪触发因素绕过你的批判性思维,让你立即分享。
- 质疑动机: 在点击“分享”之前,先问自己:“如果我分享这个,谁会受益?”如果答案是匿名点击诱饵网站、算法内容农场或推动强有力的、未经验证的议程的来源,请不要分享。
- 拒绝放大 Slop 和 Deepfakes: 请勿参与或评论明显低质量的人工智能生成的内容(例如重复、无意义的文章或奇怪的图像)。算法会奖励所有的参与,所以即使是一条评论说“这是假的”也有助于提高人们的关注度。
- 必要时添加上下文: 如果您绝对必须分享一段看起来可能是假的内容(例如,讨论趋势),请自己清楚地标记它(例如,“警告:这似乎是人工智能生成/未经确认的”)。
通过养成这些习惯,您可以从被动消费者转变为主动过滤器和具有数字素养的消费者,致力于保护自己和他人免受错误信息和谎言的侵害。这些是保护数字生态系统完整性的最有效方法。
关键词:Finextra,新闻,在线,银行,银行,技术,金融,金融,fin,科技,金融科技,IT,突破,最新,零售,t交易,贸易,执行,头条新闻,区块链,数字,投资,移动,业务,挑战者,支付,监管科技,保险科技,服务