正确使用生成式人工智能可以成为促进创新的绝佳工具。然而,如果使用不当,它可能会造成极大危害,尤其是在深度伪造的出现下。 艾普罗夫生物识别解决方案提供商WeWork 公布了英国、美国、巴西、澳大利亚、新西兰和新加坡对生成式人工智能和深度伪造威胁的态度。
《好的,坏的,丑陋的》是 iProov 委托进行的一项全球调查,收集了来自英国、美国、巴西、澳大利亚、新西兰和新加坡的 500 名技术决策者对生成式人工智能和深度伪造威胁的看法。
该调查听取了 500 名技术决策者的意见,题为 好人、坏人和丑陋的人,显示 47% 的公司曾遭遇过深度伪造。70% 的人认为这些使用生成式人工智能的伪造将对他们的组织产生重大影响。
“我们多年来一直在观察深度伪造,但在过去六到十二个月里,深度伪造的质量和制作的简易性发生了变化,对组织和个人都造成了大规模破坏,”他说。 安德鲁 芽,iProov 创始人兼首席执行官。
“也许深度伪造最容易被忽视的用途就是创建合成身份,由于这些身份不是真实的,也没有所有者报告其盗窃行为,因此在很大程度上未被发现,同时造成了严重破坏并骗取组织和政府数百万美元。”
哪些地区受影响最严重?
调查显示,欧洲(53%)和拉丁美洲(53%)是最有可能遭遇深度伪造的地区。其次是亚太地区(51%)和北美地区(34%)。尽管遭遇的深度伪造数量(相对而言)并不多,但超过七成(71%)的北美公司认为深度伪造将对其组织产生影响。
81% 的亚太地区公司、72% 的欧洲公司和 54% 的拉丁美洲公司也持有类似观点。
人工智能:朋友还是敌人?
尽管组织认识到人工智能可以提高效率,但威胁技术开发人员和不良行为者也享受到了这些好处。
73% 的公司正在实施解决方案以应对深度伪造威胁。不幸的是,信心不足,因为研究发现,人们最担心的是各组织没有采取足够措施来打击这些威胁。超过三分之二 (62%) 的人担心他们的组织没有足够重视深度伪造的威胁。
调查显示,各组织认识到深度伪造的威胁是真实存在的。它们可以以多种有害方式对人们造成伤害,包括诽谤和名誉损害,但最可量化的风险或许是金融欺诈。
在这里,他们可以冒充个人来实施大规模身份欺诈,以便未经授权访问系统或数据,发起金融交易,或欺骗他人汇款,其规模与最近香港的深度伪造骗局相当。
严峻的现实是,深度伪造对个人需要远程验证身份的任何情况都构成威胁,但接受调查的人担心组织没有足够重视这种威胁。
打击深度伪造
各组织已经开发了各种工具来打击身份欺诈和深度伪造。然而,调查还发现欺诈者仍在使用其他攻击手段。64% 的受访者认为密码泄露是一种常见的攻击手段。同时,勒索软件(63%)和网络钓鱼/社会工程攻击(61%)也继续成为犯罪分子使用的手段。
有趣的是,深度伪造并不是最普遍关注的问题,而是与网络钓鱼并列第三,占 61%。
尽管人们对这项技术心存恐惧,但全球许多组织仍然认为生成式人工智能是好的。他们认识到生成式人工智能具有创新性、安全性和可靠性,并能帮助他们解决问题。他们认为生成式人工智能更符合道德规范,而不是不道德,并相信它将对未来产生积极影响。
因此,83% 的公司能够增加针对人工智能风险的项目的预算。此外,大多数公司还出台了使用新人工智能工具的政策。
引入生物识别技术
组织打击深度伪造的一种方法是使用生物识别解决方案。许多公司根据任务要求采用面部和指纹生物识别技术,以保护用户数据和组织免受深度伪造攻击。
例如,研究发现,组织认为面部识别是最合适的附加身份验证模式,可以防止账户访问/登录、个人详细信息账户更改和典型交易中的深度伪造。
调查明显表明,各组织将生物识别技术视为专业领域,几乎所有组织(94%)都同意生物识别安全合作伙伴不应仅仅是一种软件产品。
接受调查的组织表示,他们正在寻找一个能够不断发展并与威胁形势保持同步的解决方案提供商,通过持续监控(80%)、多模式生物识别(79%)和活体检测(77%),所有这些都是他们充分保护生物识别解决方案免受深度伪造侵害的要求中的重要部分。
Bud 继续说道:“尽管有些人可能不这么认为,但现在肉眼已经无法检测到高质量的深度伪造。尽管我们的研究报告显示,接受调查的组织中有一半都遇到过深度伪造,但这个数字可能要高得多,因为大多数组织都没有适当的设备来识别深度伪造。
“随着威胁形势的快速创新,组织不能忽视由此产生的攻击方法,以及面部生物识别技术如何成为远程身份验证最具弹性的解决方案。”
关键词: