在采用人工智能的比赛中,太多的企业在忽略加速器的同时,在刹车。俗话说:“ AI可能不会来您的工作,但是使用AI的公司正在您的公司来。”集成AI解决方案的压力正在变得越来越大,而错过了早期采用窗口的组织越来越多地转向外部供应商进行快速修复。企业等待的越来越长,当他们被迫采用AI时,它的越快和风险就会越快。通过延迟,他们必须快速学习如何在没有经验的情况下做到这一点。本文探讨了未经检查的AI部署的重大风险,并为挑战提供了指导。
当AI工具流氓时
还记得英国邮局地平线丑闻吗?传统的软件系统导致数百名无辜者被起诉,有些被监禁并被彻底摧毁。那只是
普通的 软件。您的组织可能准备释放的AI工具代表了完全不同的野兽。
AI就像一个青春期 – 莫迪,不可预测的,偶尔也很危险。考虑加拿大航空的聊天机器人崩溃:它自信地为客户提供了不正确的丧亲政策信息,法院裁定加拿大航空必须尊重其数字代表的错误承诺。虽然在这种情况下,人们可能会认为聊天机器人比公司的实际政策更人道,但财务影响很大。
关键的问题是:您的AI工具会被信任地表现并从事其工作,还是会横冲直撞并破坏您的业务?学习如何通过强大的监督部署AI是一个关键的技能组织必须掌握成功的AI部署,而不是玩俄罗斯轮盘赌。现在开始的公司正在学习如何控制这项关键技术。
Zillow警告性故事
Zillow未能涉足房地产,突显了AI仅依靠过去数据的危险。该算法对其预测充满信心,未能考虑到迅速变化的市场状况(例如需求下降或附近的房地产问题),Zillow的算法可能需要几个月的时间才能认识到对估值的影响。同时,精明的卖家资本利用了这一点,在Zillow检测到价格下降之前将物业卸载到Zillow,使公司造成了10%的劳动力。
问题? Zillow的AI看上去很向后,接受了历史数据的训练,无法适应动态环境。同样的问题困扰着库存算法和其他系统。在面对新的市场条件时,这种情况在历史数据上表现出色,但崩溃了。如果您的AI仅根据过去的数据做出决定而没有考虑环境变化,则您正在为Zillow式的灾难做准备
为了减轻这种风险,请确保您的AI培训数据代表当前且预期的未来条件。仔细考虑风险!这对于金融系统尤为重要,在金融系统中,尾巴风险比模型预测的要频繁。只要对AI的人群的代表样本训练,例如分析皮肤状况,例如分析皮肤状况,就不太容易受到变化的环境的影响。
启动角落切割:从独角兽到破产
您的供应商可能会偷工减料。尽管它们可能不是另一个Theranos,但风险是真实的。以财务报告差异,以最近崩溃的英国科技独角兽(Builder.ai)为Builder.ai。现在已经出现了Builder.ai是一个欺诈行为,使用该服务的人留有孤儿应用程序。
初创企业面临着巨大的压力,要交付结果,这可能会导致关键的疏忽,而这通常会被扫除地毯。一个常见的陷阱是培训数据中的偏见。当您的系统对人做出判断时,固有的偏见可能会导致歧视性结果,甚至可以延续并扩大歧视性结果。
即使是科技巨头也无法免疫。亚马逊试图通过分析目前的劳动力简历来构建AI简历筛选工具来识别顶级人才。问题? AWS是其巨大的云部门,主要是男性,因此AI学会了偏爱男性候选人。即使在清除了公开的性别识别信息之后,该系统仍然检测到在男士简历中更常见的微妙语言模式,并继续其偏见。
如果您正在使用AI来确定某人是否有资格获得融资,那么您如何确定该系统不会永久存在现有偏见?
我的建议是在部署AI之前对人做出决定的AI,请仔细评估数据和偏见的潜力。考虑实施偏差检测和缓解技术。更好的是,现在开始进行内部试验,以查看数据可能导致的问题。这些组织现在获得经验,将领先于尚未开始的同龄人。
幻觉问题
然后,生成AI中有“幻觉”,这是一个有礼貌的术语,这正是正在发生的事情。只需问埃隆·马斯克(Elon Musk),他的聊天机器人Grok编造了一个关于NBA明星克莱·汤普森(Klay Thompson)在萨克拉曼多(Sacramento)的窗户上扔砖头的故事。 萨克拉曼多可能是平淡的,但没有驱使克莱(Klay)扔砖头穿过邻居的窗户。这种制造可能会损害包括您公司在内的声誉。
您如何防止类似的尴尬?将人类保持在决策循环中 – 至少,当事情出错时,您要责备某人。您不是您从Shady VC支持的“ Piranha AI”购买的AI,它批准了这些可疑贷款;是约翰尼的会计签署了他们。
一种实用的方法是设计您的AI来展示其工作。当系统通过编写代码来提取数据库信息来生成输出时,此透明度或“可解释的AI”,方法允许您验证用于到达它们的结果和逻辑。 还有其他一些技术可以减少或消除幻觉的影响,但是您需要获得一些动手经验,以了解它们的发生时,他们说什么以及这会使您的组织暴露出什么风险。
AI失败的经济和社会成本
AI安全性和合规性失败的成本远远超出了直接损失:
- 直接的财务成本:AI安全漏洞会通过盗窃,赎金支付和运营中断导致巨大的财务损失。数据泄露的平均成本在2023年达到445万美元,AI增强攻击可能会推动这一数字更高。
- 监管处罚:不合规的AI系统越来越面临陡峭的监管处罚。根据GDPR,公司最多可被罚款全球年收入的4%。
- 声誉损害:当AI系统做出歧视性决策或侵犯隐私行为时,声誉损失可能远远超过直接的财务损失并持续多年。
- 市场信心侵蚀:整个行业的系统性AI失败会侵蚀市场信心,可能触发投资回调和估值更正。
- 社会信任下降:每个备受瞩目的AI失败都会降低公众对技术和机构的信任,从而使未来的创新采用更加困难。
前进的路
当您进入这个危险的世界时,您将面临一个困难的现实:您是否延迟实施AI,然后不得不争先恐后地赶上,或者您更谨慎,现在开始从事AI项目。现实情况是,您的竞争对手可能正在采用AI,并且您必须在不久的将来。一些后期的首发者将实施可笑的荒谬系统,使他们的操作削弱。不要以为从成熟的供应商那里购买可以保证保护保护,而许多产品假设您将管理风险。试图在没有经验的情况下运行一个主要的AI项目就像试图在没有训练的情况下开车。亲密通话是您所希望的最好的电话。
获奖者将是在实施强大的保障措施时仔细选择最佳AI系统的公司。不要以为已建立的供应商免受风险的影响。考虑以下步骤:
- 优先考虑人类的监督: 为AI输出实施强大的人类审查过程。
- 专注于数据质量: 确保您的培训数据准确,代表性,并说明潜在的偏见。
- 要求解释性: 选择为其决策过程提供透明度的AI系统。
- 建立道德准则: 为AI开发和部署制定明确的道德准则。另外,AI咨询公司可以提供指导。但是,仔细审核它们,否则您可能最终会遇到另一个问题,而不是解决方案。
- 采取适当的安全和合规措施: 这不仅仅是良好的道德,这是一件好事。
在采用AI的比赛中,请记住:安全到达比在到达终点线之前碰撞的次数要好。
那些已经开始AI旅程的人正在学习有关什么有效和无效的有价值的课程。您等待的时间越长,您的位置就越风险。对于其他所有人来说,您所希望的只是您俄罗斯轮盘左轮手枪中更多的空室。
(tagstotranslate)FineXtra(T)新闻(T)在线(T)银行(T)银行(T)技术(T)技术(T)财务(T)财务(T)Financial(T)Fin(T)Tech(T)Tech(T)Fintech(T)Fintech(T)IT(T)IT(T)破坏(T)最新(T)最新(T)最新(T)零售(t)零售(T)t剥夺(t)贸易(t)执行(t)头条新闻(t)区块链(t)数字(t)投资(t)移动(t)业务(t)挑战者(t)付款(t)付款(t)Regtech(T)Regtech(T)Insurtech(T)Insurtech(t)服务
关键词: