以前,保险领域的许多部分曾被遗产技术损坏,现在正在进行快速的数字化转型。人工智能,自动化和嵌入式保险只是推动从承保和索赔到客户参与的一切变化的某些技术,导致许多行业公司和领导者重新考虑其方法。
在探索保险技术行业中一些最大的新兴趋势时,一个反复出现的主题是AI。虽然它的好处非常有用,但在保险领域使用该技术是否有任何风险?我们与该行业联系以找出答案。
自动决策的偏见
菲利普 麦格里金,首席执行官兼创始人 Vitesse这是保险业的全球财政和支付提供商,强调了商业消费者关系,信任和透明度中一些最重要的要素如何受到质疑,如果较差的监督是否导致偏见在决策中发展。
“ AI驱动的索赔自动化显然正在重塑保险行业,主要是为了更快的决策,降低的成本和更快的客户体验。但是,尽管上升空间是可观的,但保险公司仍然必须积极管理重要的风险。
“其中的主要是自动决策偏见的潜力。经过历史数据培训的AI系统可以无意间复制甚至加剧现有的不平等现象,尤其是当缺乏监督的情况下,另一个关键问题是透明度。许多AI模型作为“黑匣子”,使保险公司很难解释保险公司向监管机构或客户解释决策,即惯用涉及时期的杂物,这是一个惯用的涉及何时涉足的范围。
“我们最近 索赔状况融资 报告发现,有40%的保险公司将AI驱动的门户和聊天机器人作为更好的服务交付的关键推动者所接受。值得注意的是,只有25%的人将生产力提高为他们的主要目标,这表明保险公司比取代人类专业知识更着重于提高客户体验。
“课程很明确:AI应该增加,不再取代,判断,同理心和问责制。若有所思地使用,自动化可以增强索赔而不会破坏公平或服务。但是必须与严格的监督,可解释性和持续评估一起部署,以确保它真正为企业和客户服务。”
过度依赖是失败的秘诀
除了围绕信任和透明度的风险外, 贾斯汀 黄,AI项目的首席运营官和负责人 RNA 分析一家全球精算和风险管理咨询公司,还指出,如果AI过于严格而且不保持最新状态,数据质量问题也可能处于危险之中。
“ AI驱动的索赔自动化在速度,效率和降低成本方面具有显着优势,但也引入了显着风险。主要问题之一是对历史数据培训的偏见AI系统可能会无意中复制歧视性模式,从而导致对某些保单持有人的不公平处理。
“此外,许多AI模型缺乏透明度,使保险公司难以解释或证明自动索赔决定。这种缺乏解释性可能与监管要求相抵触,尤其是在要求自动化过程中公平性和问责制的管辖权中。
“其他关键风险包括数据质量问题,如果培训数据过时或不完整,它们可能会偏向AI输出,以及对自动化的过度依赖,如果系统失败而没有人类监督,则可能会导致大规模错误。缺少新的欺诈模式或由于不明显的,未能解释的,未能分解的,削弱客户信任的风险。
“为了减轻这些挑战,保险公司必须执行强大的AI治理,确保人类的监督,并保持强大的审计和监测系统,以维护公平,透明度和法规合规性。”
需要情感元素
不管AI在当前状态下,它绝对不能做的一件事就是说明情绪。 拉吉夫 古普塔联合创始人兼首席产品官 牛铃这家网络保险公司强调,在某些情况下,保险领域需要人触摸,在这些时刻,AI的自动响应会损害消费者的互动,而不是帮助它。
“是的,我相信对任何工具的过度依赖会带来风险,并且AI驱动的主张自动化也不例外。最大的风险是,纯粹的自动化不能掌握真正的危机的细微差别 – 在这种情况下,总是有人类的情感元素在发挥作用。这就是为什么我们认为AI的角色应该像“共同提高”的责任效果,这是我们的专家掌握的责任感,这是一个复杂的责任感。任务,但是响应本身必须由经过培训的内部网络索赔专家来管理,这些专家可以提供企业恢复所需的上下文敏感指导。”
回应类似的想法, 查尔斯·克拉克,小组副总裁 Guidewire在42个国家 /地区的570多个保险公司信任的P&C保险软件和技术提供商补充说:“ AI和自动化提高效率并提高速度,但这不应以客户满意度或准确的决策为代价。
“这是真实和存在的风险。保险公司必须在客户想要的时候建立人类互动,并使客户在没有自动化的晴天之路上,这是一个难以罢工的晴天。
与传统基础设施集成
马诺 喘气,战略和业务发展高级主任,AT Pegasystems,AI驱动的决策和工作流动自动化平台指出,不负责任的AI使用可能对该行业产生的影响,但是,他还指出,与传统系统的一体化挑战是在传统,非常停滞的行业中需要克服的另一个障碍。
“是的,AI声称自动化仍然带来了保险公司必须仔细管理的重大风险,因为AI仅与训练数据一样好。
“一个主要问题是算法偏见,AI模型可能会使现有偏见永久化甚至扩大现有偏见,从而导致不公平的索赔评估或歧视性结果。维持模型的准确性将需要连续监控,对新数据进行培训以及对AI模型的更新以确保在决策和结果中的一致性。
“也存在过度依赖的风险,因为该技术失败或做出错误的决策,对大型运营区域的AI的大大依赖可能会造成系统性脆弱性。随着监管机构的审查,保险公司的审查越来越大,对于保险公司来说,确保其AI系统透明并且可以解释。
“集成挑战也持续存在,尤其是在将AI系统与传统基础架构联系起来时,这可能引入技术脆弱性和操作破坏。”
关键词: