The news is by your side.

“设置并忘记它”不会削减它:保险公司警告AI监督

3


以前,保险领域的许多部分曾被遗产技术损坏,现在正在进行快速的数字化转型。人工智能,自动化和嵌入式保险只是推动从承保和索赔到客户参与的一切变化的某些技术,导致许多行业公司和领导者重新考虑其方法。

已经深入研究AI驱动的索赔是否带来任何风险,我们现在将注意力转向保险公司对AI的广泛使用。虽然新兴技术显然对保险行业的各个方面产生了巨大影响,但一些公司是否愿意将其倾斜太远?

过度使用或过度依赖AI会构成重大挑战,还是大多数公司已经足够警惕以使受害者成为受害者?为了找出答案,我们与行业参与者取得了联系,以获取他们的看法。

常识必须占上风

Martyn Mathews,Broker Software House的医学博士 SSP经纪人,解释即使在接受AI技术时,始终确保人类监督的重要性。

Broker Software House SSP经纪人Martyn Mathews,医学博士,
SSP经纪人Martyn Mathews,医学博士

“当一家保险公司考虑AI背后的机会时,常识必须占上风。毫无疑问,我们必须接受AI,但是我们必须采用仔细和考虑的方法,确保消费者信任,监管合规性以及精算,承保和索赔职能的人类技能。

“There is a possibility that insurance industry regulation could, at least initially, be at odds with AI and the regulator's expectations around pricing might not be met when AI is used to support pricing decisions. Insurance providers have an obligation to make pricing explainable and clear to the regulator. Many firms using AI embed AI explainability frameworks to meet the FCA's General Insurance Pricing Practices and Consumer Duty requirements. This may become more of a challenge随着AI开始影响越来越多的保险方面,这使消费者信任处于危险之中。

“对AI的过度依赖在任何保险领域都是危险的,但是在定价和成本的底线方面,这种风险会放大。监管机构将根本不接受将责任归咎于AI的解释。因此,保险提供者必须使用人类的监督来理解和管理机器学习算法。

“我们看到的方式,无论AI的当前格式如何,都必须维持人类的监督。AI不应成为保险中棘手问题的唯一答案。它应该用作设备齐全的保险提供商或经纪人的弓箭。”

谨慎接近

山姆·诺特,保险软件提供商的业务开发总监 fadata,似乎也同意,解释了为什么最好的AI方法是最好的。

Fadata业务发展总监Sam KnottFadata业务发展总监Sam Knott
Fadata业务发展总监Sam Knott

“保险业自然是规避风险的。因此,尽管AI确实有可能与之相关,但保险公司和保险技术提供商极不可能非常谨慎地接近AI。

“AI is an excellent process workhorse, reducing mundane workloads, with the potential to enable insurance to be significantly more automated, and if used correctly, in a positive way. It speeds up service provision so that humans can focus on the tasks they are best suited to. However, AI cannot empathise, and although the digital market demands more digital services, losing human interaction completely, immediately diminishes customer trust. Insurers that approach AI with both awe和关注,已经做出了很好的决定。

“ AI在保险中的应用不断增长,还有助于在保险公司内创建更多有趣的工作角色,例如吸引关键的IT人才,因为保险公司越来越希望更好地利用内部IT资源来进行数字化转型,这特别重要。

“任何AI策略的核心点是对实现目标的非常清晰,可定义的图片。没有清晰的目的的AI功能的毛毯方法将造成比寻求解决的问题更多的问题。理解这一点将使保险公司能够确定保险的最佳领域和用例。在核心原则上,应允许使用ai的核心原则,以允许其允许进行操作的工具,以使其具有效率和人类的工具,并允许人类的间隔和人类的间隔。为了真正了解风险并消除所有行政负担。”

AI盲点

“是的,尤其是如果AI模型未经适当培训,管理或与合规策略保持一致,” 史蒂夫·马歇尔,咨询服务总监 FinScan,为金融机构,保险公司和金融科技提供AML和KYC合规解决方案。

FinScan咨询服务总监Steve MarshallFinScan咨询服务总监Steve Marshall
FinScan咨询服务总监Steve Marshall

“尽管AI可能会帮助保险公司发现可疑模式并简化了登机和索赔处理,质量差的数据或模型不足可能会导致严重的盲点。例如,如果没有可疑行为的历史示例,模型可能会错过基于贸易的货币洗钱的迹象,但会错过迹象,高风险的第三部分,或者在保险公司中造成的风险差异,该公司的风险差异 – 在驾驶风险的范围内,该公司的风险差异很高。确保解释性。

“设定它并忘记它'对人工智能的方法可能会使保险公司有缺少关键合规性触发因素并没有监管要求的风险。”

保险公司已经足够谨慎吗?
RPC的合伙人Alastair MittonRPC的合伙人Alastair Mitton
RPC的合伙人Alastair Mitton

但是,是 阿拉斯泰尔·米顿(Alastair Mitton),律师事务所的合伙人 RPC,在保险行业中AI过高的风险很小。他解释说:“在这个阶段,几乎没有证据表明保险公司过度涉足AI。

“例如, FCA AI调查发现,报告的AI用例中有60%的风险低,只有16%被认为是高风险。行业讨论反映了一个谨慎的立场,许多公司在更敏感的地区使用AI之前,等待监管机构的更清晰的指导。

“一个关键问题是供应链风险,尤其是在第三方AI工具不足时问责制。这是我们在多个保险公司中看到的一个普遍问题:他们必须满足的高监管标准通常不会反映在AI供应商提供的条款中。一些保险公司正在探索一些新兴的保险产品来帮助管理这些风险,市场仍处于早期阶段。”

AI FOMO

“肯定有风险,但这并不是大多数人认为的风险。” 安德鲁·哈灵顿,CIO在保险金融科技上 成熟。 “真正的危险不是人工智能会犯错,而是公司将在没有适当的战略,治理或了解他们试图实现的目标的情况下实施AI。

保险金融科技成熟的CIO Andrew Harrington,保险公司AI保险金融科技成熟的CIO Andrew Harrington,保险公司AI
安德鲁·哈灵顿(Andrew Harrington),CIO成熟

“太多的保险公司遭受了'AI FOMO'的困扰,急于实施人工智能,因为竞争对手正在这样做,而不是因为明确的商业案件。这可能导致螺栓固定的解决方案,这些解决方案比他们解决的问题更多。

“At Ripe, we follow a 'build backwards' methodology, starting with the end result we want to achieve, and working backwards to determine if AI is the right tool. Sometimes, a simple automation or process improvement can deliver better results than complex AI implementation. Governance is crucial when it comes to AI. Strict guardrails are key, including limitations on what data AI systems can access and clear protocols for human oversight. Even so, regular auditing of AI outputs is essential.

“将会成功的公司是那些将AI视为更广泛的技术堆栈中的工具的公司,而不是银弹。SMART实施需要对您的数据有深刻的了解,具有明确的目标并维持人类的监督。该目标应该是增强人类的能力,替代更多的手动,重复的任务,而不是代替人类的判断。

“做对了,AI增强了客户体验和运营效率。做错了,它会造成客户挫败感,并可能导致监管头痛。”

实施必要的保障措施

“有一个诱惑,假设Genai将解决所有操作问题。” 丹尼尔·哈达特(Daniel Huddart),家庭保险专家的CTO 象征性。 “不会。

huddart的丹尼尔·哈达特(Daniel Huddart)huddart的丹尼尔·哈达特(Daniel Huddart)
Daniel Huddart,hompotect首席技术官

“这可能是一种强大的生产力工具,但是您无法成功地将AI应用于混乱或非结构化的过程中。在将AI引入操作中之前,我们花了一些时间来构建详细的流程映射和文档,因此我们确切地知道该技术正在改善或自动化。如果任务只有某人的头脑中存在,您就无法训练或监督AI,可以正确地进行AI训练。

“还有一个信任的问题。如果AI工具在99%的时间里得到了正确的时间,人们可能会停止质疑这是一个犯错的百分比。对于复杂的主张而言,这就是一个真正的风险。这就是为什么我们将我们的AI发展分为两种曲目 – 一条专注于创新,而专注于政府和政府和政府和控制。

“我们还了解到,吉奈(Genai)产生了一些新的挑战。例如,即使喂养相同的数据,每次都可以给出略有不同的结果。这种不可预测性使得比传统模型更难进行测试,比较或审计。变化的节奏迅速。我们最近对欺诈行为进行了全部折磨,仅在不替代欺诈的情况下,它就替换了一个不同的模型,这是一个不同的模型,这是一个不同的模型,这意味着一个不同的模型。强迫我们重新开始。

“最终,生成的AI具有巨大的潜力,但就保险业务扩展而言,这仍然是早期的。要正确地进行仔细的计划,正确的保障措施以及对人员和工具的大量投资。”



关键词: