随着金融机构越来越多地整合人工智能,他们面临着释放人工智能潜力的挑战,同时确保遵守监管要求和道德标准。
在这篇文章中,我们将回顾监管期望,分享构建透明和公平的人工智能模型的策略,并介绍稳健治理和验证实践的重要性。
快速回顾:监管机构对人工智能风险模型的立场
英国的监管框架并未对人工智能在风险建模中的使用设置具体障碍。然而,PRA和FCA等监管机构强调,人工智能解决方案必须满足与传统模型相同的标准,包括透明度、准确性、问责制和控制力。
人工智能复杂性的挑战
-
人工智能模型比逻辑回归等传统技术更复杂
-
这种复杂性使得解释和解释决策过程变得更加困难
-
人们对基于人工智能的模型的偏见存在更大的社会和监管担忧
-
监管机构希望获得与更简单的模型相同水平的监督、理解和控制
关键合规要求
为了满足监管要求,组织需要:
-
展示对其人工智能模型的透彻理解
-
建立健全的治理框架
-
保留对人工智能驱动决策的全面监督
-
向监管机构和利益相关者提供模型结果的清晰解释和理由
从本质上讲,组织必须表明他们掌握人工智能模型的运作方式,拥有可靠的治理,并对人工智能生成的结果保持完全控制。以下是他们如何平衡这些需求与推动创新。
构建合规人工智能风险模型的步骤
这是一项挑战 创造 人工智能模型。确保合规性是另一回事。这就是为什么在风险建模中实施人工智能需要采用全面的方法。以下是组织应采取的一些关键步骤:
第 1 步:保持内部专业知识
组织不能委托人工智能模型的责任。相反,他们必须:
-
培养人工智能模型构建、实施和监控方面的核心专业知识
-
了解模型在其操作环境中的优势和劣势
-
采用基于人工智能的方法时,要做好额外资源开销的准备
第二步:建立跨学科合作
-
确保业务和监管专家与技术专家密切合作
-
创建具有共同目标和责任的共同管理结构
-
在可能的情况下,聘请具有业务和技术专业知识的跨学科专家
第三步:制定人工智能专用标准
-
创建行为准则,详细说明人工智能解决方案的法律和道德要求
-
建立必须遵守的规则和约束
-
这些可能类似于现有模型开发标准,或者是现有模型开发标准的修改版本
第四步:将人工智能集成到风险框架中
第 5 步:进行独立模型验证
-
确保模型由经验丰富的开发人员独立审查
-
认识到监管机构和审计人员在认为模型适合目的之前需要独立验证的证据
-
解决寻找具备人工智能技能、行业知识和监管专业知识的验证者的挑战
除此之外,我们建议实施以下最佳实践:
💡确保变量选择的良好实践:仅使用具有明确来源、稳定性并保证未来可用性的高质量数据。另外,在解决方案中仅包含完全理解的数据。
💡应用稳健的变量缩减:减少数据输入以提高模型的可解释性,并删除高度相关的变量以避免歧义。
💡包括业务敏感的数据关系:优先考虑在单变量级别显示敏感关系的数据项。
💡实施适当的模型询问方法:使用可以在组合和个案级别解释模型输出的工具。
现在,我们已经介绍了一些最佳实践,但我们想更深入地探讨道德规范。
焦点:解决潜在偏见
减少偏差的关键是从一开始就正确设计模型,而不是在创建后尝试对其进行审查或调整。也就是说,在模型构建后检查偏差并在必要时进行纠正非常重要。
当然,由于社会中固有的偏见,要排除所有偏见几乎是不可能的。因此,应进行适当的结果分析,以确保偏差不是不合理/不公平的。特别是,这意味着确保模型输出对于给定群体是准确的,即使这意味着某些群体会受到不同的对待。
例如:性别工资差距是一个不应该存在的社会特征,但不幸的是确实存在。在其他条件相同的情况下,平均而言,男性比女性获得更多的信贷,因为她们的收入更高。最好的解决办法是直接解决薪酬差距。然而,虽然正在逐步取得进展,但距离完全缩小差距还需要很多年。因此,金融机构需要找到一种方法来解决这个问题,同时公平对待每个人。
因此,在这个例子中,一个论点是“公平对待”意味着确保平均工资相同的男性和女性获得相同数量的信贷,但也可以采用其他几种方法。
同样非常重要的是,用于构建人工智能解决方案的数据样本尽可能具有代表性,即如果某些群体在用于构建人工智能解决方案的数据样本中代表性不足,那么生成的模型对于这些群体来说将不那么准确。如果存在代表性不足,则可以调整(加权)数据样本以提供更平等的代表性。
人工智能在风险建模中的未来
目前,大多数大型语言模型(如 ChatGPT)缺乏构建或验证风险模型等专门任务所需的功能。然而,这些技术正在迅速发展。在未来几年中,完全有可能开发出专门的版本,能够处理模型创建和验证的关键方面。
生成式人工智能和法学硕士面临的挑战
除此之外,一个关键的挑战在于用于生成人工智能和大型语言模型(LLM)应用程序的数据和建模方法。最终用户通常无法访问这些数据及其建模方式,从而造成了重大障碍:
-
监管合规性:公司努力履行模型风险的监管义务,特别是在评估基础数据的适当性、完整性和质量时。
-
偏差识别:缺乏透明度使得几乎不可能确定模型结果中偏差的根本原因。
-
操作风险。任何在业务关键系统中嵌入外部提供的模型的组织都需要对这些模型的持续性能、可用性和成本提供极高水平的保证。
随着人工智能技术在信用风险领域不断进步,这些问题凸显了仔细考虑和监管指导的重要性。
要点:在人工智能风险建模中平衡道德、合规性和创新
随着人工智能不断改变金融服务的风险评估,组织必须在创新与合规性之间取得微妙的平衡。人工智能驱动的风险建模的过程很复杂,但如果采用正确的方法,它可以产生显着的效益。
要点:
-
监管调整: 英国监管机构期望基于人工智能的模型能够满足与传统方法相同的严格标准。
-
内部专业知识: 组织不能外包人工智能模型的责任。开发和维护内部专业知识和模型理解对于合规性和有效的模型管理至关重要。
-
跨学科合作: 成功的人工智能实施需要业务、监管和技术专家之间的无缝合作。
-
道德考虑: 解决人工智能模型中的偏差需要主动设计、仔细的数据选择和持续监控。
-
透明度和可解释性: 尽管人工智能模型很复杂,但它们必须是可解释的,其决策也必须能够向监管机构和利益相关者解释。
-
未来的挑战: 随着大型语言模型等人工智能技术的发展,数据透明度和监管合规性方面的新挑战将会出现。
-
持续适应: 人工智能技术快速发展的本质和监管环境要求组织保持敏捷并不断完善其方法。
展望未来,成功的关键是保持警惕、适应并致力于负责任的人工智能实施。
关键词:Finextra,新闻,在线,银行,银行,技术,金融,金融,fin,科技,fintech,IT, )打破(t)最新(t)零售(t)交易(t)贸易(t)执行(t)头条新闻(t)区块链(t)数字(t)投资(t)移动(t)商业(t)挑战者,支付,监管科技,保险科技,服务