“如果你不能简单地解释它,你就没有理解它。”
复杂的机器学习(ML)也是如此。
机器学习现在可以衡量环境、社会和治理 (ESG) 风险、执行交易并可推动股票选择和投资组合构建,但最强大的模型仍然是黑匣子。
机器学习在投资行业的加速扩张引发了人们对透明度降低以及如何解释投资决策的全新担忧。坦率地说,“无法解释的机器学习算法(……)使公司面临不可接受的法律和监管风险。”
简单来说,如果你不能解释你的投资决策,你、你的公司和你的利益相关者就会陷入困境。因此,解释——或者更好的是直接解释——是必不可少的。
其他主要行业中已经部署了人工智能 (AI) 和机器学习的优秀人才也一直在努力应对这一挑战。它改变了我们这个行业中那些偏爱计算机科学家而非投资专业人士或试图将幼稚和开箱即用的 ML 应用程序投入投资决策的人的一切。
目前有两种类型的机器学习解决方案:
- 可解释的人工智能使用不太复杂的机器学习,可以直接读取和解释。
- 可解释人工智能 (XAI) 采用复杂的机器学习并尝试对其进行解释。
XAI 可能是未来的解决方案。但这就是未来。就目前和可预见的而言,基于 20 年的量化投资和 ML 研究,我相信可解释性是您应该利用机器学习和 AI 的力量的地方。
让我解释一下原因。
金融的第二次技术革命
机器学习将成为现代投资管理未来的重要组成部分。这是广泛的共识。它有望减少昂贵的前台人员数量,取代传统的因子模型,利用庞大且不断增长的数据池,并最终以更有针对性、更定制的方式实现资产所有者的目标。
然而,投资管理领域技术应用缓慢由来已久,机器学习也不例外。直到最近,情况才有所改观。
过去 18 个月中,ESG 的崛起以及对其进行评估所需的庞大数据库的搜索是推动向 ML 转变的关键力量。
对这些新专业知识和解决方案的需求已经超过了我过去十年所见证的任何情况,也超过了自 20 世纪 90 年代中期上一次重大技术革命冲击金融以来的情况。
机器学习军备竞赛的速度令人担忧。新晋专家的明显崛起令人担忧。这场革命可能被计算机科学家而非企业所利用,这可能是最令人担忧的可能性。投资决策的解释永远在于企业的根本原因。

可解释的简单性?还是可解释的复杂性?
可解释人工智能,也称为符号人工智能 (SAI),或“传统人工智能”,起源于 20 世纪 60 年代,但再次处于人工智能研究的前沿。
可解释的人工智能系统往往基于规则,几乎像决策树一样。当然,虽然决策树可以帮助理解过去发生的事情,但它们是糟糕的预测工具,并且通常会过度拟合数据。然而,可解释的人工智能系统现在拥有更强大、更复杂的规则学习过程。
这些规则应该应用于数据。它们可以直接被检查、审视和解释,就像本杰明·格雷厄姆和戴维·多德的投资规则一样。它们可能很简单,但很强大,而且,如果规则学习做得好,它们就是安全的。
另一种选择是可解释的人工智能,简称 XAI,它完全不同。XAI 试图为无法直接解释的黑盒模型的内部工作原理找到解释。对于黑盒来说,输入和结果可以观察到,但中间的过程是不透明的,只能猜测。
XAI 通常尝试的是:通过猜测和测试来解释黑箱过程。它使用可视化来显示不同的输入如何影响结果。
XAI 仍处于早期阶段,并且已被证明是一门具有挑战性的学科。在机器学习应用方面,这是推迟判断并转向可解释的两个很好的理由。
解释或阐释?

金融领域最常见的 XAI 应用之一是 SHAP(SHapley Additive exPlanations)。SHAP 起源于博弈论的 Shapely Values,最近由华盛顿大学的研究人员开发。
下图展示了仅用几行 Python 代码就能实现的股票选择模型的 SHAP 解释。但这个解释需要自己来解释。
这是一个超级想法,对于开发机器学习系统非常有用,但需要勇敢的产品经理才能依靠它向合规主管解释交易错误。
您的合规主管需要知道什么?使用 Shapley 值来解释神经网络

无人机、核武器、癌症诊断……和股票选择?
医学研究人员和国防工业对解释或解读问题的探索时间比金融行业要长得多。他们已经获得了强大的特定应用解决方案,但尚未得出任何普遍结论。
美国国防高级研究计划局(DARPA)进行了思想引领性的研究,并将可解释性描述为阻碍机器学习系统能力的成本。
下图用各种 ML 方法说明了这一结论。在这种分析中,方法越容易解释,其复杂性就越低,因此准确性就越低。如果复杂性与准确性相关,那么这当然是正确的,但简约原则和该领域的一些重量级研究人员并不同意这种观点。这表明图表的右侧可能更能代表现实。
可解释性真的会降低准确性吗?

高管层的复杂性偏见
“准确的黑匣子和不太准确的透明模型之间的错误二分法已经走得太远了。当数百名顶尖科学家和金融公司高管被这种二分法误导时,想象一下世界其他地方也会被愚弄。”——辛西娅·鲁丁
可解释性阵营的假设是,复杂性是有必要的,这在深度学习至关重要的应用中可能是正确的,例如预测蛋白质折叠。但在其他应用中,比如股票选择,复杂性可能并不那么重要。
2018 年可解释机器学习挑战赛的意外结果证明了这一点。这本来应该是神经网络的黑箱挑战赛,但超级明星人工智能研究员 Cynthia Rudin 和她的团队有不同的想法。他们提出了一种可解释的(即更简单的)机器学习模型。由于它不是基于神经网络的,因此不需要任何解释。它已经是可解释的了。
也许鲁丁最引人注目的评论是“信任黑盒模型意味着你不仅信任模型的方程式,还信任构建模型的整个数据库。”
具有行为金融学背景的人应该很熟悉她的观点。鲁丁认识到了另一种行为偏见:复杂性偏见。我们往往觉得复杂的东西比简单的东西更有吸引力。正如她在最近的 WBS 网络研讨会上关于可解释与可解释的人工智能的解释性时所解释的那样,她的方法是仅使用黑盒模型来提供基准,然后开发具有类似准确性的可解释模型。
推动人工智能军备竞赛的高管们可能需要停下来思考一下这个问题,然后再继续全力追求过度复杂性。

可解释、可审计的股票选择机器学习
有些目标需要复杂性,但其他目标却因此受到影响。
股票选择就是一个例子。在“可解释、透明和可审计的机器学习”中,David Tilles、Timothy Law 和我介绍了可解释的人工智能,作为股票投资管理中选股的可扩展的因子投资替代方案。我们的应用程序利用简单 ML 方法的非线性能力来学习简单、可解释的投资规则。
新颖之处在于它简单、可解释、可扩展,而且我们相信它可以成功并远远超过因子投资。事实上,我们的应用程序几乎与我们多年来试验过的复杂得多的黑箱方法一样好。
我们的应用程序的透明度意味着它是可审计的,并且可以传达给可能没有计算机科学高级学位的利益相关者并被他们理解。不需要 XAI 来解释它。它是可直接解释的。
我们之所以公开这项研究,是因为我们长期以来一直认为,股票选择不需要过于复杂。事实上,这种复杂性几乎肯定会损害股票选择。
可解释性在机器学习中至关重要。否则,复杂性将循环往复,以至于每个解释都需要对这个解释进行无限的解释。
它的尽头在哪里?
人类
那么到底是哪种情况呢?解释还是解读?争论正在激烈进行。最具前瞻性的金融公司正在投入数亿美元进行研究,以支持机器学习的蓬勃发展。
和任何尖端技术一样,失败、失败和资本浪费都是不可避免的。但就目前和可预见的未来而言,解决方案是可解释的人工智能。
考虑两个真理:事情越复杂,就越需要解释;事情越容易解释,就越不需要解释。

未来,XAI 将更加完善和被理解,功能也将更加强大。目前,它还处于起步阶段,要求投资经理让他们的公司和利益相关者面临不可接受的法律和监管风险,这太过分了。
通用XAI目前还没有提供简单的解释,正如俗话所说:
“如果你不能简单地解释它,你就没有理解它。”
如果你喜欢这篇文章,别忘了订阅 进取的投资者。
所有文章仅代表作者的观点。因此,这些文章不应被视为投资建议,所表达的观点也不一定反映 CFA 协会或作者雇主的观点。
图片来源:©Getty Images / MR.Cole_Photographer
CFA 协会会员的专业学习
CFA 协会会员有权自行决定和报告所获得的专业学习 (PL) 学分,包括以下内容 进取的投资者. 会员可以使用在线 PL 追踪器轻松记录积分。
关键词: