您现在的位置是:首页 > 科技 > 正文
信任可解释的人工智能和迫在眉睫的利润机会
发布时间:2024-07-14 22:57:44来源:
人工智能(AI)正在成为一项重要的业务,具有各种迷人的机会。增长非同寻常:2015年全球人工智能收入为1260亿美元,去年收入为4820亿美元。对2024年的预测是收入将达到3.061万亿美元。
人工智能的进步使得计算机可以承担人类正式完成的更多任务。虽然这种趋势正在提高效率,但它也增加了人们认为他们正在谈论隔离墙的程度。只需考虑与手机上的现场人员交谈与导航一系列菜单选项之间的区别,顺便说一下最近已经改变了,所以请仔细聆听。
人工智能在金融服务中的作用很大。2017年,大约85%的在线支付和信用卡交易依赖于AI技术。随着金融科技的发展,有时候“人工智能”中的“情报”看起来就像是用词不当,导致人们在说“走向数字”时感到有道理。这是因为一些人工智能就像一个“黑匣子”,意味着人工智能过程是不透明的,很难让每个人都理解,包括AI开发人员。随着“黑匣子”和“走向数字”的到来令人沮丧。
沮丧是一种情绪反应,情绪正在推动对可解释人工智能的需求。我最近观看了一个关于可解释AI的优秀在线教程,名为“行业中的可解释AI”。该教程由最近在人工智能和数据的KDD会议上由两个小组提出。一个展示小组来自Fiddler Labs,一家专门研究可解释AI的公司,另一个来自LinkedIn的Fair Machine Learning团队。
在线教程中的一个特定幻灯片引起了我的注意,关于新机器学习模型的用户问自己:“我什么时候可以信任你?”以“你”为模型。作为一家令人兴奋的硅谷创业公司,Fiddler Labs了解到他们是一家技术公司,其产品可以提供信任。
情感,如信任,是我们心理学的一部分。从广义上讲,信任是现代经济中交换的重要组成部分。大多数人没有足够的知识来猜测我们认为是专家的人。人们依赖于医生,会计师,牙医,机械师和承包商的建议。他们往往信任他们收到的建议。这种信任往往源于过去的经验。然而,在缺乏经验的情况下,信任通常源于转介,而转介又是基于我们从我们信任的其他人那里听到的内容。
如果他们认为AI是敌人而不是朋友,人们就会不信任AI。如果AI认为其结构违反道德规范,那么人们就会不信任AI。如果他们觉得算法缺乏能力,人们会不信任AI。最后,如果人们发现AI的结果不可预测,他们就会不信任AI。
对人工智能对我们生活的影响的担忧变得如此之大,以至于国会两党通过监管来解决这个问题。今年6月26日,众议院金融服务委员会的人工智能工作组举行了一次题为“人工智能的视角:我们在哪里以及金融服务的下一个前沿” 的听证会。
金融服务委员会多数工作人员撰写的一份备忘录提出了“可解释的人工智能”这一问题,表达了“对金融服务应用的潜在关注”,涉及“系统的不透明性和可解释性”。通过可解释性,他们意味着能够“解释”对人类用户的决定和行动。“
心理学家保罗·斯洛维奇(Paul Slovic)说,人们对风险的看法倾向于由两个特征驱动。首先是恐惧,人们害怕危险情况的潜在结果的程度。第二个是基于熟悉程度的知识,人们认为他们理解风险的程度。
人们将缺乏对他们认为有风险的活动的信任,因为他们意识到他们不了解相关的风险并且害怕潜在的后果。
举一个非金融的例子,AI是自动驾驶汽车的基础,意味着自动驾驶汽车。人们对行人被自动驾驶车辆杀死的事件的恐惧做出反应。不理解为什么车辆的传感器无法识别汽车路径中的行人会增加风险感。
当然,金融服务委员会的重点是金融部门,而不是汽车部门。这就是为什么委员会邀请Jesse McWaters的证词,他在世界经济论坛上就金融创新相关问题工作。McWaters的重点是“探索包括人工智能在内的新技术在金融体系的快速转型中发挥的作用。”他证实了信任,并指出了“必须具备知情信任所必需的背景,透明度和控制”的重要性。在一个特定用例的模型中。“萨里大学的学者Bonnie Buchanan也提到了对她的证词的信任,并将其与治理问题联系起来。
与AI相关的金融风险很大。信任是这些赌注的一部分。信任比获得更容易丢失。因此,出于财务和道德原因,让AI可解释的原因非常重要。
标签: