毕马威(KPMG)报告指出,理解和解释算法的工作原理也是成功的关键。
在人工智能转型的这一点上,发现错误比成功更容易。
当苹果和高盛推出Apple信用卡时,一位备受瞩目的技术创始人和申请人描述了该团队如何在AI工作的“可解释性”要求上明显失败。
Basecamp的联合创始人兼首席技术官David Heinemeier Hansson在他和他的妻子都申请了该卡之后,就对该卡的申请过程提出了抱怨。她的信用额度比他的信用额度要低得多,即使她的信用评分更好。当海涅迈尔·汉森(Heinemeier Hansson)试图找出原因时,第一位客户服务代理实际上没有任何回答:
“第一个人就像”“我不知道为什么,但是我发誓我们没有区别,这只是算法。”
第二个客户服务代理强调了可解释性失败:
“第二代表继续讲述了她实际上如何无法获得真正的推理(同样暗示着算法)。”
如果没有人知道其工作原理,苹果和高盛如何才能证明信用审查程序是公平的?
根据人工智能和创新与企业解决方案负责人Traci Gusher以及人工智能,咨询和毕马威会计师事务所负责人Todd Lohr撰写的“道德AI:五个指导支柱”,每个公司都应该有一位AI伦理学家来定义,记录和解释算法。数字灯塔网络负责人。
如毕马威会计师事务所的负责人在新报告中所解释的那样,要使AI成功,某人必须拥有这些算法并能够向团队成员和客户确切解释该分析的工作原理。作者强调,必须以有意义的方式来控制和控制AI,以赢得客户和员工的认可。
Gusher说:“由AI驱动的企业知道何时何地使用AI。” “他们有一个AI指南针,可以帮助他们为治理,可解释性和价值指明正确的方向。”
在公司级别命名AI工作的特定所有者也可以使透明度变得更容易。
该所有者应带头向客户解释如何使用数据以及它如何影响客户体验。
报告作者建议公司让客户选择是选择加入还是退出数据共享,同时说明选择加入的好处。
毕马威(KPMG)建议遵循以下指导原则,以确保AI工作符合道德规范:
改变工作场所
建立监督与治理
调整网络安全与道德AI
减轻偏见
增加透明度
为了监控和消除AI方面的偏见,公司应确保算法符合公司的价值观和道德规范,合规性,安全性和质量标准。当偏见可能会对社会产生不利影响时,公司应安排对这些模型的独立审查。
高管们开始了解围绕AI的安全风险,即“可能通过破坏训练数据来破坏算法的对抗攻击”,这可能会损害隐私并造成偏见。
72%的CEO表示,强大的网络安全对于建立对AI系统的信任至关重要,而去年这一比例仅为15%。毕马威(KPMG)于2019年10月与750位业内人士进行的研究显示,医疗保健和金融业领导者最关注人工智能的道德操守。
SEE: 医疗保健中的AI:内部指南 (免费PDF)
毕马威(KPMG)的作者建议采取以下步骤来构建AI的安全性:
确定谁训练了算法
跟踪数据的来源及其所做的任何更改
保持对算法有效性和准确性的持续审查和确认
毕马威会计师事务所(KPMG)的一份新报告建议遵循这些准则,以提高透明度并减少人工智能工作中的偏见。
评论专区