AI算法透明早已捉襟见肘,算法问责制才是最佳解决方案

WechatIMG72_meitu_1

【猎云网(微信号:)】7月31日报道(编译:福尔摩望)

编者注:本文原作者Joshua New是一名高级政策分析师,主攻数据、科技和公共政策的交互研究。

虽然人工智能曾被誉为开启经济繁荣新时代的关键,但如今,政策制定者们却面临着一波又一波有关确保人工智能公平、道德和安全的呼声。纽约市长de Blasio最近宣布成立美国第一个监测和评估算法使用的特别工作组。几天后,欧盟制定了全面的新数据保护规则,要求公司能够向消费者解释所有自动化决策。像埃隆·马斯克这样备受瞩目的批评者,呼吁政策制定者采取更多措施来规范人工智能。

不幸的是,两个最受欢迎的想法——要求公司披露算法源代码并解释它们如何做出决策以及通过规范商业模式和内部运作,会导致弊大于利,并不能让这些公司对结果负责。

第一个想法——“算法透明度”——要求公司披露其AI系统中使用的源代码和数据。除了过于简单之外,这个想法并不具有作为广泛解决方案的优点。许多AI系统太复杂,仅通过查看源代码是无法完全理解的。一些AI系统依赖于数百万个数据点和数千行代码,而且决策模型在遇到新数据时会随时间而产生变化。期望即使是最积极的、资源重组的监管机构或有关公民,能够发现该系统的开发人员可能无法做到的所有潜在渎职行为,是不现实的。

此外,并非所有公司都有开源商业模式。要求他们披露源代码会降低他们投资开发新算法的动力,因为这会让竞争对手山寨。与美国在人工智能的主导地位上竞争激烈的中国不良行为者,经常蔑视知识产权,并可能会使用透明度要求来窃取源代码。

另一个想法——“算法可解释性”——将要求公司向消费者解释他们的算法如何做出决策。该提议的问题在于AI系统中的可解释性和准确性之间经常存在不可避免的折衷。算法的准确性通常随其复杂性而变化,所以算法越复杂,解释就越困难。虽然随着对可解释性人工智能研究的成熟,这可能会在未来发生变化,比如DARPA在2017年投入了7500万美元用于解决这一问题,但目前,可解释性的要求将会付出准确性的代价。这是非常危险的。例如,对于自动驾驶汽车来说,能够解释事故重要,还是避免事故重要?解释比准确性更重要的情况很少见。

政策制定者不应该要求公司披露他们的源代码或限制他们可以使用的算法类型,而是应该坚持算法问责制——算法系统应采用各种控制措施来确保运营商(即负责部署算法的一方)可以验证它是否按预期运行,并确定和纠正有害后果的原则。

围绕算法问责制构建的政策框架将具有几个重要好处。首先,它会使运营商对其算法可能造成的任何危害负责,而不是开发人员。运营商在算法如何影响社会方面拥有最大的影响力,而且他们已经必须遵守各种旨在确保他们的决定不会造成伤害的法律。例如,雇主必须遵守招聘中的反歧视法律,无论他们是否是使用算法来做出这些决定的。

其次,让运营商对结果而不是算法的内部运作负责,可以让他们专注于确保算法不会造成伤害的最佳方法,诸如信心措施,影响评估或程序规律等。例如,大学可以在部署人工智能系统,预测哪些学生可能会辍学之前进行影响评估,以确保其有效和公平。与透明度或可解释性要求不同,这将使大学能够有效地识别任何潜在的缺陷,而不禁止使用复杂的专有算法。

这并不是说透明度和可解释行就没有它们的位置。例如,透明度要求对刑事司法系统中的风险评估算法来说是有意义的。毕竟,长期以来,公众都有兴趣要求司法系统接受最高程度的审查,即使这种透明度可能无法解释先进的机器学习系统如何运作。

同样,“平等信用机会法”等法律要求公司向消费者提供足够的解释,才能拒绝给予信贷。无论公司是否使用AI来做出决策,消费者仍然有权获得这些解释。

关于如何使AI安全的辩论忽视了对细微差别、有针对性的监管方法的需要,迅速的处理算法透明度和可解释性而不考虑它们的许多缺点是不行的。想要减轻AI造成的潜在危害是没有错的,但到目前为止提出的解决方案都过于简单,过于宽泛的解决方案在很大程度上是无效的,甚至可能弊大于利。算法问责制为确保组织负责任地使用AI提供了更好的途径,使其真正成为社会的福音。