人工智能如何承担责任


随着人工智能继续快速发展,越来越多的对话转向我们如何确保它保留其责任。到目前为止,广泛的共识是需要五件核心的事情:

  1. 负责每个人工智能实例的人。
  2. 能够解释做了什么,是如何做的,以及为什么要做。
  3. 对系统准确性的信心,以及对哪里可能存在偏见的了解。
  4. 第三方探测和审计算法的能力。
  5. AI是在考虑公平的情况下开发的。

这是一个在最近的一次会议上讨论的话题paper来自牛津大学的研究人员。作者认为,应该以一种整体的心态来鼓励管理自动驾驶汽车等技术所需的那种新政策。

这篇论文为政策制定者提供了三项建议,以确保我们未来与人工智能和机器人的关系是安全和谐的:

  1. 业界有一种假设,认为使系统可解释会降低其效率。作者认为这一点值得挑战,事实上,我已经written previously关于一些有趣的研究,这些研究正好做到了这一点,并将使这种系统能够大规模部署。
  2. 可以说,虽然可解释性越来越可行,但对于某些情况,它仍然难以捉摸,作者认为,需要为这种情况开发替代选择。把他们当做是不屑一顾是不够好的太难了
  3. 监管的结构应该使类似的系统以类似的方式进行监管。我们应该努力识别人工智能系统之间的相似之处,以便能够建立特定于上下文的法规。

负责任的人工智能

让系统承担责任的问题之一是交付该系统所需的计算能力。还有一种担心是,通过解释系统的工作原理,您会泄露该系统的IP。一秒钟paper来自哈佛大学的研究人员,探讨了其中的许多问题。

他们的目的是提供一种解释,在某种意义上,定义一个系统得出的结果的原因或正当理由,而不是它如何运作的具体细节。换句话说,它是将事情浓缩成规则或启发式规则-如果你愿意的话,是一般原则。这样的顶级账户还将降低工业秘密被披露的风险。

该团队已经将问题归结为一个简单的成本/收益分析,使他们能够确定揭示系统工作情况的最佳时间。

他们说:“我们发现,社会认为决策者有义务--道德上、社会上或法律上--提供解释的情况有三种情况。”

他们认为,有问题的决定一定会影响到除做决定的人之外的其他人。只有到那时,才能从质疑系统的运作中获得价值。

他们还试图确保在事情背后有一个强大而有力的法律框架,因为人类容易在什么是道德上合理的,或者甚至是社会合意的问题上存在分歧。然而,法律往往更严格,更成文。在某些情况下,法律也要求作出这样的解释,包括严格责任或歧视等领域。

这将对人工智能系统必须自我解释的情况产生至关重要的影响。这也允许独立于系统本身的内部工作来解释决策。这是迈向可解释人工智能之旅的关键一步。

他们说:“我们建议,就目前而言,人工智能系统可以而且应该遵循与人类目前类似的解释标准。”

可以说,他们不相信这是对这一挑战的最终和确定的解决方案,但这仍然是道路上有趣的一步。