调节最大似然/人工智能供电系统的偏差


西里和阿列克谢是人工智能的好例子,因为他们能听人说话,识别单词,执行搜索,并将文本结果翻译成语音。麦当劳最近收购了一家名为“动态产量”的人工智能公司,该公司分析顾客的消费/饮食习惯,并推荐他们购买其他食物,这使得人工智能的应用更上一层楼。人工智能技术提出了一些重要的问题,比如个人隐私权和机器是否能做出公平的决定。

有两个主要领域的监管会有所帮助。

1.防止滥用技术

一个很好的例子是使用人工智能来识别嘴唇。一个典型的人类唇语阅读机的准确率在15%到50%之间。最近,一个人工智能唇读程序,创建于University of Oxford,准确率达到90%以上。

这项技术对听力受损的人有很好的用途,是帮助他们交流的极好工具。但另一方面,同样的东西也可以被滥用来监视人。

2.防止决策中的偏见

算法学会从历史数据中预测模式。人类的决定天生就有偏见。本质上,algorithms are trained to learn from imperfect data to make decisions that reflect human bias

算法开始不仅用于过滤数据,还用于推荐,在某些情况下,还用于外包决策过程。例如,算法可以决定:

  • 哪个人应该得到贷款
  • 哪个被告应该被保释
  • 一个人是否应该被雇用
  • 如果我们把这个公寓租给一个人
  • 下一个犯罪活动可能在哪里发生

应对歧视的责任

这些算法都使用现有数据来学习和预测,这意味着它只是强化了数据中的所有当前偏差。

例如,假设一家公司去年雇佣的所有人都是25到35岁年龄段的男性。你把这些数据输入到算法中,算法开始了解到公司招聘的理想年龄是25到35岁的男性。这也意味着女性或老年人不会有好机会。如果雇主只对25至35岁年龄组的男性候选人适用一项规则,这就是非法歧视。但是,如果同一个雇主把数据输入到一个算法中,而这个算法学会了歧视女性或35岁以上的人,谁要为这种歧视负责?

一项新的法律正在提出

国会正在提出一项新法案,名为Algorithmic Accountability Act 并试图通过迫使大公司审计他们的机器学习算法驱动的系统——如面部识别或广告定位算法——来解决第二种偏见。该法案针对的是收入超过5000万美元、拥有超过100万人数据的大公司。

关键是这些公司要审查他们对影响消费者合法权利的算法的使用,比如预测消费者行为和涉及大量敏感数据。如果这样的审计发现了歧视的证据,公司必须立即处理。

摘要

这些都是朝着正确方向迈出的步伐。这可能会导致创建“算法合规办公室”,并可能成为现有合规部门的一部分,将有技术和法律人员管理和审查调查结果。首席风险官或首席合规官可能会发挥更大的作用来遵守即将出台的法律。