首页 -> 新闻中心 -> 业界动态 -> 正文
欧盟发布AI伦理指导方针 未来开发AI“以人为本”是关键
2019-04-09

据外媒报道,欧盟日前发布了AI伦理指导方针,公司和政府机构未来开发AI时应遵循7大原则。

这些原则不像艾萨克·阿西莫夫(Isaac Asimov)的“机器人三定律”。他们不会提供快速制定的伦理框架来帮助我们控制杀人机器人。相反,当我们将AI融入医疗、教育和消费技术等领域时,它们解决了影响社会的模糊和分散的问题。

举例来说,如果AI系统在未来的某个时候诊断出你患了癌症,欧盟的指导方针将希望确保这些事情:软件不会因你的种族或性别而产生偏见,不会无视人类医生的反对意见,而且病人有权要求它们解释诊断结果。 所以,这些指导方针旨在阻止AI的疯狂行为。

为了帮助实现这一目标,欧盟召集了由52名专家组成的小组,他们提出了未来AI系统应该满足的七大原则。

具体如下:

1.人类代理和监督:AI不应该践踏人类的自主性。人们不应该被AI系统所操纵或胁迫,应该能够干预或监督软件所做的每一个决定;

2.技术稳健性和安全性:AI应该是安全而准确的,它不应该轻易受到外部攻击(例如对抗性例子)的破坏,并且应该是相当可靠的;

3.隐私和数据管理:AI系统收集的个人数据应该是安全的,并且能够保护个人隐私。它不应该被任何人访问,也不应该轻易被盗;

4.透明度:用于创建AI系统的数据和算法应该是可访问的,软件所做的决定应该“为人类所理解和追踪”。换句话说,操作者应该能够解释他们的AI系统所做的决定;

5.多样性、无歧视、公平:AI应向所有人提供服务,不分年龄、性别、种族或其他特征。同样,AI系统不应在这些方面有偏见;

6.环境和社会福祉:AI系统应该是可持续的(即它们应该对生态负责),并能“促进积极的社会变革”;

7.问责制:AI系统应该是可审计的,并由现有的企业告密者保护机制覆盖。系统的负面影响应事先得到承认和报告。

请注意,这些原则中有些条款的措辞有点儿抽象,并且很难从客观的意义上进行评估。例如,“积极社会变化”的定义在人与人、国与国之间差异很大。但其他原则更为直截了当,可以通过政府监督来检验。例如,共享用于训练政府AI系统的数据可能是对抗偏见算法的好方法。

这些指导方针不具有法律约束力,但它们可以影响欧盟起草的任何未来立法。欧盟曾多次表示,它希望成为道德AI领域的领导者,并通过《通用数据保护条例》》GDPR表明,它愿意制定影响深远的、保护数字权利的法律。

但这个角色在某种程度上是环境迫使欧盟扮演的。在投资和尖端研究方面,欧盟无法与美国和中国竞争,因此它选择了伦理作为塑造这项技术未来的最佳选择。

作为这一努力的一部分,欧盟发布的报告还包括了一份被称为“可信赖AI评估列表”,它可以帮助专家们找出AI软件中的任何潜在弱点或危险。此列表包括以下问题:“你是否验证了系统在意外情况和环境中的行为方式?”以及“你评估了数据集中数据的类型和范围了吗?”这些评估列表只是初步的,欧盟将在未来几年收集公司的反馈,并在2020年提交关于其效用的最终报告。

数字版权组织Access Now的政策经理范尼·希德韦吉(Fanny Hidvégi)表示:“评估列表是该报告最重要的部分。它提供了一个实用的、前瞻性的角度,指导我们如何减轻AI的潜在危害。在我们看来,欧盟有潜力和责任走在这项工作的前列。但我们确实认为,欧洲联盟不应止步于制定伦理准则。”

其他人则怀疑,欧盟试图通过伦理研究来塑造全球AI的发展方式,这是否会产生很大影响。智库数据创新中心(Center For Data Innovation)高级政策分析师埃林·奇沃特(Eline Chivot)表示:“我们对正在采取的方法持怀疑态度,即通过为AI伦理创建一个黄金标准,它将确认欧盟在全球AI发展中的地位。而要成为AI伦理领域的领导者,首先必须在AI领域取得领先优势。” 

新闻搜索

覆盖全国各省会城市及海外城市的网速测试
→选择要测试的地区
→选择目标测试点