登录×
电子邮件/用户名
密码
记住我
人工智能

欧盟在AI监管方面走在前面

欧盟在AI监管方面的准备工作与中美等在人工智能研究领域处于领先地位的国家形成了鲜明对比。

人工智能的威胁不在于机器人与我们人类相似。科学家们认为,问题在于它们没有人性:我们无法让它们关心正义和平等。

英国巴斯大学(Bath University)计算机科学教授乔安娜•布赖森(Joanna Bryson)表示,尽管人工智能和机器人的话题可能会让人联想起HAL 9000或瓦力(Wall-E)等很像人类的机器人,但这是一个分类上的错误。她表示,这项技术只是“从外观上变得更像人类”。

“我们无法让人工智能关心人类的司法制裁。”她说。设计人工智能的人最终必须要为它负责。这意味着监管机构必须赶上,让编程人员为他们创造的技术负责。

如果近似人类的人工智能机器人能够获得法律地位,企业可能会在出现问题时将责任归咎于它们。那些抵制机器的人将面临法律上的困境——对被告处以罚款或是监禁没有任何意义。

呼吁保障机器人权利的行动并没有得到公众的广泛支持。最贴近的例子就是机器人索菲娅(Sophia)。索菲娅于2017年被授予沙特阿拉伯公民身份,然而,她主要是沙特政府的宣传工具,不太可能履行可能带来任何法律后果的职责。从那以后,再也没有其他机器人获得过公民身份,这就说明了问题。

然而,流行文化中滋生的恐惧情绪并非全是错误的:杀手机器人(正式名称是致命自主武器系统)只是诸多风险之一。更平常的威胁来自于自动化招聘,在自动化招聘中,评估应聘者的是通过历史数据库学习的人工智能。

蒙特利尔大学(University of Montreal)计算机科学系教授约舒亚•本希奥(Yoshua Bengio)解释称:“使用人类提供的数据训练出的系统产生的歧视……反映出(之前从事这项工作的)人类的行为。”

为了应对这些担忧,世界各地都在制定人工智能的道德框架。去年,本希奥教授与他人合著了《人工智能负责任发展蒙特利尔宣言》(Montreal Declaration for Responsible AI),其中列出了人工智能发展不应妨碍的十大支柱,包括公平、民主参与和可持续发展。联合国(UN)、经合组织(OECD)和欧洲委员会(Council of Europe)都制定了自己的指导方针。

布赖森教授还在2011年帮助起草了一份机器人原则,所基于的理念是机器人的行为永远由人类负责,而非机器人自身。

然而,保护公民和促进创新之间的紧张关系可能会把政策制定者引向相反的方向。“你可以缓解(道德)问题。”本希奥教授表示,“但(对企业和研究人员来说)这是有代价的。”

2018年,26个国家制定了人工智能国家战略。尽管许多国家提到了道德问题,但不过是申明权利应该得到保护的笼统宣言。

在数据和隐私监管方面,欧盟(EU)正在推进制定人工智能规则的工作。今年4月,欧盟委员会(European Commission) 发布了一份遵循“可信赖人工智能”的理念,由高级专家起草的这种指导方针。

指导方针制定了明确的道德原则和开发人工智能系统时要使用的检查表。企业和其他利益相关方将通过2019年夏天开始的一个试点项目来检验这些原则。

欧盟在监管方面的准备工作与那些在人工智能研究领域处于领先地位的国家形成了鲜明对比。“在奥巴马(Obama)执政期间,美国在研究真正具有前瞻性的人工智能国家政策。而现在,我们却没有这样做。”美国南加州大学安嫩伯格传播领导力与政策中心(USC Annenberg Center on Communication Leadership & Policy)研究员马克•拉托内罗(Mark Latonero)表示。

版权声明:本文版权归FT中文网所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。

读者评论

FT中文网欢迎读者发表评论,部分评论会被选进《读者有话说》栏目。我们保留编辑与出版的权利。
用户名
密码
-->*%>
设置字号×
最小
较小
默认
较大
最大
分享×