摘要:昨天我们发布了值得信赖的人工智能的最终道德准则。它们是以欧洲联盟基本权利宪章欧盟宪章所载的国际人权和基本权利为基础,为实现值得信赖的人工智能提供必要的核心价值观和原则。道德和值得信赖的人工智能需要成为一种无可争辩的国际规范。
九个月前,我很荣幸被选为唯一的非欧洲专家,从加拿大和行业的角度,向欧盟委员会的人工智能专家组(AI HLEG)提供意见。昨天,我们发布了值得信赖的人工智能的最终道德准则。
在这些准则中,我们追求“以人为本的方法”,以尊严,自由,平等和正义等人权和基本权利为依据。人工智能不受国界的限制,道德原则和要求必须根植于促进所有人的内在价值的概念,无论其地理位置在哪儿。
AI HLEG由来自学术界、民间社会,研究和更多领域的52位学科专家组成。我们在12月份发布了我们的初稿,我们的小组从收到的500多份提交的意见书中获得得的意见和见解受益。反馈不仅来自国际人工智能实验室,也有民间社会的积极参与者。您将看到我们的最终指南中反映的这种多样化的思想,我希望在其他地区将其作为人工智能政策的参考点时,能够继续得到应用。
值得信赖的人工智能
昨天关于值得信赖的人工智能的道德准则发布非常及时。
我们今天使用的大多数产品都有一定的使用保证和责任。但是,人工智能在价值链上的表现是高度动态的。该领域的问责制度很复杂,对系统行为的控制并不总是明确可归因的,并且需要更清晰地定义利益相关者(如研究人员,数据供应商,设计人员,用户和更广泛的环境)之间的期望。
如果对技术,开发人员,政府框架和利益相关者之间缺乏信任,我们就有可能拒绝可以赋予我们权力的技术风险。作为一名企业主,我的职责之一是更加努力地调整预期,并为所有相关人员提供充分的解释。
但普遍接受的基本规则也很重要。问责制的解释和谈判过程是巨大的交易成本,而行业目前的自我监管最终受到自身利益的限制。一套明确的游戏规则对于人们灌输对技术的信任并确保其用于最佳效果的影响至关重要。
准则
我很自豪地说,我们的指南不仅仅是一系列的价值观和抽象的原则来指导人工智能。它们是以“欧洲联盟基本权利宪章”(欧盟宪章)所载的国际人权和基本权利为基础,为实现值得信赖的人工智能提供必要的核心价值观和原则。这种情境化很重要。我们需要将值得信赖和合乎道德的人工智能从概念层面转变为实际层面。
我们意识到,没有必要把人工智能与其他技术区别对待,也没有必要重新发明轮子。对于我们来说,我们最初的过程是将自适应性的人工智能系统嵌入到已经建立起来的人权系统中,该系统将于复杂的利益相关者价值链相关联。
从此基础上,我们转向关注当前最热门的争论焦点并结束:如何将核心价值观和原则嵌入到人工智能中?这类似于我们已经从各种面向技术的组织和中心(如IBM和Microsoft)中看到的框架。在我们的指南中,我们重点关注来自人权的四项原则:
尊重人的自治
预防危害
公平
可以解释
接下来,我们确定了七个面向利益相关者的要求,可通过技术和非技术方法(例如,测试和验证或标准化)可实现。
人类代理和监督是第一项要求,其基础是坚持基本人权以及人工智能实现人类代理的必要性。
技术稳健性和安全性与人工智能系统的发展密切相关,并侧重于系统抵御外部攻击(例如,对抗性攻击)和内部故障(例如系统可靠性的错误通信)的恢复能力。
隐私和数据治理将系统开发人员和部署人员之间架起了桥梁。它解决了一些突出的问题,例如用于开发人工智能系统所使用的数据质量和完整性,以及在整个系统生命周期内保证隐私的必要性。
透明度要求可以理解和追踪技术与执行人类的决策。
多样性,非歧视和公平是确保人人都可以访问人工智能系统的要求。这些包括例如:避免偏见、考虑通用设计原则和避免一刀切的方法
社会和环境福利是最广泛的要求,包括最大的利益相关者:我们的全球社会和环境。它解决了对可持续和环境友好型的人工智能的需求,以及对民主进程的影响。
问责制补充了以前的所有要求,因为它在AI系统的开发和部署之前,期间和之后都是相关的。
这七个关键要求和标准都是由政府监管的。
下一个合乎逻辑的步骤是将需求转化为实际的国际行业标准,但是一个完整的标准体系可能需要花费数年时间。
这些指导方针所依据的人权框架有助于确定现有的适用法律和政策,这些法律和政策是可以适用于人工智能快速发展的游戏规则。
“以人为本”的人工智能的全球标准
到目前全球的讨论取得了长足的进展。关于受益人工智能的Asilomar会议是最早提出人工智能原则的会议之一,随后,从“ 蒙特利尔宣言”到IEEE 自主和智能系统伦理全球倡议等大型多利益相关方倡议的补充运动迅速增加。
这些“准则”通过讨论编织了人权的连接线,这是国际辩论的主要方向。你可以通过最近的倡议看到这一点,例如“多伦多宣言”或经合组织在其社会人工智能专家组及其人工智能政策观察站开展的工作。
各国政府也正在发布更加精细的人工智能战略,加拿大在2017年率先发布。所有这些都是领先的行业标准,例如IEEE和国际标准化组织(ISO)(ISO甚至还有一个关于可信度的工作组)。澳大利亚人权委员正在进行开创性的工作,从根本上连接我们的指导方针,深入探讨人权与技术之间的关系。我期待他们在2019年末发布的调查结果,并希望更多的政府可以效仿。监管机构有必要就人工智能对人权和自由的影响进行多方相关者磋商以了解如何通过具有法律约束力、可执行的保护来补充准则。
下一步
现在是时候努力实施准则中列出的需求了。这些要求包括一份指示性评估清单,用于实施这些要求,并为未来的行业标准创建第一个框架实例。该清单将在2019年全年进行试点和修订。
反过来,各国政府应该将这些准则作作为制定和实施新的立法和监管机制的基准,以保障数字时代的人权和自由得到保护和促进。
《指南》和欧盟委员会关于建立对以人为本的人工智能信任的沟通,鼓励利益相关方和欧盟成员国参与《指南》中的关键要求,并利用这些要求就以人为本的人工智能达成共识。双方还提到与加拿大,日本和新加坡等志同道合的国际合作伙伴加强合作。
加拿大已在人工智能领域与欧盟的多在人工智能领域进行了多次合作,以及从政府角度出发,成立的法国和加拿大的国际人工智能小组。鉴于该小组的任务是“ 促进以人为本的人工智能愿景”,在推动我们的指导方针朝着国际标准迈进的背景下,我尤其感到兴奋。
我们有指导方针。我们有国际平台。现在,世界各国政府都应该实施和发展它们,利益相关者应该推动和支持它们,公民需要它们,组织应该采纳它们。
道德和值得信赖的人工智能需要成为一种无可争辩的国际规范。
从作者的描述中可以发现,欧盟目前已经编写好了有关人工智能道德标准的白皮书,并已经敲定了最终稿并进行了发布,可以了解到欧盟对于人工智能道德标准的条件,从这些条件中可以看出欧盟对于未来人工智能发展的一些期望,同时全世界有关人工智能的标准都在如火如荼的进行着,可以预测到的是未来有关人工智能的岗位将会不断的增加,我们将在这场风波中处在什么位置将取决于我们现在对待人工智能的态度,不管未来人工智能对我们是一个好事还是一个坏事,我们在现在都应该积极的去应对它和了解它,以防未来被这股人工智能的浪潮掀翻在地。
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/19996.html
摘要:另一方面,人工智能管理更广泛地关注数据中的信号及其驱动的结果。指导指导就是在人工智能不采取行动的情况下提出建议。这意味着许多任务都是由人工智能完成的,而人类则处于任务中进行处理和分析其他的任务。适应性这是人工智能处理不断变化的情况的能力。 showImg(https://segmentfault.com/img/remote/1460000019039614); 权力意味着新的责任 过...
摘要:于年在意大利北部帕维亚的监狱中死亡。的死亡促使了现代犯罪学的诞生。写道,犯罪分子生下来就是罪犯。最近的一个例子便是,上海交通大学和在年月传到上的论文使用脸部图像自动推断罪犯。 任何关心如何确保 AI 技术朝着有利于人类发展的人都是本文的读者1844 年,意大利南部一个小城镇举办了一场审判会,一个名叫 Giuseppe Villella 的劳工因涉嫌窃取了5 个里考塔(注释:意大利奶制品,类似...
摘要:区块链技术比传统互联网技术好在哪里它的实现原理优是什么呢笔者希望通过本文,解答大家心中的疑问。也就是说区块链记账机器完成记账功能的基本原理是状态机。总结区块链技术的本质是通过公开的加密的不可篡改的技术手段,为解决多方信任问题提供了一个方案。 随着比特币、以太坊等数字货币的暴涨,数字货币的底层技术,区块链技术,开始进入大众的视野。姚劲波说:区块链有可能和互联网一样伟大。区块链技术比传统互...
摘要:全新的华为云品牌广告一组三张,承接了今年月全新品牌口号华为云有技术,有未来,值得信赖,并对其展开进一步延展和深入解读。而华为云始终致力于与客户及合作伙伴风雨同舟,携手共赢未来。华为云,真正关心你的未来。4月27日,华为云全新品牌广告在北京、上海、广州、深圳等16所城市机场同时上线。全新的华为云品牌广告一组三张,承接了今年3月全新品牌口号华为云 有技术,有未来,值得信赖,并对其展开进一步延展和...
摘要:为什么未来可能是我们最糟糕的噩梦我想要了解人工智能的原因之一是坏机器人的主题总是让我感到困惑。没有那个人工智能系统会像电影描述的那样变的邪恶。意识盒子他还触及了另一个与人工智能意识相关的大话题。这并不是说人工智能不可能发生。 为什么未来可能是我们最糟糕的噩梦 我想要了解人工智能的原因之一是坏机器人的主题总是让我感到困惑。关于邪恶机器人的所有电影看起来都是不切实际的,我无法真正理解人工智...
阅读 1792·2019-08-30 13:54
阅读 2706·2019-08-29 17:27
阅读 1087·2019-08-29 17:23
阅读 3332·2019-08-29 15:20
阅读 1203·2019-08-29 11:28
阅读 1547·2019-08-26 10:39
阅读 1292·2019-08-26 10:29
阅读 620·2019-08-26 10:13