办公系统
个人会员
单位会员
首页 新闻中心 新闻资讯 正文

【WRC大咖论道】北京大学法学院教授张平:《人工智能伦理治理的基本问题》

2024-10-17

2024世界机器人大会以“共育新质生产力 共享智能新未来”为主题,为期三天的主论坛和26场专题论坛上,416位国内外顶尖科学家、国际组织代表、院士和企业家聚焦前沿技术、产业动向和创新成果,深入研讨人工智能与机器人技术深度融合带来的新趋势、新机遇,共同打造了一场十分精彩的机器人领域前沿观点盛宴!

在8月23日下午的主论坛上,北京大学法学院教授,北京大学人工智能安全与治理中心主任,北京大学武汉人工智能研究院副院长张平以《人工智能伦理治理的基本问题》为主题发表演讲。


数说2024世界机器人大会


论坛


26 家国际支持机构

3 大主题 26 场专题论坛

416 名国内外顶尖科学家、国际组织代表、院士和企业家

74 位国外嘉宾及港澳台嘉宾参会

线上线下听众达 160万 人次


展览


27 款人形机器人集中亮相

首发新品 60 余款

近 170 家参展企业 600 余件参展产品

参观人数近 25万 人次


大赛


全球 10 余个国家和地区的 7000 余支赛队

 13000 余名参赛选手

每天参赛人数 4000 余人



媒体关注


近 400 家国内外媒体

短视频平台话题播放量达 2.9亿


1729143090105292.jpg

张平(北京大学法学院教授,北京大学人工智能安全与治理中心主任,北京大学武汉人工智能研究院副院长)


以下是演讲内容实录

感谢主持人,也感谢会议的邀请。前面发言人都给我们展示了人工智能和机器人带给我们人类的福祉以及便利,让我们感到非常振奋。未来也有可能每个人都能享受智能的成果。

题目稍微有一点调整,其实都是讲治理,我讲人工智能负面的一些问题,因为人工智能机器人发展到今天,全世界各个国家都认识到安全和治理问题。给大家介绍一下人工智能治理中国实践以及国际共识,还有我们的担忧,也就是我们展望一下未来在这个领域里还有些困难之处。

先看中国人工智能治理的基本理念,现在各个国家都已经达成了共识,基本是说人工智能发展始终要坚持以人为本,智能向善。“以人为本”各个国家理解还是有些差别。中国对于以人为本的理解是强调人类的权益,强调宏观的高维度权益。人工智能最终发展不能够影响人类生存,同时我们对以人为本还有另外一个理解,就是个体权利,就是个人权利不能受到侵害,比如说像基本人权还有隐私等等。

中国在国际社会上还在倡导人工智能发展以及机器人的发展,必须要有平等互惠,就是不能产生智能鸿沟。今天看到在座的、发言人以及听众都对人工智能有非常深度的了解,但是我们也看到社会里面有一类群体,或者世界上有一些国家可能对人工智能技术本身还没有认识和掌握,我们也希望在国际层面上,中国要展现一下以人为本的理念,和世界各个国家共同承担智能发展,防止智能鸿沟的一个责任。

智能向善可能有诸多问题,我给大会的主题是安全与伦理。更多是从伦理层面上有诸多解释,希望构建一个可靠、可控、可信的AI,防止欺诈和歧视。特别是现在深度伪造已经给社会带来很大的困惑。因为我们不知道面前是智能体还是人类展现出来的画面或者信息,所以也会导致混乱。

我们看到中国在2023年就在全球提出了人工智能治理倡议,在这个倡议中再一次强调发展、安全、治理这三个方面的主旨。我们也在联合国框架下提出了加强人工智能能力建设国际合作协议,这是中国在国际上的态度。具体的AI治理途径上我们也看到强调的是构建可信的人工智能。

刚才听到前面技术专家讲到的所有智能成果,最重要的前提是使用者(用户)要对它相信,如果你不相信或者它不可控,可能它给你带来的就不一定是利还是弊。治理维度上其实中国也已经开始,首先从伦理上,我们制定了一系列的法律、法规和政策,同时在安全、隐私、透明度、平等、可问责方面都有具体的措施。这是中国的人工智能治理的框架,这个框架左边是法律依据、法规政策和标准,右边是从安全角度讲有各个方面的维度,比如像网络安全、数据安全、科技安全和社会安全。

具体的实施路径上也有很多不同的措施,从最左边的立法开始,因为国际上可能对中国人工智能治理的立法不是特别了解,其实现在已经有了四法一条例,从《民法典》、《网安法》、《数安法》、《个保法》,再加上《生成式人工智能管理暂行办法》。像这样具体的法律法规都已经开始实施,知识产权保护方面也有非常详尽的制度。

同时像算法治理,对于其他的比如说垄断的问题,算法算力和数据垄断的问题以及所谓商业秘密还有开源的政策和规制的问题。中国从去年到现在已经颁布了一系列法律法规,也有很多具体的规则。同时我们也构建了很多技术标准。这一页是现行有效标准,正在实施的,还有大量技术标准在制定当中。最近看到信标委、科评标委都在不同角度对人工智能治理方面做出很多标准制定的规划。

前面讲了中国实践,下面看一下人工智能治理方面的国际共识。首先全球达到的共识就是伦理先行,就是我们不论发展哪一个领域里面的人工智能技术,首先要经过伦理审查。伦理先行其实表现形式或者带来的问题已经非常严峻了。这里面举了个例子是智能叛变。其实刚才我们面对那些智能体,包括机器人机器狗,如果它突然有一天不听人的指挥了,我们想在它的面前,我们肉身的自然人其实很弱小,所以我们一定要防止智能叛变,这一页已经有韩国报道,就是有一名工人在生产线上,由于他没有按照标准和规则执行工作任务和行为,已经被机器人所猎杀。同时,我们也看到比如数字人冒充政治人物,冒充名人,在社会上引起恐慌或者深度伪造图片都有可能造成社会问题。

国际上已经意识到伦理问题非常重要,所以从国际组织包括OECD可能是最多发表这方面政策文件的。像美国、英国、德国以及最近很多区域性的贸易组织也在发伦理的规制文件。特别是像I-Trip-E也是最早发了这样一些技术标准。中国的科技伦理治理也有很多,包括我们治理的思路、途径,这些不再展开。

伦理先行属于全球达到的国际共识,也是人工智能风险治理的有效渠道,我们要事先控制这样一些伦理风险。其实伦理问题不仅仅是自然人的生命还有隐私要受到保护,其实它除了科技技术方面的伦理问题,就是科技伦理问题,同时还有社会伦理问题。人类其实也有一个整体的价值观,每个国家不同社会形态也有不同的价值观和规范。特别是我们也看到不同民族更是有它自己的信仰和它自己的一些日常习惯,所以我们看到人工智能技术的开发,其实你要关注到这样的一些社会伦理问题。

中国的政策我就略去了,中国还有一个科技伦理的审查办法,这个科技伦理的审查办法能够解决一部分人工智能的问题,就像我刚才提到我们除了科技伦理,还有社会伦理,我是法学院的老师,有人经常会问,你为什么现在又去到了人工智能研究院,我们北京大学的人工智能研究院不仅仅去研究和解决技术问题,它同时吸收了北京大学优势的人文社科的学科,政经法文史哲的老师都加入到了北京大学人工智能研究院。

所以我们这些人文社科的老师进去了之后,我们想到的更多是规则,是说我们在人工智能发展的过程中如何能够让它健康的安全的可靠的去发展,所以这也就是为什么今天我也能到这样一个主论坛上做发言的理由。

其实我一直有一个感受,人工智能这四个字我们已经不能说它就代表一种技术,它有可能是一种社会的形态,所以当它变成一种社会形态,比如说我们整个社会都是由智能体帮助我们一起来共同建设,来参加的时候,这个时候我们就进入了智能社会,智能社会的治理和我们传统社会的治理是不一样的,所以我们现在必须要去探讨,去解决现在已经发生的一些问题,能够去预防未来有可能发生的一些风险。

我们再来讲第三个问题,人工智能治理达到国际共识的方面还有安全保障机制,我们前面讲到伦理,其实也是安全的一个方面,但是我们如果细分,它还有更多的安全保障措施。

在联合国有一系列关于推动人工智能的决议当中提出来一定要确保人工智能的安全性和可信度,包括可靠的、透明的、可问责的基本原则。这是2024年3月份,我们也看到联合国也有一些高级别咨询机构的会议还有一些报告都在强调人工智能发展的安全问题。

我们也看到在国际上发达国家主导的也有一系列的像安全的峰会和论坛,比如说我们现在叫人工智能安全峰会,第一届就是在英国召开的,在英国召开的时候我们也是看到他强调的是AI的安全,因为它的题目就叫安全峰会,所以更多强调的是安全,然后是发展。

在这个峰会上有28个国家签字了,中国也在这上面签字,我们和很多发达国家,就是有人工智能技术的这些国家共同都去关注安全问题。

第二届的安全峰会是在首尔发布的,在首尔发布的时候我们看到前面28个国家也都签字了,中国没有签字,没有签字不意味着中国不赞同峰会提倡的安全理念,而我们可能还是希望能够在联合国的层面上有更多的国家来参与,考虑到人工智能的安全问题。

现在我们也看到未来或者是不久的将来就会在旧金山开下一届的峰会,我们也希望下一届的峰会能继续秉持着我们前面所说的叫以人为本,以人为本就是要考虑人类共同发展的问题。

我们也看到其它很多的国际组织或者是区域性的协定,像OECD、APAC也都有关于安全的一些原则,特别是像美国、欧盟有一系列的法案、提案,我这里面就略去了。在这里面我们也都知道欧盟最近颁布了《人工智能法》,他的《人工智能法》其实是把人工智能或者我们说现在这种机器人按照风险来分级分类进行管理和归置。

所以我们在这张图当中也看到高风险的红色的那部分是人类不应当去介入的,也就是说他应该是采取的一种禁止性的,所谓的高风险就是说你这样一种人工智能的技术出来之后,本身就是对人类没有任何好的一面,没有任何福祉,反而可能会造成一种灾难,如果你用在武器方面,它真的给人类造成了毁灭,所以我们看到这类是绝对禁止的。

然后我们看到高风险的,高风险的就是高监管的,也就是说你这个技术一问世或者在研发阶段,你就应该关注它的风险和未来的后果。监管部门也可能会有一些主动的审查,还有像黄色的这块就有可能是说它带有一定的风险,但是由你企业自己来评估,然后你可以做出自律的一些约束,也就是说我知道我医疗机器人、农业机器人、看护机器人都应该尽到一个什么样的最基本的人权保障,所以我们看到这个黄色的就由企业自己去评估了,我们看到绿色的是绝对对人类有好处的,我们就完全可以放开,让它去发展,比如说救援机器人,所以它的这种监管和监控是按照这样的一种风险等级。

比如说中国的企业到欧洲就要关注这部法律,你要到其它国家,你也要关注每个国家关于安全和治理方面的一些规则,如果你遇到一些全新的问题,你觉得这需要我们全人类共同来探讨,你也可以在联合国这个方面拿出你的提案。

我们看到欧盟是按照风险去管控的,其实全球人工智能的协同共治是不可或缺的,不可避免的,不可能是某一个国家去主导人工智能的治理,它一定是各国共同在这上面一起去探讨,防止AI的滥用,防止AI的失控,这就是我们说今天为什么我要在这样一个主论坛上,在大家都去讲人工智能技术的发展、应用这方面,然后我讲一下治理,就是因为我们要从源头开始,从我们人工智能的科技发展和研发阶段开始就关注这样一个话题,这样才能让我们的产品更多的造福于人类。

我再用最后几分钟的时间展望一下,其实我们在人工智能这里面还有很多问题、很多困难没有达成共识,前面我们是达成了共识,我们在倡导以人为本、安全和发展之后,我们看到全球大部分的人工智能研发者都面对版权的起诉,大量的文字作品、音乐作品、图像作品包括我们前面那些机器人的研发者学习的一些数据,它都会去涉及到个人信息和著作权的问题,所以今天训练数据的合法性变得异常严峻。

如果你的训练数据不足够多,你的智能体就不够聪明。如果你的训练数据很多,你就要去学习全球最优秀的那些作品,把经典著作、影视包括科学家的报告,包括硕博论文,但是你一旦去学习这些东西,你就会受到训练数据合法性的问题。

今天我在这里也提出来,其实AI发展的瓶颈之一就是高质量训练数据的合法性,我们看到其实像ChatGPT也好,像OpenAI,他们都利用了全球最优秀的数据库源泉,但是我们看到中国的一些人工智能的研发机构,他还没有这么丰富的优质数据训练,所以我们也看到在这个问题上能不能达成国际上的一致,能不能达成共识,我们有诸多的渠道,但是今天我们看到还是任重道远,所以我们也在此呼吁一下,我们看看在人工智能训练数据这个方面能不能找出一些解困之道,谢谢!


本文根据录音整


返回列表页

加入会员

学会官微