最具公信力的企业法律服务平台
新闻报料:010-84772563、84772559cclppcn@163.com
热烈祝贺新版中国企业法律保障网上线!

你现在所处的位置:首页 > 产业 > 正文

人工智能技术无法回避的法律挑战

2018-07-04    来源:《法人》

人工智能的发展是科技进步的必然产物,无论是标准化技术建构还是法律建构都处于初级层面,我们要做的是良性运用,而非鲁莽发展

 

文 《法人》记者 李立娟

 

北京时间68凌晨,Google CEO桑达尔·皮查伊宣布了他们使用人工智能的七项原则,以及四条底线。

这七项原则是:对社会有益;避免制造或者加深不公平的偏见;在开发中进行测试以确保安全;对人类负责; 隐私原则; 坚守对卓越科学的追求;在使用中考虑首要用途、技术的独特性及适用性、使用的规模这三个因素。

四条底线是:对于那些将产生或者导致伤害的整体性技术,确保其利大于弊,并将做好确保安全的相关限制;不会将AI用于制造武器及其他将会对人类产生伤害的产品;不会将AI用于收集或使用用户信息,以进行违反国际公认规范的监视;不会将AI用于违反国际法和人权的技术开发。

人工智能的发展已经成为大势所趋,我国《新一代人工智能发展规划》(2017)和《人工智能标准化白皮书》(2018)的印发和实施,中国国家层面的人工智能战略走向了前台。

人工智能的迅速发展影响是二元的,将会深刻改变人类社会的现有结构,成为新一轮产业变革的核心驱动力和竞争对象。当然,因为变革,引发的一系列法律挑战也是不可避免的。


 

已经三次变革

 

“从历史发展角度来看,人类试图制造出能模拟大脑的机器已经很久了,人工智能并不是一个新领域,只是在这几年里迅速地热了起来。近60年来,人工智能已经经历了三次浪潮。”鲸准研究院分析师张伊聪对《法人》记者说。

第一次浪潮,20世纪50年代的达特茅斯会议确立了人工智能(AI)这一术语,人们陆续发明了第一款感知神经网络软件和聊天软件,证明了数学定理,人类惊呼“人工智能来了”“再过十年机器人会超越人类”。然而,人们很快发现,这些理论和模型只能解决一些非常简单的问题,人工智能进入第一次冬天。

第二次浪潮,20世纪80年代Hopfield神经网络和BT训练算法的提出,使得人工智能再次兴起,出现了语音识别、语音翻译计划,以及日本提出的第五代计算机。但这些设想迟迟未能进入人们的生活之中,第二次浪潮又破灭了。

    第三次浪潮,随着2006Hinton提出的深度学习技术,以及2012 ImageNet 竞赛在图像识别领域带来的突破,人工智能再次爆发。这一次,不仅在技术上频频取得突破,在商业市场同样炙手可热,创业公司层出不穷,投资者竞相追逐。

张伊聪进一步从资本和媒体的热度角度对记者分析道,通过jingdata数据追踪,人工智能领域是从2013年开始急速上升,在2017年仍是上升趋势。而在这一年,整个一级市场遇冷,投资事件数下降41%,人工智能相对于整个大环境来说欣欣向荣。

她进一步分析道,投资人热度也展示了这一趋势,在2018年第一季度,对于行业赋能层来说,整体投资人热度上升。其中上升最快的为自动驾驶和AI医疗,AI教育和AI安防的热度相近位列第二批次。这些领域的热度与人工智能创业侧重点,所处市场大小有紧密关系。

从细分领域的角度来说,张伊聪对《法人》记者说,备受追捧的自动驾驶、AI医疗、AI教育和AI安防领域的共同点是市场规模极大,人工智能可以很好地发挥提升人类效率的作用,但不同领域的发展阶段却各不相同。

中研普华研究员刘雄同时对AI智能持肯定的态度:“随着人工智能、自动控制、定位技术以及传感器技术等领域的飞速发展,汽车逐渐向以智能化为核心的轮式机器人的发展,人与车、车与车、车与物的交互方式逐渐改变。人工智能应用领域也变得越来越广泛,总体上看,人工智能在2040之前会一直处于快速发展阶段,发展前景非常可观。”

同时,“在法律领域,人工智能的影响肯定存在的”,北京市铭泰律师事务所高级合伙人、知识产权部主任徐新明在接受《法人》记者采访时如是说。AI 是一种迅猛发展的科技,科技一定会促使立法者对法律进行修订、进步、完善,法律的完善也会促使科技的发展。比如照相机的发展,因为照相机的出现,引发肖像权的争议,肖像权属于人格权的一部分。因为问题的出现,引起这个社会对立法的呼吁,因为需求的产生,当然就会催生出新的法律制度。

他进一步说,人工智能作为一种最新的科技手段,它会影响法律对人生活的调整,人工智能必然会影响人们生活的方方面面,也可能会影响与现在不同的新的行为与商业模式,当然会引起法律的回应。如果法律不能容纳或者制约这些行为,那就会引发法律的变更甚至制定新的法律。所以,可以笼统地说,对人的行为产生影响的相应领域,必然会产生一定的调整以及回应。

鲸准研究院分析师张伊聪则认为,AI在法律领域分为两大方向:为B端提供服务、直接服务于C端。在TO B TO C这两个方向上的产品和技术壁垒有着质的不同,针对普通人的产品主要是通俗的自然语言输入到法律要素的映射问题,常见的产品形式是自动法律咨询;而较为专业的案例检索,则涉及案件的深度研究,事实上单一的裁判文书并不能反映案件的所有特征,根据特征找到相似案例,然后一并推送给律师优选,实际上也只是起到了资料收集整理的作用,离真正的指导行为和决策还有很长的路要走。

 

法律调控仍初级

 

“凡事均有两面性,AI不可避免地会带来一定的弊端,本质上还在于人的角色,人工智能虽说是高度发达的,仍然还是一个工具。”徐新明对《法人》记者说,“现在很难说法律的调控水平可以这么迅速地做出回应,似乎不太可能,而且人工智能的发展层级也不是说处于长期的稳定时期,其发展的速度是迅速的。立法的发展是相对滞后的,能动性并不意味着无法可依,目前来说,根据现有的法律制度仍然是有法可依。”

鲸准研究院分析师张伊聪则对《法人》记者说,立法一直是落后于技术发展的,且不同国家对科技的法律制裁态度不同。对于历史来说,可以看到中国对互联网及金融的严格政策,导致国内失去了一定先机。而对于近现代,对于人工智能,政策已经上升到了国家战略层面,重视程度可见一斑。可是在知识产权方面的保护、在法律层面的监管,还都远远落后于传统行业。

刘雄亦认为,人工智能技术会挑战我们的法律。智能革命的出现,对当下的伦理标准、法律规则、社会秩序及公共管理体制带来一场前所未有的危机和挑战。它不仅与已有法律秩序形成冲突,凸显现存法律制度产品供给的缺陷,甚至会颠覆我们业已构成的法律认知。

在隐私和数据保护方面,张伊聪对《法人》记者说:“人工智能对于隐私保护反而是一种助力,泄露的风险应该关注区块链。”因为,人工智能已经在反欺诈、风控甚至是数据安全领域进行了一定的自动化保护,主要市场在对企业的信息安全方面。对于个人的隐私保护,个人认为市场较难进行推动,而是应该让政府进行干预,更多地利用人工智能去保护个人的隐私。

徐新明同时认为,对隐私和数据保护主要还是大数据的问题,对大数据的充分利用的基础上发展出人工智能,这是近几年较为迅速的一个科技的进步。现在的问题在充分运用大数据的同时,不至于导致个人隐私权的泄露,这需要相关的主体采取一定的措施进行保护,这是一个挑战。

现阶段还是有法可依的,主要的问题是相关主体怎样采取一定的技术措施,在利用大数据的同时,对相关的个人隐私进行一定的保护,这个也需要相关的主题平台以及运营公司,在技术以及法律方面进行一定的思考,来达到法律的要求。



刘雄对《法人》记者强调,智能时代毫无疑问会释放更多的技术应用红利,但风险也不可小觑。AI作为基础信息技术,既可以被攻击者利用,也可以被防护方使用。AI产业崛起会加快被攻击者利用和被防护方使用的进程,用户只有提高安全意识、时刻注意隐私信息的安全保护才是最关键的。万物互联的时代,攻击路径变多了,攻击速度加快了,防护难度更高了,安全挑战越来越多,安全工作任重道远。

 

标准化建构任重道远

 

AI智能的标准化建构的探讨为时尚早,因为人工智能的快速发展,可能有大的公司在这方面努力,但国际方面的统一标准还有待进一步的努力。”徐新明对《法人》记者强调。

张伊聪同时说,国家积极联合民间企业进行标准化。国家标准化管理委员会已经两次出版了《人工智能标准化白皮书》同时对于细分领域,各垂直领域的头部公司也在积极地撰写相应的标准化白皮书。

徐新明认为,现在需要强调的是,人工智能中新产生的作品权利归属问题,人工智能创造的作品就应该受到法律的保护,但是版权的归属仍是疑问,现在人工智能运用到新闻报道中,人工个智能机器人创造音乐、美术、诗歌,这是个比较难界定的复杂问题,现阶段,人工智能独创造的作品,可以达到法律所规定的独创性的标准。

欧盟委员会提出“独立智力创造”的标准,这个需要明确大陆法系和英美法系关于著作权界定的独创性的标准区别,英美法系不太注重精神权利,更关注的是财产权,而大陆法系是立足于人格权,认为作品的第一要素是精神权利,所以说大陆法系的要求可能更高一点。

所以,人工智能的作品权利归属,就目前的法律是持否定态度的,因为对于著作权的归属,强调人格对作品的影响,AI的人格如何界定?徐新明强调,这是首先要思考的问题,即使他创造的作品达到独创性,是参考《著作权法》第11条,作为单位作品,视为作者,是否能够比照适用于AI,但是单位作品的前提是在自然人的主持下,形成一定归属于单位的作品,强调一种意志。所以,性质上的区别决定了作品权利、性质的界定。

“所以创造出的作品,我认为也是大数据的总结。所以,对于人工智能所创造出来的作品的可版权性,我认为还应该保持谨慎的态度。”徐新明说。

刘雄也对《法人》记者强调,人工智能的迅速发展,造成的案件多发,比如,2017年的绍兴市公安局的1·03专案,便是一起利用人工智能进行网络攻击和欺诈行为的事件。嫌疑人运用人工智能技术开发出了一套图像识别系统,这种图像识别技术可以自动辨认出图片上显示的数字、字母、汉字等信息,并且通过深度学习的方式,在实践中不断提升辨认能力。然而,这样的技术却被犯罪团伙运用到了网络诈骗等活动中。

他说:“类似的案例还有很多。人类有智慧能力创造出人工智能,也应有能力和理智来控制人工智能。因此,最好是期待人类的聪明才智,而非低估它;最好是承认风险的存在,而非否认它。”

徐新明对《法人》记者进一步说,人工智能的迅速发展,利用人工智能进行攻击欺诈,归根结底还是人的行为,人工智能本身并没有错,所以如果道德、法律凌驾于技术之上,就不会对别人产生实质性的威胁,其弊端与副作用就会最大可能地得到限制,对技术本身尽可能的地采取更进一步的限制人工智能的副作用,就不会因为AI 的发展产生真正的威胁。

“我们应当思考的不是消灭客观危险,而是在这些潜在的威胁和挑战面前,增强风险认识能力,提高制度风险意识,通过法律和其他社会规范来预防规避风险,引导规范人工智能技术健康发展,这需要全社会共同努力。”刘雄最后对《法人》记者强调。

(责任编辑:huangyuhe)

查看全文
1
2