“人工智能”的法治尺度:既要构筑安全底线,也要放开发展上限

来源:民主与法制时报 编辑:牛丰田 发布时间:2019-09-10

9月3日上午,3911名本科新生在北京理工大学报到。迎接他们的除了师生外,还有综合教学楼前的无人驾驶摆渡车。这些车辆既无司机,也无方向盘,速度虽然不快,但还是让一些学生过足了瘾。

根据我国《道路交通安全法》规定,驾驶人驾驶机动车必须取得驾驶证。那么,自动驾驶的驾驶人是谁?这个问题则游离于法律之外。

既然如此,无证驾驶能否进行开放道路测试?尽管司法不允许,可早有企业跃跃欲试。不久前,滴滴自动驾驶公司CEO张博宣布,将在上海嘉定落地并测试自动驾驶出行服务;稍早时,重庆方面也称,会支持百度在当地打造“西部智能驾驶开放测试创新中心”。

众所周知,无人驾驶只是人工智能的常见板块,更多应用已渗透到各个方面。如机器人服务、人脸识别、公共部门的AI服务与决策,以及智能技术驱动下的“智慧法院”等。

毋庸置疑,人工智能是引领新一轮科技革命和产业变革的颠覆性技术,但它在为人类创造福祉的同时,也催生了多种全新风险。

如何处理好人工智能在法律、就业、伦理等方面的安全,成为各方关心的问题。

“人工智能”60年

人工智能(Artificial Intelligence,AI),又称机器智能,它是由人制造出来的机器所表现出的智能。简言之,通过普通计算机程序手段实现的类人智能技术。尽管听起来很前沿,但此概念已经过了60多年。

1956年,在美国达特茅斯学院召开的一个夏季讨论班上,有人首次提出人工智能概念。随后几十年间,人工智能虽经历了低谷与高潮交替,总体发展并不理想。

直到2010年,深度学习算法发展推动语音识别、图像识别和自然语言处理等技术取得惊人突破后,人工智能咸鱼翻身,并迅速引领全球化。

什么是深度学习算法?这是一种机器学习方法,它允许人类训练人工智能来预测输出,然后给定一组输入,监督学习和非监督学习都可以用来训练人工智能。

公众普遍感觉到人工智能的强大,是在2016年。当年3月9日,谷歌研发的深度学习人工智能项目“阿尔法狗”,以4∶1压倒性优势,战胜世界围棋顶尖高手李世石。

这标志着人工智能已发展到相当高水平。因为,它具备了独立思考学习和战胜人类思维的强大能力。

这场“人机大战”很快震惊世界,但各个国家在认识到人工智能潜力的同时,也开始思考它可能对社会、经济带来颠覆性影响。于是,人工智能一词,频频出现在各国政府报告中,并逐步上升为国际战略。

2016年10月13日,美国白宫发布了《国家人工智能研究与发展战略规划》和《为人工智能的未来做好准备》两份重要报告。

我国政府在2017年7月8日也发布了《新一代人工智能发展规划》,提出面向2030年我国新一代人工智能发展的指导思想、战略目标、重点任务和保障措施,部署构筑我国人工智能发展的先发优势,加快建设创新型国家和世界科技强国。

仅在2017年,全球人工智能和机器学习领域,就获得了108多亿美元的风险投资。

从现有资料来看,人工智能企业主要分布在美国、中国、欧美等国家和地区。我国人工智能产业于2014年兴起,2015年出现了150家人工智能企业。截至去年,已超过1000家,位列全球第二;其次分别是英国、加拿大和印度。

需要指出的是,上海人工智能产业位居我国第一梯队,规模超过了700亿元。2019年5月21日,上海(浦东新区)人工智能创新应用先导区也正式揭牌。目前,该市还在打造“AI生态圈”,全国已有1/3人工智能人才集聚此地。

立法缺失

人工智能虽然给人类带来新机遇,也带来了风险和挑战。

例如,2017年7月5日,百度创始人、董事长兼首席执行官李彦宏通过视频直播展示了一段自己乘坐无人驾驶汽车进入北京五环路的情景。据称,当天晚上他就被叫到公安局,一直待到半夜,最后还交了罚单。

2017年,浙江绍兴警方破获了全国首例利用AI侵犯公民个人信息大案。该案中,犯罪团伙运用人工智能机器深度学习技术训练机器,可以让机器如AlphaGo一样自主操作识别,有效识别图片验证码,轻松绕过互联网公司设置的账户登录安全策略,给网络诈骗、黑客攻击等网络黑产提供犯罪工具。

2018年3月18日,美国亚利桑那州还发生了全球首例无人驾驶汽车撞人致死事件。

这些事例都表明,人工智能发展的不确定性,会对司法、政府治理、经济发展、社会稳定,甚至全球治理都可能带来深远影响。所以,如何用法治治理人工智能,成为全世界共同关注的问题。“人工智能法治”则成为新概念、新理念和新领域。

法学界的共识是,人工智能法治体系应包括:立法、执法、司法、守法。但从学科角度而言,人工智能法治目前还缺乏顶层设计,且人才奇缺。

另外,我国现在对人工智能法治的研究,并无国家层面的权威性机构,主要集中在高校和有关法学、法律研究机构,这种局限性和非权威难以让成果进行转化。

由人工智能引发新类型案件,却一直上升。主要涉及知识产权、侵权、合同纠纷、不正当竞争纠纷,以及刑事案件,而知识产权权属和侵权纠纷,占比最高。

其实,早在2008年,就开始出现涉人工智能的案件。当年的“上海步升大风音乐文化传播有限公司诉北京友播世纪信息技术有限公司侵犯录音制作者权纠纷案”就是如此。

原告上海步升大风音乐文化传播有限公司诉称,北京友播世纪信息技术有限公司未经其许可,即在经营的 YOBO网站,向网络用户提供37首涉案歌曲的在线播放服务,损害了其对涉案歌曲所享有的录音制作者权。

而本案涉及音乐作品的信息网络传播、“信息存储空间提供者”与“网络内容服务提供者”的定性,以及网络重新定向技术对于证据保全的干扰等诸多问题,体现了人工智能这一技术早已渗透到民众的社会生活中。

2008年后,类似案件总体呈逐年增多之势,2015年上升最快,去年达到高峰,这种现象也是多方面造成的。最饱受诟病的是案件所涉技术,如大数据、算法、区块链、智能合约等,数据案比例最高。

在“北京淘友天下技术有限公司等与北京微梦创科网络技术有限公司不正当竞争纠纷案”中,上诉人所经营之脉脉未经用户允许,和被上诉人所经营之微博平台授权,非法抓取、使用新浪微博用户信息,构成了不正当竞争。这是我国首例大数据不正当竞争纠纷案。

涉区块链案件比重次之。

在“中文在线数字出版集团股份有限公司与广州市动景计算机科技有限公司侵害作品信息网络传播权纠纷案”中,原告便采取了区块链存证方法,确认了自身所享有的权利,证明了被告侵权。

所以,很多专家表示,加快人工智能立法势在必行。

超越法律的风险

人工智能在发展过程中,暴露的问题也不一样,根据《人工智能安全与法治导则》(2019)显示,今年重点是:算法安全、数据安全、知识产权、社会就业和法律责任。

至于人工智能产品的法律责任,是指人工智能产品在应有过程中,引发侵权或犯罪等行为后,法律责任的认定和承担问题,主要包括人工智能法律主体模糊、人工智能责任界定复杂。

而人工智能的法律主体也存在模糊的情况,其主要涉及产品设计者、生产者、运营者、使用者等多元主体。

有专家认为,人工智能除了法律风险,还应有更深层次的超越民法的风险。

清华大学法学院院长申卫星将其分成三个层次的风险,“第一个层次,可以说是一种传统的风险,就是因为新一代的信息技术的全面深度应用而引发的隐私保护丧失,中国社会进入了一个零隐私的社会,那么这个阶段还是把信息技术作为工具来对待的。”

他说的第二个层次,“是在以自主和深度学习为基础的机器学习之下,出现了人机之间的竞争。在研究机器人能不能取代人的同时,是不是也应该思考人会不会沦为一种机器?”

“第三个层次,我想可能是哲学或者伦理学层面的一个反思。”申卫星表示,人机的竞争可能不再是科幻,“会不会有所谓的三种人并存的一个形态?自然人、机器人和生物复制的人。”

申卫星的观点是,在获得人工智能发展带来福利的同时,也要努力消除人工智能可能带来的法律上的风险和伦理上的危机。

对于人工智能与法律的思考,中国社科院法学研究所副所长、研究员周汉华给出的结论是“国家需要良法善治”。

他以“百度李彦宏无人驾驶”为例称:“如果在人工智能技术还没有发展成熟的时候,用一个陈旧的规则来约束它,无人驾驶就很难发展。很多规定可能都不符合也不适应人工智能发展的需要,包括对于车、驾驶员、地图的要求。”

所以,周汉华认为,法治必须要适应发展。他表示,法治的强度在人工智能发展当中的作用有两方面:第一,构筑一个安全的底线;第二,放开发展的上限。

“如果不能在这一轮竞争中,推进陈旧过时的规则、管理制度、体制进行相应的改变,人工智能是发展不了的。如果缺乏法治,人工智能不可能持续发展。”周汉华说。

记者注意到,有的司法单位已经将人工智能切实使用起来,最典型的是上海“206系统”。中央政法委于2017年2月6日将“刑事案件智能辅助办案系统”的研发任务交给了上海,因而被称为“206系统”。

该系统实现了刑案办理从公安到检察、再到法院的全程贯通、全网覆盖,使得以审判为中心的诉讼制度改革有了看得见、摸得着的成果。

到2018年底,“206系统”3.0版本上线运行,全市刑事案件办理实现了从立案、侦查、批捕、审查、起诉、庭审、判决等均在系统中运行。

上海市法学会党组书记、会长崔亚东是“206系统”最主要的创始人之一。据其介绍:“206系统在刑事诉讼领域,从跟跑并跑,现在处于世界领跑地位。但是本系统还有许多不完善的地方需要继续改进、完善、提高。”

“目前,我们正向4.0版本迈进。我们将紧盯科技前沿,继续攻难克坚,扎实推进,更好地发挥人工智能等新技术在推进司法改革、防范冤假错案、维护公平正义中发挥作用。”崔亚东称,“人工智能在法治领域司法领域的应用前景广阔。