原题:第七届互联网法律与公共政策研讨会成功举办
数据治理、人工智能、区块链成关注焦点
法治周末记者 罗聪冉
2018年,对于互联网来说是不平常的一年。随着人工智能、区块链、大数据等业务愈发渗入的进入每个普通人的生活,新技术与传统社会秩序之间的适应性问题变得更加突出,这使得互联网法律与公共政策的探讨变得比以往更为重要。
12月3日,由斯坦福大学、北京大学主办,腾讯公司支持的“2018第七届北大—斯坦福互联网法律与公共政策研讨会”在深圳举办。
本次研讨会以“新时代、新规则、新秩序”为主题,聚焦于2018年全球互联网行业的共同问题,邀请到了近30位国内外专家学者,对数据保护与网络安全、人工智能治理与伦理、区块链和金融科技等问题展开讨论。
全球数据治理面临三大挑战
从2017年美国征信巨头之一Equifax数据大规模泄露,到2018年国内知名品牌连锁酒店华住集团近5亿条数据遭窃取,再到最近万豪国际集团称旗下酒店数据库遭黑客入侵……
在行业人士看来,2018年,可谓是数据保护的“灰色之年”——数据泄露事件层出不穷,规模越来越大,已达到“亿级以上”;数据滥用、过度采集等现象日益突出;数据歧视、“大数据杀熟”的质疑声此起彼伏;执法部门对数据的跨境获取等问题,都引发了人们的思考。遗憾的是,“这些问题曝光之后,我们目前并没有找到特别清晰的思路。”腾讯研究院资深专家王融指出。
记者了解到,全球范围来看,数据治理正在面临三大挑战:如何在促进以大数据为要素的技术产业创新的同时,又能保护好个人数据权利,保障好国家数据安全。这三大挑战即相互关联,又彼此影响,从欧洲的法律制度和美国的司法实践看,数据治理尚未达成共识。
中国社会科学院法学研究所研究员周汉华介绍,新中国成立以来隐私观念的发展经历了四个阶段——一是传统的“阴私”观念,二是民法上的隐私观念,三是公法上的个人信息保护观念,四是大数据时代的个人数据观念。随着时代的变化,隐私的观念和相应的制度也发生了许多变化,“今天个人数据、大数据早已不是一个科技词汇,而变成一个政策词汇”。
周汉华认为,在三年一代沟的网络时代,对不同隐私观念尤其不能混淆,要时刻以更新的观念去看待这一问题。既不能用第二代的民事隐私观念,也不能用第三代的个人信息保护单一的视角,来规范第四代的个人数据处理,用最新的观念讨论立法问题,可能才有助于形成共识。
在数据保护方面,2018年引起世界范围内高度关注的应该是欧盟颁布的《通用数据保护条例》(General Data Protection Regulation,简称GDPR),被外界称为“最严数据法”。“在GDPR出台之后到正式生效的两年过渡期内,整个行业为数据保护的合规投入了大量的资源。从实际效果来看,企业数据的处理透明度在提升,消费者对数据的控制力也在增强。不过,随着GDPR的执行,隐忧也在逐步浮现,例如域外适用性等问题仍然充满争议。”王融说。
探恪软件科技有限公司合规负责人Isabelle Hajjar认为,GDPR的本意是实现更加公平的竞争环境,但却产生的了适得其反的效果,合规成本将中小企业置于不利地位,反倒对大型互联网公司更为有利;而且,GDPR的制定已经对人工智能、区块链产生负面影响,比如数据最小化、匿名化与AI需要巨量的数据相冲突,解释权虽然没有规定在GDPR条文中,但也难适用于人工智能系统;此外,区块链交易的不可逆性、不可篡改性等直接与被遗忘权、更改权相悖;物联网、量子计算等也是法律的制定者未来需要思考、解决的问题。
面对共通问题,美国也在寻求制度的出路。据了解,加州率先通过《加州消费者隐私保护法》,于2020年生效;统一的联邦隐私立法再次列入国会立法议题,并得到两党、科技行业支持。
“在我们考虑自己的政策时,面对欧洲或美国的样板,我们难以判断孰优孰劣,任何法律政策都是建立在特定的文化观念、经济背景等历史遗产之上,但任何好的政策,一定是更加考虑了问题的复杂性,恰当平衡各方因素,更为科学和精细化的作出政策。”王融认为,监管干预、技术路径、市场经济动机等因素充分卷入,并能够有效互动的解决方案,能够更好的实现数据治理目标。
建造人工智能的道德框架
人工智能持续渗透到各行各业,开始广泛影响社会和个人,算法社会正在成为现实。人工智能的应用在促进经济增长、带来社会福祉、帮助解决人类社会所面临的重大挑战的同时,也带来了新的法律、政策及伦理问题。
在行业细分领域,以自动驾驶为例,全球多个国家都已开始陆续出台法律政策,对其测试、准入、安全标准、责任、保险、伦理等事项做出制度安排。我国也高度重视自动驾驶技术,自2017年底北京率先发文宣布放开自动驾驶汽车路测之后,上海、重庆、深圳等多个城市都陆续出台了相关文件,不少企业相继拿到了测试牌照。2018年4月,工信部、公安部、交通运输部联合印发了《智能网联汽车道路测试管理规范(试行)》,从而使得自动驾驶汽车道路测试有了统一的标准规范。
北京大学法律人工智能实验室、法律人工智能研究中心副主任江溯认为,目前我国自动驾驶还面临诸多挑战——首先,面临立法空白困境,目前我国《道路交通安全法》及相关条例仅允许有资格的驾驶人驾驶机动上路,自动驾驶系统不具有驾驶机动车的合法地位,因此还需立法者作出修改;其次,自动驾驶汽车作为移动的计算设备,能够收集到的数据不仅范围广、数量大、质量高,并且包含巨大的经济效益,涉及隐私和数据保护问题;再者,自动驾驶的责任界定问题还需予以明确;最后,当事故无法避免时,谁的安全应该放在首位?这背后的原因又该如何解释?自动驾驶还面临伦理困境。
记者注意到,国务院在2017年7月印发了《新一代人工智能发展规划》的通知,正式把以人工智能为导向的科技与经济发展列为中国未来的专注焦点。该通知明确要求“制定促进人工智能发展的法律法规和伦理规范”,重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究制定相关安全管理法规,为新技术的快速应用奠定法律基础。
在2018年上海举办的世界人工智能大会上,腾讯董事会主席马化腾曾提出了人工智能的“四可”理念,即未来人工智能是应当做到“可知”“可控”“可用”“可靠”。在本次会议上,腾讯研究院院长司晓将上述“四可”翻译为“ARK”方舟(Available,Reliable,Comprehensible, Controllable. ARCC,or ar-k.),以方舟的寓意来类比“四可”的重要性,同时详细解释了“四可”背后的涵义。司晓说,腾讯的愿景是通过“四可”这样的一个道德框架开始,去帮助AI开发者和他们的产品赢得公众的信任,“一个新技术的诞生本身无关好坏,而让这些技术能够成为"好技术"是我们的责任”。
区块链的三大法律困惑
当前,区块链已成为最受瞩目的技术,在金融及其他众多领域有着巨大的应用前景。同时,区块链技术与金融科技的融合也面临着诸多法律和监管问题,亟需探讨。
中国支付清算协会业务协调三部主任丁华明认为,区块链发展面临的挑战和问题,主要来源于两个方面,一是技术发展面临挑战,二是商务应用碰到问题。
具体而言,技术方面的挑战包括多个方面——首先,性能存在瓶颈,以今年双十一为例,网联处理每秒交易是9.2万笔,支付宝大概每秒30万笔,而区块链处理是每秒7笔,中间存在巨大的差异;其次是隐私保护、安全治理问题,开放的区块链应用更容易受到冲击;另外,目前在金融行业的区块链应用基本上是基于联盟链的模式,联盟链是一个小而美的模式,容易落地,但是链跟链之间缺乏公认的技术标准和跨链的解决方案;最后,区块链节点具有高冗余特性,对系统运维及业务连续性管理带来了巨大的挑战。
商务应用碰到的问题也分为多个方面——首先是开发成本,作为新技术,金融机构需要投入大量的新的研发成本;第二是场景应用方面,在海量数据存储等场合的应用无法取得好的效果;第三是价值观念,目前银行中心结构和区块链去中心化的运行模式存在很大的摩擦;第四是系统整合,传统金融机构运行多年的现有系统如何与区块链应用结合也是很大的问题。
北京大学法学院教授张平则认为,应该冷静和理性地思考一下区块链所带来的法律困惑。区块链具有去中心化点对点、智能合约可信任协议、机器自治不可篡改可溯源三大特点,而这些技术特点在法律上存在疑问。
张平认为,首先,在去中心化结构中,一旦出现问题,监管机构难以找到承担法律责任的主体,责任主体分散导致的直接矛盾就是消费者权益保护问题;其次,智能合约涉及到竞争规则,无论现在用的是公链还是私链,其实都是基础设施,这种基础设施如果用统一的平台管理,就会形成市场操控能力而具有垄断性,这种情况是否会触及竞争法,其他企业如何能进入市场,都将是问号;最后,区块链不可篡改的特性会导致个人信息保护问题,触及网络安全法的多项原则,也违背现行的GDPR。“区块链不应该被神话,它在某一些技术领域里面有很好的应用,但是并不一定全面适用”。
丁华明认为,“技术上去中心化,并不代表管理上的无中心化,现在很多区块链技术和平台也涉及了监管节点的考虑,在运营过程中会考虑到监管节点的问题,可以穿透式实时进行监管,已经为监管中心考虑了一些技术的改良。”
丁华明建议,未来应大力发展多重安全保障体系的联盟链应用,以实际应用场景来落实促进实体经济的发展;积极关注公有链的发展,在参考借鉴技术创新的同时,考虑必要的监管平衡;在传统技术架构上结合区块链的技术优点继承式发展;技术与管理相结合,着力解决资产上链的真实性问题;区块链技术应用于实体经济服务才是本源,随着泡沫的破灭以及区块链项目的去伪存真,业界对区块链的认识逐步理性、客观和务实。
责任编辑:王硕