对话人
中国传媒大学网络法与知识产权研究中心主任 王四新
北京师范大学法学院网络与智慧社会法治研究中心主任 刘德良
中国传媒大学政法学院法律系副主任 郑 宁
记者:针对AI深度换脸技术风险多发,有关网络安全法律专家认为,必须高度警惕这种技术被恶意使用的风险,尽快开展法律风险评估。
王四新:我们需要对它进行安全评估,这种安全评估也是有法律依据的,网络安全法、网信办制定的规范性文件都有相应要求。安全评估需要弄清楚的是,实际运作过程中可能会存在哪些风险,针对这些风险,我们可以采取哪些措施。只有这些问题全部落实,才可以正常运转。
记者:今年6月13日,美国众议院情报委员会召开关于人工智能深度伪造的听证会,公开谈论了深度伪造技术对国家、社会和个人的风险及防范和应对措施。随着AI技术的深度应用,也有不少业内人士提出,我们必须高度警惕这种技术被恶意使用的风险。但对深度伪造的内容不能一棍子打死,很多深度伪造的合成媒体内容具有存在的正当性,只有影响国家安全、公共安全、民主政治的虚假信息才需要加强监管和规制。涉及刑事犯罪和一般网络侵权的深度伪造适用不同的规制。
王四新:要构建非常完备的内部制度,或者说构建一个比较好的体制和机制,对于这些发展过程中出现的问题,有一些特殊的流程。同时,还要建立有效的反馈机制。
郑宁:对于深度伪造,要具体问题具体分析。如果不影响国家安全、公共安全、公民个人权利,比如电影特效,就不用太多干预,如果有影响才应当加以监管。具体的法律责任要看违法的严重程度,然后来判断承担民事责任、行政责任还是刑事责任。
记者:有专家建议,立法部门应紧跟国际人工智能技术最新进展,联合国内专业研究力量,评估这项新技术可能带来的法律风险,以及对国家安全等构成的威胁,加快对类似新兴技术的前瞻性立法研究。
郑宁:网络安全法第十七条规定,国家推进网络安全社会化服务体系建设,鼓励有关企业、机构开展网络安全认证、检测和风险评估等安全服务。对于新技术,应该开展安全评估,评估可以由社会组织或企业自行开展,政府部门监督检查。
王四新:网络安全法是一个非常系统非常庞大的系统工程,需要企业全面履行主体责任,真正解决实践中出现的这些问题。
刘德良:针对这种立法,可能在未来需要跨过一些坎。首先要转变观念,从关注个人信息的泄露转到滥用的方向。我认为障碍就在于观念问题,现在的主流看法都在强调泄露,而不在防止滥用上。
在观念转变之后,再组织专家商讨、提案,或许情形很复杂,主体也不一样、侵犯的权益也不尽相同,要系统地规范什么叫滥用,滥用有哪些类型,如何从民法、行政法、刑法有效防止滥用。如果没有立法,司法也没有意义。
记者:在您看来,防止泄露、绝对的保密是否无法做到,未来相关领域的立法重点应该在如何防止这些信息或数据的滥用?
刘德良:相关法律法规的建立完善要具有可操作性,不能不利于大数据和人工智能产业的发展。大数据、人工智能产业本身就需要数据搜集,现在我们的个人信息已经存在于N个商家和机构中,泄露了也不知道从哪里泄露的,防止的不是泄露,关键在于不能滥用。
从立法上要让进行身份识别的机构或者平台(比如银行、支付平台、电信公司、保险公司)去承担责任。如果用户的个人信息被盗用、滥用,有两种思路去问责:一是对这些机构、平台进行过错推定,除非能证明履行了核实比对义务,这种义务的标准随着技术、时代的变迁也会不断升级改变,需要司法按照这个标准去判定取证,来确定是否尽到义务,才可以免责,否则就要和假冒者一起承担连带责任;二是更加严苛,承担无过错责任。
如果法律有这种规定,就会倒逼这些机构、平台认真核查比对,甚至会想方设法开发更新的技术手段,来有效避免身份假冒滥用。如果不这样立法,掌握个人信息的机构、平台就会把风险转嫁给被假冒者,让个人承担风险。