3月1日,《互联网信息服务算法推荐管理规定》(下称《规定》)正式实施。在算法无孔不入地渗透公众生活之时,强监管已经到来。如何看待我国现有的算法治理模式?它有何利弊?与欧美相比,我国的算法治理有何特点?
2022年全国两会召开期间,多位专家学者做客南都直播间“两会大家谈”分享了自己的看法。专家认为,我国的治理原则与国际通行的监管思路相近,在步伐上已经比较靠前。但在算法治理上,我国“强监管”的特色也带来“弱自律”的弊端,未来需强化行业和公民社会的自律机制。另外,从制定政策的过程来看,未来需要全行业加强交流和研究,确保政策的可行性。
1
《规定》与个人信息保护法一脉相承
会上,中国人民大学法学院教授石佳友指出,《规定》在全世界的算法立法中,都是一个里程碑式的文件。从《规定》来看,它体现了我国算法治理的几个原则:公开透明、禁止算法的有害应用、强化平台责任。
但我国的算法治理并不始于此。他提到,在《规定》出台之前,个人信息保护法中就有了实质性的关于算法治理的内容。在个人信息保护法第24条自动化决策的规定中,就强调了决策的透明度和公平公正,以及个人对自动化决策的拒绝权、关闭算法推荐,这些都是算法治理中非常核心的内容,在后来出台的《规定》中有所体现。
北京科技大学文法学院副教授张凌寒也表示,个人信息保护法对于算法自动化决策治理已经提出相关要求,例如要求自动化决策的结果公平公正;通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明等。《规定》对算法透明度和可解释性的要求主要在第十六条,要求“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等”。
“相比与《规定》第十二条对算法透明度和可解释性的鼓励性条款,第十六条是对于算法推荐服务提供者提出的一个强制性的要求——以显著方式告知。例如,如果服务商进行个性化定价,就必须在用户能够感知的方式告知用户正在接受算法个性化定价。算法的基本原理、目的意图、运行机制等也要用适当方式说明。”张凌寒说。
她还指出,目前的算法透明度的要求对于算法推荐服务提供者来说没有技术上的障碍,也并无泄露商业秘密的隐忧,算法的基本原理和主要运行机制的弹性空间较大,只要达到用户合理知晓的程度即可。
算2 法治理要了解业界,考虑政策可行性理要了解业界,考虑政策可行性
《规定》作为算法治理领域的首个系统性文件,已经正式施行。规定涵盖了目前互联网算法的五个子领域,囊括了大部分的算法应用,它实施起来会有哪些困难?未来会否有更细化、更具体的文件出台?
清华大学公共管理学院教授梁正认为,《规定》的出台意义很大,体现了一种积极的预见性治理思路。其中一些要求对业态的影响非常直接,这些要求本身是从平衡公众、产业、社会福利的最大化出发的。
然而,对于新技术治理,一些要求可能有可行性的问题。例如对于备案的要求,《规定》要求,算法推荐服务提供者的备案信息发生变更的,应当在变更之日起十个工作日内办理变更手续。而备案要求在算法领域可能会难以落地。
他举了自动驾驶中高清地图的例子。“如果按照传统地图的管理规定,那么高清地图也是有一个版本就要做一次备案。但实际上高清地图每天都在变。因此我们听到业界常说,你不去了解真正的技术已经发展到什么程度就提出一些要求,这些要求很可能是不可行的,不可落地的。”
基于这些问题,梁正建议,未来还是应细化这些标准和规范,进行分级分类、分场景治理,标准规范的落地一定要针对具体问题,考虑到技术应用在不同场景下应达到什么样的要求。而这需要整个行业包括专家学者、企业人士等进行深入交流和探讨,确保政策可以落地。
张凌寒认为,《规定》之后,很可能会针对算法不同的应用场景、算法所处理数据的敏感程度、所涉及利益的重要程度提出更为细致的算法透明度和可解释性的区分要求。如涉及人的自由与健康的量刑算法、器官移植排序算法,一定会提出极高的透明度要求;而对歌曲推荐算法等则可能简单说明即可。
2022年1月28日,国家互联网信息办公室发布《互联网信息服务深度合成管理规定(征求意见稿)》,要求深度合成服务提供者深度合成服务时,应当使用合理方式对深度合成信息内容进行标识。
张凌寒分析,在算法分级分类管理机制当中,深度合成技术属于生成合成类算法,因其可能带来较高的信息内容安全风险,属于高风险、高敏感的算法应用,因此对它的可解释性、可选择性、透明度的要求就更高,从技术环节和应用环节都要做一些明显的标志。“算法的治理不可能一刀切,而是走向精细化、场景化治理。”
我国算3 法治理特点:强监管伴随弱自律理特点:强监管伴随弱自律
不仅是中国,过去几年,欧美国家对算法治理也有诸多尝试和探索。欧盟于2019年颁布《数字服务法》法案,2021年出台《人工智能法草案》,而美国也陆续提出多项法案来规制平台算法问题,例如《保护美国人免受危险算法侵害法案》《过滤气泡透明度法案》《算法责任法案》等。
中国和欧美采取的算法治理模式有何异同?中国特色如何体现?
中国社科院科技和社会研究中心主任段伟文认为,从目前各国提出的法案来看,中国和美国都采用了一种经验主义或实用主义的解决办法,要求中都暗含了具体的场景和冲突,体现一种从行政上对于当下问题的应对。而欧洲更多从个人数据保护或者个人权利的角度来延伸。但中美也有不同之处,美国的法案经常针对某项具体的技术,非常细化,强调消费者保护,而且可能涉及诉讼,而中国则采用行政规定,较为全面,强调社会公共利益。
在石佳友看来,《规定》的几个原则与国际通行的监管思路是相近的。首先是公开透明原则,《规定》第十一条提到人工干预和用户的自主选择,第十二条提到算法的透明度和可解释性。透明度和可解释性是一个非常核心的原则,美国的《过滤气泡透明度法案》和《算法正义和平台透明法案》等也都体现了这个原则。此外,《规定》要求互联网平台用通俗易懂的语言向用户解释自动化决策的机制,这也欧盟的要求也是相通的。
此外,他认为,强化平台责任也是《规定》的基本原则。但在这一点上,欧美虽然也在强化中间商平台的一些责任,但与我国区别很大。例如,根据美国第一宪法修正案,美国政府没有权利要求作为私立机构的网络平台去保留或者删除内容。欧盟的电子商务指令,也明确了对网络平台不负有一般的监管义务。
在立法模式上,石佳友指出,我国的算法治理虽借鉴了国际经验,但差异明显。我国的优势在于立法机制灵活、能动性强,立法工具多,这让我国能够非常及时地出台一些法律法规、规章和监管政策,这是国外所不能比拟的。在他看来,借助这种工具箱优势,日后我国还会出台一些新的算法治理规范,这是一个趋势。不过,由于算法治理的问题非常前沿,全世界都在摸索阶段,因此并不适合制定法律。
他强调,我国这样的治理特点可能会带来一个负面效应——企业自律机制不足。“我们总体上是一个强监管弱自律、大政府小社会的格局。在这个格局之下,监管部门非常具有能动性,而行业自律机制严重不足,行业公约、公民社会介入都比较弱,对于政府的监管已经形成一种‘依赖症’。未来强化行业和公民社会的自律机制是必须的。”他说。
采写:南都记者李娅宁