首页 理论教育 互联网平台提供商法律规制研究:强化算法的公开与安全

互联网平台提供商法律规制研究:强化算法的公开与安全

时间:2023-08-06 理论教育 版权反馈
【摘要】:不加监管的算法规则会损害公众利益,影响国家经济利益与安全。以大数据为基础的算法,存在被攻击、被篡改、被操纵的可能。算法安全也意味着算法中必须有防止不良信息的审查机制。互联网平台提供商必须确保其算法符合国家的强制性规定,不得传播有损公共利益的信息。规制互联网平台的数据收集、处理与使用的技术路径是保障算法的透明与安全性。

互联网平台提供商法律规制研究:强化算法的公开与安全

现阶段互联网平台的竞争是数据与算法的竞争。不加监管的算法规则会损害公众利益,影响国家经济利益与安全。事实上,前段时间的“抖音事件”与“内涵段子”事件的核心问题是算法监管问题。

(一)解决算法黑箱

算法是配方、指令集,是用于实现特定计算或结果的任务序列。算法代表了可重复、实用的解决方案,其利用计算机流程和公式回答问题并将问题转化为答案,可以在有限时间内提供可靠预期结果。人工智能所使用的机器学习算法可以根据一些基本结构进行操作,如神经网络、贝叶斯分析或演化适应。通常最复杂的机器学习系统会结合多种算法。一旦构建了学习算法,就可以对它进行训练。通过大量的数据集进行训练,这些数据集可以提供许多期望结果或问题的例子。学习算法基于某种相对成功的信号随时间迭代。每一种算法都有一个输入和输出:数据进入计算机,算法完成它的任务并输出结果。机器学习反过来:数据和期望的结果出来的算法,将一个算法变成另一个算法。学习算法是制作其他算法的算法。由于他们通过模拟神经网络的百万倍迭代来实现新算法生成,所以它们输出的计算结构往往既有效又难以理解,这就是所谓的“算法黑箱”。

“算法黑箱”体现了信息时代的悖论:数据在其广度和深度上变得惊人,但往往对我们来说最重要的信息不在我们的控制下,仅供内部人士获取与使用。算法经常包含一系列计算过程,包括对用户行为的密切监视,所得信息的“大数据”汇总,结合了多种形式统计计算的分析引擎来分析数据,最后是一组面向人类的行为、建议和界面。而这些行为、建议和界面通常只反映幕后文化处理的一小部分。算法的表现取决于数据和预设条件(规则)。现今的算法本身就是“黑箱”。除了算法的编撰者,无人知晓算法是如何设计与运作的。企业对运行数据与方法算法都不遗余力地进行了保护。此外,随着深度学习等的发展,算法的编撰者有时可能也不清楚算法的运作机制。即使写出了一些非常成功与普遍存在的算法系统的工程师,如Google与Netflix等的软件工程师也承认其仅仅能理解系统所展示的行为的一部分。[17]华尔街交易员常以如伏击和入侵者来命名其交易算法,但他们常常不知道他们赚钱的黑匣子是如何工作的。

基于机器学习的人工智能数据处理技术不可避免地会出现错误。对算法的决策过程进行解释是避免算法错误所需采取的措施,是让人工智能系统负责的有效方法。解释意味着算法以可理解的术语呈现。在机器学习系统中,可解释性意味着向人类提供可理解术语的能力。欧盟通用数据保护条例》探讨了人工智能系统合法解释权问题。[18]算法的解释需要成本。在非军事领域,我们确实需要考虑何时需要解释以有助于防止人工智能系统带来的负面影响,而糟糕的选择可能不仅不能使人工智能系统承担责任,还会妨碍开发急需的有益人工智能系统。要求每个人工智能系统解释每一个决策可能会导致系统效率降低,强迫设计选择偏向于可解释但不理想的结果。有学者认为,真正的人工智能系统并不具有可解释性。[19]机器学习,特别是深度学习,可以将数据分析成数千个变量,并将它们排列成非常复杂和敏感的加权关系数组,然后通过基于计算机的神经网络重复运行这些数组。要理解这些结果,可能需要理解这些成千上万变量之间的关系,我们的大脑根本无法掌握那么多的信息。也许我们应该管理人工智能武器优化。人工智能系统应该被要求声明它们被优化的内容。显著影响公众的系统的优化不应该由创建这些系统的公司决定,而应由代表公众利益的机构来决定。

(二)解决算法安全

互联网平台的算法设计者必须保障算法的安全,公私义务应禁止互联网平台开发的算法推介一些吸人眼球的不良信息、故意加入歧视性规则、对法律规定的不良信息不进行算法处理。此外,算法设计者自身的偏见以及算法运用中的大数据样本问题导致的错误与偏见屡见不鲜。Google的图像识别软件曾经将黑人标记为“大猩猩”。在强人工智能背景下,算法可以自动生成新算法。以大数据为基础的算法,存在被攻击、被篡改、被操纵的可能。当数据库或算法被攻击时,算法的训练和更新就会偏离预计的轨道,形成恶性算法,在应用时可能无法分清敌我。

数据处理的算法必须确保安全性。算法安全意味着在设计算法时设计者不能带有偏见,故意加入一些非安全变量或算法中没有嵌入安全机制。互联网平台在收集数据时,必须坚持必要性与最低限度要求。互联网平台提供商收集数据以提供服务的必要性为基础。并非提供服务必要的数据互联网平台不能收集。此外,互联网平台收集的数据应以业务要求的最低数据为限。互联网平台掌握的数据越多,数据泄露的风险就越大。互联网平台在加工与处理数据时必须坚持全面、非偏颇处理原则。偏颇的数据处理结果可能导致数据主体的信息失真,使得数据主体不能获得其需要的贷款、可能获得的工作机会等。算法安全也意味着算法中必须有防止不良信息的审查机制。互联网平台提供商必须确保其算法符合国家的强制性规定,不得传播有损公共利益的信息。此外,互联网平台必须建立针对特殊人群的安全系统。互联网平台应建立反沉迷、反谣言、反低俗的系统。互联网平台应设置专项未成年人保护措施,从产品、运营、审核等多方面入手,保证未成年人的身心健康不受伤害。此外,数据与算法不得用于提供歧视性服务。

互联网平台越来越有成为网络经济基础设施的地位。这些网络基础设施既是互联网经济发展的基础,也是不良信息传播的主要场所。因而,从公法的视角看,相关的行政法律规范在保障互联网经济可持续发展的同时,也必须规制互联网平台上的数据收集、处理与使用问题。规制互联网平台的数据收集、处理与使用的技术路径是保障算法的透明与安全性。公法对互联网平台行为的规范必须考虑技术现实与可能。互联网平台不能完全杜绝其平台上的不良信息的传播,要求互联网平台通过人工审核方式来阻止不良信息的传播既不现实也不可能。从技术与商业现实角度看,通过算法控制不良信息的传播可能是目前最优的选择。事实上,互联网上海量的不良信息如果没有算法的推介会很快湮没于信息垃圾中,不能成为有效传播的信息,对社会也不会有太大的影响。因而,对于不良信息的传播,最好的方式与手段就是算法控制。除了不良信息的控制外,互联网平台还必须坚守数据公平与数据正义理念。数据公平与数据正义的实现也必须通过算法的规制予以实现。互联网平台在设计算法时必须嵌入数据公平与数据正义理念,切实保障数据主体的数据免受滥用与泄露,切实保障算法符合社会公共利益与公共道德,从而有效维持互联网平台经济的健康发展。

【注释】

[1]Facebook被曝于2012年研究中试图操纵用户情绪,引发用户愤怒。

[2]这部分内容主要来自于赵鹏:“私人审查的界限——论网络交易平台对用户内容的行政责任”,载《清华法学》2016年第6期。

[3]See Robert Baldwin,Martin Cave,Martin Lodge,Understanding Regulation:Theory,Strategy,and Practice(2the ed.),OUP,2012,pp.259~267.

[4]《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》第8条明确规定,网络服务提供者未对网络用户侵害信息网络传播权的行为主动进行审查的,人民法院不应据此认定其具有过错。

[5]刘文杰:“网络服务提供者的安全保障义务”,载《中外法学》2012年第2期。(www.xing528.com)

[6]王胜明主编:《中华人民共和国侵权责任法释义》,法律出版社2010年版,第194~195页。

[7]李颖、宋鱼水:“论网络存储空间服务商合理注意义务——以韩寒百度文库案判决为切入点”,载《知识产权》2013年第6期。

[8]金凌:“略论注意义务对我国侵权行为法的启示”,载《法学评论》2009年第2期。

[9]上海市第一中级人民法院[2011]沪一中民五(知)终字第40号民事判决书

[10]“张某某等与河南大象融媒体集团有限公司名誉权纠纷案”,参见北京市第一中级人民法院[2017]京01民终2064号民事判决书。

[11]http://www.legalinfo.gov.cn/Case_record/content/2012-11/16/content_3989492.htm?node=40490.

[12]“田某国与深圳市科伟业实业发展有限公司名誉权纠纷案”,参见广州市中级人民法院[2010]穗中法民一终字第538号民事判决书。

[13]“苏州金莱克家用电器有限公司诉杭州金莱克电器有限公司等侵犯商标专用权及不正当竞争纠纷案”,参见苏州市中级人民法院[2008]苏中知民初字第0094号民事判决书。

[14]“鲁道夫·达斯勒体育用品波马股份公司诉浙江淘宝网络有限公司等销售假冒注册商标的商品纠纷案”,参见广州市中级人民法院[2006]穗中法民三初字第179号民事判决书。

[15]姚志伟:“公法阴影下的避风港——以网络服务提供者的审查义务为中心”,载《环球法律评论》2018年第1期。

[16]杨通进:“爱尔维修与霍尔巴赫论个人利益与社会利益”,载《中国青年政治学院学报》1998年第4期。

[17]Ed Finn,What Algorithms Want:Imagination in the Age of Computing,MIT Press,2017,p.15.

[18]Sandra Wachter,Brent Middelstadt,Luciano Floridi,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation,International Data Privacy Law,2017.

[19]https://medium.com/berkman-klein-center/optimization-over-explanation-41ecb135763d.

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈