• 工作总结
  • 工作计划
  • 读后感
  • 发言稿
  • 心得体会
  • 思想汇报
  • 述职报告
  • 作文大全
  • 教学设计
  • 不忘初心
  • 打黑除恶
  • 党课下载
  • 主题教育
  • 谈话记录
  • 申请书
  • 对照材料
  • 自查报告
  • 整改报告
  • 脱贫攻坚
  • 党建材料
  • 观后感
  • 评语
  • 口号
  • 规章制度
  • 事迹材料
  • 策划方案
  • 工作汇报
  • 讲话稿
  • 公文范文
  • 致辞稿
  • 调查报告
  • 学习强国
  • 疫情防控
  • 振兴乡镇
  • 工作要点
  • 治国理政
  • 十九届五中全会
  • 教育整顿
  • 党史学习
  • 建党100周
  • 当前位置: 蜗牛文摘网 > 实用文档 > 公文范文 > 智能社会中算法治理的法律控制研究

    智能社会中算法治理的法律控制研究

    时间:2023-04-07 19:40:05 来源:千叶帆 本文已影响

    杨利华,苏泽祺

    (中国政法大学民商经济法学院,北京100088)

    在当前人与人工智能依存的时代,智能算法的辅助决策乃至自主决策已深入影响到人们的生活,无人驾驶汽车、算法推送、算法过滤、算法评估等都是算法应用的典例。公权力机关运用算法履行公共职能,平台企业运用算法提供精准服务,社会公众则在享受算法福利的同时,也默许着算法的操控,由此就形成了算法治理的基本架构。在构建多元共治的大格局下,从政府部门到企业平台、从传统领域到新型行业,如何实现高效、准确的治理都是重要的议题。算法的功能恰恰适应了这一需要,极大地促进了治理能力的提升和创新。但在带来便利的同时,算法治理也存在着风险与危机,算法黑箱的存在使得公众难以对算法进行质疑与挑战,算法在设计者主观价值的影响下也突破了技术中立的基本预设,甚至带来了算法偏见与歧视,造成新形式的不公平现象。这些风险并非算法设计者所期望,但依然是客观存在的。

    利用算法进行社会治理是科学技术发展催生的产物,也是人类社会治理模式的更新和发展。从风险预防的角度来看,算法治理的风险早已初露苗头,有必要采取合理的措施予以应对。本文拟从算法这一基本技术着手,对算法治理的风险及其成因进行分析,在此基础上探索算法治理法律控制的基本原则与可行进路。

    (一)算法治理的基本内涵与原理

    从算法出发来理解算法治理,首先需要对算法的概念予以明确。算法的本质是一种运算规则〔1〕,也有学者将其定义为“实现某个目标对一组数据进行处理的逻辑步骤”〔2〕。在技术层面,算法是对计算机这一载体形式与二进制运行机制的融合。随着技术的演化和功能的拓展,传统算法逐渐衍生出排序算法、傅里叶算法和哈希算法等现代算法。这些不同类型的算法在特定数据的排序、推送、加密、筛选和评估等方面得到广泛应用〔3〕。算法的实施一般包括算法设计、数据输入和算法执行三个环节,而在智能算法技术中,算法在制定完成后即不再需要人类的操控,可以对所在环境中的数据进行主动抓取、整理、运算和分析,基于分析结果再进行相应的反馈,这也是当前算法治理的技术基础。

    传统的社会治理模式是单向度的,政府是唯一的公共服务提供者,并且垄断着公共管理职能。但由于人类社会的高度复杂性与不确定性,这种治理模式已经难以适应社会发展需要,因此现代社会治理奉行多元共治的基本理念,其特点就在于兼容多元化治理主体与复合化治理手段,除了政府主导的社会治理外,非政府组织、私主体也在各自领域发挥着社会治理的功能,由此形成了社会治理网络。与此同时,互联网、大数据、智能算法等科学技术也推动了治理创新,算法治理就是在现代治理理念中孕育而生的。在技术层面,算法治理是指治理主体利用算法进行社会治理。随着机器深度学习技术的逐渐成熟,人工智能通过神经网络可以进行更高层次的演算和推理,算法模型也会随着反复运用而不断地自主提升和完善,使运算的准确性得到极大提高,因此算法在一定程度上获得了自主决策的能力。例如政府部门利用算法进行风险预警、指挥调度、预测性执法,以及平台利用算法进行侵权监测等都是应用这一技术的具体表现。在算法应用下社会治理的效能极大提升,治理成本也极大降低。从价值层面来看,算法治理则强调算法在治理中的主导地位。实际上,算法正在深刻地影响着人们的观念和行为方式:一方面,算法技术的便捷高效使得人们对其产生了高度信任;
    另一方面,算法嵌入社会生活各个领域,不断引导和规范着人们的日常交往活动。简而言之,算法治理正在从技术和价值两个层面影响着人们的社会生活。

    (二)算法治理的应用场景

    算法治理在实践中的应用极为广泛,难以全面列举。常见的算法治理应用例如信息推送、内容过滤以及数据评估与预测。

    信息推送是提供个性化信息服务的重要方式。随着互联网时代信息量的指数型增长,人们在享受海量信息的同时,也面临着如何有效便捷地筛选和提取信息的问题,算法推送技术的出现迎合了这一现实需求。从计算机学的角度来看,传统的推送算法主要包括基于内容的推荐算法和协同过滤的推荐算法。其中,前者是指根据用户在网络环境中留存的信息痕迹来构造用户偏好,计算内容与用户偏好的相似度,将相似度最高的内容推荐给用户。后者则是通过分析与目标用户相关的邻居用户的偏好来向目标用户进行推荐〔4〕。随着人工智能技术的发展成熟,推荐算法也有了新的提升,典型的表现为推荐算法与人工智能神经网络相融合,利用深度学习技术评分计算,抑或直接构建多层神经网络对评价进行预测,从而完成内容推荐〔5〕,也使得算法推荐的精准性得到极大提高。

    算法过滤与算法推送的原理类似,但区别在于算法推送决定的是用户可以看到什么,而算法过滤则是要屏蔽某类信息以防止用户获取特定信息,即决定了不能看到什么。实践中,算法过滤的主要应用价值在于对上传内容进行检查监测,例如在公共秩序维护中,平台预先将涉嫌违法犯罪、过于偏激、色情、暴力等违反社会公共利益的内容或关键词设置为监测对象,利用算法对用户上传的内容进行评估,如果识别到存在上述不当内容或关键词,则直接予以屏蔽或删除。此外,算法过滤也可以有效防止侵权内容的传播,即对含侵权内容的信息进行过滤,如实践中已经广泛应用的内容元数据索引、哈希算法识别和音视频指纹识别等〔6〕。算法过滤技术目前已广泛应用于网络侵权监测,尤其是在版权保护方面。例如“百度文库”开发了“反盗版DNA系统”,旨在阻止线上出现恶意文档;
    “虎牙直播”使用人工智能识别用户在直播中上传图片、文件里的侵权元素,极大地提升了审核效率。

    除了上述应用外,利用算法进行数据评估与预测也极为普遍。大数据背景下,算法能够在数据收集的基础上,对现有数据进行深度分析、评估与预测,从而实现社会治理的目的。在宏观层面,算法决策依据整体数据情况,如在智慧城市理念中,通过对特定时段的人流量、车流量、噪音、路面、天气以及交通事故等数据的收集,利用算法进行数据建模,进而评估和预测具体时段的路况以及交通事故发生的概率,以便提前布置交通梳理和分流。在微观层面上,算法可以对个体分散的数据进行整合,实现诸如网页浏览、链接点击、购物消费、支付记录以及信用累积等原本以点为表现形式的数据之间的关联,在算法建模中重新构建并形成“虚拟人格”的样态,在此基础上便可以对个体行为作出进一步预测。例如银行可以通过算法评估与预测来对用户的偿付能力以及信用状况等作出初步判断,以决定是否与之建立信贷关系;
    法院利用算法对犯罪嫌疑人或者被告人的过往犯罪经历和违法行为进行综合分析,评估其人身危险性和再犯可能性,从而决定采用何种程度的量刑。可以说,算法技术下的数据评估和预测实现了宏观和微观层面上社会治理的创新,因此也有学者将其称为“评分社会”〔7〕。

    由于算法的应用具有自发性,加之算法技术本身的特点以及功能实现的需要,在当前缺乏规范引导的情况下,算法治理在带来便利的同时也产生了自身的风险隐患。

    (一)算法治理的主要风险

    1.形成算法黑箱

    算法黑箱由算法不透明所导致,由算法黑箱所构成的系统其内在数据运行逻辑不为人知,也不能打开〔8〕。传统算法决策中人类主体始终掌控着决定权,但随着人工智能技术的发展,算法决策程序逐渐具有了相对自主性。有学者根据算法的输入端、输出端和中间隐层的自主性程序,将算法黑箱的形态划分为初级形态、中间形态和高级形态〔9〕,这种黑箱形态的演变,反映了算法在一定程度上脱离了人类的控制。而由于算法黑箱的存在,社会公众无从得知决策的公正性与准确性,也无法对决策结果提出质疑,只能被动予以接受,这也就导致算法决策失去了受监督的可能性。例如在2016年的“魏则西事件”中,百度公司利用算法系统对医疗广告进行竞价排名最终导致悲剧的发生,根源就在于算法运行的不透明导致信息不对称,相关公众难以对算法排名决策进行合理评估并做出选择。

    2.固化虚拟人格

    算法通过对个人网上浏览痕迹的分析,进行整体的数据画像,形成由个人的兴趣、偏好、职业、信仰等特征组成的个人形象,由此构成了算法环境下个体的虚拟人格。由算法画像所形成的虚拟人格可能与实际人格存在偏差,原因在于实际人格会因客观环境以及个人现实经历的改变而改变。虚拟人格的形成是基于算法对跨越时间维度数据的统合而形成的,短期偏好的改变并不能对虚拟人格产生实质性的影响,并且在网络环境中个体的虚拟人格已经形成,算法据此进行专门的信息和服务推送,造成“信息茧房”和“回音室”效应,从而又会强化这一虚拟人格。但在此基础上的算法治理会忽视这种偏差,从而在治理效能上与实际追求不符。

    3.造成算法偏见

    算法偏见又被称为算法歧视,无论是算法自身的原因还是外部的人为因素都可能会使算法在运行过程中出现偏差,造成算法偏见。技术性错误所造成的算法偏见难以避免,但更为普遍的则是算法背后的价值偏见。在实践中存在的大数据杀熟现象,便是对不同服务对象设置不同价格或者提供不同等级的服务以实现利益的最大化,那些被定义为具有较高消费能力或者获利价值的用户也会无形中接受更高价格的商品或服务。再如利用算法进行精准治理时,许多因素可能会被不恰当地关联起来并形成标签,像性别、种族、健康状况、财富状况以及家庭背景等都会被纳入算法治理考量的范围内。在这些事实因素的背后,就可能会关联到其他的价值因素,典型的例如种族与犯罪率之间的关联,美国的COMPAS风险评估系统在分析犯罪率时就对黑人造成了歧视〔10〕。

    (二)算法治理的风险成因

    作为一种治理手段,算法必须通过与外界建立各种关系来发挥作用,而在这一系列关联之中算法风险就随之产生。

    首先,在算法设计者与算法之间存在着非中立价值的输入。传统技术中立论强调技术只是一种方法论上的工具和手段,主张技术本身不包括任何的价值手段〔11〕,但技术本身作为一种合乎目的的手段,其同时也是人的行为方式,这就决定了即使算法设计之初的动机是中立的,也会产生一定的价值偏见。原因在于,一方面算法设计者可能把个人的价值偏见写进了程序,例如在过滤算法的应用中,平台会对某些涉嫌暴力、色情以及其他违背社会公益的内容进行自动屏蔽,禁止其传播,此时对于违背社会公益的标准就取决于算法制定者。其二,算法运行中获取和利用的数据本身隐含了偏见,例如在“蚂蚁金服诉朗动网络科技不正当竞争案”中,朗动科技对其抓取到的蚂蚁微贷原始数据进行分类整理,并发布于企查查平台供用户查询,但由于数据选择上存在一定偏差,其发布的实际信息也与数据主体的实际情况不符。法院认为该行为给蚂蚁微贷公司带来了商誉损害,并且影响了其市场竞争优势,构成不正当竞争①参见浙江省杭州市中级人民法院(2020)浙01民终4847号民事判决书。。质言之,尽管算法技术的出现是为了便捷程序的执行或是为问题的解决提供新的程式,但到具体的应用场景中时,这一目的就可能与一系列次生目的所关联,例如政治、商业等,从而附加更多的非工具价值,使算法不再中立。

    其次,在治理主体与算法之间形成了算法权力。技术直接影响和控制了人的利益得失,从而具备了权力属性〔12〕。现代社会算法能够嵌入各个场景并发挥作用,如在平台经济中算法使平台处于一种相对优势的地位,使传统模式中的平台、服务提供者以及用户之间的利益平衡关系发生了改变,而在公共服务中,算法则通过高效的数据收集和持续运行从各方面提升了公权力的施行能力〔13〕。总体而言,算法权力的运行具有两种表现形式:第一种是算法可以直接获取数据并对数据进行支配,这并不等同于算法直接享有对数据的权利,而是来源于数据权利人自身为了获取一系列的便利,并自愿接受算法的调整所做出的权利让渡。这样一种模式类似于一种契约〔14〕,并且往往是通过默许予以推定。例如许多互联网平台或者app会在用户首次使用时告知为了用户能够获得更好的服务,需要获取相关的权限,而用户的明示同意或者对服务的接受都表明其允许平台对其浏览记录、痕迹以及相关个人信息的收集,这种对个人数据与信息自主性的让渡构成了算法权力的基础。第二种表现是算法可以辅助或直接进行公共管理,例如互联网平台在运用算法过滤等技术对平台内容进行审查和监测时,其在这一特定场景下就拥有了网络环境中的立法权、司法权和执法权等,这种权力的集合由于缺乏相应的监管因而极易导致滥用。

    最后,在被治理主体与算法之间也存在技术鸿沟。算法技术本身具有专业性,对于拥有专业知识的算法设计者与实际应用者而言,其追求的是算法复杂性、隐秘性、准确性以及高效性等的不断提升,以防备他人的破解与窃取,也更好地促进其治理利益的实现。尤其是在市场环境下,商业利益的攫取和争夺会加剧技术层面的竞争,技术优化与升级将变得愈发迅捷,算法技术在这样的环境下得到进一步的发展。与之相对,囿于专业知识所限,社会公众对算法技术并不了解,更无法探究其中的原理,这种矛盾所导致的结果是算法操控者与社会公众之间产生技术鸿沟,并且随时间推移变得更加难以逾越。在传统治理模式中,公众监督可以限制权力的行使以防范权力滥用,从而推动社会治理良性化运行。公众监督的基础是知情权,算法技术鸿沟的出现则直接妨碍了公众知情权的实现:第一,公众无法获得形式上的算法内容;
    第二,即便公众获取了计算机语言下的算法,但专业的局限也使其难以真正理解其中的内涵;
    第三,智能算法运行过程中的技术本身的自主性也在发挥着重要作用,形成算法黑箱,加剧了人类主体理解和操控的难度,而在知情权受到限制后,公众参与权与选择权也就无法得到保障。

    综上所述,算法治理的过程以算法技术为核心,各方主体则围绕着算法形成了影响与被影响的关联,上述三种关联性,实际上揭示了算法治理法律风险产生之根源,而这也恰是法律控制所要解决的根本问题。

    法律所具有的规范性、强制性与普遍性,是实现对算法治理合理有效控制的重要保障。这里的法律控制既包括了狭义的法律规范,也包括了行政管控,这也是算法控制的两种主要手段。

    (一)算法治理法律控制的主要模式

    基于算法治理中存在的一系列问题,目前的法律控制路径主要有两种,一种是以公众权利为中心的个体赋权模式,另一种是以行政管控为基础的外部问责模式。

    1.个体赋权模式

    个体赋权模式的基本原理是通过赋予数据主体相应的权利,从而使其可以在算法治理中实现一定程度的自主。欧盟的《通用数据保护条例》(GDPR)即为这一模式的典范,根据《通用数据保护条例》规定,数据主体享有不受自动化处理约束的权利以及对自动化决策获得解释和对相关决定进行质疑的权利。除此之外,还包括知情权、访问权、更正权等新型数据权利〔15〕。个体赋权模式的着力点并非直接对算法实施者予以管控,而是通过赋予个体对其数据控制和使用的权利来降低算法决策的影响。从价值取向来看,欧盟立法者并不排斥算法技术的应用,而是试图调整算法治理中算法权力导致的权利义务不对等,以实现新的利益平衡。

    实际上,我国近年来大力推行的个人信息和数据保护立法也充分体现了这一理念。例如《民法典》第一千零三十五条赋予了民事主体对个人信息所享有的一定程度的自决权①《民法典》第一千零三十五条规定,处理个人信息应当征得自然人或者其监护人同意,并且应当公开处理信息的规则、目的、方式和范围。。但从可预期的控制效能来看,个体赋权模式存在着较大的不足:第一,由于技术鸿沟的存在,个体权利并不能充分行使,算法透明的本质是公开代码、数据和决策树等深层信息,其中包含有句法、表征、符号等技术语言〔16〕,对于一般公众而言无法理解,更不可能进行有效的审查。而且,自主学习技术使得算法决策中的不可控因素增加,算法可以自主改变数据权重来适应不同的分析对象和运行环境。因此,即便是公开代码和数据,也并不意味着可以直接获得算法决策的结果〔17〕。第二,算法的公开将破坏以算法为中心的信任机制。由于算法黑箱的存在,被治理主体无法参与到决策当中,这也就形成了以算法为中心的治理机制,各主体能相对平等地受到算法决策的影响。随着算法的公开,算法就具有了受到被治理者干扰和操控的可能性,从而直接影响到结果的公平性。第三,现代商业模式的灵活性可能导致个体赋权模式中的权利义务关系虚化,在现代商业模式中,平台可以通过划分服务等级、设定服务条件等方式来换取公众的进一步消费与投入,服务对象可以自主决定是否提供个人数据或信息,而是否提供相应数据又决定了获得的服务等级。由于公众可以获得必要的基础性服务,在形式上公平原则并没有被违背,但被动地差别对待则会驱使一些公众追求更高等级的服务,从而放弃应用的权利,随着服务层次的不断上升,对于权利放弃的要求也将逐步提高。概言之,在这种模式下,个体权利在主动的“被放弃”,也恰恰反映了个体赋权模式的局限性,即完全遵从意思自治将无法克服市场自发性造成的弊病。

    2.外部问责模式

    不同于个体赋权模式下的意思自治,外部问责模式着重于通过行政手段直接施加管控。例如美国纽约曾经通过的对公用事业领域算法进行问责的法案,用于规制算法自主和辅助决策的情形,并明确设立自动决策工作组作为算法问责制的实施主体,其成员由相关专业人士以及受算法自动化决策影响的代表人士组成。此外,还有立法议案要求联邦贸易委员会制定新规,明确自动决策系统对社会公共利益的影响〔18〕。

    外部问责模式针对算法使用者施加一定的义务,如果没有完成这些则需要承担相应的责任。然而,对于一般公众而言,参与到算法监控的难度是不言而喻的,因此算法监控的任务仍然需要由专业人士承担,这就难免会引发新的算法信任危机。外部问责模式的另一个显著特点是管控的色彩较为浓厚,强调运用公权力对算法主体进行规制,而这就可能造成一定的风险。在自治的环境下,算法实施者可以通过自主设置的用户反馈机制来倒逼自主完善,并匹配算法运行的基本逻辑来开发出新的运行约束机制。但在外部问责模式下,公权力管控将会主动介入,并且极大地压缩了行业自治和个体自律的空间,从运行成本来看无疑会增大规制成本,降低规制的效能。更需要警惕的是,在维护公共利益的过程中如果一味运用行政管制,势必会影响到相关产业的创新与发展。并且从权力的运行逻辑来看,传统行政管控中基于纵向层级结构信息垄断的合法性,已经被算法治理中知识与信息的碎片化、分散化所消解〔19〕,行政权力的过分介入不仅会破坏这种已然形成的生态模式,还违背了多元共治的基本规律和要求。

    (二)算法治理法律控制的基本原则

    算法治理是由多要素组成的治理系统,其复杂性在于其中涉及的利益冲突,而无论是个人赋权模式还是外部归责模式,都只是关注到系统中的某一个要素而忽略了其他要素。例如个人赋权模式侧重于保护个体权利,而忽视了算法实施主体本身的利益保障;
    外部归责模式只强调了从外部对算法实施主体予以管控,而忽视了算法治理的产业规律。因此,在探索算法治理的法律控制时应当兼顾多方利益,具体包括以下几个方面。

    第一,兼顾法律控制与产业发展。许多法律制度的产生都是为了符合特定产业和技术发展的要求,例如互联网技术推动了平台经济的发展,催生了《美国千禧年数字版权法》以及避风港规则等一系列新领域的法律制度。这些法律规则的出现原本不是要遏制平台经济的发展,而是因为互联网技术造成网络侵权的大量出现,为了维护版权人的利益,促进互联网产业的良性发展,需要有新的法律制度予以回应。算法技术从出现到如今成为社会治理的工具,是因为它在一定程度上能够满足社会发展的需求。因此,算法治理法律控制的目的并非妨碍和阻止算法功能的发挥,也并非否定算法治理的成果,而是对算法治理的风险予以管控,对算法治理下的非常态化损害予以降低和填补,从而更好地促进产业发展。

    第二,兼顾权利保障与治理效能。在对算法治理进行法律控制时,公众个体权利的保障是重要的着力点,具体可能会涉及隐私权、数据权、知情权、同意权和自主选择权等,但有些权利在实现的过程中可能会影响到算法治理效能的实现,或者直接触碰到算法治理的根基,例如个人赋权模式与外部问责模式都强调通过公开算法底层代码和数据等信息来提高算法透明度。然而,在实践中,算法已然成为了市场竞争的重要方面,其往往是由设计者或所有者投入巨大成本训练而成,具有较高的商业价值,因此也往往被作为商业秘密予以保护。此时对算法的公开无疑会打破算法的受保护状态,对所有者利益造成损害。并且由于保密状态的算法对于算法治理效能的实现具有基础性作用,过度的算法公开也必然会影响到治理效能的实现,因此也不应矫枉过正。

    第三,兼顾行业自治与政府管控。算法的应用是行业治理的自发机制,因此也会存在自发性之下的盲目性与不稳定性,但这并非政府施加管控的依据,因为行业自治本身也具有一定的修复功能,而只有在行业自治失灵的情况下,政府才有必要从外部介入。从经济学视角来看,负外部性指的是某行为在不能得到补偿时却为他人付出了额外的代价。企业应用算法进行治理在带来了福利的同时,也对个体权利和公共利益造成了一定的负外部性损害,因此政府管控的合理范围就应当是尽可能地减少这种负外部性或者是将负外部性内部化,只有在这个范围内,政府的管控才具有正当性和合理性。

    (三)算法治理法律控制的实现进路

    1.构建算法设计规范机制

    算法设计与开发是算法治理的源头,通过设置相应的规范机制可以从源头上预防算法风险的发生。一方面,应当建立算法设计的登记备案制。对于算法设计主体,应当设置相应的市场准入机制,要求算法设计主体符合一定的资格才能够从事相关行业。资格备案制要求算法设计主体提供相应的资格证明,并由监管机构或者自律组织进行形式审查,审查通过后予以备案登记。对于已经备案登记的主体,如果在运行过程中出现信息的变更,则应当重新进行备案登记。此外,算法在设计完成后同样应当予以备案并与设计主体信息相对应。不同于算法透明,算法备案仅要求向监管机构和自律组织公开〔20〕。监管机构和自律组织同样负有保密义务。在算法实施中如果出现了相应的更新或修改,则需要重新备案登记;
    如果出现了算法损害投诉的情况,同样由监管机构予以登记备案,达到一定程度时可以取消该主体的准入资格,责令做出整改并重新登记备案。

    另一方面,为了防止算法在运行过程中出现欺骗和操纵,或者造成算法偏见,在算法设计之初就应当针对算法设置相应的评估标准,并要求算法设计者对算法进行前期测试。由于算法设计中可能会包含设计者的个人价值选择,因此首先应当对算法设计进行规范,通过设定价值评估标准,要求算法设计符合一般道德规范,并嵌入相对公平的伦理价值,以避免造成算法越界应用和不当后果〔21〕。在算法运行过程中,则应当包括数据抓取测试、数据分析测试以及算法决策的准确性测试,要求算法在数据抓取时应当尽可能地避免偏见,对于数据的抓取应当具有一般性和随机性、而非带有特定指向的筛选。在数据分析时也应当避免偏见的介入,最大限度地保证分析过程和分析结果的公平性和公正性。此外,还要针对算法数据运算和决策的结果进行评估,要求算法决策的准确性达到一定的标准。保证算法决策的即时性,当基础数据发生改变时算法决策也应当及时调整,避免出现决策滞后。

    2.构建算法运行监督机制

    算法运行是算法治理的主要环节,对算法运行予以监督可以及时实现纠偏和校正。为此,首先要引导建立行业自律机制。其正当性基础在于,企业在获取利益的同时,应当自主承担相应的社会责任,这也是企业存在社会价值的体现。在当下算法广泛应用的背景下,算法所造成的风险与危机已然对公共利益构成威胁,因此有必要将算法规制纳入企业社会责任当中,引导企业建立起行业自律机制。一方面应当建立算法行业规范,算法治理通过加强工具理性降低了传统治理模式中的不确定性因素,然而价值理性的缺失导致了算法偏离了社会治理中以人为本的基本理念。因此,应当通过建立行业规范,将公平、正义、安全等基本原则纳入算法运行当中,引导相关主体对算法运行中的失范进行纠正。另一方面可以推动建立行业协会,其成员应当包括企业界、算法技术人员、审查人员、法律界以及相关利益代表,通过行业协会的建立加强行业内部的自我监督、自我审查和自我完善,从而推动产业和技术的良性发展。其次,可以推动建立算法运行的合规审查制度,要求运行在符合法律法规、行业守则和伦理规范的同时,还要符合企业自身的规章制度〔22〕。如今,由企业自主实施的合规治理已成为现代社会风险防范的重要方式,要求企业首先进行自我监管和自我完善,如果企业能够建立良好的合规制度并且做到合规运营,就可以减轻或者免除相关责任。在“赵某某与浙江某网络公司网络服务合同纠纷案”中,原告认为被告提供的平台检索服务针对特定的商家或者品牌设定了算法歧视,导致其无法检索到想要的产品,法院认为被告平台在利用算法的同时,还提供了检索反馈渠道等辅助工具,可以弥补算法技术的不足,因此不构成歧视①参见杭州互联网法院(2020)浙0192民初2295号民事判决书。。在此种激励机制下,企业将更有可能实现自我治理,从而防范风险。现代企业合规制度在算法治理中同样可以发挥重要作用,由于算法的运行过程本身对于社会公众具有不可知性,并且算法运行过程的全公开也存在相应的风险,因此通过社会公众进行监督不具有可行性。同时,由于算法应用规模庞大,形式多样,受众广泛,要求监管部门对算法运行进行全面监督成本过高,也难以实现预期监管的效果。鉴于此,推动建立企业合规审查制度就可以减轻监管负担,有关部门通过出台算法运行合规指南和合规指引来引导企业建立相关机制,包括算法制定监督、算法风险防控、算法结果复审以及算法错误纠偏等。

    3.完善算法损害救济机制

    损害救济具有事后性,主要起到兜底保障的作用,对于算法损害的救济,主要应当从实体救济和程序救济两个方面进行完善,具体可以从以下几点着手。

    第一,构建算法损害归责原则。损害赔偿是负外部性内化的重要途径,在算法治理中受到损害的个体应当有权利获得损害赔偿。在归责原则方面,算法损害应当采用无过错责任原则并设置相应的法定免责事由,这是由算法的技术本质所决定的,也与无过错责任的制度目的相符合。现代经济和技术的发展催生了侵权法上的无过错责任,并且可能随着风险社会特征的不断深化而扩大,正如有学者指出:“传统以过错责任为基础建立的风险分配责任体系在许多领域都将不复存在。”〔23〕算法损害即在这样的背景下而产生,在算法治理中,由于技术鸿沟的存在,一般公众无法得知算法制定和实施的过程,因而也难以证明所谓的过错。同时,在算法学习技术的应用下算法变得更加智能化,算法决策结果也更加不可预测,传统的过错责任已不存在适用余地。出于风险的现实性和应对必要性,理当将归责原则确定为无过错责任。与此同时,为了鼓励算法技术的发展和应用,还应当设置相应的免责事由,如前述算法合规审查就可以作为减轻或者免除责任的情形。责任主体方面,在不存在免责事由的情形下,算法损害责任理应由开发和使用算法技术的自然人或法人承担〔24〕。在整个算法治理中可能存在两个责任主体,一个是算法设计开发者,另一个是算法使用者,在二者同一的情形下只有一个责任承担者。在二者分离的情况下,则由于公众直接面对的主体是算法使用者,因此无论是算法实施过程还是算法设计本身存在的问题,受害公众都可以首先要求算法使用者承担责任,最终责任则由算法使用者与算法设计开发者根据具体损害缘由另行分担。

    第二,推进算法损害集体与公益诉讼。互联网环境下的个体权利具有分散性,无论是个体的专业知识、行动空间还是协商能力,都无法与强大的互联网治理主体相抗衡。算法损害具有广泛性,并且直接关涉重大公共利益。在这种情况下,应当改变传统侵权损害下的个体救济,转为集体问责。我国《民事诉讼法》第五十四条规定了代表人诉讼制度,即在诉讼标的同一、当事人人数众多且无法确定时,人民法院可以以公告形式通知权利人登记,并允许其推选代表人。代表人诉讼是解决群体争议的重要途径。在算法损害广泛而分散的情形下,代表人诉讼制度不仅有利于损害事实的认定,还有利于节约司法资源,维护公共利益。此外,司法实践中检察机关也可以出于维护公共利益的需要提起公益诉讼,以保护相关公众的合法权益。例如在“杭州市余杭区人民检察院诉某短视频平台未成年人保护民事公益诉讼案”中,被告平台未经儿童监护人同意的情况下利用算法进行信息收集和内容推送,严重侵害了社会公共利益,检察机关就此提起民事公益诉讼①参见杭州互联网法院(2020)浙0192民初10993号民事判决书。。由此可见以公益诉讼的方式化解个体诉讼的不足同样也是一条可行路径。

    总之,随着现代社会的智能化程度不断提升,算法对人类的影响也将愈发深入,正如尤瓦尔·赫拉利的预言,人类将会进入到一个“算法社会”〔25〕。算法作为一种社会治理工具,在带来福利的同时也带来了风险,如果不能对其进行有效的防范,这些风险终将转化为现实的损害。也应当看到,算法不是洪水猛兽,包括一般民事法律、知识产权法、行政法等法律控制所追求的不是对算法的作用进行完全限制,而是更好地运用算法实现社会治理的目标。正如本文所探讨的,对于算法进行法律控制是必要的,但是对法律控制限度的考量同样重要。算法治理是一个多要素系统,涉及各种价值冲突,因此应当做到权衡与兼顾,尤其是要避免法律控制妨碍产业发展和技术创新。基于这一理念探索的法律控制进路,也应当是将自发的算法治理引向规范的轨道,从而更好地实现公共利益。可以预见,随着算法技术的完善和相关制度的落地,算法终将会成为社会福祉的一项重要来源。

    猜你喜欢算法基于归一化KNNI的随机森林填补算法成都信息工程大学学报(2021年1期)2021-07-22基于Lévy飞行的一种改进鲸鱼算法成都信息工程大学学报(2021年1期)2021-07-22有趣的算法展示活动小学生学习指导(高年级)(2020年12期)2021-01-07基于最大相关熵的簇稀疏仿射投影算法新疆大学学报(自然科学版)(中英文)(2020年2期)2020-07-25基于MapReduce的改进Eclat算法成都信息工程大学学报(2019年4期)2019-11-04Travellng thg World Full—time for Rree阅读与作文(英语初中版)(2019年8期)2019-08-27进位加法的两种算法小学生学习指导(低年级)(2018年11期)2018-12-03算法初步两点追踪中学生数理化·高一版(2017年9期)2017-12-19基于增强随机搜索的OECI-ELM算法西安工程大学学报(2016年6期)2017-01-15一种改进的整周模糊度去相关算法现代防御技术(2016年1期)2016-06-01
    相关热词搜索:算法治理控制

    • 名人名言
    • 伤感文章
    • 短文摘抄
    • 散文
    • 亲情
    • 感悟
    • 心灵鸡汤