首 页 组成人员 封面文章 海商论坛 品牌培育 管理在线 企业文化 刊号索引 联系我们 登录   
算法自动化决策的规制路径研究
 

算法自动化决策的规制路径研究
基金项目:2023 年校级科研项目“大数据背景下关联规则算法在企业管理会计风险中的应用研究”阶段性成果( 项目编号:hnjmk2023217)

蒙晓雅
      【摘要】在数字平台上,大数据与算法已逐渐转变为商业竞争的核心策略。算法在信息获取与处理方面发挥着巨大优势,但也造成了大量个人隐私泄露。由于数据的不断变化,公共和私人领域的界限变得模糊,行业标准的更新滞后,以及算法自动化决策框架的失灵。导致我国的算法治理难以满足社会治理需求,也无法适应互联网时代下信息公开透明所面临的问题的现状。基于此,我们应当构建“立法 + 执法”的二元治理体系,进而实现对算法的多元监管。
      【关键词】算法自动化决策;权利;权力
引言
      算法作为近几年兴起的技术手段,除了为人类社会发展注入活力外,也改变了世界的空间感、层次感,使得人类活动变得更加复杂与精细。在追求智能高效应用目标的同时,算法也带来相应的“负面效应”,即依靠“算法决策”异化为“算法依赖”。目前该情形的现实表现为平台滥用其数据资源优势地位,构筑起极强的技术壁垒,依托算法提供精确的商品服务。虽然高效地应用于目标之中,但也带来了消费者权益损害以及信息权益保护的新命题。从这个角度来说,就需要对算法自动化决策权力进行规制。该问题涉及多元主体的利益博弈关系问题,需要深入探讨算法异化的深层机理,才能实现对多方主体的有效保护。
一、算法自动化决策滥用的困境与成因
      算法自动化决策规制的问题在于:算法作为由人类设计、参与和运行的自动化决策体系,虽然具有更高的工具理性和价值中立性,但是由于其作为人类主观的体现,无法杜绝人为意志或先天成见掺杂其中。
(一)隐私权领域识别的“变迁”

      随着近几年数字技术以及互联网的高速发展,抽象信息与具体信息的边界不断模糊,可识别与不可识别的范围也不再泾渭分明,总体呈现出解构—重构的状态,由此引发了一系列的争论。一方面,技术的发展所导致的“黑箱效应”使得信息的“识别”始终存在范围上的不确定性,以往的非识别性信息,往往被算法加工后进行关联性运用,加之数据收集的跨领域、跨行业趋势,使得抽象信息仍能具体识别到个人,或者说是识别到个人的某一方面。非识别性信息借助算法技术加工后,实现精确化识别,使得这类“整合类信息”延伸出了相对复杂的隐私权保护问题。另一方面,“去标识化”“匿名化”此种做法为当下广泛运用的技术保护手段,且我国当下对于“去标识化”“匿名化”的信息排除在了个人信息的范围内,此种做法一定程度上保护了个人信息要素的不可识别性,但仍然存在着失效的风险。
      (二)行业领域规则的“缺位”

      首先,当前平台的隐私声明协议普遍存在不足:其一,协议仅公开承诺所收集的信息,但未说明收集动机与必要性,也缺乏对数据后续使用的充分说明(例如“扫码点餐”小程序收集手机号等行为);其二,网络服务提供者因掌握越多个人信息越具市场竞争力,缺乏自我监管动力,其承诺多出于合规需要,实际仍倾向于诱导用户提供更多信息,导致用户对信息被如何收集与利用知之甚少。
      其次,用户“同意”存在非自愿性。个体处于弱势地位,往往只能选择“同意”或放弃服务,而放弃会加剧“数据鸿沟”,迫使部分用户成为“数字边缘人”;若寻求替代服务,则需承担额外成本。此种权力不对等使得网络服务提供者忽视协议实质,隐私条款常流于形式、内容存在错误,反而成为其规避法律责任、过度收集信息的工具。
      (三)算法自动化决策滥用规制框架“失灵”
      算法异化在反垄断领域主要表现为平台通过横向与纵向市场扩张引发的双重损害。横向扩张中,平台将其原市场的用户与数据优势迁移至新领域,使竞争优势脱离服务质量,演变为市场力量的简单复制。纵向扩张中,平台兼具“参赛者”与“规则制定者”双重身份,在搜索结果排序等方面优待自身业务,损害市场效率与消费者利益。
      此类滥用行为常表现为算法价格歧视,但因其认定困难,反垄断规制面临挑战。对消费者而言,免费模式使价格歧视的实际损害难以量化;对经营者而言,因用户间无竞争关系,难以构成反垄断法意义上的“损害”。同时,动态定价等行为常被归为合理的市场策略,进一步加大了规制难度。
二、算法自动化决策的规制路径
      算法技术本身和决策控制者的价值追求,应该放置在法律规制框架下,架构起“立法 + 执法”的二元治理体系。

      (一)明确个人数据信息的保护原则
      当前法律制度对信息权利的界定尚有完善空间。一个核心难题在于,动态多变的信息场景取代了静态的“公私二元”预判模式,致使公私领域边界难以划分。为此,《中华人民共和国个人信息保护法》中的信息权应进行种类与风险等级划分,实现从静态确权向动态保护的转变。其关键在于超越公私领域之分,聚焦于“信息要素主体”本身,即所有信息均溯源于人格主体。因此,保护的根本客体是人格权,出发点应是“保护人的感性存在”。这一理念可具体落实于两大原则:充分必要性原则与算法对抗权。
      充分性上,我国《中华人民共和国个人信息保护法》中,涉及人格尊严、人身、财产安全的信息,网络服务提供者除了要在协议中充分说明获取的理由、目的和用途外,还要标识若不收集该信息将会导致何种不便。故而在充分必要性方面,平台需要同时在使用上严格遵守“同意”以及“有限度退出”原则,前者即需要获取使用者的单独同意;后者为在不同意的情形下,不可以拒绝协议为由拒绝使用者使用该服务,而应当是提供功能有所限缩的服务事项,最大限度地保障使用者的使用自主性、自我支配性,降低数字鸿沟出现的概率。对于禁止处理的信息事项,在未来也可以作为参考的方向,从法律角度限制算法对于该信息的处理,将其作为只可储存的信息同时由公权力机关进行管理或协助管理,不失为好的方法;对于其他未列举的不影响使用网络服务的个人信息,则可以以“勾选”为原则,未勾选的信息,平台不得擅自收集;对于其他未列举的影响使用网络服务的信息,则以“勾选”+“有限度退出”为落脚点,合理限制平台收集个人信息。
      在必要性上,为应对算法自动化决策的滥用,核心是赋予数据主体实时的对抗权。用户在面对技术、信息占优的平台时,尤其在“黑盒”决策下,自主选择能力严重受限。例如,外卖员为遵循算法指令可能被迫采取危险行为。因此,为平衡效率与企业经营权,必须保障用户有权反对那些未经其同意、剥夺其表达权或违法的自动化决策。
      (二)构建算法自动化决策“事先介入”滥用监管体系机制
      首先,在市场监管层面,建议由公权力机关牵头,在互联网数据市场中嵌入技术规范系统(例如“个人隐私选择平台”)。该系统能利用算法手段进行实时隐私风险评估,并为用户提供分场景、分阶段的个性化管理方案,从而实现公权力与个体的高效联动,提升监管效能。
      其次,从制度层面看,各国立法虽在算法风险控制上存在差异,但总体目标一致。为应对算法滥用对机会均等、隐私和自主权带来的挑战,欧盟的“个人数据保护官(DPO)”制度提供了有益借鉴。但需注意,该制度主要聚焦于数据隐私风险,未将其他类型的算法滥用列为重点规制对象。
      在借鉴欧盟个人数据保护官制度的基础上,我国应结合算法滥用形式多样、侵权客体分散、个体维权困难等特点,将各类算法滥用行为视为具有同等法益侵害性的问题予以统一规制。未来应建立“事先介入”机制,从源头对企业数字化活动及算法进行全面监管,以最大限度预防算法滥用,提升数字经济效益。
      (三)实现全过程平台算法监管和滥用
      目前我国对于算法自动化决策滥用的种种问题,呈现出“仁者见仁,智者见智”的特点,其原因主要是由于算法的“黑箱效应”所导致的,加之算法赋予了平台将“私权利”转化为“私权力”的手段,使得其反垄断规制更加具有挑战性。故为了对该具有权力化特质的权利进行规制,需要从三个方面考虑。
      1. 审计制度的构建与完善
      由于算法的专业性与“黑箱”特性,个体难以直接对抗。我国应建立算法审计制度,但全盘公开代码既不现实也无必要。应在保护商业秘密前提下,推行有限、反向的公开策略,即披露关键决策节点并给出反向推导逻辑,使公众能验证算法是否公正,并将结果反馈至监管系统。
      2. 反垄断判断框架的优化
      反垄断执法部门在进行反垄断规制时,可以通过该系统收到“足够多”的反馈,作为公权力介入调查的依据。对于市场支配地位的认定,则可以跳过相关市场份额的界定,着重考察该相关市场具体交易模式与定价结构,考虑数据和转换成本,注重非价格因素尤其是前文所述的平台的双重身份对于平台市场力量与地位的影响。非价格要素的范围,可以以“相同条件不同对待”为参考点进行考量,同时引进“反事实状态”分析框架,即以该行为实施前后的市场竞争水平进行分析,若行为实施前的市场竞争水平高于行为实施后的市场竞争水平,即可初步判定平台存在违法行为。
      3. 消费者知情权的进一步扩张
      基于权利的多维保护、法律稳定性、针对性的考量,本文认为《中华人民共和国价格法》第十四条第五项可以修改为“提供相同产品或业务,对具有同等交易条件的其他经营者或消费者实行价格歧视。”《中华人民共和国消费者权益保护法》第八条中所提的“真实情况”可以扩大解释为“知悉接受的商品或服务在市场上全面、真实的价格情况。”以进一步扩大消费者的知情权范围,与其他法律法规之间形成有机联动。
三、结语
      算法决策与以往决策最大的差别就是难以质疑并获取解释,囿于算法代码只是人类在设定之初所植入的辅助自身决策的相关考量,难以避免所谓的“部分不公平”现象,故未来需要从赋权、事中监管以及事后追责的方面对算法进行规制,扩大“人本主义”关怀的范围。不可否认数字时代的到来,为我们的生活增添了丰富的一面,随着平台算法滥用的研究日益成熟以及实践演进,还需要进一步思考与健全其可操作性与指导性,主动顺应时代发展趋势。
参考文献
【1】Hodges,L.(1994).The journalist privacy.Journal ofMass Media Ethics,第 197-212 页。
【2】程德理 , 赵丽丽 . 个人信息保护中的“识别”要素研究 [J].河北法学 ,2020 年第 9 期,第 48 页。【3】丁晓东 . 算法与歧视从美国教育平权案看算法伦理与法律解释 [J]. 中外法学 ,2017 年第 6 期,第 1613-1616 页。
【4】张丰羽 , 汤珂 . 数字时代的算法滥用及其规制研究 [J]. 经济学动态 ,2023 年第 2 期,第 78 页。
【5】李牧翰 . 数字时代下算法滥用法律治理之完善 [J]. 云南社会科学 ,2021 年第 3 期,第 136-138 页。
【6】李文超 , 武一帆 . 算法侵害行为的事前规制与侵权救济研究[J]. 法律适用 ,2023 年第 3 期,第 125 页。
【7】徐敬宏 , 赵珈艺 , 程雪梅等 . 七家网站隐私声明的文本分析与比较研究 [J]. 国际新闻界 ,2017 年第 7 期,第 133-135 页
【8】杜永欣 , 周茂君 . 透明化生存中的自主性构建:算法推荐的隐私问题与规制路径 [J]. 未来传播 ,2022 年第 6 期,第 17 页。
【9】丁晓东 . 论算法的法律规制 [J]. 中国社会科学 ,2020 年第12 期,第 156-158 页。
【10】丁晓东 . 基于信任的自动化决策:算法解释权的原理反思与制度重构 [J]. 中国法学 ,2022 年第 1 期,第 112-115 页。

 
 
地址:上海市新闸路945号311室   邮编:200041   电话:021-52282229,62727208   传真:021-62727208        E-mail: sh62727208@163.com
版权所有 上海商业杂志社  客户管理
制作单位    商益科技(电话:021-62710011)
沪ICP备案20019254号
 沪公网安备(备案办理中)号
网站访问量:909568