电子报阅读机
2026-04-11
星期六
当前报纸名称:江苏经济报

自动化行政中算法决策风险的法律规制研究

日期:01-03
字号:
版面:第T01版:理 论       上一篇    下一篇

人工智能技术的发展推动了行政管理的自动化转型,主要是将算法决策技术应用于行政领域,通过算法替代人工审核提高效率。与信息化行政不同,自动化行政通过算法改变决策过程,形成新型“行政主体+自动化系统”关系。然而,自动化行政也带来了算法歧视、错误和权力滥用等风险,因此需要加强法律规范以应对潜在风险问题。

行政领域应用算法决策产生的风险

第一,与行政法基本原则相冲突的风险。算法决策可能冲突行政法基本原则,自动化行政的非现场性和瞬时性可能导致法定程序缺失,影响当事人权益。部分行政审批引入告知承诺等措施,但缺乏规范支持,可能引发合法性和市场风险。同时,自动化行政系统可能使裁量基准数字化,导致原有灵活性丧失,无法考虑个案中的情感和道德因素,违背了裁量权的初衷。

第二,算法决策挤压私权利空间的风险。自动化行政系统依赖大数据收集公民个人信息,带来信息安全风险。算法技术便捷高效,但可能强制收集信息并侵犯个人权利,公民缺乏对抗能力。例如,算法错误将无辜公民误认作犯罪分子,影响其交通、住宿等日常生活。

在自动化行政中,算法决策可能侵害相对人的程序性权利,如申辩、解释和参与的权利。由于算法运行原理、数据和执行过程一般不公开,个人若质疑其合法性并遭遇不利后果,往往缺乏有效的追索途径。这种信息不透明加剧了公民维权的难度。

自动化行政中算法决策风险的成因分析

第一,算法决策技术的消极影响延伸至行政领域。随着算法决策在商业和公共领域的广泛应用,其带来的错误、歧视和黑箱问题,可能会影响决策可靠性和公正性。自动化行政决策可能导致传统法治体系的异化,影响群体预期。算法缺陷主要源于数据问题、偏见和不透明,这也是关键风险因素。同时,算法与法律概念存在适配问题,其可能偏离法律原意,简化复杂问题,忽视社会复杂性,削弱公正性和裁量空间。

第二,行政主体面对算法决策风险应对不足。行政机关对算法技术的依赖可能导致“自动化偏见”,使执法人员过度信任计算机结果,弱化人类决策作用,增加风险。同时,行政人员的数字技术能力不足,基层执法人员缺乏主导自动化流程的能力,影响决策透明度和沟通效果。因此,提高执法人员的数字素养和法律知识至关重要。

第三,现行法律规范难以有效规制自动化行政领域的算法风险。《中华人民共和国个人信息保护法》第二十四条第三款保障自动化决策的透明度与公平性,允许个人拒绝仅通过自动化决策作出的重大影响决定。但该条款存在模糊之处,“仅通过自动化决策”表述界定不清,标准不明确。

除了《中华人民共和国个人信息保护法》,现行法律还涉及算法技术监管。《互联网信息服务算法推荐管理规定》规范算法推荐活动,明确服务提供者责任,要求公开算法机制并保障可解释性,赋予个人拒绝算法推荐的权利。该规定虽然主要针对商业平台,但对自动化行政系统有参考意义。目前,公权力领域算法的法律法规仍不完善,风险防范措施不足。

自动化行政中算法决策风险法律规制的完善

第一,规范行政主体对于数据的运用。为了保护个人信息权益,立法应规范行政机关的数据收集和处理规则,确保算法决策中的数据合规使用。《中华人民共和国个人信息保护法》已规定相关数据处理规则,但实施细则尚未完善。政府应遵循规定,建立健全数据安全机制,确保信息处理过程中的风险控制、评估、告知和预防。

第二,完善自动化行政算法决策程序的法律规范。一是建立全过程风险评估预防机制。自动化行政可通过“行政过程论”分为事前、事中、事后三个阶段,强调技术与行政协作。需建立全过程的风险评估与预防机制,解决传统法律与算法技术的差异。目前,《中华人民共和国个人信息保护法》在事前评估上存在问题,影响算法风险防控。未来应制定专门的算法行政规范,明确评估机制,设立独立的评估机构,确保高风险系统未经评估不得投入使用,保障自动化行政的安全与公平。二是完善算法公开备案制度。算法公开有助于增强决策透明度、保障知情权和参与权。为此,国家网信办发布了《算法推荐管理规定》并上线“算法备案系统”,推动算法监管进展。尽管如此,自动化行政算法的公开备案仍需进一步立法推进,以确保决策可追溯并明确责任主体。

第三,构建适用于自动化行政算法决策的责任与监管制度。一是明确由行政主体主要承担算法决策风险后果的责任制度。在自动化行政中,算法提供者通过行政机关的“授权”掌握实质控制。但是单靠外部监督不足以应对算法风险,需加强相关主体的回应性与审慎义务,并设立稳定的内部控制程序。即使在自动化行政环境下,行政主体仍应对算法决策负责。同时,私营主体应纳入追责机制。二是设立针对自动化行政算法决策风险的独立监管机构。设立专门的监管机构来应对自动化行政算法决策风险至关重要。该机构应具备职权与技术能力,以防止行政机关滥用技术权力,同时限制私营主体的不当数据处理行为。可借鉴德国的《联邦数据保护法》模式,建立“数据保护顾问监管与监管局兜底”的设计,并设立监管豁免制度,以平衡技术方利益与公共利益。

随着算法决策技术在政府执法领域中的应用逐渐扩大,如何规避其风险成为重要问题。现行法律规制滞后,难以应对技术快速发展。本文通过分析风险成因,提出完善法律规制路径的方向,为智能时代治理提供理论支持,强调平衡技术进步与法律适应性的重要性。