*本文首次刊登于《中国律师》2026年第3期
随着数字中国战略的深入推进,人工智能技术广泛应用至国家治理的各层面,催生出“算法行政”的新型行政形态。算法行政意指行政机关在履行公共管理与服务职能时,运用人工智能算法系统进行辅助分析、优化决策乃至实施全自动化的行政行为。它不仅是传统电子政务的升级,也是一种决策逻辑的变革,其应用已在智慧城市管理、社会信用体系建设、市场监管、政务服务及智慧税务等领域展现出显著效能,既提升了行政效率,也重塑了公众与政府的互动模式。然而,算法行政在为治理赋能的同时,也对传统法治框架构成了挑战。算法的自主性、复杂性与隐蔽性,容易导致行政权力运行趋于“代码化”与“黑箱化”,传统行政法中的公开、参与、问责等面临适用困境。如何在技术赋能与权利保障之间寻求平衡,成为一项重要命题。
本文立足于我国数智化治理语境,尝试提出一种系统性与包容性并重的混合规制框架:在立法层面可以借鉴国际经验,构建适应本土需要的风险分级分类监管体系;在程序层面回归行政法基本原则,重构符合数字时代特征的程序正义内涵;在治理机制层面引入动态治理理念,通过监管沙盒、周期性审查等制度设计,以期在激励技术创新与防控社会风险之间建立动态平衡。
一、算法行政的立法路径选择
当前,我国人工智能相关立法呈现出“私营领域先行、公共领域跟进”的特点。如《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《互联网信息服务算法推荐管理规定》等,主要聚焦于数据安全、个人隐私及商业算法推荐服务,虽为算法治理提供了基础框架,但专门针对公共部门算法应用的立法较为分散,难以系统回应算法行政带来的特殊法治议题。
从比较法视角观察,国际上对算法行政的立法可归纳为两种典型路径:一是“统一立法+专门条款”模式,即在综合性人工智能立法中设立专章,对公共部门使用的算法系统施加严格的透明度、可解释性及“人类监督义务”。如欧盟的《人工智能法》将公共行政领域的人工智能系统列为“高风险”类别进行严格规制;二是“行业指南+分散立法”模式,主要通过总统行政命令、联邦机构指南等软法工具进行引导,并在司法、社会福利等特定领域制定专门规则,形成分散式、语境化的规制网络。
我国在选择算法行政立法路径时,需充分考虑行政体制特点、数字政府发展阶段及技术创新需求。鉴于公共部门算法应用直接关涉公共利益、权力运行与公民基本权利,其立法应坚持“公共属性优先”,侧重于“权力规制”与“权利保障”的双重价值导向。因此,较为理性的路径是:在现有法律体系基础上,构建“基础法律引领、专门法规细化、行业标准配套”的多层次规范体系,采取“双轨并行、分步推进”的策略。
笔者认为,当前阶段可借助综合性人工智能立法(如《生成式人工智能服务管理暂行办法》)设立“行政算法特别规定”专章,明确算法行政的基本原则、适用范围、监管机构及职责分工。同时,针对市场监管、社会保障、公共安全等不同行政领域算法应用的特殊性,由国务院或相关部委制定专门的行政法规或部门规章,细化具体操作规则与合规指引,并对高风险场景开展试点。此举既能打破当前立法供给不足的困境,也可为后续制度完善积累实践经验。待条件成熟时,可考虑启动专门的《行政算法法》立法进程,对算法从设计、部署、运行到退役的全生命周期进行系统规范,进一步强化对行政相对人权利的程序保障与实体保护。
二、风险规制框架的本土化构建
(一)确立“风险分级分类”的核心规制逻辑
不同行政领域算法应用的风险等级、影响范围及技术成熟度差异显著,有必要建立差异化的规制策略。可参考欧盟的《人工智能法》风险分级思路,结合我国行政职能特点,将行政算法应用划分为以下四类:
禁止类:指可能严重侵犯公民基本权利、危害国家安全或社会公共利益的算法应用,例如利用算法实施大规模社会监控、进行歧视性公共资源分配等,应明确立法予以禁止。
高风险类:适用于公共安全、市场监管、社会保障、环境保护等高敏感领域,且可能对行政相对人权益产生重大影响的算法,如信用评价、公共服务资格认定、犯罪风险评估等。对此类算法应实施全生命周期严格监管,包括事前强制性影响评估、事中持续监控与记录、事后定期审计与问责。
中风险类:涵盖风险程度中等、需予以规范引导的应用场景,例如自动化行政通知、基于算法的统计分析与报告生成等。可采取备案管理、透明度披露及行业自律相结合的规制方式。
低风险类:主要指仅辅助内部办公流程、不直接影响外部相对人权益的算法工具,如文档分类、会议安排优化等。对此应遵循“最小必要干预”原则,主要通过行政机关内部操作规程进行约束。
(二)完善贯穿全生命周期的风险识别与评估机制
风险识别与评估应嵌入算法行政应用的设计、开发、部署、运行及退役各环节。在算法设计开发阶段,应强制要求行政机关或其委托方开展“算法影响预评估”,系统识别潜在的歧视性偏见、数据安全漏洞、决策逻辑偏差及对公共利益的可能影响,并形成详细评估报告作为审批或备案依据。对于高风险算法,报告还应包含风险缓解方案与应急预案;在算法运行阶段,需建立常态化风险监测机制,通过设置关键性能与风险指标、持续分析运行日志等方式,实现对算法行为的实时追踪与异常预警。
(三)强化技术与管理双重维度的风险防控
在技术层面,应鼓励研发并推广应用算法安全检测工具、偏见审计方法、可解释性增强技术及数据脱敏解决方案,为行政机关提供有效的风险防控工具箱;在管理层面,需建立健全覆盖算法全流程的安全管理制度,明确内部管理的职责部门与岗位,规范训练数据的采集、存储、使用及销毁流程,确保数据来源合法、处理合规、安全可控。针对高风险算法,建议建立“算法负责人”制度,指定高级管理人员或技术专家对算法的安全性与合规性负总责,统筹风险评估、人员培训与应急响应工作。同时,加强对算法研发、运维人员的法治教育与职业伦理培训,从源头上构建形成负责任的创新文化。
(四)构建敏捷的风险预警与应急处置体系
面对算法运行中可能出现的决策失误、数据泄露、系统遭受攻击等突发风险事件,必须建立快速响应机制。行政机关应事先制定详细的算法安全事件应急预案,明确具体启动条件、处置步骤、内部责任分工与系统恢复措施。同时,推动建立跨部门、跨地区的算法风险信息共享与预警通报平台,实现风险信号的早期发现与协同处置。对于造成重大社会影响或公民权益受损的算法安全事件,涉事机关应依法及时向社会公开事件详情、应对措施及整改方案,并依法追究相关单位和人员的责任,确保公共利益与个人权利得到有效维护。
三、算法时代的程序正义重构
传统行政程序正义以公开、参与、公平、救济为核心原则,旨在通过对行政过程的规制保障相对人权利。算法行政的“黑箱”特性却使决策过程不透明,相对人难以了解决策依据,公众参与渠道亦面临技术壁垒。因此,必须在坚持程序正义核心理念的基础上,针对算法特性进行制度创新。
(一)从“黑箱”走向透明:构建法律意义上的算法可解释性
可解释性是破解算法“黑箱”、重建行政信任的基础。法律要求算法行政主体在作出影响相对人权益的决策时,应提供关于算法逻辑、关键参数、主要数据源及推理过程的说明。首先,需明确可解释性的法定义务主体是行政机关,解释对象应重点覆盖涉及人身权、重大财产权或公共资源分配的高风险算法决策。其次,应建立差异化的解释标准,避免“一刀切”:对于一般性告知,可采用通俗化、概要性解释;对于作为复议或诉讼依据的决策,则需提供更具技术深度与逻辑完整性的解释。此外,还需配套建立争议解决机制,确保解释义务落到实处。
(二)深化公众参与:建立算法影响评估制度
公众参与是确保算法行政民主性与正当性的关键。算法影响评估制度可作为制度化参与渠道,要求行政机关在部署可能产生重大社会影响的算法系统前,开展系统、深入的评估,并将评估报告草案向社会公开征求意见。算法影响评估应全面涵盖算法的技术原理、数据基础、预期效益、潜在风险(尤其是公平性、隐私、歧视等方面)及合规性。评估过程应吸纳公众、专家及利益相关方参与,并建立“评估-公开-反馈-回应”的闭环机制。通过这一制度,可将公众价值偏好与社会关切融入算法设计与治理过程,提升算法行政的社会接受度。
(三)健全问责与救济机制:明确责任归属与拓宽救济途径
清晰的问责与有效的救济是程序正义的最后防线。在责任归属上,应确立“算法使用者责任优先”原则,即行政机关对其采用算法作出的行政行为承担法律责任,不能以技术外包或算法自主性为由免责。算法开发者若存在故意或重大过失(如植入歧视性规则、未履行合同约定的安全标准),应承担相应民事或行政责任。行政机关在采购算法服务时,合同须明确约定双方的责任边界。
在权利救济方面,首先,应确保将算法行政行为全面纳入行政复议与行政诉讼受案范围。鉴于算法专业性带来的举证困难,可在诉讼中适当降低原告的初步证明责任,探索适用举证责任转移或因果关系推定,由行政机关证明其算法决策的合法性与合理性。其次,鼓励在行政机关内部设立专业的算法投诉与纠错渠道,便于快速响应并修正算法偏差。此外,还应明确因算法错误决策造成损害的国家赔偿范围与标准。同时,积极建立调解、仲裁等替代性纠纷解决机制,为当事人提供多元、高效的救济选择,最终形成贯穿事前、事中、事后的权利保障链条。
四、动态治理:在创新与风险间寻求平衡
算法行政兼具创新潜能与风险隐患,这就要求治理模式必须具备动态适应性,能够随着技术迭代与应用更新而不断优化。
(一)引入监管沙盒机制,为审慎创新提供安全空间
监管沙盒可作为一处“安全试验场”,允许行政机关在可控的真实或模拟环境中,对具有创新性但尚存不确定性的算法项目进行测试。监管机构通过设定明确的准入条件、测试期限与评估指标,对测试过程进行密切监测与督导。测试期间收集的数据与反馈,将为判断算法实效、识别潜在风险、优化监管规则提供实证依据。对于测试成功、风险可控的算法模型,可简化其全面推广的审批流程;对于暴露问题的项目,则指导其进行整改或限制应用。这一机制既为技术创新提供了容错空间,也实现了“在发展中规范”的弹性监管。
(二)建立周期性审查制度,确保法律与技术的同步演进
为应对技术快速迭代与法律相对稳定之间的张力,有必要对已投入使用的行政算法系统建立定期审查制度。审查应由跨学科专家团队(包括法律、技术、伦理、公共政策等领域)定期或在触发特定条件时(如法律修改、发生重大事件、技术重大升级)开展。审查内容应包括:合法性审查(是否符合现行法律法规);安全与风险再评估(现有风险防控措施是否有效);效能审查(是否达成提升效率、改善服务等预设目标);社会适应性审查(是否与社会价值观、公众期待相符)。审查结果应形成公开报告,并对发现的问题责令限期整改,对无法满足要求的算法系统依法要求暂停、升级或退出使用。通过常态化审查,可确保算法系统始终在法治轨道与社会共识框架内运行。
面向未来,算法行政的法治化是一项需要立法机关、司法机关与法律服务行业等协同推进的系统工程。立法层面,应持续推进算法行政立法的精细化与体系化,无论是修订行政程序法、制定专门法律还是在综合立法中强化规制,都应当注重规则的前瞻性、可操作性与包容性,为算法行政的规范发展提供清晰、稳定的法律预期。司法与复议层面,最高人民法院、最高人民检察院及行政复议机关需加强对算法行政案件的研判,适时发布指导性案例或司法解释,统一法律适用标准。法律服务行业层面,律师、法务等法律从业者应主动适应数智时代,提升自身对算法等技术的基本理解能力。法律服务机构可开拓算法合规咨询、算法侵权维权等新兴业务领域。法学院校应改革课程体系,融入计算法学、数字伦理等内容,培养跨学科法律人才。整个法律行业应加强与科技界的对话合作,共同探索法治与技术融合共治的新路径。








