在大数据和人工智能技术迅速发展的背景下,公安机关开始采用“预测性侦查”技术,通过对海量数据的分析来预测犯罪风险,以期在犯罪发生之前预防打击,技术赋能带来了打击犯罪的新机遇,但随之而来的算法公正问题也日益凸显。一方面,人工智能系统的决策不透明和潜在偏见可能威胁到公民的正当程序权利和人格尊严;另一方面,执法人员过度依赖算法可能导致执法偏差、选择性执法甚至对少数群体的歧视性对待。因此,深入剖析预测性侦查中算法偏见的形成机制,评估其对侦查公正性的影响,探讨未来的治理策略,具有重要的理论和实践意义。
一、算法偏见的内涵与形成
算法偏见指算法系统在数据驱动的自动决策中产生系统性的不公正结果,表现为对某些群体的倾向性不利影响。这种偏见往往源于算法所依赖的历史数据或模型设计中隐含的偏见,可能将现实社会的不平等放大并固化到决策过程之中。例如,若算法训练数据集中存在大量针对某一地区或某一群体的犯罪记录,算法可能会在后续的侦查预测中将该群体或地区的人员作为重点怀疑对象,而忽略其他潜在的嫌疑人。预测性侦查中算法偏见的产生并非偶然,而是多种因素综合作用的结果。
(一)数据偏差
算法以历史数据为基础进行训练和预测,如果输入的数据本身存在偏倚或不完整,就会将这些偏差“学习”一并延续下来。例如,司法大数据往往来源于以往的执法办案情况,倘若过去执法中对某类人群或区域存在选择性偏差,算法模型便会固化这种偏差。正如有学者指出,大数据来源于人类过去行为模式,其中的偏见会在算法中被复制和放大。结果是,历史上被过度警务化的群体在算法预测中继续被高估风险,从而陷入“数据偏见—执法加强—更多偏见”的循环。
(二)模型与设计偏见
算法模型的设计不当和开发者的主观偏见也会导致算法偏见。在算法开发阶段,程序员对哪些特征重要、如何设定模型参数等决定,都会影响算法输出。如果开发者在无意或有意之间将自身的主观偏见嵌入算法,算法从一开始就带有先天偏见。此外,模型训练过程中的技术选择也可能引入偏差,例如特征选择不当或过度依赖与敏感属性相关的变量,都可能使算法决策对某些群体系统性不利。
(三)制度性放任
在我国,刑事司法对人工智能的应用还存在法律和规制上的空白,相关制度供给明显滞后于技术发展。这种情况下,执法部门在没有明确规制指引下广泛使用预测算法,容易埋下偏见滋生的土壤。制度层面的疏漏还表现为:缺少对算法训练数据的质量审核制度、缺少独立的算法评估与纠偏机构,以及缺乏明确的问责机制。一旦算法在早期出现偏差,机构内部若未能及时发现纠正,偏差可能在系统中累积并固化。
二、算法偏见对侦查公正性的影响
(一)对程序正义的冲击
刑事侦查阶段要求严格遵循法定程序,保障嫌疑人的基本权利和正当法律程序。然而,预测性侦查中的算法偏见可能破坏程序正义的若干要素。首先,在无罪推定原则方面,如果警方依据算法预测就对某人采取介入措施,实际上是将其视作“潜在罪犯”,这有违未经证实有罪前不应受刑事强制的原则。有研究指出,警方使用预测模型后,侦查模式可能从事后反应转向事前预防,警方在获知某区域或人员被算法标记为高风险后,往往会提前介入甚至采取限制人身自由的强制措施,而此时证据标准可能被有意无意地降低。这种在犯罪尚未发生前即介入的做法,显然背离了正当程序要求,侵蚀了嫌疑人应有的权利保障。此外,透明度和可辩护性也受到影响。算法决策过程往往存在“技术黑箱”,当执法机关依据算法提示采取行动时,被涉案人和公众难以知晓其中依据何在。缺乏透明度使嫌疑人难以在程序中对算法结论提出疑问和申辩,削弱了对执法行为的监督。
(二)选择性执法与执法偏差
算法偏见还会导致选择性执法问题,从而损害实体公正和执法的均衡性。当预测模型根据有偏数据运行时,警方部署资源的重点区域和目标人群可能偏离客观、公正的标准。例如,如果历史数据导致某些社区被标定为“高危犯罪热区”,警方就可能对这些社区投入过度的巡逻和盘查力量。研究表明,在“犯罪热区”,警方更倾向于进行地毯式盘查,并对生活其中的居民实施更频繁的强制措施。这意味着,本应由犯罪率决定的警务资源分配,被算法偏见引导得不成比例地集中于特定地区或人群。久而久之,偶发的、零散的歧视性执法将趋于常态化和制度化,影响不同主体间刑事司法资源的分配格局,重塑刑事司法中权利与权力的结构,从整体上破坏了执法的均衡性和公正性。
(三)弱势群体及少数群体歧视
算法偏见往往对社会中的弱势或少数群体造成歧视性影响,引发对平等保护原则的挑战。偏见算法可能将少数群体身份本身视作风险因素,导致对其过度警惕和介入。比如,在一些治安系统中,对某些民族或来自特定地域人员的数据分析,可能由于历史偏见而高估其违法风险。这种结果事实上对该群体形成了区别对待。正如研究所示,大数据算法决策可能引发“种族偏见和歧视风险”。在中国,少数民族聚居地区或流动人口集中的区域如果在历史数据中犯罪记录比例偏高,算法可能据此频繁预警,导致当地居民被反复盘查、监控。这种现象不仅伤害群体的平等权利,也容易加深这些群体对执法的不信任感,削弱法律的权威。
三、算法偏见治理与侦查公正性提升的实施路径
(一)完善立法与制度设计
首先,应当尽快完善刑事司法领域关于大数据和算法应用的立法与规范性文件。在刑事诉讼法层面,建议增设有关“大数据侦查”和“算法辅助侦查”的专门条款,明确此类新型侦查手段的法律地位和适用边界。同时,应明确禁止将算法预测结论单独作为强制措施的依据,必须有其他传统证据支撑才能对公民采取逮捕、扣押等强制措施。这一规定将有效防止执法部门迷信算法、一证定案的倾向,确保任何侵害公民权利的强制措施都有扎实的事实依据。
(二)增强算法的透明性与可解释性
要缓解技术黑箱对程序公正的威胁,必须提高算法决策过程的透明度和可解释性。建立算法说明制度,规定侦查机关在基于算法结果采取重要执法行动前后,应履行向当事人告知的义务,至少告知其因何被列为高风险、所依据的大致因素等。同时,应赋予案件当事人或其律师请求解释的权利和救济途径。在司法审查环节,法院对算法辅助形成的证据应当有权要求提供技术说明,防止以“不公开的算法”作为定案依据,让算法决策从“不可知”走向“可解释”。
(三)建立算法审计和监督机制
技术治理方面,需要引入算法审计制度,对预测性侦查算法进行周期性的评估和校验。应当组建由技术专家、法律专家和独立第三方机构参与的评估委员会,对算法模型的偏差和效果进行检查。一方面,在算法部署前和部署后强制实施歧视测试,模拟算法对不同群体的决策结果,检测是否存在系统性偏见。另一方面,建立数据质量控制流程,从源头减少偏见,清洗和筛选算法训练数据,剔除包含歧视性标记或统计失真的样本。对数据集定期进行质量评估和更新,避免模型长期依赖过时或偏颇的数据而固化偏见。
(四)培养复合型监管与专业人才
预测性侦查的治理,需要法律和技术的跨界融合。一方面,应建立跨学科的监管协作机制,如成立由法律专家和科技专家组成的算法监管委员会或专家咨询委员会,定期审查公安机关人工智能系统的研发和使用。另一方面,要注重培养既懂法律又懂技术的复合型人才。在执法机关内部,加强对民警的数据素养和算法理解培训,使一线执法者了解算法的局限和风险,避免盲目依赖。司法系统也需要培养法官、检察官的科技素养,使其在面对算法证据时具备基本的判断和质询能力。
结 语
在人工智能与刑事司法深度融合的当下,算法偏见的治理是技术发展与司法公正博弈的缩影。算法偏见对侦查程序正义、实体公正及群体平等权的冲击,本质上暴露了技术赋能与法律价值的深层张力。唯有通过立法规范、技术透明、制度监督及人才培育的多元协同,在技术效率与司法公正间构建动态平衡,才能既释放预测性侦查的犯罪防控效能,又守护法律面前人人平等的底线。这不仅是完善智慧司法的必然要求,更是推进国家治理体系和治理能力现代化进程中,实现技术理性与人文关怀有机统一的必由之路。