替代性制裁犯罪矫正管理剖析软件(英语:Correctional Offender Management Profiling for Alternative Sanctions,简称COMPAS),是一款由Northpointe公司开发并所有的法律案例管理英语Legal case management决策支持系统美国法院系统借助这一系统评估案件被告成为累犯的可能性。这一软件的评分后被曝光对非裔美国人存在偏见,引导法官给予更严厉的判罚,由此成为算法偏见的经典案例。[1][2][3]

COMPAS系统曾为纽约州加利福尼亚州、佛罗里达州布劳沃德县等地的司法机构所采用。[4]

风险评估原理 编辑

COMPAS系统使用算法评估罪犯再犯的潜在可能性,这一算法考虑了再犯的总体与暴力情况以及审前不正当行为,其操作者指南声称系统将与再犯及犯罪存在高相关性关系的行为与心理作为衡量依据。[5]

审前释放风险系数:该系数衡量被告在释放的情况下继续犯罪的可能性。根据指数所基于的研究,“现在的指控、后续的指控、逮捕前的个人经历、之前审前释放的失败、居住区域的稳定性、就业情况、社交关系、药物滥用情况”是这一系数最为重要的影响指标。[5]
总体再犯系数:该系数用于预测被告释放前、COMPAS评估给出后被告再次犯罪的可能性,影响因素包括个人犯罪历史及其联系、药物使用情况、青少年犯罪记录。[6]
暴力犯罪再犯系数:该系数用于预测被告释放后的暴力犯罪倾向,影响数据包括个人暴力犯罪、不服从、职业或教育问题、开始滥用药物的年龄、首次被捕时间。[7]

暴力犯罪风险系数计算公式如下:

 

其中的s即暴力犯罪风险系数,本质上由几个带权因素相乘而得:a是被告现在的年龄, 则是被告第一次被捕的年龄, 则是从事暴力犯罪的历史, 则是职业/教育系数, 则是违法历史;权重 则是“取决于我们在研究数据中观察到的乘项与再犯人员之间关系的强弱”。[8]

批判与限制使用 编辑

尽管法院引进AI算法的初衷是为了遏制饿鬼判官效应英语hungry judge effect等认知偏误[9] ,但在2016年美国媒体ProPublica调查发现,同等条件下黑人比白人有多出一倍的概率被系统标记更高风险后实际并没有犯罪,同时系统对于白人再犯的概率也比实际低很多,预测有暴力犯罪倾向的人中仅仅有20%再犯,AI的偏见并不亚于人类。[10][11]COMPAS的开发商Northpointe并不认可ProPublica的研究,并认为ProPublica的调查数据并未正确反映COMPAS系统的应用情况,另外一家智库发文反驳ProPublica。[12]后续研究发现,COMPAS对于无犯罪记录或者犯罪情节较轻的个人预测比较准确,但不如针对这些人组成中的集体预测准确,或言之如果把这些人打包成组,按组计算准确比按个人计算的正确率更高。[13]

2016年7月威斯康星州最高法院裁判,COMPAS的风险评分在法官裁判时仍可以使用,但必须加以警示以明确这一工具的“局限性与注意事项”[4]由于COMPAS的算法本身属于商业机密,因此公众与当事方无从知晓,可能违反程序正义。除了COMPAS采用的算法外,诸如线性回归等简单、透明、解释性更强的算法也被证明可以实现近似功能。[10][14][15][16]不管采用何种算法,算法模型还是要依赖于数据,如果数据具有偏见,得出的结果自然可能带有偏见。[17]

就COMPAS这个例子而言,COMPAS的算法偏见涉嫌违反美国宪法的平等保护条款[18]

延伸阅读 编辑

参见 编辑

References 编辑

  1. ^ Sam Corbett-Davies, Emma Pierson, Avi Feller and Sharad Goel. A computer program used for bail and sentencing decisions was labeled biased against blacks. It's actually not that clear.. The Washington Post. October 17, 2016 [January 1, 2018]. (原始内容存档于2023-04-12). 
  2. ^ Aaron M. Bornstein. Are Algorithms Building the New Infrastructure of Racism?. Nautilus英语Nautilus (science magazine). No. 55. December 21, 2017 [January 2, 2018]. (原始内容存档于2018-01-03). 
  3. ^ 刘文炎,沈楚云,王祥丰,金博,卢兴见,王晓玲,查宏远,何积丰. 可信机器学习的公平性综述. 软件学报. 2021, 32 (05): 1404-1426. 
  4. ^ 4.0 4.1 Kirkpatrick, Keith. It's not the algorithm, it's the data. Communications of the ACM. 2017-01-23, 60 (2): 21–23. S2CID 33993859. doi:10.1145/3022181 (英语). 
  5. ^ 5.0 5.1 Northpointe 2015,第27页.
  6. ^ Northpointe 2015,第26页.
  7. ^ Northpointe 2015,第28页.
  8. ^ Northpointe 2015,第29页.
  9. ^ Chatziathanasiou, Konstantin. Beware the Lure of Narratives: "Hungry Judges" Should Not Motivate the Use of "Artificial Intelligence" in Law. German Law Journal. May 2022, 23 (4): 452–464 [2023-05-12]. ISSN 2071-8322. S2CID 249047713. doi:10.1017/glj.2022.32 . (原始内容存档于2023-05-21) (英语). 
  10. ^ 10.0 10.1 Yong, Ed. A Popular Algorithm Is No Better at Predicting Crimes Than Random People. 2018-01-17 [2019-11-21]. (原始内容存档于2023-05-24). 
  11. ^ Israni, Ellora. When an Algorithm Helps Send You to Prison (Opinion). 2017-10-26 [2019-11-21]. (原始内容存档于2018-08-20). 
  12. ^ Flores, Anthony; Lowenkamp, Christopher; Bechtel, Kristin. False Positives, False Negatives, and False Analyses (PDF). Community Resources for Justice. Community Resources for Justice. [2019-11-21]. (原始内容存档 (PDF)于2023-02-25). 
  13. ^ Dressel, Julia; Farid, Hany. The accuracy, fairness, and limits of predicting recidivism. Science Advances. 2018-01-17, 4 (1): eaao5580. Bibcode:2018SciA....4.5580D. PMC 5777393 . PMID 29376122. doi:10.1126/sciadv.aao5580 . 
  14. ^ Angelino, Elaine; Larus-Stone, Nicholas; Alabi, Daniel; Seltzer, Margo; Rudin, Cynthia. Learning Certifiably Optimal Rule Lists for Categorical Data. August 3, 2018 [2023-05-12]. arXiv:1704.01701 . (原始内容存档于2023-06-08) –通过arXiv.org. 
  15. ^ Robin A. Smith. Opening the lid on criminal sentencing software页面存档备份,存于互联网档案馆). Duke Today, 19 July 2017
  16. ^ Angelino, Elaine; Larus-Stone, Nicholas; Alabi, Daniel; Seltzer, Margo; Rudin, Cynthia. Learning Certifiably Optimal Rule Lists for Categorical Data. 2017-04-06. arXiv:1704.01701  [stat.ML]. 
  17. ^ O'Neil, Cathy. Weapons of Math Destruction. 2016: 87. ISBN 978-0553418811. 
  18. ^ Thomas, C.; Nunez, A. Automating Judicial Discretion: How Algorithmic Risk Assessments in Pretrial Adjudications Violate Equal Protection Rights on the Basis of Race. Law & Inequality英语Law & Inequality. 2022, 40 (2): 371–407 [2023-05-12]. doi:10.24926/25730037.649 . (原始内容存档于2023-03-07) (英语).