洛杉矶警察局(LAPD)曾使用PredPol等AI预测性警务系统,声称能预测特定地点和时间段可能发生犯罪,以此指导警力部署。研究机构的调查显示,这些系统实际上形成了一个自我强化的恶性循环:系统预测某地区高犯罪风险→警力集中部署→该地区逮捕增加→新数据输入系统→系统继续预测该地区高风险。算法实质上是在对历史上过度执法的有色人种社区进行反复标记,而非真正预测犯罪。2020年,在'黑人的命也是命'运动压力下,LAPD宣布终止使用PredPol。调查发现系统甚至会对同一批人反复推送'预测监控指令',部分居民每周被系统标记超过10次。