Pasar al contenido principal
03 de Mayo de 2024 /
Actualizado hace 6 horas | ISSN: 2805-6396

Openx ID [25](728x110)

1/ 5

Noticias gratuitas restantes. Suscríbete y consulta actualidad jurídica al instante.

Especiales / Informe


Herramientas tecnológicas de predicción de reincidencia criminal, ¿cuáles son los riesgos?

13 de Julio de 2019

Reproducir
Nota:
40426
Imagen
robo-identidad-ladronenticconfio.jpg

Johanna Giraldo Gómez

Redactora Ámbito Jurídico

 

Hace varias semanas, la Fiscalía General de la Nación (FGN) anunció, a través de redes sociales y algunos medios de comunicación, la implementación y algunos resultados de la prueba piloto que estaba realizando sobre una herramienta tecnológica denominada PRISMA (Machine Learning), que permitiría predecir el riesgo de reincidencia criminal, específicamente, para fundamentar la solicitud de medida de aseguramiento en el sistema penal oral acusatorio (SPOA).

 

Así, se comunicó que esta herramienta permitiría sistematizar la información contenida en diversas bases de datos, que serviría de apoyo a la función de investigación y acusación de la entidad, y sería evaluada en las respectivas audiencias por parte de los jueces.

 

Sin embargo, sobre esta novedad tecnológica, su impacto y sus alcances, poco se ha discutido, pues la información es limitada. Por esto, es importante analizar los datos disponibles, algunos modelos comparados de predicción criminal que han funcionado en otros países (como EE UU), así como los retos y riesgos, principalmente, sobre los derechos humanos de los procesados.

 

¿Qué es PRISMA?

 

La Dirección de Políticas y Estrategia de la FGN desarrolló PRISMA, con el propósito de reducir la reincidencia criminal y hacer un uso más razonable de los cupos carcelarios, desde la perspectiva de la eficiencia. Así mismo, se buscó hacer un uso “más proporcional” de las medidas de aseguramiento intramural, intentando que estas se concentren en individuos con altos niveles objetivos de riesgo de reincidencia.

 

De esta forma, mediante un modelo de aprendizaje supervisado, se predice la probabilidad de reincidencia, dadas las características del individuo, del último evento criminal y de los antecedentes:

 

Gráfica otorgada por la Fiscalía General de la Nación

*Grafica de la FGN.

 

 

Ahora bien, de acuerdo con los datos obtenidos por la entidad, en el 2018 se otorgaron 24.332 medidas de aseguramiento intramurales a imputados, los crímenes esperados de los imputados que en el 2018 no recibieron medida de aseguramiento preventiva intramural son 23.786 y “si se les hubiera otorgado medida de aseguramiento preventiva intramural a los 24.332 imputados más riesgosos según el modelo, los crímenes esperados hubieran sido 17.876 (25 % menos)”.

 

¿Cuál es el impacto en el SPOA?

 

La Ley 906 del 2004 estableció tres causales que los fiscales deben sustentar ante los jueces de control de garantías para solicitar la medida de aseguramiento:

 

  • Asegurar la comparecencia del imputado y el cumplimiento de la sentencia.

 

  • Evitar la obstrucción del ejercicio de la justicia.

 

  • Proteger la seguridad de la comunidad y de las víctimas, evitando el posible riesgo de reincidencia.

 

Según el informe, para la mayoría de los delitos, los fiscales se basan en la tercera causal para solicitar la medida de aseguramiento intramural de un imputado. Así, “tanto la solicitud que hace el fiscal de la medida de aseguramiento como la decisión de otorgarla por parte del juez, se basan, en esencia, en predicciones hechas con información (parcial e incompleta) disponible al momento de la audiencia”.

 

Aquí es donde entraría a operar PRISMA: como una forma de “objetivización” en la recolección y utilización de los datos disponibles en las diversas fuentes judiciales, con resultados medibles y predicciones que facilitarían, en principio, la función judicial. ¿Cómo se procesan estos datos?, ¿cómo se alimenta el algoritmo? Son algunas cuestiones que requieren mayor publicidad, para fortalecer el debate y escrutinio público, pues, como veremos, la experiencia comparada indica que es imprescindible el control, para que no se deforme en una especie de perfilamiento con criterios sospechosos de discriminación.

 

Sobre este punto, la explicación de corrección de la herramienta sostiene que, como toda predicción o inferencia, “en la medida que exista mayor información objetiva, homogénea y confiable, la probabilidad de cometer errores puede disminuir notablemente; en particular, la probabilidad de cometer”:

 

  • Error Tipo I: otorgar medida de aseguramiento a un imputado con bajo riesgo de reincidencia.

 

  • Error Tipo II: no otorgar medida de aseguramiento a un imputado con alto riesgo de reincidencia, afectando la seguridad de la comunidad y las víctimas.

 

Así las cosas, valdría preguntar si el modelo de predicción pretende complementar –o sustituir- la función judicial de evaluación de las características personales del procesado, ya que podría derivar en una deficiencia en la motivación de las providencias.

 

¿Cuáles son sus primeros resultados?

 

Los primeros datos fueron resumidos por la FGN, así:

 

  1. Manteniendo el mismo número total de personas que son cobijadas con medida de aseguramiento intramural (aproximadamente 24.000 personas en el 2018), el uso de esta herramienta de predicción “puede disminuir el número de delitos cometidos por reincidentes en 25 %”.

 

  1. Alternativamente, manteniendo el número de delitos cometidos por reincidentes, las medidas de aseguramiento intramural se pueden disminuir en el 36 %.

 

  1. La utilización de esta herramienta “garantizaría que en las audiencias de solicitud de medida de aseguramiento se utilice la misma información sobre antecedentes y anotaciones criminales, evitando así un tratamiento dispar entre casos similares, y garantizando el principio de igualdad e imparcialidad”.

 

  1. La información disponible sobre medidas de aseguramiento muestra que un error común cometido por fiscales y jueces es que dejan en libertad a muchos individuos de muy alto riesgo y le otorgan medida de aseguramiento a personas de muy bajo nivel de riesgo.

 

Gráfica otorgada por la Fiscalía Nacional de la Nación

*Gráfica de la FGN.

 

Incluso, se pudo elaborar un “top 10” de capturados por hurto a personas: 2004-2018

 

Gráfica otorgada por la Fiscalía General de la Nación

*Gráfica de la FGN.

 

Sin duda, son datos importantes para el análisis, la evaluación y la proyección de la política criminal del país, por lo que un adecuado manejo de la información y el tratamiento de datos sensibles debe ser prioridad de la herramienta, así como la debida conceptualización de reincidencia criminal, ya que, inicialmente, no es claro si se está analizando información sobre reincidentes en sentido estricto (personas que ya tienen condena penal en firme), o con base en la expedición de órdenes de captura (sin que exista sentencia condenatoria).

 

¿Cuáles son los riesgos?

 

Para Lucía Camacho, abogada en la Fundación Karisma, se debe aclarar que los riesgos no son exclusivos de las tecnologías que automatizan procesos, sino que son propios de las herramientas de las que se sirve el ser humano para hacerse la vida más sencilla o cómoda. Así, el riesgo varía dependiendo de la complejidad de la herramienta y la destinación y los usos que se hagan de la misma.

 

En este punto, “los posibles sesgos y discriminación por motivos raciales, socioeconómicos o de género” son los problemas usuales. “Sabemos que si no se cuida la calidad de los datos no pueden esperarse resultados objetivos, hay una frase que describe esto: “garbage in, garbage out”, si entra basura, sale basura”.

 

Por ejemplo, para el abogado penalista Álvaro Rolando Pérez, es imprescindible que el modelo no se acerque a un perfilamiento peligrosista, con su consecuencia de rotular y señalar a determinadas personas o grupos. Incluso, agrega que la naturaleza adversarial del sistema procesal penal tiene como eje fundamental el respeto por la dignidad humana, por lo que se debe indagar si con este tipo de herramientas se apuesta más a la eficiencia numérica del sistema, que a la ponderación de derechos fundamentales.

 

Pérez explicó que los software de prevención de la criminalidad traen a la mente modelos estadounidenses como COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) o PredPol (Predict Prevent Crime), sistemas que ayudaron a determinar el riesgo de que se cometiera un delito en un área determinada, logrando predecir modalidades y dando como resultado las “áreas de mayor riesgo”. Con el tiempo, esto se convirtió en una tenebrosa clasificación que generalizó el temor a los barrios habitados por latinos.

 

Incluso, no podemos pasar por alto que, en el caso COMPAS, pese a que el algoritmo no se nutría de datos raciales, la máquina fue aprendiendo a predecir el “riesgo”, con un claro sesgo racista. En este punto, el programa arrojaba un mayor grado de peligrosidad de las “personas negras” y, en sentido contrario, indicaba que las “personas blancas” tenían menos riesgo de reincidir. Ambas premisas, falsos positivos judiciales, como lo demostró ProPublica, así:

 

  • La fórmula era particularmente propensa a señalar de forma errónea a los acusados “​​negros” como futuros delincuentes, etiquetándolos el doble de las veces que a los acusados “blancos”.

 

  • Los acusados “​​blancos” fueron etiquetados erróneamente como de bajo riesgo, con más frecuencia delictiva que los acusados “negros”.

 

Propublica también realizó una prueba estadística en la que aisló el criterio de raza de la historia criminal y la reincidencia, así como la edad y el género de los acusados. Sin embargo, los procesados ​​“negros” todavía tenían un 77 % más de probabilidades de estar vinculados en asuntos penales, ya que supuestamente corrían un mayor riesgo de cometer un delito violento en el futuro, y mostraban un 45 % más de probabilidades de cometer otro delito de cualquier tipo. Todo esto, sin que el criterio de raza se hubiese incluido en la programación del algoritmo. ¿Cómo corregir el sesgo?

 

Otra conclusión de esta veeduría fue que los acusados ​​“negros” también tenían el doble de probabilidades que los acusados ​​“blancos” de ser clasificados erróneamente como un mayor riesgo de reincidencia violenta.

 

Por lo tanto, una preocupación general cuando se implementan estas herramientas tecnológicas es la falta de publicidad y transparencia sobre aspectos esenciales como la configuración del algoritmo y los criterios que se incluyen para su operatividad, lo que hace necesaria una mayor pedagogía y democratización del acceso a esta información.

 

Camacho concluye que es irregular presentar este tipo de modelos, sin más, en notas de prensa, y que se debe aclarar si se trata de un proyecto que seguirá o no en marcha para ser ampliado a más seccionales de la Fiscalía.

 

Por último, en cualquier caso, estos sistemas predictivos no pueden ser el único fundamento para la toma de decisiones judiciales. Las herramientas tecnológicas tienen que ser pensadas, diseñadas y utilizadas en función de facilitar la labor judicial, mas no de sustituirla. Está abierto el debate.

Opina, Comenta

Openx inferior flotante [28](728x90)

Openx entre contenido [29](728x110)

Openx entre contenido [72](300x250)