Jueves, 1 de febrero de 2018

Acuden a los algoritmos para evaluar a los detenidos

En Estados Unidos, la decisión de dar la libertad bajo palabra a un preso siempre fue exclusiva del magistrado. Ahora, sin embargo, asoma una alternativa para fijar las fianzas.

Por siglos, la decisión de dar libertad bajo palabra a un detenido quedó a discreción de los jueces. Últimamente, sin embargo, la Justicia de Estados Unidos tiene la ayuda de la inteligencia artificial.

A fines de agosto, Hércules Shepherd Jr. se presentó a un juzgado de Cleveland con su uniforme anaranjado de prisión. Había sido detenido dos días antes cuando policías lo pararon por una infracción de tránsito y encontraron una pequeña bolsita de cocaína. Se le estaban formulando cargos.

Hasta hace poco, el juez del caso hubiera decidido si quedaba libre a partir de la información disponible y de su intuición. Pero en Cleveland, cada vez más jueces consultan la opinión de algoritmos antes de decidir si conceden la libertad bajo palabra o hacen que los presos esperan su juicio en la cárcel.

Las fianzas, que teóricamente garantizan que la gente se presentará a sus juicios, son parte del sistema judicial estadounidense desde hace siglos. Pero en los últimos años ese procedimiento fue muy cuestionado porque se dice que perjudica a los pobres, que deben permanecer en prisión porque no pueden pagar las fianzas, mientras las personas de otros estratos sociales se van libres. Estudios indican asimismo que acentúa las disparidades sociales en los procedimientos previos a los juicios.

Herramientas digitales

Un movimiento bipartidista de reforma encontró una alternativa a las fianzas: algoritmos que analizan la información almacenada en los tribunales, atan cabos y pronostican qué posibilidades hay de que una persona no se presente a su juicio o cometa otro delito.

Expertos dicen que este análisis de riesgos puede ser la innovación más grande que registra el sistema judicial estadounidense desde que los jueces empezaron a aceptar las ciencias sociales y otras opiniones de expertos hace más de un siglo. Christopher Griffin, director de investigaciones del programa Access to Justice Lab de la Facultad de Leyes de la universidad de Harvard, opina que las herramientas digitales son "el próximo paso en esa revolución".

Hay quienes afirman, no obstante, que los algoritmos pueden terminar remplazando el buen juicio de los jueces y perpetuando incluso prejuicios a partir de un instrumento aparentemente neutral.

Estados como Nueva Jersey, Kentucky, Arizona y Alaska están usando estas herramientas. Si un sospechoso recibe puntuaciones bajas en la evaluación de riesgos, se recomienda que sea liberado bajo supervisión de los tribunales.

Entre otras cosas, los algoritmos procuran reducir las decisiones prejuiciosas en las que pueden influir la raza, el género o la indumentaria de un sospechoso, cuando no el estado de ánimo de un juez que no tuvo tiempo de desayunar.

El sistema empleado en Nueva Jersey utiliza nueve factores de riesgo para evaluar a un acusado, incluidos su edad y antecedentes delictivos. Pero no toma en cuenta la raza, el género, el historial laboral de la persona ni dónde vive. Tampoco toma en cuenta arrestos previos si se comprobó que no cometieron delito alguno.

Otros esfuerzos por automatizar las decisiones judiciales han sido muy cuestionados, en particular un sistema llamado Compas usado para ayudar a fijar condenas. Una investigación de ProPublica determinó que, según Compas, los negros tenían el doble de posibilidades que los blancos de volver a cometer delitos.

Quienes ven con buenos ojos el uso de inteligencia artificial señalan que los jueces siguen siendo los que deciden. "Esto no es un aparato en el que insertas un ticket, aprietas un botón y te dicen qué fianza hay que darle a alguien", afirmó el juez Ronald Adrine, de Cleveland.

Más noticias