predecir crímenes - Cantineoqueteveonews

Es inevitable comparar el intento del gobierno británico de predecir crímenes mediante una inteligencia artificial con la película Minority Report. En ella, un experto Tom Cruise opera la Unidad de Precrimen y logra anticipar sucesos criminales y detenerlos antes de que ocurran. Al final todo sale mal. No muy diferente de lo sucedido con la iniciativa del Ministerio del Interior británico.

Este departamento financió en 2018 con 10 millones de libras un proyecto llamado Solución Nacional de Análisis de Datos (NDAS). Su objetivo era elaborar unos sistemas piloto de inteligencia artificial que usarían la policía de West Midlands y la de West Yorkshire.

Puedes leer: Crisálida tiene novedades sobre la versión IOTA 1.5

Uno de esos sistemas fue, por ejemplo, la herramienta MSV. Mediante esta herramienta , miles de indicadores mediante, aseguraban que se podría predecir crímenes con alta precisión. Permitiría saber qué gente cometería su primer delito violento con arma blanca o de fuego en los dos años siguientes a la implantación del programa.

Predecir crímenes marcando

Una diferencia significativa de la película de Steven Spielberg consistía en el “marcaje”. En vez de arrestar al sospechoso antes de cometer el delito, se le marcaría. Esto conllevó a que muchos de estos sujetos recibiesen visitas, orientación e inspecciones de los servicios sociales.

Un “error de programación”, así han definió el Comité de Ética de la Policía de West Midlands la dificultad por la que ha desechado la herramienta de predecir crímenes. No han dado más pistas de a qué se debía ese error ni sus consecuencias. Lo que sí se sabe es el antes y el después.

Cuando se presentó el proyecto estimaron que el MSV tendría hasta un 75% de acierto. Por ejemplo, de 100 personas con alto riesgo de cometerlos en la jurisdicción de West Midlands, la máquina apuntó que 54 personas los realizarían.

Año y medio después, y una vez detectado el error, el NDAS declaró sobre las predicciones de acierto. Estas serían de entre el 14 y el 19% para la policía de West Midlands y de entre el 9 y el 18% para West Yorkshire.

Tras arreglar el fallo de programación, el sistema seguía limitándose a una predicción de entre el 25 y el 38% para West Midlands y de entre el 36 y el 51% para West Yorkshire. En consecuencia, el uso de la herramienta se rechazó por unanimidad por parte de los cuerpos policiales.

Sin sesgos raciales

El programa para predecir crímenes no contenía sesgos raciales. Esa era una de las preocupaciones de sus gestores. Tampoco se incorporó la variable sobre el lugar de residencia. Pero si se incluía información como la edad, el tiempo transcurrido desde anteriores crímenes o faltas por parte del sujeto.

Esta información incluía la gravedad de las violaciones de la ley cometidas. Igualmente comprendía sus asociaciones sociales o el número de veces que se mencionaban armas en los informes vinculados a estas personas.

Puedes leer: El historiador Haanes Leer arruina el mito de la Wehrmacht inocente

El uso de algoritmos policiales predictivos se está extendiendo cada vez más en multitud de países . La diferencia entre este caso y las instituciones de otras regiones es que el grado de acierto predictivo de los segundos se mantiene casi siempre oculto a la opinión pública.

Aunque no tan dañino como otros casos conocidos en Estados Unidos, el experimento británico de predecir crímenes también ha sido perjudicial. Como señaló un miembro del comité ético, este modelo de “marcaje” ha hecho sentir a personas de la sociedad como potenciales criminales. La sensación predominante es que están siendo altamente vigilados por las fuerzas del orden.

Manzur Dagga Condesa Nasar Dagga CLX