Steven Spielberg no se equivocaba con Minority Report, una cinta estrenada en 2002 en la que un departamento de policía conocido como PreCrimen detenía a los delincuentes antes de cometer un crimen. Si bien la película llevaba la acción a 2054, no ha hecho falta esperar tanto para conocer el funcionamiento de esta tecnología.
Así lo ha podido saber el periódico The Guardian, que ha adelantado esta misma semana que Reino Unido está trabajando en una herramienta capaz de predecir homicidios y, más concretamente, de determinar qué personas tienen más posibilidades de convertirse en asesinos.
Esto solo será posible gracias a un algoritmo, que impulsa un proyecto ordenado por el exprimer ministro Rishi Sunak e inicialmente conocido como Proyecto de predicción de homicidios.
En él se analizarán detalladamente los datos de miles de personas (entre 100.000 y 500.000) procedentes de varias fuentes oficiales, incluido el Servicio de Libertad Condicional, para poner a salvo a las demás mediante predicciones de comportamiento.
No obstante, la idea planteada por el Ministerio de Justicia (MoJ), el Ministerio del Interior, la Policía de Mánchester (GMP) y la Policía Metropolitana de Londres es muy diferente a todo lo que se ha visto hasta ahora y es una idea que casaría perfectamente en cualquier película o serie de ciencia ficción.
Cómo un algoritmo puede predecir asesinatos
El proyecto de identificación de conductas criminales mediante algoritmos se ha creado con el propósito “explorar el potencial de los conjuntos de datos” que maneja el propio Ministerio de Justicia británico para evaluar el riesgo de homicidio que se da entre ciertos usuarios.
Una vez reunidos estos datos, el equipo de Ciencia de Datos de esta cartera ministerial “desarrolla modelos” de inteligencia artificial, que buscan los indicios “más potentes del riesgo de cometer homicidio” en esa información, que reúne datos de sospechosos, víctimas, testigos, personas desaparecidas y otras en situación de vulnerabilidad.
De esa manera, el proyecto, ahora conocido como Intercambio de datos para mejorar la evaluación de riesgos, recopilará datos muy sensibles y se enfocará en lo que se denominan marcadores de salud, que incluye problemas de salud mental de las personas analizadas, si tienen alguna adicción o si se han autolesionado.
Las autoridades han insistido en que, para formalizar esta propuesta solo han utilizado datos de personas que registran, al menos, una condena penal y que, por el momento, solo es una investigación y no un proyecto que vaya a materializarse próximamente.
En cualquier caso, confían plenamente en su éxito y creen que esta aplicación de la tecnología “proporcionará evidencias para mejorar la evaluación de riesgos de delitos graves y, en última instancia, contribuirá a proteger al público mediante un mejor análisis”, según un portavoz del Ministerio de Justicia.
El proyecto pone en peligro la privacidad de los usuarios
La encargada de sacar a relucir las intenciones de las autoridades británicas ha sido Statewatch, una organización que promueve las investigaciones críticas, muchas de ellas políticas, y apoya el periodismo de investigación, que ha puesto en duda la fiabilidad y ética de esta aplicación de la IA.
Activistas, defensores del derecho a la privacidad y miembros de Statewatch coinciden en que este proyecto es “escalofriante y distópico”, que pone en peligro la privacidad y la integridad de los usuarios. Así, han insistido en que estas prácticas solo favorecerían sesgos en las predicciones en contra de las minorías étnicas y las personas pobres.
“Una y otra vez, las investigaciones demuestran que los sistemas algorítmicos para predecir delitos tienen fallas intrínsecas. Este último modelo, que utiliza datos de nuestra policía y del Ministerio del Interior, institucionalmente racistas, reforzará y magnificará la discriminación estructural que sustenta el sistema jurídico penal”, ha comentado la investigadora de Statewatch Sofia Lyall.
La representante de la organización ha insistido en que el Ministerio de Justicia debe detener “de inmediato” el desarrollo de esta herramienta de predicción de asesinatos e invertir en servicios de bienestar social “genuinamente solidarios”.
“Recortar la asistencia social mientras se invierte en soluciones rápidas solo socavará aún más la seguridad y el bienestar de las personas”, ha concluido la experta.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Reino Unido, Inteligencia artificial