Una nueva iniciativa impulsada por el gobierno británico busca predecir quién podría convertirse en asesino antes de que cometa un crimen. Aunque parezca sacado de una película de ciencia ficción, como Minority Report , esta vez no hay psíquicos flotando en tanques, sino algoritmos entrenados con bases de datos personales, policiales y de salud mental . El objetivo declarado es “mejorar la evaluación de riesgos”. Pero las críticas no tardaron en llegar: expertos en derechos humanos y grupos civiles advierten sobre el sesgo, la vigilancia y la discriminación sistemática que un sistema de este tipo puede profundizar.

Un algoritmo entre la estadística y la sospecha.
Inicialmente bautizado como “proyecto de predicción de homicidios” (un nombre que habla por sí solo), el programa fue rebautizado oficialmente como “compartir datos para mejorar la evaluación de riesgos”, en un intento por suavizar su impacto público. El Ministerio de Justicia del Reino Unido sostiene que el sistema está pensado para analizar el riesgo de reincidencia entre personas con antecedentes penales, basándose en datos como edad, género, etnia, historial de delitos y más.
Sin embargo, según el grupo de vigilancia civil Statewatch , la herramienta también estaría usando información de personas sin condenas penales, e incluso de víctimas de violencia. Mediante solicitudes de acceso a la información, revelaron documentos que muestran cómo se procesan datos extremadamente sensibles: desde registros sobre salud mental, adicciones, intentos de suicidio y discapacidad, hasta detalles sobre el primer contacto con la policía o la edad en la que una persona fue víctima de violencia doméstica.
El problema del sesgo algorítmico
La respuesta de activistas y académicos no se hizo esperar. La investigadora Sofia Lyall calificó el proyecto como “escalofriante y distópico”, y advirtió que codificaba “los mismos sesgos estructurales del sistema penal”, con especial impacto sobre comunidades racializadas y sectores de bajos ingresos.
La paradoja es inquietante: un sistema diseñado para prevenir crímenes violentos podría terminar criminalizando de forma preventiva a personas vulnerables, basándose en características sociales o de salud. Al convertir estos datos en variables de riesgo, se corre el riesgo de reproducir la lógica de “culpabilidad por asociación”, sin un debido proceso.
Investigación o vigilancia preventiva
Desde el Ministerio de Justicia aseguran que el programa aún se encuentra en fase investigativa y que el uso de los datos es limitado a personas ya condenadas. Sin embargo, el acuerdo firmado con la Policía de Greater Manchester revela que el acceso a bases más amplias ya está en marcha.
También destacan que el sistema penitenciario británico ya utiliza herramientas de evaluación de riesgos, y que esta nueva iniciativa busca ampliar el alcance predictivo, posiblemente con miras a intervenir antes de que ocurra un delito grave. Pero ese mismo objetivo abre un dilema ético y legal: ¿es legítimo intervenir en la vida de alguien solo porque un algoritmo sugiere que podría ser peligroso?
A simple vista, la propuesta suena lógica: prevenir muertes, identificar amenazas antes de que escalen, usar tecnología para proteger vidas. Pero en la práctica, estas herramientas algorítmicas suelen ser opacas, imprecisas y discriminatorias. Lo que comienza como una herramienta técnica puede derivar en una forma silenciosa de vigilancia selectiva , donde las variables de “riesgo” no reflejan intenciones individuales, sino condiciones sociales estructurales.