¿Minority Report o prevención real?

En 2002, Steven Spielberg llevó al cine una historia basada en el relato de Philip K. Dick: Minority Report. Allí, una unidad de élite arrestaba a los ciudadanos antes de que cometieran un crimen, guiada por visiones pre-cognitivas supuestamente infalibles. La premisa, distópica, planteaba un dilema ético-jurídico inquietante: ¿es legítimo castigar una intención? ¿Dónde termina la prevención y empieza la persecución? Más de dos décadas después, aquel imaginario vuelve a cobrar vigencia, no como fantasía especulativa, sino como posibilidad operativa. La inteligencia artificial predictiva ha entrado en el campo policial. Y lo ha hecho sin pedir permiso.

Desde Los Ángeles hasta Londres, pasando por Ámsterdam, Helsinki o Chicago, las fuerzas de seguridad de distintas ciudades han empezado a integrar sistemas algorítmicos para anticipar delitos, identificar zonas de riesgo, perfilar a individuos potencialmente peligrosos o asignar recursos según patrones históricos. Herramientas como PredPol, HunchLab o CompStat se presentan como sistemas de ayuda a la decisión, no como sustitutos del juicio humano. Pero esa frontera es más porosa de lo que parece. Cuando una pantalla sugiere una zona “caliente”, un sospechoso probable o una pauta de vigilancia, la tentación de automatizar la sospecha es alta. Y el riesgo, también.

La promesa es seductora: mayor eficiencia, prevención efectiva, asignación racional de patrullas, descenso de la criminalidad. ¿Quién podría estar en contra? El problema, sin embargo, no está en la tecnología en sí, sino en los datos que la alimentan y en la lógica que la sostiene. Los sistemas predictivos no nacen del vacío: se nutren de registros policiales históricos, mapas delictivos, denuncias previas, datos sociodemográficos y otras fuentes. Es decir, reproducen patrones del pasado. Y si el pasado está marcado por sesgos, prácticas discriminatorias o desequilibrios estructurales, el algoritmo no corrige: perpetúa.

Un ejemplo recurrente es el de Chicago. Durante años, su programa de “lista de riesgo” generó puntuaciones para miles de ciudadanos basándose en criterios como historial penal, entorno social o interacción con el sistema. El resultado: vigilancia intensiva sobre ciertos barrios, de mayoría afroamericana o latina, con escasos resultados demostrables y fuertes críticas de organismos de derechos civiles. Algo similar ocurrió con el sistema PredPol, implementado en varias ciudades estadounidenses: al basarse en datos de detenciones previas, muchas veces motivadas por presencia policial selectiva, el algoritmo terminaba reforzando la vigilancia donde ya había vigilancia.

La crítica aquí no es tecnológica, sino estructural. El derecho penal liberal, desde sus orígenes ilustrados, se basa en principios como la presunción de inocencia, la tipicidad y la responsabilidad subjetiva. Castigar a alguien por lo que puede hacer, por lo que su perfil sugiere o por su proximidad a ciertos contextos sociales, es una forma de inversión del paradigma jurídico. Se pasa del hecho a la probabilidad, del acto a la predisposición. Y en ese tránsito, el sujeto deja de ser ciudadano para convertirse en variable.

En Europa, la discusión es más reciente, pero no menos intensa. El informe de la Agencia de los Derechos Fundamentales de la UE (2020) advertía de los peligros asociados al uso de IA en contextos policiales sin garantías adecuadas. La Comisión Europea, en su Reglamento de Inteligencia Artificial, clasifica los sistemas predictivos policiales como “de alto riesgo”, lo que implica exigencias estrictas en cuanto a transparencia, auditoría, trazabilidad y supervisión humana.

Uno de los riesgos más documentados en el uso de inteligencia artificial en contextos policiales es la llamada discriminación algorítmica. Cuando los modelos se entrenan sobre datos históricamente sesgados -por ejemplo, mayor número de detenciones en barrios humildes o en determinadas minorías étnicas-, los algoritmos no hacen otra cosa que convertir esa desviación en norma. El sesgo, lejos de desaparecer, se automatiza. Y en un sistema que se alimenta a sí mismo, el círculo vicioso es especialmente difícil de romper.

El problema se agrava cuando los resultados de estas herramientas se interpretan como “neutrales” por su origen computacional. Existe una ilusión de objetividad asociada a lo digital: si lo dice un algoritmo, será verdad. Pero un algoritmo es, ante todo, una construcción humana, alimentada por datos humanos y programada según lógicas humanas. La opacidad de muchos de estos sistemas, además, impide la revisión crítica. ¿Cuáles son los criterios exactos? ¿Cómo se ponderan las variables? ¿Qué margen de error se tolera? En muchos casos, ni siquiera los agentes que los utilizan pueden responder con claridad.

Desde la perspectiva del derecho penal, el uso de IA predictiva plantea interrogantes de gran calado. El principio de legalidad exige que los ciudadanos conozcan de forma clara qué conductas están prohibidas y qué consecuencias acarrean. La predicción algorítmica, sin embargo, introduce una dimensión especulativa que debilita esa previsibilidad. Si un individuo es vigilado, interrogado o incluso detenido en función de un “perfil de riesgo”, el fundamento ya no es su conducta, sino su posible conducta futura. Y eso equivale a invertir la carga de la prueba: el ciudadano debe demostrar que no es culpable de algo que aún no ha ocurrido.

En el contexto español también están presentes estas preocupaciones. Aunque no se ha implantado aún un sistema de predicción delictiva comparable a PredPol, se han comenzado a explorar sistemas de IA en el análisis de patrones delictivos, prevención del terrorismo y gestión de grandes eventos. Si bien se trata de iniciativas piloto o semiestructuradas, la lógica subyacente es la misma: usar datos pasados para intervenir antes de que ocurra el delito.

La Ley Orgánica 3/2018 de Protección de Datos Personales y garantía de los derechos digitales (LOPDGDD), que adapta el Reglamento General de Protección de Datos (RGPD), establece límites claros al tratamiento automatizado de datos personales, especialmente cuando produce efectos jurídicos sobre los ciudadanos. El artículo 22 del RGPD reconoce el derecho a no ser objeto de decisiones basadas únicamente en procesos automatizados, incluidas las elaboraciones de perfiles. Pero en la práctica, el uso policial de IA tiende a escudarse en la idea de que se trata de una “ayuda a la decisión”, lo que difumina el umbral de responsabilidad.

La cuestión no es menor. Un sistema que “sugiere” una vigilancia intensiva sobre un individuo o una zona puede terminar condicionando la actuación policial, incluso aunque no haya una orden directa. Se interpreta que la máquina sabe algo. Y actúa en consecuencia. El sesgo no está en el dato, sino en la confianza depositada en él.

El uso de inteligencia artificial en el ámbito policial plantea un desafío profundo a los derechos fundamentales. La vigilancia masiva basada en perfiles de riesgo erosiona la presunción de inocencia, compromete el derecho a la privacidad y amenaza el principio de igualdad ante la ley. Cuando la sospecha se automatiza y la intervención se adelanta al acto, el Estado de derecho se desliza peligrosamente hacia un modelo de derecho penal del enemigo.

La figura del ciudadano-riesgo se convierte en el centro de esta nueva lógica preventiva. Ya no se trata de prevenir delitos concretos, sino de gestionar poblaciones, cartografiar vulnerabilidades y predecir comportamientos. Se desplaza el foco desde el delito hacia el entorno, desde el autor hacia su contexto estadístico. El problema de fondo no es solo técnico, sino ontológico: el individuo deja de ser sujeto de derechos y se convierte en objeto de análisis.

La vigilancia basada en IA no es neutra. Si se concentra en determinados barrios, refuerza la estigmatización. Si identifica patrones basados en perfiles étnicos, contribuye a la discriminación. Si clasifica a los ciudadanos según su riesgo potencial, rompe con la idea de igualdad jurídica. Y todo esto se hace con una eficacia fría, sin rostro, sin debate.

Pero hay alternativas. No se trata de rechazar toda innovación tecnológica, sino de enmarcarla dentro de principios claros: transparencia, trazabilidad, control humano y rendición de cuentas. La IA puede ser una herramienta muy útil en tareas logísticas, en la asignación de recursos o en la detección de tendencias generales. Pero no debe sustituir el juicio del agente ni reemplazar las garantías judiciales.

Una política de prevención legítima no puede basarse en predicciones, sino en intervenciones sociales. El delito no es una mera variable estadística; es un fenómeno complejo, vinculado a desigualdades, exclusión, contextos vitales y relaciones de poder. Apostar por la prevención real implica invertir en políticas públicas, en justicia social, en sistemas educativos y de salud mental. El algoritmo, por sí solo, no corrige nada.

Desde una perspectiva jurídica, el derecho penal debe resistir la tentación de convertirse en ingeniería de riesgos. Su función es establecer límites claros, proporcionales y garantistas a la potestad punitiva del Estado. Cuando esa función se diluye bajo capas de código opaco, cuando el juez se convierte en notario de lo que la máquina ha decidido, la justicia deja de ser deliberación para convertirse en validación técnica.

En este nuevo escenario, el reto no es solo normativo, es, genuinamente, filosófico: ¿puede subsistir el derecho penal liberal en una sociedad gobernada por datos? ¿Puede mantener su vocación garantista en un entorno que privilegia la eficacia, la inmediatez y la cuantificación? La respuesta dependerá de si somos capaces de repensar nuestras instituciones jurídicas sin ceder al fetichismo algorítmico.

No todo lo que puede medirse debe regularse. No todo lo que puede preverse debe impedirse. La libertad, como recordó Isaiah Berlin, no es solo la ausencia de coacción, es también la capacidad de vivir sin que una máquina nos diga quiénes somos. En tiempos de inteligencia artificial, defender esa libertad exige, más que nunca, inteligencia jurídica.

¿Te ha gustado este artículo? Ayúdanos a difundirlo en:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *