Cual si se tratara de «Minority Report«, las fuerzas policiales y las autoridades de justicia penal de toda Europa están utilizando datos, algoritmos e inteligencia artificial (IA) para “predecir” si ciertas personas representan un “riesgo” delictivo, y si es probable que los cometan en el futuro, y si la delincuencia se producirá en ciertas áreas en el futuro y dónde.
La vigilancia predictiva ha expuesto a un nuevo grupo de futuros delincuentes… los eurodiputados.
Un nuevo sistema de pruebas ha señalado a cinco políticos de la UE como «en riesgo» de cometer futuros delitos. Afortunadamente para ellos, no es una herramienta utilizada (aún) por las fuerzas del orden, sino una diseñada para resaltar los peligros de tales sistemas.
El proyecto es una creación de Fair Trials , un organismo de control de la justicia penal. La ONG está haciendo campaña para prohibir la predicción policial, que utiliza análisis de datos para pronosticar cuándo y dónde es probable que ocurran delitos, y quién puede cometerlos.
Los defensores argumentan que el enfoque puede ser más preciso, objetivo y eficaz que la vigilancia policial tradicional. Pero los críticos advierten que incorpora sesgos históricos, se dirige desproporcionadamente a los grupos marginados, amplifica la discriminación estructural e infringe los derechos civiles.
De hecho, la tecnología es cada vez más popular en Europa . En Italia, por ejemplo, una herramienta conocida como Dalia ha analizado datos de etnicidad para perfilar y predecir la criminalidad futura.
En Holanda, por su parte, se ha utilizado la llamada lista Top 600 para predecir qué jóvenes cometerán delitos de alto impacto. Se descubrió que una de cada tres personas en la lista, muchas de las cuales informaron haber sido acosadas por la policía, era de ascendencia marroquí.
Para ilustrar los impactos, Fair Trials desarrolló una evaluación simulada del comportamiento criminal futuro.
A diferencia de muchos de los sistemas reales utilizados por la policía, el análisis se ha hecho completamente transparente. La prueba utiliza un cuestionario para perfilar a cada usuario. Cuantas más respuestas afirmativas den, mayor será su resultado de riesgo. Puedes probarlo por ti mismo aquí .
Se invitó a políticos de los Socialistas y Demócratas, Renew, Greens/EFA y el Left Group a probar la herramienta. Después de completar el cuestionario, los eurodiputados Karen Melchior , Cornelia Ernst , Tiemo Wölken , Petar Vitanov y Patrick Breyer fueron identificados como de “riesgo medio” de cometer delitos en el futuro…. aunque dado el caso del Qatargate tampoco es algo que extrañe ¿no?
Fair Trials publicó los resultados de las pruebas en medio de crecientes llamados para prohibir la vigilancia predictiva.
El tema ha resultado divisivo en las propuestas para la Ley de IA, que se convertirá en el primer marco legal sobre inteligencia artificial. Algunos legisladores están presionando por una prohibición total de la vigilancia predictiva, mientras que otros quieren dar margen de maniobra a las agencias de aplicación de la ley.
Fair Trials les ha dado a los partidarios de los sistemas una nueva razón para reconsiderar sus puntos de vista: la tecnología también puede atacarlos.
342
Me he quedado tranquilo ya que en mi caso, este sistema tan poco fiable, sesgado e injusto, NO ME CONSIDERA un criminal y me ha calificado con un riesgo BAJO de conducta delictiva.