Hoy, 1 de marzo de 2022, AlgoRace junto con Fair Trials, European Digital Rights (EDRi) y decenas de organizaciones de toda la sociedad civil lanzan una declaración colectiva para pedir a la UE que prohíba los sistemas policiales predictivos en la Ley de Inteligencia Artificial (AIA).
Los sistemas de inteligencia artificial (IA) están siendo cada vez más empleados por las autoridades europeas a nivel policial y en la justicia penal para perfilar personas y determinadas áreas geográficas, predecir supuestos comportamientos delictivos o futuros delitos, y evaluar supuestos «riesgos» de delincuencia o criminalidad futura.
Sin embargo, se ha demostrado que estos sistemas atacan y discriminan de manera desproporcionada a determinados grupos sociales, restringiendo su libertad, el derecho a un juicio justo y la presunción de inocencia, y reforzando la discriminación estructural y los desequilibrios de poder.
Dichos sistemas representan un riesgo inaceptable y, por lo tanto, deben incluirse como una «práctica de IA prohibida» en el artículo 5 de la AIA.
Los sistemas de IA predictivos, de elaboración de perfiles y de evaluación de riesgos ya están causando daños profundos en la UE, incluidos;
Discriminación y vigilancia policial excesiva
Los sistemas predictivos de IA reproducen y refuerzan la discriminación por, entre otros motivos, el origen racial y étnico, la situación socioeconómica y laboral, la discapacidad, la situación migratoria y la nacionalidad. Los datos utilizados para crear, entrenar y operar sistemas de IA a menudo reflejan una discriminación histórica, sistémica, institucional y social que da como resultado que personas y comunidades racializadas, así como los espacios que habitan, sean desproporcionadamente vigiladas, interrogadas, detenidas y encarceladas.
Vulneración del derecho a la libertad, el derecho a las garantías judiciales y la presunción de inocencia
Las personas, los grupos y las ubicaciones se seleccionan y perfilan como delincuentes. Esto genera graves resultados y castigos de la justicia penal y civil, incluidas las privaciones de libertad, antes de que los actos se hayan llevado a cabo. Los resultados de estos sistemas no son evidencias fiables de actividad delictiva real o potencial y nunca deben usarse como justificación para la aplicación de la ley.
Falta de transparencia, rendición de cuentas y derecho a un recurso efectivo
Los sistemas de inteligencia artificial utilizados por las fuerzas del orden a menudo tienen barreras tecnológicas o comerciales que impiden un escrutinio, transparencia y rendición de cuentas efectivos y significativos. Es crucial que las personas afectadas por las decisiones de estos sistemas sean conscientes de su uso y tengan vías claras y efectivas para desafiarlos.
Los abajo firmantes piden la prohibición total de los sistemas de IA predictivos y de creación de perfiles en la aplicación de la ley y la justicia penal en la Ley de Inteligencia Artificial (AIA). Dichos sistemas representan un riesgo inaceptable y, por lo tanto, deben incluirse como una «práctica de IA prohibida» en el artículo 5 de la AIA.
- Fair Trials (International)
- European Digital Rights (EDRi) (Europe)
- Access Now (International)
- AlgoRace (Spain)
- AlgoRights (Spain)
- AlgorithmWatch (Europe)
- Antigone (Italy)
- Big Brother Watch (UK)
- Bits of Freedom (Netherlands)
- Bulgarian Helsinki Committee
- Centre for European Constitutional Law – Themistokles and Dimitris Tsatsos Foundation.
- Citizen D / Državljan D (Slovenia)
- Civil Rights Defenders (Sweden)
- Controle Alt Delete (Netherlands)
- Council of Bars and Law Societies of Europe (CCBE)
- De Moeder is de Sleutel (Netherlands)
- Electronic Frontier Norway
- Digital Fems (Spain)
- European Centre for Not-for-Profit Law (ECNL)
- European Criminal Bar Association (ECBA)
- European Disability Forum (EDF)
- European Network Against Racism (ENAR)
- European Sex Workers Alliance (ESWA)
- Equinox Initiative for Racial Justice (Europe)
- Equipo de Implementación España Decenio Internacional Personas Afrodescendientes
- Eticas Foundation (Europe)
- Ghett’Up (France)
- Greek Helsinki Monitor
- Helsinki Foundation for Human Rights (Poland)
- Homo Digitalis (Greece)
- Human Rights Watch (International)
- International Committee of Jurists
- Irish Council for Civil Liberties
- Iuridicum Remedium (IuRe) (Czech Republic)
- Ligue des Droits Humains (Belgium)
- Panoptykon Foundation (Poland)
- PICUM (Europe)
- Refugee Law Lab (Canada)
- Rights International Spain
- Statewatch (Europe)
- ZARA – Zivilcourage und Anti-Rassismus-Arbeit (Austria)
6 respuestas a «La sociedad civil pide a la UE la prohibición total de los sistemas de IA predictivos y de creación de perfiles»
[…] e internacional lideradas por European Digital Rights (EDRi) y Fair Trials lanzaron hace un mes una declaración conjunta para pedir a la UE que prohíba los sistemas policiales predictivos en la Ley de Inteligencia […]
Me gustaMe gusta
[…] internacional lideradas por European Digital Rights (EDRi) y Fair Trials lanzaron hace un mes una declaración conjunta para pedir a la UE que prohíba los sistemas policiales predictivos en la Ley de Inteligencia […]
Me gustaMe gusta
[…] internacional lideradas por European Digital Rights (EDRi) y Fair Trials lanzaron hace un mes una declaración conjunta para pedir a la UE que prohíba los sistemas policiales predictivos en la Ley de Inteligencia […]
Me gustaMe gusta
[…] internacional lideradas por European Digital Rights (EDRi) y Fair Trials lanzaron hace un mes una declaración conjunta para pedir a la UE que prohíba los sistemas policiales predictivos en la Ley de Inteligencia […]
Me gustaMe gusta
[…] internacional lideradas por European Digital Rights (EDRi) y Fair Trials lanzaron hace un mes una declaración conjunta para pedir a la UE que prohíba los sistemas policiales predictivos en la Ley de Inteligencia […]
Me gustaMe gusta
[…] internacional lideradas por European Digital Rights (EDRi) y Fair Trials lanzaron hace un mes una declaración conjunta para pedir a la UE que prohíba los sistemas policiales predictivos en la Ley de Inteligencia […]
Me gustaMe gusta