Categorías
Noticias muy relevantes sobre IA

La sociedad civil pide a la UE la prohibición total de los sistemas de IA predictivos y de creación de perfiles

Organizaciones de la sociedad civil piden la prohibición total de los sistemas de IA predictivos y de creación de perfiles en la aplicación de la ley y la justicia penal en la Ley de Inteligencia Artificial. Dichos sistemas representan un riesgo inaceptable y, por lo tanto, deben incluirse como una «práctica de IA prohibida» en el artículo 5 de la AIA.

Hoy, 1 de marzo de 2022, AlgoRace junto con Fair Trials, European Digital Rights (EDRi) y decenas de organizaciones de toda la sociedad civil lanzan una declaración colectiva para pedir a la UE que prohíba los sistemas policiales predictivos en la Ley de Inteligencia Artificial (AIA).

Los sistemas de inteligencia artificial (IA) están siendo cada vez más empleados por las autoridades europeas a nivel policial y en la justicia penal para perfilar personas y determinadas áreas geográficas, predecir supuestos comportamientos delictivos o futuros delitos, y evaluar supuestos «riesgos» de delincuencia o criminalidad futura.

Sin embargo, se ha demostrado que estos sistemas atacan y discriminan de manera desproporcionada a determinados grupos sociales, restringiendo su libertad, el derecho a un juicio justo y la presunción de inocencia, y reforzando la discriminación estructural y los desequilibrios de poder.

Dichos sistemas representan un riesgo inaceptable y, por lo tanto, deben incluirse como una «práctica de IA prohibida» en el artículo 5 de la AIA.

Los sistemas de IA predictivos, de elaboración de perfiles y de evaluación de riesgos ya están causando daños profundos en la UE, incluidos; 

Discriminación y vigilancia policial excesiva

Los sistemas predictivos de IA reproducen y refuerzan la discriminación por, entre otros motivos, el origen racial y étnico, la situación socioeconómica y laboral, la discapacidad, la situación migratoria y la nacionalidad. Los datos utilizados para crear, entrenar y operar sistemas de IA a menudo reflejan una discriminación histórica, sistémica, institucional y social que da como resultado que personas y comunidades racializadas, así como los espacios que habitan, sean desproporcionadamente vigiladas, interrogadas, detenidas y encarceladas.

Vulneración del derecho a la libertad, el derecho a las garantías judiciales y la presunción de inocencia

Las personas, los grupos y las ubicaciones se seleccionan y perfilan como delincuentes. Esto genera graves resultados y castigos de la justicia penal y civil, incluidas las privaciones de libertad, antes de que los actos se hayan llevado a cabo. Los resultados de estos sistemas no son evidencias fiables de actividad delictiva real o potencial y nunca deben usarse como justificación para la aplicación de la ley.

Falta de transparencia, rendición de cuentas y derecho a un recurso efectivo

Los sistemas de inteligencia artificial utilizados por las fuerzas del orden a menudo tienen barreras tecnológicas o comerciales que impiden un escrutinio, transparencia y rendición de cuentas efectivos y significativos. Es crucial que las personas afectadas por las decisiones de estos sistemas sean conscientes de su uso y tengan vías claras y efectivas para desafiarlos.

Los abajo firmantes piden la prohibición total de los sistemas de IA predictivos y de creación de perfiles en la aplicación de la ley y la justicia penal en la Ley de Inteligencia Artificial (AIA). Dichos sistemas representan un riesgo inaceptable y, por lo tanto, deben incluirse como una «práctica de IA prohibida» en el artículo 5 de la AIA.

  1. Fair Trials (International)
  2. European Digital Rights (EDRi) (Europe)
  3. Access Now (International)
  4. AlgoRace (Spain)
  5. AlgoRights (Spain)
  6. AlgorithmWatch (Europe)
  7. Antigone (Italy)
  8. Big Brother Watch (UK)
  9. Bits of Freedom (Netherlands)
  10. Bulgarian Helsinki Committee
  11. Centre for European Constitutional Law – Themistokles and Dimitris Tsatsos Foundation.
  12. Citizen D / Državljan D (Slovenia)
  13. Civil Rights Defenders (Sweden)
  14. Controle Alt Delete (Netherlands)
  15. Council of Bars and Law Societies of Europe (CCBE)
  16. De Moeder is de Sleutel (Netherlands)
  17. Electronic Frontier Norway
  18. Digital Fems (Spain)
  19. European Centre for Not-for-Profit Law (ECNL)
  20. European Criminal Bar Association (ECBA)
  21. European Disability Forum (EDF)
  22. European Network Against Racism (ENAR)
  23. European Sex Workers Alliance (ESWA)
  24. Equinox Initiative for Racial Justice (Europe)
  25. Equipo de Implementación España Decenio Internacional Personas Afrodescendientes
  26. Eticas Foundation (Europe)
  27. Ghett’Up (France)
  28. Greek Helsinki Monitor
  29. Helsinki Foundation for Human Rights (Poland)
  30. Homo Digitalis (Greece)
  31. Human Rights Watch (International)
  32. International Committee of Jurists
  33. Irish Council for Civil Liberties
  34. Iuridicum Remedium (IuRe) (Czech Republic)
  35. Ligue des Droits Humains (Belgium)
  36. Panoptykon Foundation (Poland)
  37. PICUM (Europe)
  38. Refugee Law Lab (Canada)
  39. Rights International Spain
  40. Statewatch (Europe)
  41. ZARA – Zivilcourage und Anti-Rassismus-Arbeit (Austria)

6 respuestas a «La sociedad civil pide a la UE la prohibición total de los sistemas de IA predictivos y de creación de perfiles»

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s