AlgoRace
(Des)racializando la IA
¿Quiénes somos?

Nuestro equipo
Somos un equipo multidisciplinar de profesionales de la comunicación, formadores en pensamiento decolonial e investigadores sobre el racismo y la Inteligencia Artificial.

¿Qué queremos?
Queremos aportar las herramientas necesarias para un debate amplio sobre el impacto que tiene el uso de la Inteligencia Artificial en las poblaciones racializadas.
¿Qué hacemos?
Fomentamos espacios de diálogo con población racializada para concienciar sobre las consecuencias del uso racista de la IA. Desarrollamos campañas dirigidas a un público amplio. Publicamos y difundimos mediante redes sociales y medios de comunicación el impacto de la IA en las vidas de las personas racializadas. Y trasladamos a las instituciones recomendaciones sobre medidas que combatan el sesgo racial.
últimas noticias

Regulando la tecnología aplicada a los procesos migratorios: cómo la Ley de inteligencia Artificial de la UE puede proteger mejor a las personas que migran
Traducción del texto de Sarah Chander para EDRi Mientras la […]

Propuestas para una IA que no reproduzca desigualdades estructurales
Decenas de organizaciones sociales lideradas por AlgoRace: (DesRacializando la IA) […]

EURODAC: un sistema biométrico para categorizar y criminalizar a esos migrantes y refugiados que no queremos
Por Javier Sánchez M. y Ana Valdivia La reciente invasión […]

Aprobada una PNL para evitar sesgos y promover la transparencia en el uso de sistemas biométricos en la frontera sur
El pasado 24 de marzo se aprobaba en la Comisión […]

«Ahora son las máquinas las que se utilizan para reproducir la violencia racista»
de las tecnologías de inteligencia artificial. El periodista e integrante del equipo Youssef M. Ouled, profundiza en el objetivo y en los casos concretos en que de dan estas discriminaciones.

La sociedad civil pide a la UE la prohibición total de los sistemas de IA predictivos y de creación de perfiles
Organizaciones de la sociedad civil piden la prohibición total de los sistemas de IA predictivos y de creación de perfiles en la aplicación de la ley y la justicia penal en la Ley de Inteligencia Artificial. Dichos sistemas representan un riesgo inaceptable y, por lo tanto, deben incluirse como una «práctica de IA prohibida» en el artículo 5 de la AIA.
Ponte en contacto
Si deseas comentarnos cualquier cosa relacionada con la IA y el racismo, realizar alguna sugerencia o comentario sobre la automatización de nuestras vidas, puedes hacerlo a través de este formulario.
*También puedes escribirnos directamente a: info@algorace.org