Hace un año echaba a rodar una iniciativa que pretendía introducir una perspectiva crítica concreta a un debate que por complejidad, novedad o incomprensión carece de la relevancia necesaria. Esa iniciativa pasaba a llamarse AlgoRace: (Des)Racializando la IA que, con un nombre que es una declaración de intenciones, busca aportar una visión antirracista a los debates y discusiones en torno a la IA, sin desatender otras opresiones.
Hasta entonces no había un esfuerzo suficiente por facilitar el acceso a los espacios de debate sobre IA a aquellas personas y organizaciones racializadas que enfrentan a diario las múltiples manifestaciones del racismo estructural: Ley de Extranjería, explotación laboral, redadas por perfil racial, segregación escolar y residencial, violencia policial, etc.
Con el surgimiento de AlgoRace se conforma un equipo de trabajo integrado por diversas personas, unas procedentes del antirracismo y otras con especialización sobre IA, que como finalidad investiga y señala cómo la IA no solo no es neutral, sino que está sometida a los intereses del poder. En el caso concreto que nos atañe, hablamos de IA al servicio del colonialismo y el racismo, empleada como un mecanismo más de racialización.
Algoritmos, sistemas automatizados, datos biométricos, etc. son palabras que remiten a imaginarios complejos de los que se valen las instituciones para hacer cada vez más indetectable y sofisticado su racismo. Si estás leyendo esto y crees que no tiene nada que ver contigo te invitamos a adentrarte en una lectura accesible para todos los públicos. Un documento que señala cómo servicios del sector público y privado funcionan en base a decisiones automatizadas (SDAs). Nuestro presente está condicionado por sistemas tecnológicos que deciden sobre las ayudas públicas ofrecidas por la Administración, que nos evalúan o “predicen” las notas en el ámbito educativo, que controlan nuestro rendimiento en el trabajo, que trabajan para la policía vigilándonos, que en lugar de facilitar las rutas migratorias del sur al norte global, las hacen más infranqueables y mortales, y un largo etcétera. A lo que se suma un consumo de energía ingente y continuo de estos sistemas que afecta al cambio climático mientras traslada los residuos al sur global.
¿Para quién o para qué se usa la IA? ¿Es realmente indispensable? ¿A quién beneficia? ¿Qué coste medioambiental conlleva? ¿Contribuye a construir sociedades más participativas y democráticas o sostiene jerarquías ya existentes? ¿Quién tiene acceso a ella? ¿Quién participa en el debate? Este documento no busca dar respuestas concretas, pero sí desmitificar un uso de la IA que, como se ha dicho, ni es neutral ni es objetivo, porque como señalan los autores de este informe, se implementa con una carga política que reproduce violencias estructurales: “En la mayoría de casos, la IA y los SDAs son aplicados bajo una jerarquía de poder: de arriba abajo, de ricos a pobres, de privilegiados a marginalizados, de blancos a sujetos racializados, de hombres a mujeres o LGTBIQ+”.
Tras un año de trabajo, en AlgoRace hemos conseguido que se hable más de racismo en los debates sobre IA, pero hace falta que se hable más de IA en el antirracismo porque, como partícipes de la lucha antirracista y entendedores de las urgencias y complejidades de la misma, nos parece fundamental que otras voces se pronuncien, cuestionen y combatan ciertos usos de la IA. Este informe busca contribuir a la consecución de ese fin.
*Este texto es el prólogo del informe Una introducción a la IA y la discriminación algorítmica para movimientos sociales que se presenta en Madrid y Barcelona los días 26 y 30 de noviembre, respectivamente. Puedes inscribirte a la participación AQUÍ.
Una respuesta a «¿Por qué un informe sobre Inteligencia Artificial y racismo?»
[…] El próximo sábado 4 de marzo 2023 estaremos en Sevilla presentando nuestro informe junto a las compañeras de Mujeres Supervivientes y Biznegra. En esta presentación nos vamos a centrar en la temática del control migratorio y de fronteras a través de la tecnología. Si no sabes de qué va todo esto puedes empezar leyendo ¿Por qué un informe sobre Inteligencia Artificial y racismo?. […]
Me gustaMe gusta