Categorías
Noticias muy relevantes sobre IA Noticias sobre nuestro proyecto

Tecnocolonización: algoritmos para la vigilancia masiva de personas migrantes

El autor reflexiona sobre cómo la implementación de las nuevas tecnologías en el control migratorio actúa como un refuerzo de las lógicas neocoloniales.

El autor reflexiona sobre cómo la implementación de las nuevas tecnologías en el control migratorio actúa como un refuerzo de las lógicas neocoloniales.

Por Carlos Lancho

El uso de las nuevas herramientas biométricas como método para recolectar datos (huellas dactilares, iris, rasgos faciales, etc.), a menudo personales y privados, de población vulnerable es una expresión contemporánea de discriminación. La datificación, entendida como el fenómeno socioeconómico que se basa en la cuantificación automatizada de la información digital, supone una fractura con los derechos humanos de los individuos que se encuentran en situación de refugio, recogidos en la legislación internacional, europea y nacional. 

Determinados sistemas informáticos a gran escala, como el caso de Eurodac y Primes, utilizan la biometría y el big data para procesar de manera automática millones de datos personales. Las herramientas biométricas que se utilizan para extraer la información forman parte de una infraestructura de hipervigilancia que limita el movimiento de las personas refugiadas y migrantes a través de políticas fronterizas rígidas.

En la raíz de este problema contemporáneo se encuentran elementos del pasado colonial, cuestión que se puede comprender bajo el concepto de «tecnocolonialismo». Bajo esta perspectiva, el fenómeno de la datificación se puede entender desde dinámicas del poscolonialismo, en tanto que se percibe a las poblaciones históricamente vulnerabilizadas de los países del hemisferio sur, como rentables desde un punto de vista económico, no tanto en una dimensión física, sino inmaterial, a través de su información privada y con su trabajo en el etiquetado de datos que las big tech externalizan para probar sus algoritmos en poblaciones  del sur global o en campos de refugiados.

Las agencias de ayuda humanitaria, las big tech y los estados nacionales conforman un auténtico trinomio de la discriminación, a través del cual el extractivismo biométrico funciona mediante las infraestructuras socioeconómicas que han resistido al derrumbe de los imperios coloniales. En este nuevo contexto de colonialismo contemporáneo, los datos obtenidos a través de las herramientas de extracción son susceptibles de ser externalizados, ya sea para propósitos monetarios, que alimentan al sistema capitalista o para el interés de ciertas políticas migratorias discriminatorias.

En el caso concreto de las agencias de ayuda humanitaria, algunos programas de asistencia en campos de refugiados utilizan herramientas biométricas para mejorar sus sistemas de reparto o localización, las cuales se obtienen a partir de contratos con grandes empresas tecnológicas. En este sentido, la ética de la ayuda humanitaria queda rezagada a un segundo plano, pesando más la cuantificación de los individuos para propósitos de optimización o rendición de cuentas.

Esta situación no se escapa a cuestiones como la política migratoria, que utiliza tecnología biométrica para la gestión de refugiados o, en algunos casos, accede a la información recopilada de los sistemas informáticos, como el caso de Myanmar durante el genocidio rohingya. La automatización y la cuantificación se han convertido en el nuevo paradigma de las políticas fronterizas, dejando a miles de refugiados a merced de un análisis y resultado computacional basados en factores recogidos en la extracción de datos: color de piel, procedencia o género.

La población refugiada es considerada de forma directa o indirecta como una materia prima, ya no en su condición física, sino abstracta. Sus datos personales son recogidos, almacenados y automatizados a través de algoritmos que determinan su futuro y, al mismo tiempo, o bien son utilizados como una fuente de lucro para las empresas o bien como mecanismo de control de las fronteras y los flujos migratorios para los estados.

Como señala la Relatora Especial sobre racismo y discriminación social, Tendayi Achiume, estas prácticas abren una importante controversia en materia de derechos humanos. No solo suscitan serios cuestionamientos desde las convenciones y tratados, ratificados por los países que forman parte de la Unión Europea, sino que también generan incompatibilidades con derechos tan fundamentales como la privacidad y la dignidad individual. La discusión tiene una enorme vigencia en los debates más actuales sobre los derechos en el contexto digital, sobre todo a la luz de la legislación más actualizada, como es el caso de el Reglamento General de Protección de Datos (RGPD) o la PNL recientemente aprobada en el Congreso de Diputados.

Este artículo es una reseña de un trabajo de investigación más extenso titulado «Políticas de datos y gobernanza algorítmica de personas refugiadas y migrantes en el contexto europeo», el cual fue defendido recientemente por Carlos Lancho como Trabajo de Fin de Máster en la Universidad de Córdoba. Abajo puedes leer documento completo.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s