Disparidades. Revista de Antropología 78 (1)
enero-junio 2023, e001c
eISSN: 2659-6881
https://doi.org/10.3989/dra.2023.001c

TEMAS EMERGENTES

ALGORITMOS DE RECONOCIMIENTO FACIAL ENTRE REPARTIDORES EN ESPAÑA: VIGILANCIA Y COMPLICIDAD CON LAS PRÁCTICAS DE SUBARRIENDO Y USO COMPARTIDO DE CUENTAS PERSONALES*Esta investigación se enmarca dentro del proyecto «Culturas emergentes de precariedad móvil en la Gig Economy Digital: El sector de la comida a domicilio en España», financiado por la Agencia Nacional de Investigación y el Ministerio de Ciencia e Innovación (PID2020-115170RB-100). La IP de dicho proyecto y primera co-autora de este artículo es investigadora Ramón y Cajal RyC 2018-024990-I.

ALGORITHMS OF FACIAL RECOGNITION AMONG FOOD COURIERS IN SPAIN: SURVEILLANCE AND COMPLICITY WITH THE PRACTICES OF SUBLEASING AND SHARED USE OF PERSONAL ACCOUNTS

Maribel Casas-Cortés

Investigadora Ramón y Cajal, Universidad de Zaragoza

https://orcid.org/0000-0001-9390-4022

Laura Moya

Universidad de Zaragoza

https://orcid.org/0000-0002-8330-4338

Eleder Piñeiro Aguiar

Universidade da Coruña

https://orcid.org/0000-0001-6770-7180

RESUMEN

Las investigaciones sobre la implantación de algoritmos en el sector del reparto de comida a domicilio se han centrado en la asignación de pedidos y en cómo estas decisiones automatizadas afectan a las condiciones laborales. Sin embargo, las compañías de este sector también han implementado cálculos algorítmicos para otras funciones, principalmente para lidiar con el llamado «mercado negro de cuentas de reparto». Se han implementado sistemas de reconocimiento facial para perseguir «fraudes de identidad», buscando aquellos repartidores trabajando bajo aplicaciones de otros. Este artículo, basado en una etnografía multi situada en diferentes ciudades españolas, aborda el creciente fenómeno de subarrendar y alquilar cuentas personales, una práctica extendida entre repartidores migrantes con distintas situaciones administrativas. Concretamente, abordamos el contexto de emergencia, el funcionamiento interno, y los efectos en red de los sistemas de reconocimiento facial implementados por Glovo y Uber Eats, dos compañías clave del sector. Este análisis preliminar reflexiona sobre el paradójico desarrollo del eficiente sistema algorítmico de identificación biométrica en el sector de reparto de comida en España.

PALABRAS CLAVE: 
Algoritmos; Reparto; Identificación biométrica; Migración; Sistemas de reconocimiento facial; Empleo irregular.
ABSTRACT

Research about algorithmic management in the food home delivery sector has mainly focused on the assignment of orders, and how such automated decisions affects labor conditions. However, food delivery companies have also implemented algorithmic calculations with other goals, mainly to deal with the so-called «black market of delivery accounts». Facial recognition systems have been put in place in order to target «identity fraud», searching for those riders working under applications not of their own. This paper, based on a multi-situated ethnography in different Spanish cities, deals with the growing phenomenon of subleasing and sharing personal accounts, a generalized practice among migrant riders with diverse administrative situations. Concretely, we engage the context of emergence, inner workings, and network effects of the facial recognition systems implemented by two key companies, Glovo and Uber Eats. This preliminary analysis reflects upon the paradoxical development of the efficient algorithmic system of biometric identification within the food delivery sector in Spain.

KEYWORDS: 
Algorithms; Delivery; Biometric identification; Migration; Facial recognition systems; Irregular employment.

Enviado: 22 de enero de 2023; Aprobado: 2 de mayo de 2023

Cómo citar este artículo / Citation: Casas-Cortés, Maribel, Laura Moya Santander y Eleder Piñeiro Aguiar. 2023. «Algoritmos de reconocimiento facial entre repartidores en España: vigilancia y complicidad con las prácticas de subarriendo y uso compartido de cuentas personales ». Disparidades. Revista de Antropología 78(1): e001c. doi: <https://doi.org/10.3989/dra.2023.001c>.

CONTENIDO

1. INTRODUCCIÓN

 

Patricia nació y creció en Colombia. Ahora es solicitante de asilo en Zaragoza, España. Con apenas unos meses en la ciudad, ya ha trabajado para dos compañías como repartidora, un trabajo que, como ella dice, actualmente «es la única opción». Reparte mediante cuentas que alquila y por las que paga un treinta por cierto de lo que gana, dependiendo de si reparte entre semana o en fin de semana. La aleatoriedad del algoritmo de reconocimiento facial de Glovo, que le solicitaba hacerse una foto después de entregar algún pedido, ya fuera de día o de noche, estuviera quieta o en desplazamiento, o hubieran pasado unas horas o días desde el reconocimiento anterior, hizo que perdiera su trabajo como repartidora en esta compañía. Tras muchos «intentos fallidos», Glovo bloqueó la cuenta, lo que no era rentable para la propietaria, quien decidió cerrarla. Así, fue como Patricia, empezó a repartir con Uber Eats, con la que los intentos de «pasar el reconocimiento facial», son más exitosos. Como esta compañía solicita la foto al iniciar la aplicación, Patricia queda con el propietario de la cuenta al empezar su jornada. Otra cosa son los clientes, que se quedan extrañados, y pueden reportar a la compañía la incidencia de que Patricia, una mujer, no coincide con la foto y nombre del perfil de la cuenta del repartidor, un hombre. Lo que ella excusa diciendo que es su «hermano, marido o padre que estaba indispuesto» (Informante1).

Los algoritmos de reconocimiento facial realizan comparaciones automáticas e instantáneas entre una imagen previamente archivada y digitalizada según cálculos algorítmicos de distancias entre ciertos puntos cardinales del rostro a identificar, y una digitalización, según los mismos cálculos, de una fotografía tomada en el acto. Esta verificación automática dice ser más ágil y precisa que cualquier comprobación de documentos y cotejo de rasgos faciales realizada de manera manual. Para reducir márgenes de error en el reconocimiento algorítmico se han investigado diferentes factores que degradan la precisión de la verificación facial automática: variación de pose inicial, envejecimiento, cambio de expresión, ausencia y la presencia de ciertos objetos (gafas, gorros, mascarillas); así como aspectos ajenos al sujeto identificado: iluminación, oclusión parcial de ciertas partes, etc. Las tecnologías de reconocimiento facial se basan en «algoritmos de aprendizaje mecánico» (machine-learning algorithms), es decir, algoritmos automatizados que se auto-modifican para continuar mejorando sus niveles de actuación y eficiencia. Estos sistemas de verificación facial se han aplicado en sectores que trabajan para garantizar la seguridad, por ejemplo, en aduanas, bancos, y también, en ciertas plataformas de servicios, como el transporte de pasajeros y de comida a domicilio.

La Ley Rider exige «transparencia algorítmica» a las plataformas (Real Decreto-ley 9/2021)1BOE núm. 113, de 12 de mayo de 2021, páginas 56733 a 56738. Disponible en: <https://www.boe.es/eli/es/rdl/2021/05/11/9>. Fecha de acceso: 1 dic. 2022. . Esta exigencia ha llevado a que esta legislación firmada en 2021 en España sea considerada pionera en regularizar el uso de inteligencia artificial en el trabajo de plataformas. Sin embargo, dicha exigencia no menciona las operaciones algorítmicas de verificación de identidad, ignorando sus implicaciones, en términos de situaciones laborales, y sobre todo, en lo referente a situaciones migratorias. La ausencia en el discurso institucional de la alta presencia de población migrante en la economía del reparto llama la atención. Aunque la literatura no ha abordado de forma sistemática las estadísticas ni analizado las consecuencias de esta dimensión migrante del trabajo de reparto, algunos autores enfatizan la relación entre la condición migrante y el trabajo contingente de la gig economy, argumentando cómo la mano de obra migrante es imprescindible para entender el funcionamiento de la economía de plataformas (Altenried 2021Altenried, Moritz. 2021. «Mobile Workers, Contingent Labour: Migration, the Gig Economy and the Multiplication of Labour». Environment and Planning A: Economy and Space 0: 1-16. doi: <https://doi.org/10.1177/0308518X211054846>.; van Doorn y Vijay 2021van Doorn, Niels y Darsana Vijay. 2021. «Gig Work as Migrant Work: The Platformization of Migration Infrastructure». Environment and Planning A: Economy and Space 0: 1-21. doi: <https://doi.org/10.1177/0308518X211065049>.). Nuestro proyecto de investigación nacional coincide con este diagnóstico. Después de dos años con más de quince investigadores trabajando en cinco ciudades españolas, observando los lugares de encuentro entre repartidores y realizándoles entrevistas, hemos encontrado que el perfil del repartidor de comida en España es mayoritariamente de origen extranjero, lo que queda de manifiesto en los perfiles de las y los informantes que posteriormente detallamos.

Paralelamente, la literatura académica sobre algoritmos en las plataformas del sector de reparto a domicilio se ha centrado en cuestiones principalmente laborales: los cálculos computerizados sobre la designación del pedido, y el modo en cómo esto afecta a la organización y control del trabajo (Shapiro 2018Shapiro, Aaron. 2018. «Between Autonomy and Control: Strategies of Arbitrage in the “on-Demand” Economy». New Media & Society 20(8): 2954-71. doi: <https://doi.org/10.1177/1461444817738236>.; Griesbach et al. 2019Griesbach, Kathleen, Adam Reich, Luke Elliott-Negri y Ruth Milkman. 2019. «Algorithmic Control in Platform Food Delivery Work». Socius: Sociological Research for a Dynamic World 5 (enero): 237802311987004. doi: <https://doi.org/10.1177/2378023119870041>.; Kellogg et al. 2020Kellogg, Katherine C., Melissa A. Valentine y Angéle Christin. 2020. «Algorithms at Work: The New Contested Terrain of Control». Academy of Management Annals 14(1): 366-410. doi: <https://doi.org/10.5465/annals.2018.0174>.; Cano et al 2021Cano, Melissa Renau, Ricard Espelt y Mayo Fuster Morell. 2021. «Flexibility and Freedom for Whom? Precarity, Freedom and Flexibility in on-Demand Food Delivery». Work Organisation, Labour & Globalisation 15(1). doi: <https://doi.org/10.13169/workorgalaboglob.15.1.0046>.). Sin embargo, las plataformas del sector del food-delivery utilizan otra serie de cálculos automatizados atendiendo a incidentes logísticos en el proceso altamente contingente del reparto. En este caso, se trata de un incidente generalizado en el sector: es una práctica extendida y bien conocida entre inspectores de trabajo, sindicatos y mismos repartidores, que consiste en la cesión de licencias personales a terceros. Es decir, las cuentas diseñadas para uso individual, de facto son utilizadas por más usuarios que la persona jurídica que abrió la cuenta a través del móvil firmando una aceptación de términos y condiciones. Las cuentas se ceden con tan sólo transmitir la contraseña de entrada a la aplicación. Esta cesión se está realizando en dos modalidades, concretamente, el subarriendo («cuentas alquiladas», a decir de los repartidores entrevistados) entre desconocidos, y el uso prestado («cuentas compartidas») entre varios familiares y amigos.

Nuestro objetivo es estudiar el «sistema de reconocimiento facial» (SRF), medida algorítmica de vigilancia para prevención del fraude anunciado por las plataformas de reparto de comida en respuesta a la práctica extendida del uso de la aplicación por terceros. Frente a estudios estrictamente laborales de la gestión algorítmica, nuestra investigación aborda decisiones algorítmicas relacionadas con la vulnerabilidad administrativa de un gran número de repartidores en situaciones migratorias precarias. Por ello, mediante las entrevistas se ha registrado la situación migratoria en cuanto a origen del pasaporte, permisos de protección internacional y visados, entendiendo que estos datos son importantes en el análisis del impacto de los algoritmos de reconocimiento facial en sus trayectorias migratorias y laborales2Las entrevistas se han realizado bajo consentimiento informado, mediante un documento escrito con los objetivos, metodología y uso de los resultados del proyecto de investigación, así como de la confidencialidad en el tratamiento de sus datos y sus testimonios, de la participación voluntaria y de su derecho a retirarse en cualquier momento del estudio. Con este fin, todos los repartidores entrevistados, cuyos testimonios se reflejan en este artículo, han firmado un consentimiento informado en el que confirman su voluntad de participar en esta investigación y, de forma específica, dan su consentimiento para que fragmentos literales de dichas transcripciones puedan ser presentados en congresos académicos, así como publicados en revistas científicas. Las grabaciones en formato audio, han sido transcritas y dichas transcripciones han sido anonimizadas (es decir, se han eliminado todos los nombres y referencias a lugares que pudieran identificar a la persona) y almacenadas en el repositorio Google WorkSpace de la Universidad de Zaragoza, para su consulta por los investigadores del proyecto. Después de la transcripción, los datos de contacto y el archivo de audio han sido eliminados para evitar la identificación del participante a través de los datos de contacto o por la voz..

Nos centramos entonces en el despliegue de los algoritmos de vigilancia biométrica en las plataformas de reparto: ¿Por qué hay sistemas de reconocimiento facial contra el fraude de identidad en un sector no asociado con la criminalidad como el reparto de comida a domicilio? ¿Qué consecuencias tienen estas verificaciones en caliente (just-in-time checkpoints) realizadas a los repartidores, y cómo inciden en las cuentas alquiladas y compartidas, fenómeno al alza en plataformas como Glovo y Uber Eats? Para responder, hemos utilizado metodología etnográfica multisituada, realizando trabajo de campo en varias ciudades españolas, incluyendo observación itinerante y entrevistas semi-estructuradas a repartidores de plataformas de reparto de comida a domicilio. En este artículo, nos centramos en diez entrevistas, tanto personales como grupales, realizadas a repartidores de Glovo y Uber Eats con situaciones migratorias diversas, y sobre todo, aquellos con cuentas alquiladas y/o compartidas.

  • Informante1: Exrepartidora de Glovo, y actual repartidora de Uber Eats, cuentas alquiladas, solicitante de asilo, pasaporte de Colombia. Zaragoza, noviembre 2022.

  • Informante2: Repartidor de Glovo y Pizzería, cuenta propia, ciudadanía por progenitores, pasaporte de Venezuela. A Coruña, octubre 2022.

  • Informante3: Repartidor de Glovo, cuentas alquiladas por tres años y ahora propia, permiso de protección internacional, pasaporte de Venezuela. Madrid, noviembre 2022.

  • Informante4: Repartidor de Uber Eats, cuenta propia, ciudadanía por nacimiento, pasaporte de España. A Coruña, octubre, 2022.

  • Informante5: Repartidor de Glovo, cuenta propia, permiso de protección internacional, pasaporte de Venezuela. A Coruña, noviembre, 2022.

  • Informante6: Repartidora de Glovo, cuenta alquilada y a su vez compartida, con certificado de asilo, origen Venezuela, pasaporte de Colombia, Zaragoza, noviembre, 2022.

  • Informante7: Repartidora de Uber Eats, cuenta alquilada, solicitante de asilo, pasaporte de Venezuela. Zaragoza, noviembre, 2022.

  • Informante8: Repartidora de Glovo, cuenta propia y compartida con esposo, permiso de protección internacional, pasaporte de Venezuela. Zaragoza, octubre, 2022.

  • Informante9: Repartidor de Uber Eats, cuenta propia y compartida con esposa, permiso de protección internacional, pasaporte de Venezuela. Zaragoza, octubre, 2022.

  • Informante10: Repartidor de Glovo, numerosas cuentas alquiladas, sin permiso de residencia ni de trabajo, pasaporte de Senegal. Barcelona, mayo, 2022.

A modo de marco teórico, realizamos un estado de la cuestión sobre los sistemas de identificación algorítmica y los tres cuerpos de literatura que informan nuestra aproximación. A continuación, nos centramos en nuestro caso de estudio particular, los sistemas de reconocimiento facial (SRF) implementados por Glovo y Uber Eats en España contra el «fraude de identidad» cometido en la cesión de cuentas a terceros. Nos basamos en trabajo de campo etnográfico realizado durante el año 2022 principalmente en Zaragoza y A Coruña, y en menor medida, en Madrid y Barcelona. Finalmente, reflexionamos sobre la aparente paradoja, entre la proclamada eficiencia de la verificación facial algorítmica por un lado y por otro, la generalización de cuentas subarrendadas y compartidas entre repartidores, principalmente aquellos en situaciones migratorias con irregularidades administrativas.

2. TECNOLOGÍAS DE IDENTIFICACIÓN ALGORÍTMICA: ESTADO DE LA CUESTIÓN

 

Frente al «drama algorítmico» que conceptualiza los cálculos matemáticos realizados por sistemas de inteligencia artificial como entes fuera de lo social, omnipresentes y ultra poderosos (Ziewitz 2016Ziewitz, Malte. 2016. «Governing Algorithms: Myth, Mess, and Methods». Science, Technology, & Human Values 41(1): 3-16. doi: <https://doi.org/10.1177/0162243915608948>.; Seaver 2018), nos inspiramos en literaturas que trabajan desde la materialidad de las relaciones entre los humanos y la tecnología. Para acercarnos a los algoritmos de verificación de identidad seguimos tres tradiciones académicas. Primero, los Estudios de la Ciencia y la Tecnología y su legado ontológico de no separar máquinas de humanos. Los nuevos campos críticos sobre lo digital recogidos en la introducción continúan esta aproximación cotidiana, y pragmática, aplicada a los algoritmos (Neyland 2019Neyland, Daniel. 2019. The Everyday Life of an Algorithm. Cham: Springer International Publishing. doi: <https://doi.org/10.1007/978-3-030-00578-8>.; Jaton 2021Jaton, Florian. 2021. «Assessing Biases, Relaxing Moralism: On Ground-Truthing Practices in Machine Learning Design and Application». Big Data & Society 8(1): 20539517211013570. doi: <https://doi.org/10.1177/20539517211013569>.). El seguimiento etnográfico de los diseñadores por ejemplo, muestra cómo los cálculos algorítmicos constituyen procesos altamente materiales y contingentes, resultados de hábitos, destrezas y valores de los muchos actores que participan en el proceso de diseñar, aplicar y retocar las instrucciones algorítmicas (Jaton y Vinck 2016Jaton, Florian y Dominique Vinck. 2016. «Unfolding Frictions in Database Projects». Revue d’anthropologie des connaissances 10, 4(4): a-m. doi: <https://doi.org/10.3917/rac.033.a>.; Jaton 2017Jaton, Florian. 2017. «We Get the Algorithms of Our Ground Truths: Designing Referential Databases in Digital Image Processing». Social Studies of Science 47(6): 811-40. doi: <https://doi.org/10.1177/0306312717730428>.; Jaton y Bowker 2020Jaton, Florian y Geoffrey C. Bowker. 2020. The Constitution of Algorithms: Ground-truthing, Programming, Formulating. Inside technology. Cambridge, Massachusetts: The MIT Press.). Esta aproximación matiza el «poder social» exagerado que se ha atribuido a los algoritmos, y describe cómo las condiciones y consecuencias de las operaciones algorítmicas son producto de una «agencia distribuida» entre «asociaciones inestables» compuestas por diferentes personas, documentos, aparatos y procesos automatizados, produciendo una serie de «efectos en red» (Neyland y Möllers 2017Neyland, Daniel y Norma Möllers. 2017. «Algorithmic IF … THEN Rules and the Conditions and Consequences of Power». Information, Communication & Society 20(1): 45-62. doi: <https://doi.org/10.1080/1369118X.2016.1156141>.).

Segundo, la intersección entre STS y los Estudios Raciales Críticos explora cómo estas instrucciones matemáticas se realizan en relación a ciertas bases de datos, y no otras, o con ciertos fines, y no otros. Dicho proceso de selección entre posibilidades a nivel tecnológico no es baladí, pues se materializa en diseños discriminatorios que reflejan, y retroalimentan a su vez, las estratificaciones sociales vigentes en términos de clase, género, categoría racial, o dis/capacidad (Browne 2015Browne, Simone. 2015. Dark matters: on the surveillance of blackness. Durham: Duke University Press.; Noble 2018Noble, Safiya Umoja. 2018. Algorithms of Oppression: how Search Engines Reinforce Racism. Nueva York: New York University Press.; Benjamin 2019Benjamin, Ruha. 2019. Race after Technology: Abolitionist Tools for the New Jim Code. Medford, MA: Polity.). En concreto, Race After Technology muestra cómo «la cuestión racial se mete dentro de la inteligencia artificial» (Benjamin 2019: 81Benjamin, Ruha. 2019. Race after Technology: Abolitionist Tools for the New Jim Code. Medford, MA: Polity.). En referencia a los programas de reconocimiento facial, señala que esta exposición codificada conlleva una doble consecuencia arriesgada para ciertas poblaciones: por una parte, se visibilizan aquellos que normalmente no son visibles. Por otra parte, se generaliza un rasgo constante entre sociedades racistas: «la amenaza a la exposición» de poblaciones altamente vulnerables a ser vistos o expuestos (Benjamin 2019: 100-112Benjamin, Ruha. 2019. Race after Technology: Abolitionist Tools for the New Jim Code. Medford, MA: Polity.).

Tercero, los Estudios Críticos de Vigilancia, y, sobre todo aquellos trabajos centrados en control de fronteras y gestión migratoria. La digitalización de ciertos rasgos físicos humanos -como dimensiones faciales, huellas digitales, profundidad del iris, o voz- y el uso de programas informáticos algorítmicos, permite la identificación automática de personas. La vigilancia algorítmica basada en datos biométricos ha sido altamente desplegada para el monitoreo de actividades consideradas ilícitas, como evitar fraudes de identidad en actividades financieras, y para hacer más eficiente la gestión de flujos migratorios (Introna y Wood 2004Introna, Lucas y David Wood. 2004. «Picturing Algorithmic Surveillance: The Politics of Facial Recognition Systems». Surveillance & Society 2 (2/3): 177-98. doi: <https://doi.org/10.24908/ss.v2i2/3.3373>.; Sanchez del Rio et al. 2016Sanchez del Rio, Jose, Daniela Moctezuma, Cristina Conde, Isaac Martin de Diego y Enrique Cabello. 2016. «Automated Border Control E-Gates and Facial Recognition Systems». Computers & Security 62 (septiembre): 49-72. doi: <https://doi.org/10.1016/j.cose.2016.07.001>.; Smith, Mann, y Urbas 2018Smith, Marcus, Monique Mann y Gregor Urbas. 2018. Biometrics, Crime and Security. 1.a ed. New York: Routledge, 2018. | Series: Law, science and society: Routledge. doi: <https://doi.org/10.4324/9781315182056>.). El reconocimiento facial a través de cálculos algorítmicos se ha convertido en el método de identificación biométrica más extendido con fines de seguridad y contra el crimen (Kaur et al. 2020Kaur, Paramjit, Kewal Krishan, Suresh K. Sharma y Tanuj Kanchan. 2020. «Facial-Recognition Algorithms: A Literature Review». Medicine, Science and the Law 60(2): 131-39. doi: <https://doi.org/10.1177/0025802419893168>.). Esta tecnología se ha cuestionado por sus finalidades en determinados contextos, y por sus consecuencias negativas por lidiar de manera «automatizada» con problemas sociales complejos (Gates 2011Gates, Kelly A. 2011. Our Biometric Future: Facial Recognition Technology and the Culture of Surveillance. Nueva York: New York University Press. doi: <https://doi.org/10.18574/nyu/9780814732090.001.0001>.; Smith y Miller 2022Smith, Marcus y Seumas Miller. 2022. «The Ethical Application of Biometric Facial Recognition Technology». AI & SOCIETY 37(1): 167-75. doi: <https://doi.org/10.1007/s00146-021-01199-9>.).

Dado este marco de referencia nuestra investigación profundiza en el carácter contingente y performativo de los algoritmos, atendiendo a sus despliegues y localizaciones específicas. Así, nuestro caso de estudio pregunta: ¿cómo emerge y se sostiene un sistema algorítmico de vigilancia biométrica en el sector mundano del reparto de comida a domicilio?

3. CUENTAS ALQUILADAS Y COMPARTIDAS: UN FENÓMENO EXTENDIDO EN CIUDADES ESPAÑOLAS

 

Abrir una cuenta como repartidor es sencillo si cuentas con documentación acreditativa para trabajar en el país. Una vez abierta es todavía más sencillo que otras personas que no son el propietario de la cuenta puedan utilizarla para trabajar, pues conectarse a la aplicación es posible mediante un usuario y contraseña fácilmente canjeable o intercambiable. Esto es lo que denominamos el fenómeno de cuentas alquiladas o compartidas, en las que uno o varios terceros (no propietarios de la cuenta) hacen uso de la misma para trabajar como repartidores. Bien sea mediante subarriendo (pagando el treinta por ciento de lo obtenido al propietario), o compartiendo la cuenta entre varios repartidores (de los cuales sólo uno es el propietario), práctica extendida generalmente entre familiares y amigos.

Aproximadamente el 80% de nuestros informantes trabajan mediante cuentas subarrendadas y/o compartidas. Ya sea porque no tienen permiso de trabajo, o porque intercambiar la cuenta entre familiares o amigos les permite entregar pedidos en franjas horarias más extendidas y así, incrementar ingresos, lo cierto es que estas prácticas de empleo irregular se presentan de manera habitual en el sector del reparto de comida a domicilio (Sanz et al. 2023Sanz de Miguel, Pablo, Maribel Casas-Cortés, Amaia Prieto Arratibel y Juan Arasanz Díaz. 2023. «El empleo irregular tras la Ley Rider: ¿nueva regulación, idénticas estrategias empresariales?». Revista Española de Sociología 32(3). <https://doi.org/10.22325/fes/res.2023.177>). No obstante, no se trata de un fenómeno aislado en España, puesto que también se ha encontrado en Reino Unido3Bryan, Kenzan. 2019. «Deliveroo and uber eats takeaway riders rent Jobs to ilegal immigrants». New York Times digital. Disponible en: <https://www.thetimes.co.uk/article/deliveroo-and-uber-eats-takeaway-riders-rent-jobs-to-illegal-immigrants-ml36gvp93>. Fecha de acceso: 1 dic. 2022. o en Francia4Alderman, Liz. 2019. «Food delivery couries exploit desperate migrants in France». New York Times digital. Disponible en: <https://www.nytimes.com/2019/06/16/business/uber-eats-deliveroo-glovo-migrants.html>. Fecha de acceso: 1 dic. 2022.. Para tratar de evitar estas prácticas que las compañías denominan de «fraude de identidad», algunas de ellas como Glovo y UberEats, han optado por implantar procesos algorítmicos de reconocimiento facial. Mientras la toma de este tipo de datos biométricos ha servido para aumentar la gestión restrictiva de flujos migratorios, la cesión de cuentas facilita de facto flujos de migración, tanto en origen como en destino:

Hay gente que viene de fuera y llega, y ya le tienen una cuenta. O que ya saben que pueden llegar aquí, a trabajar ilegalmente con Glovo. O ya tiene un familiar aquí y le cuadra la cuenta, y ya está llegando a trabajar (Informante6).

Según los repartidores, las compañías están al tanto de las prácticas de cesión de cuentas y sus consecuentes situaciones de desprotección. Sin embargo, les conviene esta oferta de mano de obra:

Saben muy bien que hay muchos repartidores trabajando con cuentas de otros, y no se toman medidas. Cuando hay llamadas de Glovo por incidencias, no les importa que yo no hable como un catalán, el dueño de la cuenta. Yo me comunico con ellos en francés, o en castellano con fuerte acento senegalés, y no pasa nada (Informante10).

Sin embargo, las compañías no dejan de anunciar sus medidas contra «el fraude de identidad», sobre todo después de los dos accidentes mortales de repartidores en España, uno de origen nepalí en 2019 y otro de Venezuela en 2021. Ambos alquilaban cuentas y fueron arrollados de madrugada por camiones de basura en Barcelona5 Jorro, Ignasi. 2019. «El fraude en Glovo: “Te trabajo siete días y 13 horas y te doy el 30%”».El español digital.Disponible en: <https://cronicaglobal.elespanol.com/business/repartidor-glovo-barcelona_248916_102.html>. Fecha de acceso: 2 dic. 2022. y Madrid6 Nuevatribuna.es. 2021. «Un repartidor (con una mochila de Glovo) fallece al chocar frontalmente con un camión».Público digital. Disponible en: <https://www.nuevatribuna.es/articulo/actualidad/trabajador-glovo-fallece-chocar-frontalmente-camion/20210208182324184372.html>. Fecha de acceso: 2 dic. 2022..

4. EL SISTEMA DE RECONOCIMIENTO FACIAL EN EL SECTOR DEL REPARTO DE COMIDA A DOMICILIO

 

El sistema de reconocimiento facial (SRF) es el método que diversas compañías de reparto de comida a domicilio utilizan con el fin de asegurarse que el repartidor trabaje la misma cuenta con la que se ha dado de alta en la plataforma. Los sistemas de Glovo y Uber Eats actúan de modo diferente en algunos aspectos. En la primera, mediante la propia aplicación de la compañía, al repartidor le salta este reconocimiento cuando entrega un pedido cualquiera a lo largo de la jornada a decir de nuestros informantes; algunas veces, se le puede pedir reconocimiento varias veces al día. Debe darle a «aceptar» cuando aparece la leyenda «verificación» y a continuación se abre la cámara dentro del programa de la misma aplicación, y el repartidor necesita sacarse una foto, situando el rostro dentro de un perímetro dado. Después «pasa la rayita, como un scanner» y así se valida que la persona que se saca la foto coincide con la que se dio de alta en la cuenta. La implantación del SRF ha sido intermitente, con periodos de mucha actividad y otros de total ausencia, como desde el verano del 2022. Según nuestro tercer informante: «el reconocimiento facial es algo que nunca ha funcionado a la perfección. Lo han quitado muchas veces, y lo han puesto muchas veces.» Después de un tiempo inactivo, Glovo ha anunciado que va a volver a implantarlo, aunque todavía no ha sucedido, según nuestros informantes.

Esté en funcionamiento o no, a finales de noviembre de 2022, su propia página web continúa indicando cómo el reconocimiento sirve para luchar contra el fraude, identificar cuentas alquiladas y preservar la seguridad. Además, explica que funciona de manera aleatoria y en caso de no pasarlo, la cuenta se cancela por catorce días. También da indicaciones a los repartidores en caso de tener problemas con auto-identificarse7Delivery.Glovoapp. 2023. «Sistema de reconocimiento facial» Web Glovo. Disponible en: <https://delivery.glovoapp.com/es/faq/sistema-de-reconocimiento-facial>. Fecha de acceso: 30 nov. 2022.

El mecanismo de Uber Eats es similar en cuanto a la toma de la fotografía. Sin embargo, los repartidores afirman que el reconocimiento facial se exige todos los días, tanto a autónomos como a contratados, las dos modalidades de trabajo actuales ofrecidas por esta compañía. La información online sobre su SRF contiene un discurso similar en contra del fraude y por la seguridad de todos. En el apartado «¿Por qué se me pide tomarme una foto?» se desarrollan todas las razones y procedimientos para el reconocimiento facial8 Help.uber.com. 2023. «¿Por qué me piden que me tome una foto?». Web Uber. Disponible en: <https://help.uber.com/es/driving-and-delivering/article/por-qu%C3%A9-se-me-pide-tomarme-una-foto?nodeId=7fa8a60d-cf6f-49ac-9a50-b4bf6a3978ef>. Fecha de acceso: 30 nov. 2022. En concreto, solicita que los repartidores se tomen fotos con mascarilla, intuimos que refiriéndose más al sector de transportistas de personas9Sin poder desarrollar las implicaciones de los numerosos incidentes de error identificados en el sistema de verificación facial de Uber, mencionar que en el sector de transporte de personas los reconocimientos de identidad han generado denuncias por utilizar «algoritmos racistas» al no reconocer a propietarios de cuentas Uber por tener cámaras no sensibles a diversos espectros de color de piel, sobre todo los tonos oscuros (White 2021). . En el caso del transporte de comida, la diferencia con respecto a Glovo según los repartidores, está en que la solicitud de reconocimiento aparece de manera previsible, siempre al conectarse, al inicio de la jornada laboral.

medium/medium-DRA-78-01-e001c-gf1.png
Figura 1.  Mensaje de Glovo en su aplicación: «¿Qué es el sistema de reconocimiento facial y en qué me beneficia?»
medium/medium-DRA-78-01-e001c-gf2.png
Figura 2.  Captura de pantalla de aviso de reconocimiento facial en Uber: «Se requiere una acción. Conéctate cuando se resuelva»

Esta previsibilidad es muy útil para organizarse entre propietarios y usuarios de la cuenta, para sacar la foto requerida a horas acordadas, sin sobresaltos en medio de itinerarios de reparto o en otras circunstancias, al contrario que en Glovo.

No obstante, también cabe señalar que tanto en Uber Eats como en Glovo, el SRF, en ocasiones falla, incluso con repartidores con cuenta propia:

Aunque era yo mismo el que se sacó la foto, el dueño mismo de la cuenta, el sistema no me reconocía. Quizás porque la imagen original de cuando saqué la foto está ya desfasada, pero las dos imágenes eran muy parecidas (Informante2).

En definitiva, la confusión sobre las exigencias e ineficiencias de este sistema, así como las experiencias de intentos de superación y reparación de dichos fallos, son tema recurrente entre nuestros informantes.

4.1 ¿Qué sucede cuando no se pasa el reconocimiento facial?

 

Cabría pensar que esta herramienta contra el fraude de identidad conlleva consecuencias como el cierre inmediato de las cuentas alquiladas o compartidas, la formalización de denuncias a inspección de trabajo, o incluso la comunicación confidencial con autoridades migratorias sobre la falta de documentación necesaria para trabajar de ciertos repartidores. Sin embargo, y tal y como nos relatan los informantes, dichas consecuencias no suelen ser tan drásticas:

Tienes cuatro oportunidades para pasarla y si no, te bloquean la cuenta por quince días para que ellos chequeen si eres tú correctamente. Pero entonces, te llega un correo: tu cuenta va a ser verificada, te avisaremos para verificarte […] Pero a mí, me tardó el bloqueo como un día, porque le insistí varias veces. Hay que insistir por correo y decir los motivos por el cual se bloqueó. […] Y el punto tampoco es eso, porque ellos te van a bloquear, te van a verificar y te van a desbloquear porque así lo van a hacer (Informante8).

El dueño de la cuenta, apenas se me bloquea, tiene que mandar un email a Glovo, diciendo que por «X» tuvo que darle a omitir, o el celular estaba dañado o algún invento tiene que colocar para poder mandar el correo a Glovo y Glovo desbloquea la cuenta. […] Cuando la desbloquean, apenas me conecte para trabajar, va a pedir la foto, entonces, ya sabemos y él se toma la foto (Informante1).

De esta manera, el SRF no llega a ser efectivo para acabar con el uso de cuentas por terceros. Más allá de las verificaciones del algoritmo de reconocimiento facial, la mano humana no sólo desbloquea la cuenta, sino que es requerida por las compañías para efectuar otro reconocimiento de identidad: «manual review by three different identity verification specialists» (portal de Uber). Así, para los repartidores, el SRF no es un impedimento. Sólo acaba de ser efectivo en casos reiterados de omisión del reconocimiento facial «entonces, ya después de ciertas cantidades de bloqueo de cuenta, la bloquean ya por un mes o dos meses» (Informante1).

4.2 Las reseñas del cliente: Un agente en vigilancia

 

Los repartidores intuyen que el algoritmo del reconocimiento facial está guiado por las reseñas de los clientes en las que marcan que la casilla no coincide con la foto. Ellos perciben que la petición de verificación salta, cada vez que un cliente señala que la persona que les entregó el pedido no es la misma que aparece en la foto del perfil del repartidor.

medium/medium-DRA-78-01-e001c-gf3.png
Figura 3.  Capturas de pantalla de Valoración de los clientes (Informantes 3 y 6).

Según los repartidores, si hay muchas reseñas de este tipo, las verificaciones serán más continuas. Estas intuiciones por parte de los repartidores surgen en respuesta a la falta de transparencia del algoritmo de reconocimiento facial. Como se apunta en la introducción de este volumen, la opacidad deriva de la enorme elasticidad y variabilidad de cómo es enactado dicho algoritmo, en este caso, en función de la interacción de los clientes a través de las reseñas de la aplicación. Y así mismo, es esta opacidad la que hace deducir a los repartidores que este tipo de reseñas negativas, también afectan a otro algoritmo, el de asignación de nuevos pedidos:

Yo tuve dos cuentas, una de una chica y una de un chico. La del chico me salía la foto todos los días y esa cuenta no se movía. Te estoy diciendo que salían uno o dos pedidos diarios y para mí, que era por lo de la foto (Informante7).

De manera que las prácticas de evaluación por los clientes a través de la verificación de identidad, se cruzan con los algoritmos que solicitan el reconocimiento facial después de dicha reseña, pero también con los que organizan la asignación de pedidos, con una consecuente merma de nuevos pedidos. Así, la mano humana del cliente parece ser quien activara las prácticas de vigilar, y de alguna manera castigar, el acto de trabajar con cuentas de otros, y no propias.

5. CONCLUSIONES: ¿ALGORITMOS DE IDENTIFICACIÓN BIOMÉTRICA INEFICIENTES FRENTE AL FRAUDE?

 

Tanto para evitar incidentes de migración irregular como crímenes bancarios, las geografías faciales se aplauden por su alto grado de fiabilidad, en relación con las huellas dactilares, registros de voz, y otros datos biométricos. Dichos niveles de eficiencia en los SRF contrastan con la situación de fraude de identidad generalizada en el sector de reparto de comida a domicilio en España. Cada vez que el SRF salta a repartidores con cuentas subarrendadas como prestadas, se suele solventar por múltiples intervenciones humanas en el proceso, alterando la eficiencia de la vigilancia algorítmica. Con el fin de pasar el control biométrico, se concierta el cuándo y dónde tomar la foto del dueño nominal de la cuenta de reparto, para que los repartidores de facto, puedan seguir trabajando. En caso de fallar el reconocimiento, incidente de error frecuente, el repartidor contacta al mandatario de la cuenta quien comunica la incidencia a la respectiva compañía, mediante insistentes justificaciones por correo electrónico, que en todo caso no implican un reconocimiento adicional mediante el envío de documentación acreditativa o similares. Así, los bloqueos de cuentas anunciados, temporales por quince días o permanentes a través de la desconexión de la cuenta, son mínimos comparado con el alto número de fraudes de identidad vigentes. Por lo tanto, a expensas de las verificaciones, ya sean exitosas o fallidas, el sector de reparto prosigue con cuentas bajo «fraude de identidad». Únicamente en casos reiterados de no pasar correctamente el reconocimiento facial las compañías proceden a un bloqueo total o más prolongado de la cuenta. En última instancia, las plataformas no hacen seguimiento estricto de los reconocimientos faciales fallidos, ni tampoco denuncian situaciones de irregularidad (por fraude de identidad o por trabajo sin permiso de residencia y/o de trabajo):

Glovo sabe que tiene muchas cuentas alquiladas y también sabe que eso es lo que les conviene a ellos porque la gente que viene de afuera sin documentos alquila la cuenta y trabaja incansablemente para poder cubrir sus gastos (Informante3).

Todos los repartidores entrevistados confirman dicha observación de que las plataformas son conscientes de la práctica generalizada de la cesión de cuentas. La implementación de los SRF en el sector de reparto de comida ha generado una serie de situaciones divergentes y multi-direccionales en relación a la legalidad, precariedad y beneficios de repartidores como de plataformas. Se trata de los llamados «efectos en red» donde los sistemas algorítmicos no operan como una causalidad totalizante, sino en forma de «agencia distribuida» en una cadena cambiante de interacciones entre tecnologías y humanos. Aunque la tecnología de verificación facial sea la misma, sus resultados varían si se inserta e interactúa en tejidos tecno-humanos diferentes. Las relaciones entre implicados del sistema de vigilancia de fronteras y del fraude fiscal no son las mismas que en el tejido del negocio del reparto de comida. La misma tecnología, basada en cálculos algorítmicos sobre datos biométricos, dadas diferentes relaciones humanas-tecnológicas, se despliega y operacionaliza de forma diferente, con otros efectos en red. En la literatura sobre fronteras, donde hay intereses opuestos entre las partes, la verificación algorítmica se analiza como un dispositivo diseñado para vigilar y contraatacar el movimiento de una población objeto, codificada como migración irregular. En el sector de reparto, la situación no es tan dialéctica. Nuestra investigación revela cómo, algunas veces, compañías, legislación migratoria, y repartidores, llegan a compartir mismos intereses, en este caso, superar los controles de verificación de identidad. De esta forma, diferentes intervenciones humanas influyen en el diseño, aplicación y rectificación de los sistemas de verificación algorítmica del sector de reparto, para que la práctica de empleo irregular de cuentas subarrendadas y cedidas continúe sin problemas. De hecho, el 2 de noviembre del 2022, Glovo anunciaba nuevos términos de condiciones10<https://delivery.glovoapp.com/es/faq/quieres-subcontratar-tu-cuenta/>., donde permite descargar una misma cuenta en varios móviles. Esta medida facilita aún más superar el SRF de forma satisfactoria por terceros usuarios. Es decir, la plataforma adapta la infraestructura tecnológica al interés simultáneo, al menos temporalmente, por la práctica de cuentas alquiladas y compartidas. Sin poder profundizar en esta reciente política de Glovo que permite subcontratar cuentas, seguiremos explorando las implicaciones que este caso de estudio presenta para la antropología de los algoritmos, más allá de sus posibles dramas y retos etnográficos.

NOTAS

 
*

Esta investigación se enmarca dentro del proyecto «Culturas emergentes de precariedad móvil en la Gig Economy Digital: El sector de la comida a domicilio en España», financiado por la Agencia Nacional de Investigación y el Ministerio de Ciencia e Innovación (PID2020-115170RB-100). La IP de dicho proyecto y primera co-autora de este artículo es investigadora Ramón y Cajal RyC 2018-024990-I.

1

BOE núm. 113, de 12 de mayo de 2021, páginas 56733 a 56738. Disponible en: <https://www.boe.es/eli/es/rdl/2021/05/11/9>. Fecha de acceso: 1 dic. 2022.

2

Las entrevistas se han realizado bajo consentimiento informado, mediante un documento escrito con los objetivos, metodología y uso de los resultados del proyecto de investigación, así como de la confidencialidad en el tratamiento de sus datos y sus testimonios, de la participación voluntaria y de su derecho a retirarse en cualquier momento del estudio. Con este fin, todos los repartidores entrevistados, cuyos testimonios se reflejan en este artículo, han firmado un consentimiento informado en el que confirman su voluntad de participar en esta investigación y, de forma específica, dan su consentimiento para que fragmentos literales de dichas transcripciones puedan ser presentados en congresos académicos, así como publicados en revistas científicas. Las grabaciones en formato audio, han sido transcritas y dichas transcripciones han sido anonimizadas (es decir, se han eliminado todos los nombres y referencias a lugares que pudieran identificar a la persona) y almacenadas en el repositorio Google WorkSpace de la Universidad de Zaragoza, para su consulta por los investigadores del proyecto. Después de la transcripción, los datos de contacto y el archivo de audio han sido eliminados para evitar la identificación del participante a través de los datos de contacto o por la voz.

3

Bryan, Kenzan. 2019. «Deliveroo and uber eats takeaway riders rent Jobs to ilegal immigrants». New York Times digital. Disponible en: <https://www.thetimes.co.uk/article/deliveroo-and-uber-eats-takeaway-riders-rent-jobs-to-illegal-immigrants-ml36gvp93>. Fecha de acceso: 1 dic. 2022.

4

Alderman, Liz. 2019. «Food delivery couries exploit desperate migrants in France». New York Times digital. Disponible en: <https://www.nytimes.com/2019/06/16/business/uber-eats-deliveroo-glovo-migrants.html>. Fecha de acceso: 1 dic. 2022.

5

Jorro, Ignasi. 2019Jorro, Ignasi. 2019. «El fraude en Glovo: ‘Te trabajo siete días y 13 horas y te doy el 30%’». Crónica Global, mayo. Disponible en: <https://cronicaglobal.elespanol.com/business/repartidor-glovo-barcelona_248916_102.html>. Fecha de acceso: 29 nov. 2022.. «El fraude en Glovo: “Te trabajo siete días y 13 horas y te doy el 30%”».El español digital.Disponible en: <https://cronicaglobal.elespanol.com/business/repartidor-glovo-barcelona_248916_102.html>. Fecha de acceso: 2 dic. 2022.

6

Nuevatribuna.es. 2021. «Un repartidor (con una mochila de Glovo) fallece al chocar frontalmente con un camión».Público digital. Disponible en: <https://www.nuevatribuna.es/articulo/actualidad/trabajador-glovo-fallece-chocar-frontalmente-camion/20210208182324184372.html>. Fecha de acceso: 2 dic. 2022.

7

Delivery.Glovoapp. 2023. «Sistema de reconocimiento facial» Web Glovo. Disponible en: <https://delivery.glovoapp.com/es/faq/sistema-de-reconocimiento-facial>. Fecha de acceso: 30 nov. 2022

8

Help.uber.com. 2023. «¿Por qué me piden que me tome una foto?». Web Uber. Disponible en: <https://help.uber.com/es/driving-and-delivering/article/por-qu%C3%A9-se-me-pide-tomarme-una-foto?nodeId=7fa8a60d-cf6f-49ac-9a50-b4bf6a3978ef>. Fecha de acceso: 30 nov. 2022

9

Sin poder desarrollar las implicaciones de los numerosos incidentes de error identificados en el sistema de verificación facial de Uber, mencionar que en el sector de transporte de personas los reconocimientos de identidad han generado denuncias por utilizar «algoritmos racistas» al no reconocer a propietarios de cuentas Uber por tener cámaras no sensibles a diversos espectros de color de piel, sobre todo los tonos oscuros (White 2021White, Nadine. 2021. «Uber demandada por algoritmo de reconocimiento facial ‘racista’ que bloquea trabajadores». Independent en español, oct 2021. Disponible en <https://www.independentespanol.com/noticias/negocios/uber-trabajadores-demanda-algoritmo-racista-b1936535.html>. Fecha de acceso: 29 nov. 2029.).

10

<https://delivery.glovoapp.com/es/faq/quieres-subcontratar-tu-cuenta/>.

6. BIBLIOGRAFÍA CITADA

 

Altenried, Moritz. 2021. «Mobile Workers, Contingent Labour: Migration, the Gig Economy and the Multiplication of Labour». Environment and Planning A: Economy and Space 0: 1-16. doi: <https://doi.org/10.1177/0308518X211054846>.

Benjamin, Ruha. 2019. Race after Technology: Abolitionist Tools for the New Jim Code. Medford, MA: Polity.

Browne, Simone. 2015. Dark matters: on the surveillance of blackness. Durham: Duke University Press.

Cano, Melissa Renau, Ricard Espelt y Mayo Fuster Morell. 2021. «Flexibility and Freedom for Whom? Precarity, Freedom and Flexibility in on-Demand Food Delivery». Work Organisation, Labour & Globalisation 15(1). doi: <https://doi.org/10.13169/workorgalaboglob.15.1.0046>.

Gates, Kelly A. 2011. Our Biometric Future: Facial Recognition Technology and the Culture of Surveillance. Nueva York: New York University Press. doi: <https://doi.org/10.18574/nyu/9780814732090.001.0001>.

Griesbach, Kathleen, Adam Reich, Luke Elliott-Negri y Ruth Milkman. 2019. «Algorithmic Control in Platform Food Delivery Work». Socius: Sociological Research for a Dynamic World 5 (enero): 237802311987004. doi: <https://doi.org/10.1177/2378023119870041>.

Introna, Lucas y David Wood. 2004. «Picturing Algorithmic Surveillance: The Politics of Facial Recognition Systems». Surveillance & Society 2 (2/3): 177-98. doi: <https://doi.org/10.24908/ss.v2i2/3.3373>.

Jaton, Florian. 2017. «We Get the Algorithms of Our Ground Truths: Designing Referential Databases in Digital Image Processing». Social Studies of Science 47(6): 811-40. doi: <https://doi.org/10.1177/0306312717730428>.

Jaton, Florian. 2021. «Assessing Biases, Relaxing Moralism: On Ground-Truthing Practices in Machine Learning Design and Application». Big Data & Society 8(1): 20539517211013570. doi: <https://doi.org/10.1177/20539517211013569>.

Jaton, Florian y Geoffrey C. Bowker. 2020. The Constitution of Algorithms: Ground-truthing, Programming, Formulating. Inside technology. Cambridge, Massachusetts: The MIT Press.

Jaton, Florian y Dominique Vinck. 2016. «Unfolding Frictions in Database Projects». Revue d’anthropologie des connaissances 10, 4(4): a-m. doi: <https://doi.org/10.3917/rac.033.a>.

Jorro, Ignasi. 2019. «El fraude en Glovo: ‘Te trabajo siete días y 13 horas y te doy el 30%’». Crónica Global, mayo. Disponible en: <https://cronicaglobal.elespanol.com/business/repartidor-glovo-barcelona_248916_102.html>. Fecha de acceso: 29 nov. 2022.

Kaur, Paramjit, Kewal Krishan, Suresh K. Sharma y Tanuj Kanchan. 2020. «Facial-Recognition Algorithms: A Literature Review». Medicine, Science and the Law 60(2): 131-39. doi: <https://doi.org/10.1177/0025802419893168>.

Kellogg, Katherine C., Melissa A. Valentine y Angéle Christin. 2020. «Algorithms at Work: The New Contested Terrain of Control». Academy of Management Annals 14(1): 366-410. doi: <https://doi.org/10.5465/annals.2018.0174>.

Neyland, Daniel. 2019. The Everyday Life of an Algorithm. Cham: Springer International Publishing. doi: <https://doi.org/10.1007/978-3-030-00578-8>.

Neyland, Daniel y Norma Möllers. 2017. «Algorithmic IF … THEN Rules and the Conditions and Consequences of Power». Information, Communication & Society 20(1): 45-62. doi: <https://doi.org/10.1080/1369118X.2016.1156141>.

Noble, Safiya Umoja. 2018. Algorithms of Oppression: how Search Engines Reinforce Racism. Nueva York: New York University Press.

Sanchez del Rio, Jose, Daniela Moctezuma, Cristina Conde, Isaac Martin de Diego y Enrique Cabello. 2016. «Automated Border Control E-Gates and Facial Recognition Systems». Computers & Security 62 (septiembre): 49-72. doi: <https://doi.org/10.1016/j.cose.2016.07.001>.

Sanz de Miguel, Pablo, Maribel Casas-Cortés, Amaia Prieto Arratibel y Juan Arasanz Díaz. 2023. «El empleo irregular tras la Ley Rider: ¿nueva regulación, idénticas estrategias empresariales?». Revista Española de Sociología 32(3). <https://doi.org/10.22325/fes/res.2023.177>

Shapiro, Aaron. 2018. «Between Autonomy and Control: Strategies of Arbitrage in the “on-Demand” Economy». New Media & Society 20(8): 2954-71. doi: <https://doi.org/10.1177/1461444817738236>.

Smith, Marcus, Monique Mann y Gregor Urbas. 2018. Biometrics, Crime and Security. 1.a ed. New York: Routledge, 2018. | Series: Law, science and society: Routledge. doi: <https://doi.org/10.4324/9781315182056>.

Smith, Marcus y Seumas Miller. 2022. «The Ethical Application of Biometric Facial Recognition Technology». AI & SOCIETY 37(1): 167-75. doi: <https://doi.org/10.1007/s00146-021-01199-9>.

van Doorn, Niels y Darsana Vijay. 2021. «Gig Work as Migrant Work: The Platformization of Migration Infrastructure». Environment and Planning A: Economy and Space 0: 1-21. doi: <https://doi.org/10.1177/0308518X211065049>.

White, Nadine. 2021. «Uber demandada por algoritmo de reconocimiento facial ‘racista’ que bloquea trabajadores». Independent en español, oct 2021. Disponible en <https://www.independentespanol.com/noticias/negocios/uber-trabajadores-demanda-algoritmo-racista-b1936535.html>. Fecha de acceso: 29 nov. 2029.

Ziewitz, Malte. 2016. «Governing Algorithms: Myth, Mess, and Methods». Science, Technology, & Human Values 41(1): 3-16. doi: <https://doi.org/10.1177/0162243915608948>.