Disparidades. Revista de Antropología 78 (1)
enero-junio 2023, e001b
eISSN: 2659-6881
https://doi.org/10.3989/dra.2023.001b

TEMAS EMERGENTES

DE LA CIBERNÉTICA AL METAVERSO: UNA GENEALOGÍA DE CARACTERÍSTICAS, TRANSPARENCIAS Y OPACIDADES ALGORÍTMICAS

FROM CYBERNETICS TO THE METAVERSE: A GENEALOGY OF ALGORITHMIC CHARACTERISTICS, TRANSPARENCIES, AND OPACITIES

Martín Ariel Gendler

Instituto de Investigaciones Gino Germani/ Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET)

https://orcid.org/0000-0001-5781-6367

RESUMEN

A la hora de pensar en las tecnologías digitales, Internet, y su influencia en las distintas esferas de la vida social, es frecuente que se apunte a los algoritmos informáticos como pilares centrales de estos efectos. Diversos andamiajes discursivos y prácticos respecto de esperanzas y temores han sido desplegados en torno a ellos, principalmente a causa de sus potencialidades de transformación, pero, también, de los posibles sesgos en su diseño, desarrollo y aplicación. Sin embargo, los algoritmos informáticos, como objeto técnico digital, presentan sus propios procesos de concretización sociotécnica que los han llevado a ser de un modo y no de otro. El presente artículo tiene como objetivo el establecer una genealogía del devenir de los algoritmos informáticos delineando cinco periodos sociohistóricos en función de analizar los cambios en su conceptualización, producción y características, como también los aspectos en torno a sus transparencias y opacidades. Se parte así de las Conferencias Macy de 1946 -donde se establecieron los criterios respecto de cómo debe ser un algoritmo informático- hasta llegar a la actual situación donde diversos tipos de algoritmos, muchos de ellos imbuidos con machine learning y deep learning, son partícipes centrales en los ejercicios de gubernamentalidad y personalización algorítmica.

PALABRAS CLAVE: 
Algoritmos; Internet; Genealogía; Tecnologías Digitales.
ABSTRACT

When we think about digital technologies, the Internet, and its influence in the different spheres of social life, it is usual to point at the informatic algorithms as the central pillars of these effects. Several discursive and practical deployments expressing hopes and fears have been deployed around these figures, mainly because of their potential for transformation, but also because of possible biases in their design, development, and application. However, computer algorithms, as a digital technical object, present their own sociotechnical concretization processes that have led them to be one way and not another. The objective of this article is to establish a genealogy of the evolution of computer algorithms, setting five sociohistorical periods to observe and analyze the changes in their conceptualization, production, and characteristics, as well as the central aspects around their transparency and opacity. Thus, it starts from the Macy Conferences of 1946 -where cybernetic criteria were established regarding what a computer algorithm should be like- until reaching the current situation where several types of algorithms, many of them imbued with machine learning and deep learning processes, are central participants in the exercises of governmentality and algorithmic personalization.

KEYWORDS: 
Algorithms; Internet; Genealogy; Digital Technologies.

Enviado: 22 de enero de 2023; Aprobado: 2 de mayo de 2023

Cómo citar este artículo / Citation: Martín Ariel Gendler. 2023. « De la cibernética al metaverso: una genealogía de características, transparencias y opacidades algorítmicas». Disparidades. Revista de Antropología 78(1): e001b. doi: <https://doi.org/10.3989/dra.2023.001b>.

CONTENIDO

1. INTRODUCCIÓN

 

En la última década, los algoritmos informáticos han tomado una gran centralidad en la escena pública, aunque, sin embargo, conllevan una historia de muy larga data. Creados en la antigua Grecia como simplificación de la resolución de problemas matemáticos complejos, su nombre se atribuye a un sistema de reglas para la agilización de los ejercicios aritméticos creado por Muhammad al’Khwārizmī en el siglo IX (Finn 2017Finn, Edward. 2017. What Algorithms Want: Imagination in the age of computing. Cambridge: The MIT Press.), vinculándose sus primeros pasos con esta disciplina.

Avanzando en el tiempo, con la llegada de la revolución industrial, los algoritmos pasarían a vincularse con los objetos técnicos principalmente en forma de esquemas para el funcionamiento de distintas maquinarias. La tendencia continuaría con el desarrollo de la ingeniería mecánica y electrónica, alcanzando su cénit con la creación de la Máquina de Turing en la década de 1930. Ésta, a diferencia de sus predecesoras, implicaba un modelo teórico aplicable a objetos técnicos de propósitos generales, es decir, propiciaba esquemas con un fuerte margen de indeterminación (Simondon 2008Simondon, Gilbert. 2008. El modo de existencia de los objetos técnicos. Buenos Aires: Prometeo.) que permitieran incrementar el rango de posibilidades de acción en función de las distintas instrucciones (y su combinatoria). Este punto de inflexión cambiaría el devenir de los algoritmos, incrementando más aún su importancia para los objetos técnicos e, incluso, con el pasar de los años y el surgimiento y crecimiento de la digitalización, volviéndolos a ellos mismos en un tipo particular de objeto técnico: un objeto técnico digital (Gendler 2022Gendler, Martín. 2022. La Neutralidad de la Red: disputas en torno a la identificación, control y regulación de la información circulante en Internet en el Cono Sur (2003-2019). Tesis doctoral. Universidad de Buenos Aires.).

Siguiendo a Simondon (2008Simondon, Gilbert. 2008. El modo de existencia de los objetos técnicos. Buenos Aires: Prometeo. y 2017)Simondon, Gilbert. 2017. Sobre la técnica. Buenos Aires: Cactus., todo objeto técnico presenta tres características fundamentales1Cabe aclarar que los objetos técnicos comportan muchas otras características que han quedado fuera de este artículo por cuestión de espacio.. En primer lugar, contienen y expresan humanidad, cumpliendo un rol fundamental en los procesos de individuación y devenir de los sujetos y comunidades: no es posible pensar el desarrollo de la humanidad sin el desarrollo de la técnica (Parente 2010Parente, Diego. 2010. Del órgano al artefacto: acerca de la dimensión biocultural de la técnica. La Plata: EDULP.). En segundo lugar, históricamente, la cultura ha abordado a los objetos técnicos como elementos extraños, ajenos a la humanidad que comportan y expresan generando dos situaciones: la adoración por ellos o el temor de los efectos que pudieran causar. En tercer lugar, los objetos técnicos también son metaestables: van siendo modificados con el paso del tiempo de acuerdo con distintas circunstancias, conflictos y lógicas inscriptos en su diseño (Winner 1985Winner, Langdon. 1985. «¿Tienen política los artefactos?”», en MacKenzie et al. (eds.), The Social Shaping of Technology, Filadelfia: Open University Press.), su código técnico (Feenberg 2005Feenberg, Andrew. 2005. «Teoría Crítica de la Tecnología». Revista Iberoamericana de Ciencia, Tecnología y Sociedad 2(5): 109-123. ), como también en los procesos que desencadena su puesta en el mundo. Es decir, lejos de ser el «resultado más eficiente posible», los objetos técnicos son, en parte, efectos de controversias, discursos y prácticas de saber-poder y verdad (Foucault 2007Foucault, Michel. 2007. Nacimiento de la biopolítica. Curso en el Collège de France (1978-1979). Buenos Aires: FCE.; Deleuze 2014Deleuze, Gilles. 2014. El Poder. Curso sobre Foucault. Tomo II. Buenos Aires: Cactus. ). Aquí vale alertar que la situación respecto del amor o el temor por el objeto técnico no es menor (Gendler 2021Gendler, Martín. 2021. «Internet, algoritmos y democracia ¿Del sueño a la pesadilla?». Nueva Sociedad 294. Disponible en <https://nuso.org/articulo/internet-algoritmos-y-democracia/> Fecha de acceso: 05 dic. 2022) dado que cada una de estas circunstancias, y los espíritus de época que ellas proyectan (Chibey Rivas 2021Chibey Rivas, Tamara. 2021. «Participación Defectuosa En La Era Digital: Sobre Los Efectos De La desinformación En El Sujeto». InMediaciones De La Comunicación 16(2). ), permean, inducen y modulan tanto la opinión pública que se tenga de ellos como los parámetros culturales, políticos, económicos y sociales de su diseño, usos sociales y regulación.

El presente artículo tiene como objetivo establecer una genealogía del devenir de los algoritmos informáticos delineando cinco periodos sociohistóricos en función de observar y analizar los cambios en su conceptualización, producción y características, como también los aspectos centrales en torno a sus transparencias y opacidades. De este modo se busca aportar a la comprensión de los distintos ejercicios de saber-poder y verdad históricos que han llevado a que, en la actualidad, la configuración hegemónica de los algorítmicos informáticos sea de una forma y no de otra.

2. PRIMER PERIODO: LAS CONFERENCIAS MACY Y EL ALGORITMO CIBERNÉTICO

 

Tras el fin de la Segunda Guerra Mundial, entre los años 1946 y 1953 se desarrollaron una serie de conferencias auspiciadas por la Fundación Macy donde confluyeron académicos e intelectuales provenientes de la ingeniería, matemática, antropología, sociología, psicología, biología, física, entre otros. Siguiendo a Rodríguez (2019) Rodríguez, Pablo. 2019. Las palabras en las cosas: saber, poder y subjetivación entre algoritmos y biomoléculas. Buenos Aires: Cactus. , estas conferencias tuvieron la intensión de generar un nuevo paradigma de las ciencias bajo el nombre de Cibernética. Esta presentaría una fuerte preocupación en torno a una «potencialidad humana hacia el desorden o el caos», identificada como una manifestación de entropía2Entendida como «la descomposición de lo viviente, el desequilibrio en economía, la disolución del vínculo social, la decadencia» (Tiqqun 2015: 16)., tras los eventos de las dos Guerras Mundiales. Así, se apuntó a desarrollar un sistema que intente alcanzar previsibilidad y predictibilidad (Ríos Rozo 2017Ríos Rozo, Camilo. 2017. «Una lectura en perspectiva de ‘vigilancia’ de La Hipótesis Cibernética de Tiqqun», en Camilo Ríos Rozo (ed.), ¿Nuevos paradigmas de vigilancia? Miradas desde América Latina: 357-366. Córdoba: FVL.) vía el impulso e instalación de mecanismos técnicos que permitan colectar, utilizar y transmitir información para generar un control sistemático y previsible de cuerpos, conductas y subjetividades (Tiqqun 2015Tiqqun. 2015. La hipótesis cibernética. Buenos Aires: Hekht.). Se postulaba que, por su veloz transmisión de datos y su cualidad de superar los límites humanos, las máquinas procesadoras de información serían capaces de crear bucles de retroalimentación que reduzcan la entropía (Rodríguez 2019 Rodríguez, Pablo. 2019. Las palabras en las cosas: saber, poder y subjetivación entre algoritmos y biomoléculas. Buenos Aires: Cactus. ) y, por tanto, produzcan un equilibrio controlable en el desorden. Para ello, se postuló un modelo de transmisión de información que permitiera dirimir diversos inputs para generar outputs específicos disminuyendo la posibilidad de incertidumbre que pudiera alterar dicha fórmula. Esta sería la lógica que permearía a los algoritmos informáticos en sus primeros devenires, intentando estructurarlos en mecanismos y métodos controlados y controlables «para hacer cualquier cosa» (Wilson y Keil 1999Wilson, Robert. y Frank Keil. 1999. The MIT Encyclopedia of the Cognitive Sciences. MIT Press.). Es decir, una serie de instrucciones que realicen operaciones concretas a partir de diversos elementos de entrada, mayormente contemplados de antemano (Gómez Barrera 2018Gómez Barrera, Juan Camilo. 2018. «Segmentación, sesgo y normas sociales en la programación. Aportes a la teoría de la gubernamentalidad algorítmica». AVATARES de la comunicación y la cultura 15.).

3. SEGUNDO PERIODO: LA RED DE REDES Y LOS DEBATES SOBRE LA APERTURA Y TRANSPARENCIA DEL CÓDIGO

 

En 1969 tuvo nacimiento la Red de Redes en el marco del proyecto ARPANET, el cual se encontraba integrado por un trípode sectorial entre el sector militar de los EEUU, el sector privado y el sector académico-universitario (Zukerfeld 2014Zukerfeld, Mariano. 2014. «Todo lo que usted quiso saber sobre Internet pero nunca se atrevió a googlear». Hipertextos 2(1): 64-103.), siendo este último el que mayormente se ocupaba de la creación y mejora de los desarrollos informáticos. Cabe destacar que, si bien la estructura que permeó a sus algoritmos era la inculcada desde el periodo cibernético, la dinámica que primaba al interior del sector académico-universitario se caracterizaba por presentar mecanismos abiertos, transparentes y cooperativos en donde cada integrante de la red estaba habilitado para incorporar cambios e innovaciones y compartirlos con el resto (Castells 2003Castells, Manuel. 2003. «Internet, libertad y sociedad: una perspectiva analítica». Polis (4). Disponible en: <https://journals.openedition.org/polis/7145>. Fecha de acceso: 10 dic. 2022.). Es decir, si bien en este periodo fue en donde, vía el desarrollo del software, los algoritmos informáticos abandonarían su función de esquemas para convertirse ellos mismos en objetos técnicos digitales (OTD), los parámetros sociotécnicos de su diseño, como también sus lógicas de puesta en acto y usos sociales que se fueron desplegando, mayormente apuntaron a ampliar las características de apertura signadas por la posibilidad de modificación, potenciando los márgenes de indeterminación posibles.

Sin embargo, durante los primeros años de ARPANET se llevaron a cabo fuertes transformaciones. El agotamiento del modelo industrial-fordista y la Crisis del Petróleo de 1973 fueron puntos de quiebre para la implementación de planes de informatización de la sociedad que ponderaban a las tecnologías digitales como los principales mecanismos de transformación e innovación social (Mattelart 2001Mattelart, Armand. 2001. Historia de la Sociedad de la Información. Barcelona: Paidós.). Se empezó así a gestar un cambio en el modo de desarrollo capitalista, instalándose paulatinamente el informacionalismo por sobre el industrialismo (Castells 1995Castells, Manuel. 1995. La ciudad informacional. Tecnologías de la información, reestructuración económica y el proceso urbano. Madrid: Alianza Editorial.), postulándose que la información y el conocimiento pasarían a ser el principal insumo económico-productivo.

Estos hechos tuvieron un fuerte impacto en el diseño y puesta en acto del software y de los algoritmos informáticos dado que, por las características ontológicas de los bits que los componen (Cafassi 1998Cafassi, Emilio. 1998. «Bits moléculas y mercancías (breves anotaciones sobre los cambios en el submundo de las mercancías digitalizadas)», en Finquelevich, Susana y Chivo, Esther (comp.). La ciudad y sus TICs: tecnologías de información y Comunicación. Buenos Aires: UNQ.), estos son fácilmente replicables y con costo tendiente a cero, lo cual resulta ideal para un paradigma de apertura y colaboración, pero implicaba desafíos y reconversiones para un capitalismo que proyectaba basarse en dichos desarrollos. Es por ello que las décadas de 1970 y 1980 estuvieron atravesadas por dos procesos fundamentales. Por un lado, un crecimiento sin precedentes de la propiedad intelectual (Zukerfeld 2010Zukerfeld, Mariano. 2010. Capitalismo y Conocimiento: Materialismo Cognitivo, Propiedad Intelectual y Capitalismo Informacional. Tesis Doctoral. FLACSO.) creando marcos legales contra la circulación y colaboración del software y contenidos digitales, en función de intentar transformarlos en mercancía (Rullani 2000Rullani, Enzo. 2000. «El capitalismo cognitivo, ¿un déjà-vu?» en AA. VV., Capitalismo cognitivo, propiedad intelectual, y creación colectiva. Madrid: Traficantes de sueños. ). Por el otro, y en sintonía, un proceso de gestiones en torno a instalar paulatinos cierres del código, impulsados por las principales empresas informáticas, limitando su copia, modificación y compartición, creando el llamado «software privativo» (Zukerfeld 2017Zukerfeld, Mariano. 2017. Knowledge in the Age of Digital Capitalism. Londres: University of Westminster Press.). Así, se abogaba por gestionar la exclusión de toda persona «no autorizada» a la posibilidad de acceder al código técnico y modificarlo, incrementando la opacidad y el cerramiento de los OTD al acrecentar la dificultad de su decodificación por parte de los sujetos (Simondon, 2017Simondon, Gilbert. 2017. Sobre la técnica. Buenos Aires: Cactus.), fomentando su automatización. Se buscaba obstaculizar el conocimiento respecto del qué hacen (Finn 2017Finn, Edward. 2017. What Algorithms Want: Imagination in the age of computing. Cambridge: The MIT Press.), generando que esta lógica de distribuciones diferenciales entre aperturas y cierres, entre transparencias y opacidades, pasara a ser constitutiva de su devenir.

Esta situación dio pie a las primeras controversias y ejercicios contrapuestos de saber-poder y verdad entre las principales empresas informáticas promotoras del código privativo y el naciente movimiento hacker impulsor de los desarrollos de software libre (Himanen 2001Himanen, Pekka. 2001. La ética del hacker y el espíritu de la era de la información. Buenos Aires: Editorial Destino.), debates que se extenderían en las siguientes décadas.

4. TERCER PERIODO: LA WEB 2.0 Y EL INICIO DE LA CODIFICACIÓN ALGORÍTMICA DE LA VIDA

 

Tras el inicio del nuevo milenio, la llamada «Crisis de las .com» (Srnicek 2018Srnicek, Nick. 2018. Capitalismo de Plataformas. Buenos Aires: Caja Negra.) generó fuertes impactos en el devenir de las tecnologías digitales. El estallido financiero causado, entre varios motivos, por la cuasi nula rentabilidad de las empresas y desarrollos de Internet generó un movimiento que impulsó la reconversión de las lógicas de los OTD interconectados. Así, se proyectó un paradigma más interactivo a galope de las primeras plataformas de redes sociales que nacieron en la década de los 2000. Éstas estuvieron fuertemente impulsadas por un discurso de apertura y colaboración llegando a auto asumirse como «herederas de los padres fundadores de Internet», es decir, del sector académico-universitario de ARPANET (Sadin 2018Sadin, Éric. 2018. La Silicolonización del mundo: la irresistible expansión del liberalismo digital. Buenos Aires: Caja Negra.). Incluso, varias de las empresas desarrolladoras de plataformas compartieron fragmentos de su código técnico poniéndolo a disposición para su modificación y mejora de forma similar a la lógica de los hackers, contando con la colaboración de estos colectivos. Sin embargo, otras cuestiones contrarias a lo expresado en lo discursivo se desarrollaban tras bambalinas (Morozov 2016Morozov, Evgeny. (2016). La locura del solucionismo tecnológico. Buenos Aires: Capital Intelectual.). En primer lugar, a sabiendas de los problemas que habían llevado hacia la «Crisis de las .com», las empresas de plataformas llevaron a cabo una reconversión de las cookies informáticas (Rossi 2018Rossi, Aníbal. 2018. «¿Burbujas de filtro? Hacia una fenomenología algorítmica». InMediaciones De La Comunicación 13(1): 263-281.) en función de transformarlas en algoritmos de código cerrado de recolección de datos de los usuarios para implementar sistemas de publicidad orientada, los cuales quedaban fuera de la porción de código compartida. Así, se desarrollaron dos tipos de algoritmos: deterministas, que recolectan los datos indicados por sus desarrolladores, y aquellos de tintes probabilísticos, los cuales, imbuidos con proporciones quirúrgicas de machine learning, trabajan a partir de inputs variables y en base a predicciones automatizadas (Gómez Barrera 2018Gómez Barrera, Juan Camilo. 2018. «Segmentación, sesgo y normas sociales en la programación. Aportes a la teoría de la gubernamentalidad algorítmica». AVATARES de la comunicación y la cultura 15.). En segundo lugar, desde 2006, las principales plataformas como Google y Facebook fueron paulatinamente extendiendo las recomendaciones orientadas a toda actividad de los usuarios y no solo a la publicidad, limitando cada vez más el código respecto a cambios colectivos externos a las empresas (Samela 2016Samela, Gabriela. 2016. «La lógica algorítmica en el acceso a los contenidos y a las interacciones personales en Internet». XI Jornadas Latinoamericanas de Estudios de Ciencia y Tecnología, Universidad Tecnológica Federal de Paraná, Curitiba, Brasil.).

Mientras se llevaban a cabo estas mutaciones sociotécnicas, continuaban las controversias entre las empresas informáticas «tradicionales» y el movimiento hacker impulsor del software libre, incrementándose la litigiosidad de los juicios de propiedad intelectual contra estos últimos. Cabe resaltar que los hackers no advirtieron tempranamente las transformaciones de las plataformas de redes sociales, en parte por estar concentrados en estas disputas, pero también por una fuerte efectividad del andamiaje discursivo de saber-poder y verdad implementado por las empresas de plataformas.

5. CUARTO PERIODO: LA IRRUPCIÓN DEL SMARTPHONE Y EL INICIO DEL ACOMPAÑAMIENTO Y PERFILAMIENTO ALGORÍTMICO

 

Creado en 2007, el smartphone representó una revolución para la lógica algorítmica. Este dispositivo digital permitió incorporar a un gran número de usuarios que se encontraban fuera del uso de Internet, profundizó una conexión espacio-temporal virtualmente interrumpida y abrió la puerta a un incremento de desarrollos y aplicaciones, mayormente de tinte geolocalizado. En este sentido, su masificación generó un enorme aumento de la masa de datos disponibles, añadiendo nuevos previamente inexplorados, la cual permitió perfeccionar los mecanismos de recolección algorítmica de datos como también sus formas de correlación, generándose algoritmos inductivos, deductivos y abductivos3Los algoritmos inductivos trabajan sobre grandes masas de datos inexplorados para generar patrones, mientras que los deductivos crean y/o modifican patrones basándose en datos y correlaciones previos. Por su lado, los abductivos buscan respuestas a comportamientos y correlaciones considerados como «no lógicas» o no previstas anteriormente. . Asimismo, sería en este periodo donde terminaría de extenderse e implementarse la modulación y conducción algorítmica de las formas de comunicarse, de interactuar, de informarse, como también de acceder a caminos, consumos y contenidos posibles, generando que los mecanismos de orientación pasaran a volverse mecanismos de personalización. Para ello, se diseñaron sistemas algorítmicos de perfilamiento, los cuales, en base a los datos recolectados y correlacionados como también a hipótesis automatizadas y sugerencias humanas de sus diseñadores, generarían perfiles generales que se sienten como individuales (Gendler 2019Gendler, Martín. 2019. «Personalización algorítmica y apropiación social de tecnologías. Desafíos y Problemáticas», en Ana Rivoir y Morales, María Julia (coords.), Tecnologías Digitales: Miradas críticas de la apropiación en América Latina. Buenos Aires: CLACSO.) que se aplican a los sujetos. Se daría así inicio al acompañamiento algorítmico de la vida (Sadin 2017Sadin, Éric. 2017. La Humanidad Aumentada: la administración digital del mundo. Buenos Aires: Caja Negra. ), se perfeccionarían los mecanismos de codificación sociotécnica de la sociabilidad (Van Dijck 2016Van Dijck, Jose. 2016. La cultura de la conectividad: una historia crítica de las redes sociales. Buenos Aires: Siglo XXI.) como también se daría paso a un nuevo modelo de gestión de las poblaciones: una gubernamentalidad algorítmica (Rouvroy y Berns 2015Rouvroy, Antoinette y Thomas Berns. 2015. «Governamentalidade algorítmica E Perspectivas De emancipação: O díspar Como condição De individuação Pela relação?». Revista Eco-Pós 18 (2):36-56.).

Cabe señalar que en este periodo se consolidaría y volvería hegemónica la lógica de código privativo en el diseño de estos OTD, incrementando sus niveles de opacidad y automatización y, en un cierto revival del espíritu cibernético, intentando domesticar, predecir y conducir los márgenes de indeterminación posibles que se generasen en su necesaria relación con distintos actores en su ejecución y puesta en acto4En parte los pliegues cerrados de los algoritmos informáticos pasaron a obrar como moduladores (Simondon 2017) de su capacidad de recibir información y del espectro de resultados posibles que los procesos algorítmicos generen en su acción relacional con los sujetos y otros OTD.. Esto sucedería mientras aún continuaban desplegándose los andamiajes discursivos de apertura y democracia por parte de las empresas de plataformas con fuertes efectos de verdad: pocos se atrevían a discutir la sillicolonización del mundo (Sadin 2018Sadin, Éric. 2018. La Silicolonización del mundo: la irresistible expansión del liberalismo digital. Buenos Aires: Caja Negra.) y el tecnoutopismo (Morozov 2016Morozov, Evgeny. (2016). La locura del solucionismo tecnológico. Buenos Aires: Capital Intelectual.) como «modelos de éxito».

6. QUINTO PERIODO: EL ECOSISTEMA 4.0, PROFUNDIZACIÓN DE LA DATIFICACIÓN ALGORÍTMICA DE LA VIDA Y EL SURGIMIENTO DE CUESTIONAMIENTOS

 

En la década del 2010 se generaron diversos hitos que tendrían un impacto fundamental. En primer lugar, en 2011 fue presentado el plan «Industria 4.0» apuntando a una «próxima generación de tecnologías digitales» (Schwab 2016Schwab, Klaus. 2016. La cuarta revolución industrial. Barcelona: Debate.). Así, se propició la inversión y el desarrollo de tecnologías digitales ya existentes como la Inteligencia Artificial (IA), el Internet de las Cosas (IoT), la Realidad Virtual (RV), la Realidad Aumentada (RA), entre otras, desplegando un potente andamiaje discursivo al anunciarlas como los elementos fundamentales del progreso de las sociedades debido a su capacidad para instalar y perfeccionar procesos de automatización, digitalización, robotización y plataformización (Míguez 2020Miguez, Pablo. 2020. «Valorización del conocimiento, cambio tecnológico y plataformas. Sus efectos sobre el trabajo». Voces en el Fénix 80. ). Cabe aclarar que la vía para ello fue impulsar la modulación de estos desarrollos técnicos existentes, ahora catalogados como 4.0, adaptándolos a la lógica de la creciente datificación (Mayer-Schönberger y Cukier 2013Mayer-Schonberger, Viktor y Kenneth Cukier. 2013. Big Data: A Revolution That Will Transform How We Live, Work and Think. Toronto: Eamon Dolan.). Es decir, se abogó para que la creciente masa de datos disponibles, su recolección, procesamiento y aplicación sean los andamiajes fundamentales de una nueva fase del capitalismo informacional (Zukerfeld 2020Zukerfeld, Mariano. 2020. «Bits, plataformas y autómatas: las tendencias del trabajo en el capitalismo informacional». Revista Latinoamericana de Antropología del Trabajo 4(7): 1-50.) instalándose como lógica hegemónica del diseño y operatoria de sus principales OTD. De este modo, durante esta década, se irían generando y modificando desarrollos de IA, IoT, RV, RA en base a algoritmos informáticos de recolección, procesamiento y perfilamiento de datos, a la vez que se empezó a introducir fuertemente en éstos los desarrollos 4.0 que se iban realizando en función de automatizar y perfeccionar las lógicas y funciones previas (Sadin 2020Sadin, Éric. 2020. La Inteligencia Artificial o el Desafío del Siglo. Buenos Aires: Caja Negra.). En sintonía, pronto las principales empresas de plataformas fueron incrementando las dosis de desarrollos de machine learning en sus sistemas algorítmicos como también incorporando paulatinamente innovaciones de Deep Learning y Redes Neuronales (Prodnik 2021Prodnik, Jernej. 2021. «Algorithmic Logic in Digital Capitalism» en Pieter Verdegem (ed.), AI for Everyone? Critical Perspectives: 203-222. Londres: University of Westminster Press.), en función de «corregir hiatos» y hacer más imperceptible la recomendación algorítmica. Esto fue acompañado de un movimiento de mayor cercamiento del código técnico de los algoritmos en función de proteger los desarrollos de posibles «filtraciones a la competencia», generando que incluso las personas habilitadas solo tuvieran acceso a pequeñas proporciones del mismo. En este sentido, la exacerbación de la privatividad del código técnico junto a su balcanización y la intervención de desarrollos de IA en su diseño y mejora generó que se acrecienten, aún más, los niveles de opacidad existentes en los sistemas algorítmicos, incrementando su automatización junto a la dificultad de decodificación, ya no solo para los usuarios sino incluso para sus mismos desarrolladores (Finn 2017Finn, Edward. 2017. What Algorithms Want: Imagination in the age of computing. Cambridge: The MIT Press.; Prodnik 2021Prodnik, Jernej. 2021. «Algorithmic Logic in Digital Capitalism» en Pieter Verdegem (ed.), AI for Everyone? Critical Perspectives: 203-222. Londres: University of Westminster Press.). Sin embargo, el andamiaje discursivo tecnoutopista, revitalizado con el lanzamiento del paradigma 4.0, no solo seguía signando a estos desarrollos como la forma indicada para alcanzar la innovación y el progreso, sino que inclusive hasta les atribuía un carácter de verdad (Sadin 2020Sadin, Éric. 2020. La Inteligencia Artificial o el Desafío del Siglo. Buenos Aires: Caja Negra.).

Cabe destacar otro hito: el llamado «escándalo de Cambridge Analytica» en 2017. Tras revelarse que el uso de diversos mecanismos de microtargeting y perfiles psicográficos para las campañas electorales en las plataformas de redes sociales podría haber influido en los resultados de las elecciones en los EEUU, del Brexit, Brasil, entre otras (Manheim & Kaplan 2019Manheim, Karl y Lyric Kaplan. 2019. «Artificial Intelligence: Risks to Privacy and Democracy». Yale Journal of Law & Technology 21: 133-158.), pronto se generó un giro de 180° en el espíritu de época tecnoutópico imperante. Se acusó a estas empresas y a sus algoritmos informáticos de haber manipulado a los votantes apuntándolos como un grave riesgo para la democracia, el debate público y la toma de decisiones, impulsándose andamiajes discursivos de tintes mayormente tecnofóbicos (Gendler 2021Gendler, Martín. 2021. «Internet, algoritmos y democracia ¿Del sueño a la pesadilla?». Nueva Sociedad 294. Disponible en <https://nuso.org/articulo/internet-algoritmos-y-democracia/> Fecha de acceso: 05 dic. 2022). Si bien estos hechos generaron cuestionamientos públicos e impulsaron la revisión y promulgación de regulaciones para intentar controlar la operatoria algorítmica de estas plataformas, especialmente en la Unión Europea, cabe destacar dos cuestiones. En primer lugar, estas normativas apuntan mayormente a considerar sanciones o acciones antimonopólicas contra las empresas de plataformas, dejando en un plano menor cuestiones respecto a la transparencia de los algoritmos utilizados o a la implementación de normas éticas para su diseño e implementación. En segundo lugar, estos cuestionamientos se han centrado casi exclusivamente en las plataformas de redes sociales sin extenderse al resto de las tecnologías digitales. En este sentido, pese a la lupa puesta en estas empresas, el resto de las innovaciones y desarrollos, principalmente los del ecosistema 4.05Muchos de los cuales luego son aplicados en el diseño de los algoritmos. , parecerían continuar por la misma línea de devenir sin mayores variaciones en el entramado discursivo tecnoutópico que las cobija.

Finalmente, un último hito: el impacto de la pandemia del COVID-19. Al haberse vuelto vitales los OTD interconectados para sostener los espacios de sociabilidad, trabajo, educación y comercio durante los aislamientos decretados para la contención del virus, esto generó que se incremente exponencialmente la masa de datos disponible ayudando a mejorar y perfeccionar los mecanismos de recolección, procesamiento y perfilado algorítmico. Asimismo, la experiencia de virtualidad vivida durante la emergencia sanitaria dio el impulso para que empresas como Microsoft, Alphabet (Google), Nvidia o Facebook promovieran el desarrollo de nuevos conjuntos técnicos digitales en base a experiencias de RV inmersiva: el Metaverso o Omniverso, según la empresa. Esto abre la puerta a nuevas posibilidades de desarrollo y devenir de los algoritmos informáticos, como también nuevos debates respecto de su rol (Ball 2022Ball, Matthew. 2022. The Metaverse: And How It Will Revolutionize Everything. NuevaYork: Liveright.).

7. REFLEXIONES ABIERTAS: ¿OTRO TIPO DE ALGORITMOS SON POSIBLES?

 

En el extenso recorrido realizado se ha buscado entrever las distintas mutaciones que han tenido los algoritmos a lo largo de los periodos genealógicos trazados. En un inicio vinculados exclusivamente con la disciplina matemática, los algoritmos pasaron a ser esquemas de funcionamiento de objetos técnicos durante la revolución industrial para luego ampliar sus horizontes en los albores de la revolución informática al implicar el máximo margen de apertura e indeterminación posible con la Máquina de Turing. Sería la cibernética, en su obsesión por el orden y el control, la que sentó las bases para dotar de estructura a los primeros algoritmos informáticos, también generando los mecanismos iniciales para intentar predecir y conducir su margen de indeterminación. Pese a ello, los primeros desarrollos informáticos de ARPANET permitieron evidenciar otras potencialidades, otra realidad posible en el devenir técnico de estos esquemas ahora devenidos en OTD. Al predominar la lógica de apertura, colaboración y colectividad en el diseño y puesta en acto de estas tecnologías, se hizo posible que, entre esos inputs y outputs, los procesos no solo sean transparentes sino plausibles de ser modificados y/o adaptados a distintas realidades, necesidades y deseos, es decir, sosteniendo el margen de indeterminación posible pese a la estructuración cibernética. Sin embargo, movilizados por fuertes cambios estructurales del capitalismo, los ejercicios de saber-poder y verdad impulsados por las grandes empresas informáticas implicaron una confrontación en la cual, paulatinamente, se generarían fuertes impactos en el devenir de los sistemas algorítmicos. En este sentido, su código técnico y su puesta en mundo se irían volviendo cada vez difíciles de decodificar, incrementando sus niveles de automatización al intentar domesticar y conducir una de sus mayores potencialidades: su margen de indeterminación posible en sus distintas relaciones, ejecuciones y complementos.

Si bien la web 2.0 y la irrupción de las plataformas parecieron traer nuevos aires al movimiento de apertura y colaboración a causa del andamiaje discursivo desplegado, sin embargo, esto no fue así: se modularon algoritmos disponibles en función de recolectar y procesar datos y se instaló una lógica de personalización y recomendación en base al diseño y aplicación de perfiles, lo cual se intensificó aún más con la incorporación de OTD propios del paradigma 4.0 y la balcanización del acceso a su código. En otras palabras, los efectos de los ejercicios de saber-poder y verdad generaron que, mayormente, la concretización actual de los sistemas algorítmicos constituya objetos técnicos digitales con una gran cantidad de pliegues cerrados y automatizados que intentan, cada vez más, modular, predecir y encausar su indeterminación y apertura, en parte hacia la valorización mercantil.

Los últimos hechos generados tras el escándalo de Cambridge Analytica, si bien comenzaron a alimentar los cuestionamientos y acciones frente a esta particular configuración del ecosistema algorítmico, se encuentran permeados por tres cuestiones. En primer lugar, las acciones tienen lugar con una balanza de poder (Elías 1994Elías, Norbert. 1994. Conocimiento y poder. Madrid: La Piqueta.) desequilibrada en favor de las principales empresas de plataformas. En segundo lugar, el apuntar cuasi exclusivamente a las plataformas y descuidar el resto de los desarrollos en parte podría permitir la continuidad de la configuración actual al enfocar los reflectores solo en una parte del escenario. En tercer lugar, el andamiaje discursivo de tintes tecnofóbicos impulsado tras 2017 corre el riesgo de obturar el panorama como también de limitar y encorsetar el desarrollo algorítmico en lugar de operar para liberarlo, lo cual también pareciera apuntado a extenderse hacia el nuevo desarrollo estrella: el Metaverso.

En este sentido, es de nuestro deseo advertir que ni los algoritmos informáticos, ni sus capacidades de personalización, ni tampoco los desarrollos de IA con los que están imbuidos son cuasi un «peligro para las libertades humanas» pero tampoco una «solución a todos los aspectos de la vida y/o la principal vía hacia el progreso». Como se ha desarrollado en el texto, estos OTD han sido parte (y en los últimos periodos, foco) de distintos andamiajes discursivos sociotécnicos respecto de esperanzas y temores que han contribuido en modular no solo la opinión pública respecto de ellos, sino también cuestiones relativas a su impulso, diseño, aplicación y utilización. Asimismo, los sistemas algorítmicos presentan una particular configuración fruto y efecto de los distintos ejercicios discursivos y prácticos de saber-poder y verdad desplegados a lo largo de su historia para que sean de un modo y no de otro. Es decir, podrían ser de otra forma.

Sin respuestas concretas a la vista, pero con muchas posibilidades, lo que se puede anticipar es que el devenir sociotécnico de los algoritmos seguirá siendo resultado de los efectos de saber-poder y verdad desplegados. Quizás es hora de que se vuelvan a levantar resistencias posibles para intentar modular y empezar a modificar las tendencias vigentes.

NOTAS

 
1

Cabe aclarar que los objetos técnicos comportan muchas otras características que han quedado fuera de este artículo por cuestión de espacio.

2

Entendida como «la descomposición de lo viviente, el desequilibrio en economía, la disolución del vínculo social, la decadencia» (Tiqqun 2015: 16Tiqqun. 2015. La hipótesis cibernética. Buenos Aires: Hekht.).

3

Los algoritmos inductivos trabajan sobre grandes masas de datos inexplorados para generar patrones, mientras que los deductivos crean y/o modifican patrones basándose en datos y correlaciones previos. Por su lado, los abductivos buscan respuestas a comportamientos y correlaciones considerados como «no lógicas» o no previstas anteriormente.

4

En parte los pliegues cerrados de los algoritmos informáticos pasaron a obrar como moduladores (Simondon 2017Simondon, Gilbert. 2017. Sobre la técnica. Buenos Aires: Cactus.) de su capacidad de recibir información y del espectro de resultados posibles que los procesos algorítmicos generen en su acción relacional con los sujetos y otros OTD.

5

Muchos de los cuales luego son aplicados en el diseño de los algoritmos.

8. BIBLIOGRAFÍA CITADA

 

Ball, Matthew. 2022. The Metaverse: And How It Will Revolutionize Everything. NuevaYork: Liveright.

Cafassi, Emilio. 1998. «Bits moléculas y mercancías (breves anotaciones sobre los cambios en el submundo de las mercancías digitalizadas)», en Finquelevich, Susana y Chivo, Esther (comp.). La ciudad y sus TICs: tecnologías de información y Comunicación. Buenos Aires: UNQ.

Castells, Manuel. 1995. La ciudad informacional. Tecnologías de la información, reestructuración económica y el proceso urbano. Madrid: Alianza Editorial.

Castells, Manuel. 2003. «Internet, libertad y sociedad: una perspectiva analítica». Polis (4). Disponible en: <https://journals.openedition.org/polis/7145>. Fecha de acceso: 10 dic. 2022.

Chibey Rivas, Tamara. 2021. «Participación Defectuosa En La Era Digital: Sobre Los Efectos De La desinformación En El Sujeto». InMediaciones De La Comunicación 16(2).

Deleuze, Gilles. 2014. El Poder. Curso sobre Foucault. Tomo II. Buenos Aires: Cactus.

Elías, Norbert. 1994. Conocimiento y poder. Madrid: La Piqueta.

Feenberg, Andrew. 2005. «Teoría Crítica de la Tecnología». Revista Iberoamericana de Ciencia, Tecnología y Sociedad 2(5): 109-123.

Finn, Edward. 2017. What Algorithms Want: Imagination in the age of computing. Cambridge: The MIT Press.

Foucault, Michel. 2007. Nacimiento de la biopolítica. Curso en el Collège de France (1978-1979). Buenos Aires: FCE.

Gendler, Martín. 2019. «Personalización algorítmica y apropiación social de tecnologías. Desafíos y Problemáticas», en Ana Rivoir y Morales, María Julia (coords.), Tecnologías Digitales: Miradas críticas de la apropiación en América Latina. Buenos Aires: CLACSO.

Gendler, Martín. 2021. «Internet, algoritmos y democracia ¿Del sueño a la pesadilla?». Nueva Sociedad 294. Disponible en <https://nuso.org/articulo/internet-algoritmos-y-democracia/> Fecha de acceso: 05 dic. 2022

Gendler, Martín. 2022. La Neutralidad de la Red: disputas en torno a la identificación, control y regulación de la información circulante en Internet en el Cono Sur (2003-2019). Tesis doctoral. Universidad de Buenos Aires.

Gómez Barrera, Juan Camilo. 2018. «Segmentación, sesgo y normas sociales en la programación. Aportes a la teoría de la gubernamentalidad algorítmica». AVATARES de la comunicación y la cultura 15.

Himanen, Pekka. 2001. La ética del hacker y el espíritu de la era de la información. Buenos Aires: Editorial Destino.

Manheim, Karl y Lyric Kaplan. 2019. «Artificial Intelligence: Risks to Privacy and Democracy». Yale Journal of Law & Technology 21: 133-158.

Mattelart, Armand. 2001. Historia de la Sociedad de la Información. Barcelona: Paidós.

Mayer-Schonberger, Viktor y Kenneth Cukier. 2013. Big Data: A Revolution That Will Transform How We Live, Work and Think. Toronto: Eamon Dolan.

Miguez, Pablo. 2020. «Valorización del conocimiento, cambio tecnológico y plataformas. Sus efectos sobre el trabajo». Voces en el Fénix 80.

Morozov, Evgeny. (2016). La locura del solucionismo tecnológico. Buenos Aires: Capital Intelectual.

Parente, Diego. 2010. Del órgano al artefacto: acerca de la dimensión biocultural de la técnica. La Plata: EDULP.

Prodnik, Jernej. 2021. «Algorithmic Logic in Digital Capitalism» en Pieter Verdegem (ed.), AI for Everyone? Critical Perspectives: 203-222. Londres: University of Westminster Press.

Ríos Rozo, Camilo. 2017. «Una lectura en perspectiva de ‘vigilancia’ de La Hipótesis Cibernética de Tiqqun», en Camilo Ríos Rozo (ed.), ¿Nuevos paradigmas de vigilancia? Miradas desde América Latina: 357-366. Córdoba: FVL.

Rodríguez, Pablo. 2019. Las palabras en las cosas: saber, poder y subjetivación entre algoritmos y biomoléculas. Buenos Aires: Cactus.

Rossi, Aníbal. 2018. «¿Burbujas de filtro? Hacia una fenomenología algorítmica». InMediaciones De La Comunicación 13(1): 263-281.

Rouvroy, Antoinette y Thomas Berns. 2015. «Governamentalidade algorítmica E Perspectivas De emancipação: O díspar Como condição De individuação Pela relação?». Revista Eco-Pós 18 (2):36-56.

Rullani, Enzo. 2000. «El capitalismo cognitivo, ¿un déjà-vu?» en AA. VV., Capitalismo cognitivo, propiedad intelectual, y creación colectiva. Madrid: Traficantes de sueños.

Sadin, Éric. 2017. La Humanidad Aumentada: la administración digital del mundo. Buenos Aires: Caja Negra.

Sadin, Éric. 2018. La Silicolonización del mundo: la irresistible expansión del liberalismo digital. Buenos Aires: Caja Negra.

Sadin, Éric. 2020. La Inteligencia Artificial o el Desafío del Siglo. Buenos Aires: Caja Negra.

Samela, Gabriela. 2016. «La lógica algorítmica en el acceso a los contenidos y a las interacciones personales en Internet». XI Jornadas Latinoamericanas de Estudios de Ciencia y Tecnología, Universidad Tecnológica Federal de Paraná, Curitiba, Brasil.

Schwab, Klaus. 2016. La cuarta revolución industrial. Barcelona: Debate.

Simondon, Gilbert. 2008. El modo de existencia de los objetos técnicos. Buenos Aires: Prometeo.

Simondon, Gilbert. 2017. Sobre la técnica. Buenos Aires: Cactus.

Srnicek, Nick. 2018. Capitalismo de Plataformas. Buenos Aires: Caja Negra.

Tiqqun. 2015. La hipótesis cibernética. Buenos Aires: Hekht.

Van Dijck, Jose. 2016. La cultura de la conectividad: una historia crítica de las redes sociales. Buenos Aires: Siglo XXI.

Wilson, Robert. y Frank Keil. 1999. The MIT Encyclopedia of the Cognitive Sciences. MIT Press.

Winner, Langdon. 1985. «¿Tienen política los artefactos?”», en MacKenzie et al. (eds.), The Social Shaping of Technology, Filadelfia: Open University Press.

Zukerfeld, Mariano. 2010. Capitalismo y Conocimiento: Materialismo Cognitivo, Propiedad Intelectual y Capitalismo Informacional. Tesis Doctoral. FLACSO.

Zukerfeld, Mariano. 2014. «Todo lo que usted quiso saber sobre Internet pero nunca se atrevió a googlear». Hipertextos 2(1): 64-103.

Zukerfeld, Mariano. 2017. Knowledge in the Age of Digital Capitalism. Londres: University of Westminster Press.

Zukerfeld, Mariano. 2020. «Bits, plataformas y autómatas: las tendencias del trabajo en el capitalismo informacional». Revista Latinoamericana de Antropología del Trabajo 4(7): 1-50.