Cartografía de la inteligencia artificial generativa

Inteligencia Artificial / dossier / Mayo de 2024

Taller Estampa

Traducción de: Pablo Duarte, Eugenio Tisselli

La popularización de la inteligencia artificial (IA) ha dado lugar a imaginarios que promueven la alienación y la mistificación. Ahora que estas tecnologías parecen consolidarse, resulta pertinente realizar la cartografía de sus vínculos con actividades y territorios que no son solo humanos. ¿Qué conjunto de extracciones, agencias y recursos nos permiten conversar en línea con una herramienta generadora de textos u obtener imágenes en segundos?


01. Las herramientas de IA generativa se utilizan para automatizar tareas como la escritura o la generación de imágenes. Esta automatización no resulta de la programación de pasos concretos por realizar, sino empleando ejemplos. Si tenemos muchos ejemplos de un caso, se pueden procesar utilizando redes estadísticas que se configuran analizando sus patrones recurrentes. Ya sean palabras, pixeles o frecuencias de sonido, es posible obtener un modelo estadístico analizando y explorando un conjunto de datos de entrenamiento. Diríamos que las herramientas de la IA generativa desmontan el lenguaje (visual, textual) para reensamblarlo basándose en un cálculo de probabilidades. Hasta hace unos años se entrenaba a estas herramientas para generar expresiones concretas (la imagen de un rostro, un texto con un estilo determinado); ahora van más allá de la concreción específica para producir distintos tipos y estilos de contenido. Esta capacidad de generalización se debe al procesamiento de conjuntos de datos mucho más amplios y heterogéneos que permiten responder a todo tipo de instrucciones. En consecuencia, la escala del cambio en la IA generativa ha sido tan grande que exige el impulso de nuevas economías y una dependencia acelerada de los distintos ecosistemas.


02. Conjuntos de datos. La compilación a escala industrial de conjuntos de datos de entrenamiento se consigue extrayendo contenidos del mayor archivo digital que existe: Internet. Los datos se obtienen mediante el scraping automatizado de contenidos publicados en línea y compartidos por millones de internautas. En un principio, lo que motivaba esta extracción no era la actual explotación comercial por parte de las empresas emergentes y las plataformas, sino el deseo de realizar investigaciones académicas y no comerciales. Ahora que estos enormes archivos digitales se utilizan para generar textos e imágenes a pedido, enfrentamos una serie de paradojas y controversias en el marco de las industrias culturales. Por un lado, la ideología del big data concibe a los contenidos de Internet como un inmenso archivo que puede ser explotado, procesado y automatizado. Pero este impulso extractivista es visto por otros actores culturales como un proceso de privatización masiva de la creatividad de millones de internautas.


03. Modelos de imitación estadística. Las industrias culturales han producido un gran porcentaje de las imágenes, los textos y los sonidos que alimentan los modelos de IA; a su vez, son sus usuarios principales y potenciales. El trabajo de fotógrafos, diseñadores, ilustradores, músicos, compositores, guionistas, escritores, desarrolladores, animadores y cineastas se emplea para entrenar estos modelos de imitación estadística. Aunque actualmente la estética de los contenidos generados no difiere mucho de la que caracteriza a los bancos de imágenes, fotos o sonidos, la velocidad a la que operan estos servicios automatizados difícilmente podrá ser igualada por ningún competidor humano. Por este motivo, los empleos más precarios de la producción cultural serán los más desfavorecidos y los más dependientes de la IA generativa.


04. Puesta a punto. Los conjuntos de datos son la materia prima; sin embargo, no bastan para alcanzar el nivel actual de interacción personalizada que ofrecen los servicios en línea de IA. Se necesitan equipos de personas dedicadas a realizar microtrabajos para refinar el modelo, como calificar las respuestas que genera, etiquetar imágenes o textos, realizar anotaciones y demás procesos de evaluación que implican trabajo cognitivo (con frecuencia solo implica hacer clic en una de las opciones que aparecen en pantalla). Las grandes corporaciones subcontratan estos servicios a otras empresas, que a su vez los exportan a países del sur global con altos índices de pobreza, donde el costo por hora del trabajo es un gasto marginal. Se ha documentado que algunas de las empresas subcontratadas operan en campos de refugiados en Líbano, Uganda, Kenia e India, donde entrenan a las personas desplazadas en realizar microtareas con datos, y así se aprovechan de sus adversidades económicas.1


05. Filtrado. En una fase más avanzada del proceso, es necesario filtrar el contenido generado por los grandes modelos de IA. Las tareas más comunes en esta etapa son las destinadas a moderar los denominados contenidos tóxicos —discursos de odio, controversias políticas, sexo y violencia extrema o explícita—, incluidos originalmente en los datos de entrenamiento. El trabajo de moderación se lleva a cabo en países como Kenia o Uganda (o incluso entre las comunidades de inmigrantes en las grandes metrópolis del norte) y consiste en identificar y clasificar textos e imágenes con contenido violento, asesinatos, violaciones o abuso de menores. Detrás de la aparente autonomía de las herramientas de IA, por tanto, existen diferentes capas de recursos humanos desplazados a diferentes geografías, precarizados e invisibilizados por la industria de la innovación tecnológica.


06. Las start-ups de IA. Este despliegue de recursos humanos desplazados depende en última instancia de las start-ups de IA generativa (OpenAI, DeepMind, Anthropic y otras), empresas alentadas por el valor fetiche de los modelos de IA y las renovadas oleadas de especulación tecnológica de Silicon Valley. Las start-ups de IA generativa se han consolidado en torno a la experiencia y la investigación especializada, pero también como actores globales que articulan estos micromercados laborales y se alían con las grandes plataformas para atraer capital financiero. Son las estrellas del actual frenesí en el mercado global de la innovación digital, compensan la desaceleración de la rentabilidad del capital de riesgo invertido en tecnología y cuentan con el conveniente estímulo de un discurso que centra el debate sobre la IA en el peligro que esta representa para la extinción de la humanidad.


07. Discursos públicos. El discurso del pánico alrededor de la IA, canalizado por institutos y fundaciones filantrópicas y secundado por los “visionarios” de las start-ups, recibe cobertura en los medios de comunicación y tiene el efecto deseado de alarmar a la opinión pública. En un momento en que estas tecnologías apenas se están sometiendo a los primeros procesos regulatorios (la primera ley sobre IA se aprobó en el Parlamento Europeo a principios de 2024), la agitación que provocan los mensajes pretende favorecer las exigencias de autorregulación de la industria de la IA ante las administraciones públicas. Mientras tanto, en el contexto de la crisis de los formatos estandarizados de credibilidad, definida desde hace algunos años con el término “posverdad”, las redes sociales ya se están llenando de mensajes, imágenes o textos sintéticos generados por estas herramientas. La automatización del discurso público y sus implicaciones en un contexto de creciente desinformación y polarización política estarán en el centro de la agenda mediática de los próximos años.


08. Informática. El surgimiento de la incipiente industria de la IA no habría sido posible sin una alianza con las plataformas de la ola del big data (Microsoft, Google, Amazon, Meta y otras). Estos gigantes tecnológicos, que han construido su hegemonía económica sobre la base de la extracción y la comercialización de datos de los usuarios de sus servicios en línea, disponen ahora de una infraestructura informática de proporciones planetarias. En sus centros de datos procesan ingentes cantidades de imágenes, textos y sonidos extraídos de la red. Es una tarea de la que solo pueden ocuparse algunas supercomputadoras especializadas: enormes concentraciones de servidores que trabajan las veinticuatro horas del día para entrenar a la versión más reciente del modelo de IA, que resulta ser exponencialmente mayor que el anterior.


09. Poder de cálculo. Al centro de estas infraestructuras hay un dispositivo clave: las unidades de procesamiento gráfico (GPU). Aportan la potencia de cálculo requerida para acelerar las cargas de trabajo del aprendizaje de las máquinas, una capacidad que la investigación en IA halló hace una década en las tarjetas gráficas para la muy exigente industria de los videojuegos. Estos dispositivos están en manos de unas cuantas empresas que disfrutan de un cuasimonopolio mundial (sobre todo Nvidia, que ha consolidado su propio sistema patentado). Su producción se subcontrata al mercado de los semiconductores, que está aún más concentrado: la Taiwan Semiconductor Manufacturing Company (TSMC) produce el 90 % de los chips más avanzados y se apoya en los equipos de impresión litográfica de la empresa holandesa ASML. Este conglomerado industrial fabrica los componentes básicos de los servidores de más de ocho mil centros de datos alrededor del mundo.


10. Materias primas. Los chips semiconductores que impulsan a los servidores, así como a los dispositivos móviles que utilizamos para compartir información, son el producto final de este complejo conjunto de inversiones, fabricantes y equipos. Sin embargo, sintetizar los diminutos circuitos integrados, así como las baterías, las fuentes de energía, las unidades de distribución de energía y demás componentes de los dispositivos electrónicos, requiere grandes cantidades de metales, minerales y otras materias primas. La profesora Jennifer Gabrys, especializada en la materialidad de los medios digitales, analiza la cantidad de recursos empleados para fabricar un microchip: “Para producir un microchip de memoria de dos gramos se necesitan 1.3 kilos de combustibles fósiles y materiales. En este proceso, solo una fracción del material utilizado para fabricar microchips está incluida en el producto final, ya que hasta el 99 % de los materiales empleados se desechan durante la producción. Muchos de estos materiales desechados son químicos contaminantes, inertes o incluso con niveles de toxicidad no identificados”.2 La cadena de suministros que vincula las cámaras estériles de la innovación tecnológica con la extracción de estos minerales está envuelta en un velo de conveniente opacidad, fomentado por empresas y proveedores intermedios que no certifican el origen de los materiales con los que trabajan.


11. La industria minera, proveedora de los grandes fabricantes de hardware digital, se extiende a lo largo y ancho del planeta y se concentra en los países del sur global.


I. Los fabricantes utilizan cobre en los chips más potentes debido a su mayor conductividad eléctrica. Uno de los polos de la minería del cobre se sitúa en los países sudamericanos de la costa del Pacífico, principalmente Chile y Perú. En el sur de Perú se encuentra el llamado “corredor minero” (explotado por la empresa china MMG Ltd., la suiza Glencore y la canadiense Hudbay). En Perú, la exportación de minerales es uno de los pilares de la economía, pero también es una de las principales fuentes de conflicto debido a las desigualdades en el reparto de los ingresos y a los problemas de salud de la población local como consecuencia de la contaminación del agua.


II. Otro material conductor muy apreciado por la industria es el oro. Se usa en la producción de teléfonos inteligentes, computadoras y servidores, y parte de la cadena de suministro de las grandes plataformas tecnológicas lo importa de Brasil, donde el 28 % de su extracción es ilegal. A pesar de que la legislación brasileña no permite oficialmente la minería en tierras indígenas, la extracción clandestina de oro en la Amazonía brasileña se ha disparado a partir de 2019. Quienes investigan este fenómeno han documentado decenas de miles de pequeños mineros y más de 320 minas ilegales, aunque es probable que el número real sea mucho mayor. La minería de oro a pequeña escala ha provocado una deforestación generalizada y altos niveles de contaminación por mercurio.3


III. La producción de baterías depende de un componente clave: el litio. Chile es uno de los principales productores mundiales de este codiciado mineral. El salar de Atacama, una superficie casi cuatro veces mayor que Santiago de Chile, alberga una de las mayores minas de litio del mundo. La creciente demanda está afectando cada vez más a las comunidades locales, amenazando su acceso al agua y empobreciendo la biodiversidad única de la región.


IV. La producción de baterías de litio también requiere cobalto, y casi la mitad de las reservas mundiales de este mineral se concentran en África, sobre todo en las minas militarizadas del Congo, en las que se ha documentado el uso de mano de obra infantil y violaciones a los derechos humanos más elementales. En todos estos casos, se repite el mismo patrón: las empresas extranjeras negocian con una élite local la explotación de los recursos, y dejan de lado los intereses de las comunidades. Es así como la industria de la supercomputación se ha construido sobre los cimientos coloniales de la extracción de recursos en los países del sur global.


12. La energía. Desde que la IA generativa irrumpió en la conciencia del gran público, esta tecnología ha impuesto unos requisitos energéticos sin precedentes. El aumento de la inversión, las aplicaciones y la cobertura mediática en los últimos años ha multiplicado las necesidades energéticas de los servidores en los centros de datos. Hoy en día, un solo centro de datos necesita el equivalente al consumo de cincuenta mil hogares. Y la IA no ha hecho más que aumentar la dependencia energética: mientras que hace tres años un rack de servidores consumía entre cinco y diez kilovatios, los servidores dedicados a la IA actual requieren más de sesenta kilovatios. Este cambio repentino se traduce en inversión, equipos y enormes costos energéticos, ya que parte del aumento de potencia se cubre actualmente con generadores que usan diésel.4


13. Combustibles fósiles. Se calcula que la electricidad utilizada por los centros de datos representa el 0.3 % de las emisiones totales de carbono, y cuando se incluyen los dispositivos personales como computadoras portátiles, teléfonos inteligentes y tabletas, el total se eleva al 2 % de las emisiones mundiales de carbono.5 El continuo crecimiento de la infraestructura informática, que prevé un incremento del 10 % en nuevos centros de datos cada año,6 resulta insostenible de cara a un futuro caracterizado por el calentamiento global y la extinción de especies. La mayor parte de la electricidad que consumen los centros de datos proviene de combustibles fósiles, y aunque las plataformas están invirtiendo mucho en reducir sus emisiones, no parecen estar evitando estos combustibles (las plataformas digitales se están aliando cada vez más con la industria del petróleo y del gas); en cambio, intentan explotar la economía de compensación de carbono, es decir, invierten en proyectos forestales o eólicos cuyo impacto a menudo resulta más simbólico que real.


14. Compensación de carbono. Una gran parte de los proyectos de compensación de carbono se ubican en tierras gestionadas por comunidades indígenas de todo el mundo. Se trata de lugares que aún presentan bajas tasas de deforestación y atraen inversiones por su capacidad regenerativa. Las decisiones sobre el uso de la tierra suelen excluir los intereses de las propias comunidades, lo que provoca conflictos o desplazamientos.7 Además, estas acciones no resuelven el problema de las emisiones, sino que promueven la utopía de un crecimiento infinito y sin consecuencias de la industria informática, a la vez reducen el problema climático a una transacción de compraventa de soluciones. Del mismo modo, la inversión en eficiencia energética y energías renovables tiene sus límites. Los grandes parques solares y eólicos necesitan encontrar emplazamientos viables, y no están exentos de conflictos comunitarios. Las nuevas centrales verdes no bastarán para lograr la descarbonización al mismo tiempo que satisfacemos una creciente demanda de computación. Y más importante aún, no podrán soportar las cargas computacionales previstas por las plataformas de IA emergentes. Esta evidencia no pasa desapercibida para sus directores, que ya han empezado a invertir en la industria de la fisión nuclear. La proliferación de grandes modelos generativos de IA requiere más computación y más energía para alimentarlos. Mientras tanto, la huella de carbono de la computación mundial ya ha superado a la de la industria aérea.


15. Calor. La huella medioambiental de la IA no se limita a las emisiones de carbono. La industria digital no puede funcionar sin generar calor. El procesamiento de contenidos digitales eleva la temperatura de las salas que albergan los racks de servidores en los centros de datos. Si no se controla, el sobrecalentamiento supone un riesgo para el buen funcionamiento de los equipos. Por tanto, es necesario reducir constantemente el calor que estos generan. Los centros de datos recurren al aire acondicionado, que consume más del 40 % de la electricidad de sus instalaciones.8 Pero, además, conforme el consumo de energía adicional requerido para la adaptación de la IA genere más calor, los centros de datos también necesitarán métodos de refrigeración alternativos, por ejemplo, sistemas de refrigeración líquida. Los servidores están conectados a tuberías que transportan agua fría bombeada desde grandes estaciones vecinas; el agua regresa a torres de agua que emplean grandes ventiladores para disipar el calor y absorber agua fresca. Según Google, este consumo de agua oscila entre cuatro y nueve litros por kWh de potencia del servidor. Una cantidad significativa para una plataforma tecnológica que suele preocuparse más por la sustentabilidad que muchos de sus pares. El consumo de agua en los centros de datos de esta compañía ha aumentado más de 60 % en los últimos cuatro años, un incremento paralelo al auge de la IA generativa.


16. Agua. La construcción de nuevos centros de datos ejerce presión sobre los recursos hídricos locales y se suma a los problemas de escasez de agua causados por el cambio climático. Las sequías afectan los niveles de aguas subterráneas en zonas particularmente afectadas por la escasez de agua, y están comenzando a aflorar conflictos entre las comunidades locales y los intereses de las empresas. En 2023 los habitantes de Montevideo que padecían escasez de agua protagonizaron una serie de protestas contra los planes de construcción de un centro de datos de Google. Ante la polémica por el elevado consumo hídrico, los equipos de relaciones públicas de Microsoft, Meta, Amazon y Google se han comprometido a ser superavitarios en agua —no solo sustentables sino a contribuir a la gestión y a la recuperación del agua— para 2030, un compromiso basado en inversiones en sistemas cerrados sin desperdicio, pero también en la captación de agua de otros lugares para compensar el inevitable consumo y la evaporación que se produce en los sistemas de refrigeración.


17. Desechos. En los centros de datos, los aparatos de aire acondicionado, los transformadores, las baterías o las fuentes de energía se desmontan regularmente y se eliminan cuando expiran las garantías. Los equipos desmontados pasan a engrosar la lista de desechos electrónicos. Estos residuos son difíciles de reciclar y, a pesar de algunas iniciativas locales en Europa, rara vez se reutilizan, al menos en el ámbito de la informática de alto rendimiento. Con un promedio de más de tres dispositivos por persona en todo el mundo y una vida útil media de menos de dos años, el mercado de los gadgets digitales —el fetiche por la novedad o la última versión— supone una generación constante de desperdicios. Actualmente generamos una media de 7.3 kg de desechos electrónicos por persona al año, de los cuales el 82.6 % acaba en el basurero o se recicla de manera informal.9 El reciclaje de las materias primas contenidas en los residuos electrónicos es un mercado muy poco regulado basado en la exportación a terceros países (el 64 % de los residuos electrónicos de los centros de reciclaje de Europa se envía a África).


18. Fósiles. Decenas de miles de toneladas de residuos electrónicos al año, que tardarán milenios en descomponerse, acaban en vertederos informales como los de Agbogbloshie (Ghana), donde se incineran materiales peligrosos, exponiendo a la gente que se gana la vida reciclando a humos tóxicos y elementos radiactivos. El mercurio, el cobre, el plomo y el arsénico se filtran en el suelo y los cursos de agua, acumulando sustancias químicas nocivas para el ecosistema, en especial para las cadenas alimentarias. A pesar de la creciente sensibilización y la introducción gradual de nuevas normativas, los residuos de la industria digital son uno de los signos más visibles de nuestro legado fósil. La cantidad de recursos, minerales, metales y energía invertidos en dispositivos informáticos acaba conformando un sedimento particular que persistirá en el tiempo geológico profundo.


19. Giro estético. Todas estas infraestructuras, extracciones, transformaciones, inversiones, externalizaciones, computaciones, modelos estadísticos y mercados de trabajo se interrelacionan y acaban dando forma a lo que se conoce como IA generativa. Se trata de un fenómeno sociotécnico surgido del dominio de la probabilidad como modelo epistemológico para afrontar los retos del presente. La aplicación de estas herramientas estadísticas en cada vez más contextos de la actividad humana ha dado un giro particular en los últimos años. Si en un principio se utilizaban principalmente para rastrear, extraer y analizar la información del contenido de la comunicación en la red, este análisis ha comenzado a utilizarse para sintetizar las formas mismas de la comunicación. En este sentido, el fenómeno de la IA generativa puede entenderse como un giro estético. Si la imitación de las capacidades cognitivas humanas ha impulsado la investigación sobre el aprendizaje automático hasta nuestros días, este giro estético ha dirigido la investigación hacia ámbitos más característicos de la expresión y la creatividad humanas. La trayectoria de esta investigación ha mutado de varias maneras en los últimos años.


20. Escala. En general, la investigación sobre IA generativa ha pasado del mundo académico y científico a consolidarse como industria y ha desencadenado una oleada de especulación económica. En el proceso se han propiciado varios cambios de escala. En primer lugar, la escala del cómputo. Desde 2012, cuando el proyecto AlexNet utilizó por primera vez las GPU para ganar un concurso de reconocimiento de imágenes, hasta 2024, cuando Nvidia anuncia que triplicará la producción de la última generación de GPU hasta alcanzar los dos millones de unidades, se produce un cambio de escala que afecta a toda la cadena de suministro mencionada anteriormente. En segundo lugar, la escala de los conjuntos de datos ha cambiado. Mientras que las grandes plataformas parecen ahora interesadas en la funcionalidad de los modelos a menor escala, en los últimos años la atención se ha centrado en la automatización de tareas generalistas. Esto significa que, además de procesar un gran conjunto de datos, ese conjunto debe contener una gran variedad de registros. Para lograr esta diversidad, los modelos deben haberse entrenado rastreando y procesando una cantidad inconmensurable de contenidos disponibles en la red. En paralelo a estos cambios de escala, hay un aumento de la privatización de las herramientas y los conocimientos del campo. La mayoría de las herramientas de IA han sido de código abierto, pero incluso las que no lo son suelen basarse en trabajos académicos de acceso público, por lo que tarde o temprano alguien creará una versión gratuita. A medida que los modelos se hacen más y más grandes, la barrera de entrada para los investigadores se hace más difícil de superar. Cuando apareció el modelo de generación de texto GPT-2, el predecesor de ChatGPT, cualquiera con los conocimientos necesarios y una computadora medianamente potente podía descargar la red en su equipo y entrenarla con su propio conjunto de datos. La siguiente generación, el modelo GPT-3, con mayores parámetros y capacidad, ya se ofrecía solo como modelo cerrado, limitado al entrenamiento en los servidores de la plataforma. Este cambio de paradigma ha marcado la consolidación y aceptación de estas herramientas en los últimos años, junto con la promoción de interfaces de usuario y sistemas de pago por suscripción. Los acuerdos comerciales entre empresas emergentes y plataformas como Microsoft, Google y Amazon harán que en pocos años las técnicas de IA generativa se conviertan en infraestructuras, en una escalada exponencial sin precedentes en la que lo verdaderamente generativo no serán los contenidos sintéticos que aporten, sino la generación de equipos, industrias auxiliares e impactos ambientales que cada nueva actualización conlleva.


21. Contramapeo. El conjunto de relaciones que aquí se presenta forma un mosaico difícil de aprehender porque implica la vinculación de objetos y conocimientos de diferentes tipos y escalas. Los discursos en torno a la IA suelen tener una fuerte carga mítica y van acompañados de una serie de metáforas e imaginarios recurrentes: las agencias algorítmicas desvinculadas de la acción humana, la tecnología no negociable que nos impone el futuro, la universalidad de los datos o la capacidad de producir modelos libres de sesgos o cosmovisiones. El conjunto de discursos que rodean a estas tecnologías, ya sean más especializados o más populares, acaban por darles forma de un modo u otro. Por este motivo, el proyecto Cartografía de la IA Generativa parte de la motivación de ofrecer un mapa conceptual que abarque gran parte de los actores y recursos implicados en este objeto complejo y polifacético que llamamos IA generativa. Partiendo de una larga genealogía de cartografías críticas dedicadas a arrancar la función de los mapas como productores de verdades hegemónicas, esta visualización pretende cartografiar el fenómeno teniendo en cuenta las tensiones, controversias y ecosistemas que lo hacen posible.

La portada pertenece a la cartografía realizada por Estampa, así como los fragmentos que ilustran el texto. La traducción del mapa estuvo a cargo de Eugenio Tisselli.

  1. Philip Jones, Work Without the Worker: Labour in the Age of Platform Capitalism, Verso Books, 2022. 

  2. Jennifer Gabrys, Digital Rubbish: A Natural History of Electronics, University of Michigan Press, Michigan, 2013. 

  3. Bruno Manzolli, et al., Legalidade da produção de ouro no Brasil, IGC-UFMG, 2021. 

  4. Anne Pasek, “How to Get Into Fights With Data Centers: Or, a Modest Proposal for Reframing the Climate Politics of ICT”, White Paper. Experimental Methods and Media Lab, Trent University, Peterborough, Ontario, 2023. 

  5. Steven González Monserrate, “The Cloud Is Material: On the Environmental Impacts of Computation and Data Storage”, en MIT Case Studies in Social and Ethical Responsibilities of Computing, invierno de 2022. 

  6. María I. Espinoza y Melissa Aronczyk, “Big Data for Climate Action or Climate Action for Big Data?”, Big Data & Society, 2021, vol. 8, núm. 1. 

  7. Teresa Kramarz, Susan Park y Craig Johnson, “Governing the Dark Side of Renewable Energy: A Typology of Global Displacements”, Energy Research & Social Science, 2021, vol. 74. 

  8. Chuangbin Weng, Zhangyuan, Wang, Jinwei Xiang et al., “Numerical and Experimental Investigations of the Micro-channel Flat Loop Heat Pipe (MCFLHP) Heat Recovery System for Data Centre Cooling and Heat Recovery”, Journal of Building Engineering, 2021, vol 35. 

  9. Vanessa Forti, Cornelis P. Baldé, Ruediger Kuehr, Garam Bel, The Global E-waste Monitor 2020: Quantities, Flows, and the Circular Economy Potential, United Nations University, 2020.