Deprecated: rtrim(): Passing null to parameter #1 ($string) of type string is deprecated in /var/www/eltopo.org/dev/wp-includes/formatting.php on line 2785
A través del espejo negro: – EL TOPO
nº20 | la cuenta de la vieja

A través del espejo negro:

materializar la Red

I

Camp Williams, Utah. En medio de un paisaje natural, verde y relativamente virgen se ve un gran recinto con unas naves rectangulares, blancas y de diseño limpio en su interior. A primera vista parece el centro logístico de alguna empresa multinacional.

Lo que vemos es un datacenter. Estos son edificios que almacenan una gran cantidad de ordenadores de un tipoA especial, llamados servidores, que almacenan los datos de la nube. Lo que conocemos como «internet» se basa en protocolos de comunicación entre máquinas. Los servidores, como dice el nombre, prestan servicios (como servir una web a nuestro ordenador). Los clientes son las tecnologías que se conectan a los mismos, como el navegador que nos permitiría visualizar la página anterior. Los servidores están diseñados para estar conectados de manera ininterrumpida durante 24 horas al día y 365 días al año. Y a medida que aparecen nuevos dispositivos interconectados, desde los smartphones a los distintos ingenios del así llamado «internet de las cosas», los clientes también están conectados de manera continua. Según un estudio de IBM, todos los días se generan 2,5 billones de gigas de datos, el eufemísticamente denominado big data: cada minuto, por ejemplo, se hacen dos millones de búsquedas en Google; se crean 100 000 mensajes en Twitter; se comparten más de medio millón de contenidos en Facebook y se envían 200 000 correos electrónicos. El tráfico de datos crece de manera tan exponencial que el 90% de ellos se generó, tan solo, en los dos últimos años.

Pero volvamos al complejo en el interior de Utah. Su construcción costó 1500 millones de dólares y pertenece a la NSA, la Agencia Nacional de Seguridad estadounidense. Según Edward Snowden recibió el nombre de Massive Data Repository, el «repositorio de datos masivos». Su capacidad de almacenamiento diaria se medirá en exabytes: miles de millones de gigas. Entendámoslo con cifras de unidades más cotidianas: la estructura completa tendrá 9000 metros cuadrados destinados solo a servidores. Necesitará para su funcionamiento de una subestación eléctrica propia, para transformar los 65 megavatios de electricidad necesarios. Para su enfriamiento circularán seis millones de litros de agua diarios.  

No parece descabellado el ejercicio intelectual de proponer a los datacenters como fábricas que simbolizan la producción en nuestra contemporaneidad. Espacios esenciales para el capital porque son los que sostienen y producen el valor añadido en esta fase de capitalismo cognitivo, especulativo y basado en datos. Y esenciales porque permiten generar nuevas estructuras de control y dispositivos de gobernabilidad como bien ejemplifica el centro de datos de la NSA, diseñada dentro de la estrategia de su director, el general Keith Alexander, y que se resume un su distópica frase «collect it all». Recolectar todos los datos.

Estas enormes factorías nos permiten materializar la Red para poner en cuestión el sueño capitalista de la economía inmaterial, esa cuyas tasas de crecimiento no estarían ligadas al consumo de recursos naturales y que representaría la salida al callejón cerrado de los límites externos del capital, encarnados en el estado de crisis ambiental permanente.

II

Mantener la estructura global de datos es una labor intensiva en el consumo de energía. Según estudios de Jonathan Koomey, investigador de la Universidad de Stanford, la Red emplea un 10% de la electricidad global, teniendo en cuenta todos los actores necesarios para que esta funcione. Solo los datacenters consumieron en Estados Unidos en 2014 un 2% del total de consumo del país (70 000 millones de kW/h), equivalente al consumo eléctrico de 6 millones de hogares. La proporción es algo menor a nivel global. Este es un problema de una magnitud creciente: de 2005 a 2010, el consumo creció en un 56%. Aunque el empleo de soluciones tecnológicas más eficientes y el impacto de la crisis han frenado ligeramente la tendencia, el crecimiento es imparable y algunos estudios sitúan en el período 2014‒2020 otro crecimiento del 50% en la energía empleada.

Este consumo eléctrico tiene un enorme problema añadido, que es la climatización de los ordenadores. Hablamos de granjas de servidores: espacios con miles de máquinas conectadas que generan calor que se disipa, normalmente, usando conductos de agua conectados a torres de enfriamiento. Los centros de datos de alta densidad llegan a albergar decenas de miles de servidores en una sola instalación, lo que puede necesitar cantidades de agua que oscilan de los cientos de miles a más de un millón de litros diarios, lo que puede suponer un grave problema ambiental[1]. Es ejemplar el caso de California, en su quinto año de sequía consecutivo. Esta región es uno de los centros tecnológicos del mundo y alberga más de 800 datacenters. Aunque la agricultura es de lejos el gran consumidor de agua en el Estado y existen tecnologías de enfriamiento que no se basan en agua o emplean aguas grises, es evidente que la inmaterial economía de los datos puede contribuir a agravar la situación.

Y, por supuesto, el consumo de agua y energía no son el único problema ambiental. Aunque es complicado calcular las emisiones derivadas, un estudio de 2008 de la International Science Grid cuantificaba las emisiones generadas por las TIC en un 4% de las emisiones globales, equivalentes a las de la industria aeronáutica. De esas emisiones la cuarta parte sería atribuible a los centros de datos, dando una cifra de emisiones de 300 millones de toneladas de dióxido de carbono. Es decir, las fábricas que producen la nube emiten actualmente un 1% de las emisiones globales de dióxido de carbono. Para 2030 llegarán a emisiones cercanas a los 500 millones de toneladas. Solo las emisiones relativas a los centros de datos estadounidenses (172 millones de toneladas) son mayores que las globales de Argentina (142 millones), por ejemplo.

Por último, no habría que pasar por alto la mochila ecológica de los dispositivos empleados a ambos lados de la arquitectura cliente/servidor. Según los cálculos de Eric Williams y Ruediger Kuehr, la fabricación de un ordenador de sobremesa requiere al menos 240 kg de combustibles fósiles, 22 kg de productos químicos y 1500 litros de agua. Podemos hacer una aproximación, grosera pero indicativa, equiparando un ordenador de sobremesa a un servidor: tendríamos más de 2000 toneladas de combustible, 10 millones de litros de agua y 200 toneladas de productos químicos por cada 10 000 servidores, un orden de magnitud normal en un datacenter (y a los que habría que añadir el resto de elementos constructivos y tecnológicos necesarios para su puesta en funcionamiento).

Dejo a la lectora el ejercicio de materializar solo a Google. Se calcula que esta corporación tiene algo más del 2% de todos los servidores del mundo, más de un millón, distribuidos en quince datacenters. Es, de lejos, el mayor actor conocido de internet.

III

La imagen viaja miles de kilómetros, a las llanuras del interior de Islandia. Otro paisaje verde, casi virgen. Edificios blancos en un complejo industrial, aunque con una diferencia con la imagen anterior: chimeneas humeantes y grandes tuberías. Estamos ante lo que efectivamente parece una fábrica convencional.

Lo que vemos son las estructuras de otro centro de datos. Paradójicamente frente a su aspecto, un complejo que funciona completamente con energía geotérmica e hidroeléctrica en un contexto de bajas temperaturas, que facilita el enfriamiento de sus servidores. En el contexto de crisis global y local, Islandia imagina su economía como capital mundial de la nube, capaz de ofrecer importantes ahorros energéticos a las corporaciones de lo digital y de proponer un idílico romance entre la naturaleza y los datos.

Los grandes actores son conscientes de la cuestión ambiental y de recursos y se intentan adaptar para conseguir ser más eficientes, recortar gastos, mejorar su imagen corporativa e, incluso, responder a la sensibilidad de parte de su accionariado y de su base de usuarias. En suma: obtener mejores posiciones en el mercado y la capacidad de extenderse más y competir mejor.

En 2007, por ejemplo, Google presentó una patente sobre centros de datos flotantes. Estas barcazas tendrían un consumo de 40 megavatios, generados mediante la energía provocada por el movimiento de las olas y un sistema de enfriamiento basado en superficies de intercambio con el agua fría del mar. Éste sistema no solo les permitiría importantes ahorros e incrementar su capacidad de crecimiento. Su localización offshore favorecería las pretensiones de la compañía de evitar el pago de los impuestos sobre sus instalaciones, un sueño recurrente, en objetivo y formas, del anarcocapitalismo estadounidense, una de las ideologías subyacentes a Silicon Valley.

Como vemos, estas soluciones pueden pasar por la relocalización de los datacenters y su ubicación en entornos fríos y con acceso directo a energías renovables. Otras, suponer mejoras de eficiencia y puramente técnicas: el empleo de aire o aguas grises en el enfriamiento; soluciones constructivas diferentes para la arquitectura del espacio; o la recirculación del calor generado para la calefacción de instalaciones cercanas (una solución posible cuando el datacenter está en entorno urbano).

Este tipo de tecnologías son, evidentemente, necesarias y muy interesantes y hablar de ellas supone un alivio tras el mareo de cifras chocantes que nos describen la ruina de nuestros ecosistemas. Pero más allá de su evidente utilidad real pueden representar el sueño húmedo del «capitalismo verde». Dentro de lógicas solucionistas aparecen invenciones tecnológicas que permiten la superación de los límites externos del capital sin cambiar su lógicas internas expansionistas. La misma falacia de crecimiento sin límite de las economías inmateriales que intentan parchear.

Cabe preguntarse hasta qué punto puede el capitalismo inmaterial no contribuir a la implosión global únicamente mediante la innovación tecnológica y sin cambiar sus lógicas internas. Evitarlo con cifras de consumo y contaminación con altísimas tasas de crecimiento, cuando las economías no occidentales apenas se han consolidado, comparativamente, en el sector y cuando el objetivo real, indisimulado, es la expansión empresarial y de la capacidad de competir en los mercados.

Parece que no basta solo apostar por implementar tecnologías sostenibles. Hemos, sobre todo, de decrecer: también en el uso y dependencia de las tecnologías digitales, los datos y la, así llamada, nube.

IV

Y no solo. También hemos de escoger con inteligencia las tecnologías que empleamos.

La Red ha triunfado por ser un artefacto mágico: capaz de proponer y disponer lógicas y posibles para compartir la abundancia y el acceso libre a la cultura y la comunicación. También ha triunfado por ser una herramienta de control como no ha existido ninguna antes, además haciendo caja. Un monstruo híbrido entre el Gran Hermano y el tío Gilito on fire. La Gran Burbuja.

Pero apelando a los valores de la ética hacker, podemos imaginar otras tecnologías que apuestan por la soberanía y la descentralización. Herramientas que no te hacen dependiente, ni controlada y que son apropiables por sus usuarias. Para esa ética es uno de los grandes retos actuales el imaginar y construir una nueva Red dentro de esas lógicas. Un internet descentralizado, P2P, sin la necesidad de enormes granjas de servidores ni nodos centrales de control.

Un reto que nos habla de otro, del que depende para su consumación completa y del que es parte: la necesidad de infraestructuras autogestionadas y comunitarias. Solo mediante la implementación de estas a todas las escalas y para la satisfacción de todas nuestras necesidades y deseos, desde la alimentación y la energía a la redes de comunicación, podremos realizar ese viejo sueño anarquista de incrementar la autonomía para vaciar y redistribuir el Poder.


[1]  Para entender mejor la cifra, a día de hoy el consumo medio per cápita en España es de unos 150 litros diarios por persona.

Nos apoya

Especialistas en pan y pasta fresca. Elaboración diaria y artesanal