El cuento de la Tierra gestionada

Nota: dado que algunos de los textos son bastante largos y, por tanto, su lectura directa en esta web podría resultar complicada, hemos añadido un enlace en cada uno de ellos para que los lectores puedan leerlos en formato pdf. Basta con hacer "click" en el título del artículo.

PRESENTACIÓN DE “EL CUENTO DE LA TIERRA GESTIONADA

En el siguiente texto, el autor, David Ehrenfeld, muestra una actitud escéptica frente al progreso tecnológico. A lo largo del artículo hace un repaso general a las soluciones tecnológicas que están promoviendo aquellos que creen que la sociedad moderna podría y debería gestionar completamente la Tierra, señalando muchos de sus puntos flojos. El autor muestra cómo el funcionamiento de muchos de los sistemas tecnológicos modernos es más que deficiente y cómo muchos de sus fallos son inevitables, ya que forman parte inherente del propio funcionamiento de dichos sistemas, haciéndolos inviables a largo plazo. Y precisamente en esto radica el valor de este artículo: muestra cómo gran parte de las promesas tecnófilas son mera propaganda, alardes y ensoñaciones que nunca llegarán siquiera a hacerse realidad o que, al menos, no lo harán exactamente del modo que sus promotores esperan y predican. Eso sí, mientras tanto, en el intento y hasta que se haga patente su fracaso, lo estropearán todo aún más, generando graves efectos secundarios, a menudo imprevistos.

Sin embargo, a la hora de poner en cuestión el desarrollo tecnológico no basta con desvelar el carácter irrealista y nada factible de muchas de sus promesas, señalando aquellos aspectos de las mismas que son intrínsecamente inviables. Es preciso complementar dicha crítica de la inviabilidad con la crítica, más profunda, de los propósitos o fines declarados del desarrollo tecnológico. No basta con mostrar por qué no se lograrán muchas de las metas de los tecnófilos (o por qué los resultados no serán precisamente los esperados y prometidos), sino que también hay que señalar que dichas metas en realidad no son tan buenas ni deseables como los promotores del desarrollo tecnológico aseguran. No basta con cuestionar la factibilidad o viabilidad de las tecnologías modernas, hay que cuestionar también el valor que se le otorga a su utilidad, a los propósitos para los que se supone servirán. Y esto, Ehrenfeld, tiende a pasarlo por alto, centrándose sólo en señalar las limitaciones y fallos inherentes a las tecnologías modernas, pero sin cuestionar los fines para los que se pretende usar dichas tecnologías. 

En estrecha relación con lo anterior el autor, a pesar de llevar ya muchos años analizando y criticando la sociedad tecnoindustrial, carece del valor y/o la inteligencia necesarios para extraer de sus propias observaciones la conclusión obvia, clara y tajante de que la sociedad industrial basada en la tecnología moderna no funciona y que mejor sería deshacernos de ella. Ehrenfeld, contra toda lógica, concede cierto valor y deja la puerta abierta a ciertas formas de tecnología moderna, incluso a aquellas formas que él mismo critica en el texto, y a la posibilidad de que esta sociedad siga adelante, gracias a la innovación tecnológica, al ahorro de recursos y energía o no se sabe bien a qué. No es extraño, pues, que diga que le gustan los paisajes con parques eólicos.

Tampoco está muy claro que acierte en sus críticas y argumentaciones en todos los casos. A lo dudoso de algunos de los datos, fuentes y referencias que usa (por ejemplo, cuando cita a la ecofeminista Vandana Shiva diciendo que los cultivos tradicionales producen mayor cantidad de comida por unidad de superficie que los monocultivos industriales; ¿es esto cierto siempre, con cualquier cultivo y en todo lugar?) habría que añadir la omisión de ciertos datos y aspectos importantes en algunos casos (por ejemplo, olvida señalar que una de las deficiencias ineludibles de la producción eléctrica eólica y solar es que es impredecible, inconstante y poco fiable, dado que depende de las condiciones meteorológicas).

Por otro lado, el autor, como es costumbre también entre muchos otros autores conservacionistas y ecologistas, cae en el idealismo al plantear, citando a Wendell Berry, que la causa última de los problemas modernos es el deseo de poder y control (sin embargo, éste deseo, cuando existe, es sólo una consecuencia de problemas y causas materiales previos) y, en consecuencia, propone como solución un cambio general en los valores y, más en concreto, predica la práctica de la humildad y la moderación para así lograr “un mundo mejor”. Parece mentira que alguien tan escéptico con la viabilidad de la tecnología moderna y con los límites de la predictibilidad y el control humanos sobre los fenómenos naturales sea tan ingenuo respecto a la factibilidad y eficacia de las estrategias basadas en predicar una toma de conciencia generalizada y un cambio voluntario de valores. Al igual que las falsas promesas tecnófilas, estos cambios ideológicos generalizados ni se van a producir ni, aunque se produjesen, funcionarían como quienes los promueven esperan que lo hagan. Los “mundos mejores” suelen acabar siendo los peores infiernos.

Por último, una puntualización concreta: la “reforestación” a que hace referencia Ehrenfeld en el texto, en el apartado dedicado a la geoingeniería, no siempre es tan buena idea como él asegura. Cuando dicha “reforestación” se basa en el monocultivo industrial de plantaciones de árboles de especies exóticas y/o genéticamente modificadas en lugar de en la recuperación de los bosques autóctonos (que es lo que sucede en la mayoría de los casos), es más bien otro problema ecológico que añadir a la lista, por mucho CO2 que secuestre.

 

EL CUENTO DE LA TIERRA GESTIONADA

Por David Ehrenfeld[i]

 

Hemos de juzgar el infinito poder de la naturaleza con más reverencia, y con más consciencia de nuestra propia ignorancia y debilidad … ¿Por qué no recordamos cuánta contradicción apreciamos incluso en nuestro propio juicio? ¿Cuántas cosas que para nosotros son fábulas hoy nos parecían ayer artículos de fe?

-Michel de Montaigne, Essays, 1580

 

La civilización humana sólo puede prosperar en un mundo natural sano. Durante al menos dos siglos, los ecologistas, los conservacionistas y los ecólogos –los verdes- han estado haciendo esta apreciación, para su eterna gloria, mostrando que la tecnología, con todo su ingenio, no durará si sigue adelante sola, dañando el mundo natural y despreciando el lugar esencial que la naturaleza ha de ocupar en nuestras vidas. El tecnooptimismo es una concepción del mundo profundamente equivocada –no sólo moral y éticamente, sino también tecnológicamente. Sin embargo, en medio de la destrucción a escala planetaria, la tecnología sigue resultando seductora; incluso algunos verdes proclaman ahora la llegada de un planeta ajardinado, en el cual toda la naturaleza ha sido domesticada, preservada y gestionada, por su propio bien, por humanos progresistas y sofisticados.1 Pero estos “neoverdes”, o “modernistas ecológicos” como se llaman a sí mismos, están condenados a la decepción: el planeta ajardinado es sólo una imagen virtual; nunca existirá en el mundo real.

No necesitamos ser profetas para saber que no tenemos la capacidad tecnológica para producir y mantener una Tierra completamente gestionada y que, a la vez, funcione sin problemas. Es fácil mostrar que muchas de las tecnologías que se supone que servirán para gestionar la Tierra ya no funcionan bien ahora y que serán incluso más proclives a fallar en un futuro sin sistemas naturales extensos que sirvan como respaldo de emergencia.

Visto desde una perspectiva humana, el ajardinamiento planetario puede ser dividido en varias áreas de gestión críticas. Éstas incluyen: la producción de alimentos, la producción de energía, el control del clima mediante la geoingeniería, la predicción, el control y la reparación de accidentes, la restauración de ecosistemas dañados, la seguridad en el abastecimiento de agua, la regulación del tamaño de la población humana y el mantenimiento de unas relaciones cooperativas funcionales entre las naciones. Me centraré en las cuatro primeras, aunque las otras también tienen una importancia crítica. Todos estos procesos tendrían que de interactuar sin problemas; el ajuste positivo de un conjunto de variables no debería afectar negativamente a las demás.

Producción sostenible de alimento

En los años 40 del siglo XX, comenzó una tecnología que luego sería conocida como “la Revolución Verde” y que produjo aumentos enormes en la producción de los cultivos, principalmente en los de cereales –arroz, trigo, maíz, etc.-, que son los que constituyen la mayor parte de nuestro suministro alimentario. Estos incrementos en la producción fueron conseguidos criando plantas enanas que podían responder a la aplicación de fertilizante de nitrógeno sintético aumentando la producción de grano en lugar de desarrollando unos tallos más largos y una mayor cantidad de hojas. El espectacular aumento de la producción de alimentos que la Revolución Verde trajo consigo salvó de la inanición a millones de personas. La producción de arroz, el primer cultivo que se benefició de la tecnología de la Revolución Verde, se multiplicó por diez y, consecuentemente, los precios cayeron. Norman Borlaug, el genetista que fue el padre de la Revolución Verde, fue galardonado por sus logros con el Premio Nobel de la Paz.

Una característica esencial de la nueva tecnología agrícola era el cultivo de los cereales en forma de monocultivos fertilizados e irrigados –un solo cultivo cada vez, en campos enormes. En estos campos inmensos, las plantas eran más accesibles a la maquinaria que aplicaba no sólo el fertilizante químico necesario, sino también los insecticidas, herbicidas y fungicidas que habían sido desarrollados recientemente y que eran necesarios para proteger a los vulnerables cultivos de las plagas de insectos, de las malas hierbas y de los hongos que prosperan en los monocultivos. Los campos grandes también permitían un uso más eficiente de los aparatos de riego que aportaban agua para diluir el fertilizante en el suelo y para regar los cultivos enanos, cuyos sistemas radicales eran menos capaces de extraer el agua de los suelos secos que las raíces de las variedades tradicionales.

El espectacular aumento de la producción que trajo consigo la Revolución Verde llegó a su punto culminante en las décadas de los años 60, 70 y 80 del siglo XX. En los 90, ya se estaba haciendo patente que la producción, especialmente la de trigo y arroz, había comenzado a estabilizarse. Los agricultores de todo el mundo habían logrado el máximo beneficio que la tecnología podía ofrecerles. Lester R. Brown, por entonces presidente del Worldwatch Institute, escribió en 1997:

En todo entorno agrícola, en el cual la producción haya aumentado sustancialmente, llega un momento en que el incremento frena e incluso se para o muestra indicios de hacerlo … Durante las cuatro décadas que van desde 1950 a 1990, los cultivadores de cereales del mundo elevaron la productividad de sus tierras en un inaudito 2,1 por ciento al año pero, a partir de 1990, ha habido una dramática pérdida de empuje en dicho aumento.2

Según Vital Signs 2006-2007, la producción de grano por persona alcanzó su máximo alrededor de 1985.3 Una población mundial creciente (un crecimiento impulsado, irónicamente, por la Revolución Verde) necesita más alimento, sin embargo el suministro ya no está aumentando proporcionalmente.

No obstante, la gente se había acostumbrado a la idea de que la tecnología resolvería sus problemas alimentarios, y la tecnología parecía estar a punto de responder. La ingeniería genética de los cultivos de alimentos tomó protagonismo en los 90 y a principios del siglo XXI. La gente esperaba que los cultivos genéticamente modificados (GM) acabasen con el hambre en el mundo.

Sin embargo, el gran aumento en la producción de los cultivos que se suponía que sería el resultado de la ingeniería genética no se ha hecho realidad, y parece poco probable que lo haga en un futuro próximo. De hecho, comparada con la de los cultivos convencionales, la producción de los GM a menudo ha decrecido y, a veces, la calidad de las semillas GM es mala.4 Sin embargo, a pesar de estos resultados mediocres, a principios de la segunda década de este siglo, la superficie ocupada por cultivos GM en los Estados Unidos, Brasil, China y otros países se había incrementado notablemente. Este incremento ocurrió por diversas razones, algunas de ellas relacionadas con las ventajas transitorias de los nuevos cultivos, pero otro factor significativo fue el vínculo entre las ayudas económicas y el poder político de las multinacionales que producen las semillas GM. Por otro lado, las naciones de la Unión Europea y la India han rechazado en gran medida los cultivos GM por miedo a sus efectos colaterales biológicos y socioeconómicos.

En el momento en que escribo esto, los partidarios de la ingeniería genética y sus opositores están librando una feroz batalla, con victorias y derrotas en ambos bandos. No es probable que la ingeniería genética desaparezca, pero su promesa de que podría acabar con el hambre en el mundo no tiene una base real; los cultivos GM no son otra Revolución Verde.

¿Qué es lo que falló después de cuarenta años de Revolución Verde? Y luego, más rápidamente, ¿qué pasó con la ingeniería genética?

La Revolución Verde fue víctima de multitud de problemas irresolubles. Dependía enteramente de una fuente de energía barata para producir el fertilizante de nitrógeno sintético, para fabricar y hacer funcionar la maquinaria que se necesita en los campos de monocultivo y para empaquetar y transportar las cosechas a mercados distantes. En los 70, y especialmente en los 90, la energía barata empezó a convertirse en algo del pasado.

Los campos de monocultivo, que constituían una parte fundamental de la Revolución Verde, estaban causando también problemas graves. La maquinaria pesada usada en los campos estaba compactando y destruyendo los suelos, aumentando la erosión y disminuyendo la fertilidad de las tierras. Los productos químicos usados para combatir las plagas, las malas hierbas y las enfermedades, que son un sello distintivo de los monocultivos, estaban afectando a la integridad de los ecosistemas a la vez que a la salud de los seres humanos y de otras especies. El regadío precisaba de grandes cantidades de energía y estaba haciendo descender las escasas reservas de agua subterránea. Y el paso de muchas granjas pequeñas a un número menor de explotaciones grandes, combinado con la sustitución de los trabajadores agrícolas por la labor de las máquinas, causó una emigración en masa desde las áreas rurales a las ciudades en todo el mundo, desde Sao Paulo hasta Manila, creando inmensos arrabales suburbanos.

La ingeniería genética ha tenido menos tiempo que la Revolución Verde para que sus problemas se hagan patentes, pero hasta la fecha parecen igualmente numerosos e insolubles. Algunos son específicos de esta tecnología, otros son compartidos con la Revolución Verde.

Uno de los problemas específicos de la ingeniería genética es el de sus exageradas proclamas basadas en una falacia genética. Es bien sabido que la mayoría de los genes tienen más de una función, a menudo muchas más, y que la expresión de esas funciones puede verse influida por el cambiante entorno de la célula, del organismo en su conjunto y del mundo exterior. Sin embargo el bombo publicitario que rodea a la ingeniería genética se basa en la falsa creencia de que cada gen hace sólo una cosa –incluso cuando un gen es trasladado de una especie a otra- y de que su expresión permanece constante a lo largo del tiempo. A veces esto es cierto; pero con mucha frecuencia no lo es. El público ve sólo la ilusión de “un gen, una función”. La alta tasa de fracaso de la ingeniería genética es la prueba de que no se puede confiar en este bombo publicitario. Por ejemplo, en marzo del 2012, Reuters informó de que un grupo de fisiólogos vegetales estaba advirtiendo que el maíz GM de Monsanto, que había sido modificado para resistir al gusano de la raíz del maíz[ii], estaba “perdiendo su eficacia”, pudiendo acarrear potenciales “pérdidas significativas de producción”. De modo similar, en noviembre del 2011, el Departamento de Agricultura de los Estados Unidos, en un extenso estudio acerca del maíz “tolerante a la sequía” de Monsanto (MON87460), llegó a la conclusión de que “hay variedades fácilmente disponibles igualmente resistentes a la sequía y producidas con técnicas de selección tradicionales”.5

A pesar de lo que afirma la agroindustria, los cultivos genéticamente modificados han provocado un aumento del uso de pesticidas. Esto no resulta sorprendente, ya que las compañías que desarrollan y venden las semillas son las mismas que fabrican los productos químicos agrícolas. Por ejemplo, las semillas genéticamente modificadas para contener un pesticida bacteriológico, la toxina Bt, una toxina que aparece de forma natural en las bacterias de la especie Bacillus thuringensis, matan a algunas plagas, pero su uso da como resultado el fortalecimiento de otras plagas que previamente eran consideradas perturbaciones secundarias, ya que éstas se apresuran a llenar el nicho ecológico vacío, ocasionando consecuencias inesperadas. En un artículo de la revista Nature de mayo del 2010, Jane Qiu ofrece un ejemplo:

Más de cuatro millones de hectáreas de algodón Bt [GM] son cultivadas hoy en día en China. Desde que el cultivo fue aprobado, un equipo dirigido por Kongming Wu, entomólogo de la Academia China de Ciencias Agrícolas de Pekín, ha hecho un seguimiento de las poblaciones de plagas en 38 localidades del norte de China, observando 3 millones de hectáreas de algodón … descubrieron que el número de chinches míridos[iii] … que anteriormente eran sólo plagas secundarias en el norte de China, se ha multiplicado por 12 desde 1997 … [y según Kongming Wu] “los míridos no son sensibles a la toxina Bt, de modo que comenzaron a prosperar cuando los agricultores comenzaron a usar menos pesticida [para los gusanos de la cápsula[iv]]”[v]. [Los míridos también comen] judías verdes, cereales, hortalizas y diversas frutas … el aumento de míridos ha hecho que los agricultures chinos vuelvan a los pesticidas.6

Un problema quizá más grave causado por la tecnología agrícola –tanto por la Revolución Verde como por la ingeniería genética- es la erosión de la base genética de la que depende toda forma de agricultura. Durante más de diez mil años, los agricultores han estado cultivando y guardando semillas de aquellas plantas que han considerado más productivas, más resistentes a las plagas, las enfermedades, la sequía y las inundaciones y más sabrosas. Decenas de miles de variedades locales de plantas de cultivo resistentes que producen alimento de alta calidad incluso en condiciones adversas son el legado de todos estos milenios de agricultura. Las mejores semillas han sido siempre guardadas y pasadas a la siguiente generación por los agricultores que las cultivaban, y, desde el siglo XIX, han sido también producidas y vendidas por muchas empresas de semillas. Sin embargo, empezando con la Revolución Verde y aumentando el ritmo con la aparición de la ingeniería genética, las restrictivas leyes de patentes y el creciente poder de las compañías agroquímicas (que hoy en día poseen la mayoría de las empresas de semillas) han causado la pérdida de miles de variedades de cultivos preexistentes. Muchas de las empresas dueñas de estas variedades han dejado deliberadamente de producirlas para así allanar el camino a sus propias semillas patentadas. Hoy en día, las leyes restrictivas de algunos países castigan a los agricultores que guardan sus semillas. La pérdida de variedades agrícolas es un fenómeno a nivel mundial. Por ejemplo, según el Dr. H. Sudarshan, en la India, donde se estima que durante la primera mitad del siglo XX había 30.000 variedades nativas de arroz, se prevé ahora que pronto sólo quedarán 50 variedades, con las diez principales ocupando más de las tres cuartas partes de la superficie cultivada de arroz en ese subcontinente.7

La expansión de los cultivos genéticamente manipulados se está convirtiendo en una amenaza para las variedades tradicionales y para los parientes silvestres de nuestros cultivos. Aunque las grandes empresas afirmen lo contrario, los genes modificados están escapando de los campos de cultivo y contaminando los acervos genéticos de los cultivos tradicionales y de sus parientes silvestres. Es una paradoja que el éxito de la Revolución Verde, de los cultivos GM y de la agricultura convencional dependa en gran medida de la preservación de acervos genéticos que están siendo hoy en día deliberadamente descartados por la agroindustria, aniquilados por los herbicidas o accidentalmente contaminados por genes modificados. Los ingenieros genéticos están serrando la propia rama sobre la que están sentados.

Otro efecto de la contaminación genética es la transferencia, desde los cultivos a las malas hierbas, de los genes que confieren los rasgos genéticamente modificados. En otro artículo de noticias aparecido más recientemente en Nature, en agosto del 2013, Jane Qiu informa de que los transgenes de cultivos de arroz genéticamente modificados para resistir al herbicida glifosato se han mezclado con los de algunas malas hierbas que son parientes silvestres del arroz. Las malas hierbas no sólo se han vuelto resistentes a los herbicidas, sino que ahora tienen mayores tasas de fotosíntesis, echan más brotes y flores y producen entre un 48 y un 125 por ciento más de semillas por planta que sus parientes no transgénicas. Un ecólogo de la Universidad Fudan de Shangai señala que “hacer que una mala hierba emparentada con el arroz sea más competitiva podría agravar los problemas que dicha mala hierba causa a los agricultores en todo el mundo”.8

Los monocultivos han sido alabados por su alta producción, pero incluso esto parece ser una ilusión. La física y científica agrícola Vandana Shiva ha puesto en evidencia lo que ella llama “el mito de la productividad”.9 Los sistemas de policultivo tradicionales, en los que muchos cultivos diferentes son cultivados unos cerca de otros en una misma explotación agrícola, realmente producen más alimento por unidad de superficie que los monocultivos modernos. Una mezcla de maíz, mandioca y cacahuetes produce menos maíz por acre[vi] que un monocultivo de maíz GM, pero produce dos veces y media más alimento por acre. Tal y como Shiva señala, “Los agricultores mayas del estado mexicano de Chiapas son tachados de improductivos porque producen sólo dos toneladas de maíz por acre. Sin embargo, la producción total de alimento es de veinte toneladas”. Shiva extrae como conclusión que “el cultivo industrial ha reducido en realidad la seguridad alimentaria al destruir las pequeñas explotaciones agrícolas y la capacidad de los pequeños agricultores para producir diversas cosechas de cultivos nutritivos”.

Producción sostenible de energía

Fue la energía barata la que impulsó la Revolución Verde y toda la revolución industrial del siglo XX. La principal fuente de energía era el petróleo, una fuente de energía concentrada que era fácil de extraer del subsuelo. El carbón y el gas natural completaban el trío de los “combustibles fósiles”, sustancias ricas en carbono que eran el resultado de millones de años de degradación de plantas enterradas profundamente bajo tierra. Aunque inmensas, las reservas de combustibles fósiles son finitas y las partes fácilmente extraíbles de dichas reservas se han agotado en gran medida.

Tal como señaló el físico Albert Barlett,10 con un aumento en el consumo de combustible del 7 por ciento al año, una tasa de crecimiento típica del siglo XX, la cantidad de petróleo consumido en diez años es igual al total de petróleo consumido a lo largo de toda la historia anterior a esa década. En otras palabras, la simple aritmética nos muestra que si el consumo de petróleo crece a un ritmo del 7 por ciento al año entre los años 2010 y 2020, durante esa misma década habremos usado una cantidad de petróleo igual a todo el petróleo consumido a lo largo de todos los años previos al 2010. Estaba claro que estas tasas de extracción no podían continuar, y no lo han hecho. El economista Herbert Stein lo expresó de forma sucinta en lo que se ha dado en llamar la Ley de Stein: “Si algo no puede seguir en marcha para siempre, se acabará parando”.

La energía barata que ha ayudado a producir la civilización industrial está casi agotada, como sabe cualquiera que compre gasolina. Este autor recuerda una vez, en plena “guerra de la gasolina”, durante los años 50, haber comprado gasolina a 11 centavos el galón[vii] para llenar el depósito de su traga-gasolina[viii]; ahora la gasolina es más de treinta veces más cara. Una parte de la diferencia se debe a la caída en el valor del dólar; la mayor parte de ella es debida a las menguantes existencias de petróleo barato. Las tecnologías modernas de prospección de nuevas reservas de petróleo son muy sofisticadas, sin embargo los descubrimientos de nuevas reservas de petróleo llegaron a su punto culminante en los años 60. Y el consumo de petróleo continúa creciendo, impulsado por la demanda de los consumidores y la expansión industrial en China y la India. Sin embargo, según World Energy Outlook 2010, la producción global de petróleo alcanzó su punto culminante en el 2006 y se espera que decline desde 70 millones de barriles al día en el 2006 a menos de 16 millones en el 2035. La Agencia Internacional de la Energía, el Centro de Mando de las Fuerzas Conjuntas de los EE.UU.[ix] y las propias compañías petroleras saben que el petróleo barato es cosa del pasado.

La desaparición del petróleo barato (y petróleo barato = energía barata) es un hecho irrebatible, de modo que los tecnófilos han cambiado su foco de atención hacia la idea de que la tecnología inventará sustitutos del petróleo para suministrar energía a nuestra civilización tecnológica, y mantienen vivas sus esperanzas de que la energía barata seguirá estando disponible para hacer funcionar un planeta gestionado. Conversión del carbón en carburante líquido; fisión o fusión nucleares; hidrógeno; arenas y esquistos bituminosos; fractura hidráulica para obtener gas natural; perforación de pozos petrolíferos y gasísticos marinos cerca de la costa o en alta mar; y las “renovables”, incluyendo  la energía solar, la eólica y los biocombustibles. Se espera que todas ellas nos salven.

Sin embargo, los fríos hechos hacen añicos este sueño. Ciertamente, los tan celebrados sustitutos del petróleo son, casi todos ellos, técnicamente factibles y se ha demostrado que funcionan, pero todos presentan uno o más problemas graves. Requieren una inversión a gran escala y tienen unos periodos de puesta en marcha largos. Con frecuencia necesitan considerables ayudas económicas por parte de los gobiernos. Algunos de ellos causan de forma rutinaria graves daños medioambientales y emiten grandes cantidades de gases de efecto invernadero. Algunos están sometidos a un elevado riesgo de accidentes graves. Sus procesamientos pueden conllevar una gran demanda de reservas de agua dulce escasas y pueden requerir grandes aportes de energía para la producción. Puede que no sean capaces de producir la suficiente cantidad de energía como para reemplazar la que hoy en día consumimos. Y es seguro que todos los nuevos sustitutos son más caros, a menudo mucho más caros, que el petróleo convencional.

Vaclav Smil, de la Universidad de Manitoba, uno de los principales expertos en energía a nivel mundial, escribía en el número de mayo-junio del 2011 de American Scientist acerca de los sustitutos del petróleo convencional y los denominaba “los últimos encaprichamientos”.11 Le recordaban a los científicos de la gran academia de Lagado, de Los Viajes de Gulliver, que habían invertido ocho años en un proyecto para extraer rayos de sol de los pepinos. (En realidad, como se menciona más adelante, los pepinos probablemente podrían ser usados para obtener biocombustible, pero nadie en su sano juicio pensaría que las necesidades energéticas de mundo podrían ser satisfechas usando pepinos).

El entusiasmo por las nuevas fuentes de energía primero aumenta y después disminuye, como ocurre con todas las nuevas modas pasajeras. Hace unos pocos años la novedad era el hidrógeno: los coches y los sistemas de energía distribuida[x] alimentados con hidrógeno causaban furor. Sin embargo, cuando la gente se paró a pensar, se dio cuenta de que el hidrógeno no es una fuente primaria de energía (no hay pozos de hidrógeno) –se necesita dinero y energía para extraerlo del gas natural o del agua. Además, el hidrógeno es altamente explosivo (recuérdese el desastre del Hindenburg[xi]), es corrosivo e, incluso en forma líquida, contiene mucha menos energía por galón que el petróleo. No es de extrañar que se oiga menos hablar acerca de los coches de hidrógeno hoy en día que en el 2002.

Antes de la moda del hidrógeno, la fusión nuclear iba a ser nuestra salvación. Se pensaba que el agua de mar normal y corriente, que se consideraba un recurso inagotable, serviría como combustible para los reactores de fusión. Las primeras patentes para reactores de fusión se registraron en 1946. En el 2012, después de sesenta y seis años y millones de dólares invertidos en investigación y desarrollo, asistí a una conferencia dada por una eminente científica especializada en la fusión que seguía siendo igual de entusiasta acerca del ilimitado potencial de la fusión. Cuando se le preguntó cuánto tiempo se necesitaría para conseguir un reactor que funcionase, respondió que unos treinta o cuarenta años más.

Las centrales de fisión nuclear llevan existiendo desde hace décadas en muchos países. La central nuclear para la producción eléctrica comercial más vieja en funcionamiento de los Estados Unidos, la central de Oyster Creek en Nueva Jersey, lleva produciendo electricidad desde 1969, y no se prevé cerrarla hasta el 2019. Hasta el desastre de Fukushima Daiichi, causado por el terremoto y el tsunami de Tohoku en marzo del 2011, mucha gente asumía (a pesar de los accidentes previos de las centrales de Three Mile Island y Chernobyl) que la energía nuclear facilitaría la transición a un mundo nuevo basado en las energías renovables. Desde Fukushima, la fisión se ha convertido en una causa de preocupación creciente: se están construyendo pocos reactores nuevos; Alemania ha anunciado que abandonará completamente la producción nuclear de energía eléctrica en el 2022; y, tras Fukushima, Japón cerró o suspendió sus 50 reactores nucleares.

Además, como señaló Mark Bittman en The New York Times, el 24 de agosto del 2013:

Los peligros de la minería del uranio, que usa grandes cantidades de agua … apenas [son] regulados o siquiera estudiados. Miles de minas de uranio han sido abandonadas y nadie parece saber cuántas quedan por limpiar… El coste de dicha limpieza … será pagado por los contribuyentes … Luego está la eliminación del combustible nuclear agotado … Increíblemente, tras décadas inmersos en la era nuclear aún no existe un plan real para eliminar esos residuos … La viabilidad económica de la producción de energía eléctrica nuclear no es más alentadora. Las centrales continúan cerrándose y las tasas de producción siguen cayendo … Las ayudas económicas estatales a la energía nuclear han supuesto más del doble de los propios gastos de generación de energía.12

Los esquistos bituminosos de los Estados Unidos y las arenas asfálticas de Canadá contienen grandes reservas de petróleo, pero el daño medioambiental asociado a la extracción de este petróleo es inmenso, para dicho proceso se usa una gran cantidad de agua dulce, su Tasa de Retorno Energético (TRE), la cantidad de energía producida dividida entre la cantidad de energía invertida, es terrible –de sólo unos tres barriles de petróleo producidos por cada dos barriles gastados- y la necesidad de construir oleoductos para transportar a lo largo de muchas millas el petróleo crudo, pesado y tóxico, desde los remotos lugares de producción hasta las distantes refinerías, genera graves problemas políticos y medioambientales. El petróleo procedente de debajo del fondo marino, otra fuente de energía anunciada a bombo y platillo, es extremadamente caro y sufrió un serio revés con la explosión de la Deepwater Horizon[xii]. La construcción de la plataforma petrolífera Deepwater Horizon costó mil millones de dólares y su funcionamiento supuso un gasto de medio millón de dólares al día –mientras duró.13

Las mejoras en la eficacia de la producción y del uso de la energía pueden suponer el ahorro de una gran cantidad de energía. Estas mejoras son deseables y posibles. Sin embargo, repito, es poco probable que satisfagan las necesidades energéticas de un planeta intensamente gestionado. La agricultura moderna tiene una eficacia energética mucho menor que la de los sistemas agrícolas tradicionales, que aprovechan los aportes gratuitos de energía que ofrece la naturaleza. E, incluso cuando se consigue aumentar la eficacia, hay que contar con la paradoja de Jevons, descrita por vez primera por el economista inglés W. Stanley Jevons en 1866: el incremento en la eficacia de la extracción produce un descenso en los costes del carbón, lo cual a su vez causa un aumento de su consumo, a modo de rebote. Esta paradoja es aplicable a otras fuentes de energía además de al carbón.[xiii] 

Energías renovables. Echemos un vistazo más de cerca a las energías renovables: solar, eólica y biocombustibles, la gran esperanza de los neoverdes. Según Smil, el renacimiento de las energías renovables “ha creado expectativas exageradas en lugar de valoraciones realistas”. En el 2011, escribía:

Los promotores de las nuevas conversiones renovables de energía que hoy parecen tener las mejores probabilidades de hacer contribuciones significativas a corto plazo –los biocombustibles modernos (etanol y biodiesel) y la generación solar y eólica de electricidad- no otorgan el peso suficiente a los hechos físicos relativos al abandono global de los combustibles fósiles: a la escala de las transformaciones requeridas, a su probable duración, a las capacidades unitarias de los nuevos convertidores, a los enormes requisitos infraestructurales que se derivan de las inherentemente bajas densidades de energía que podemos obtener de los flujos de renovación de la energía y a su [irregularidad].14

Energía solar. En su bien documentado libro Green Illusions, el ecologista Ozzie Zehner dice:

Si los costes de los proyectos solares realmente instalados en California sirven de guía, un programa solar global [para reemplazar a los combustibles fósiles a la hora de suministrar energía al planeta] costaría aproximadamente 1.400 billones[xiv] de dólares, unas cien veces el PIB de los Estados Unidos. La minería, fundición, procesado, transporte y fabricación necesarias para construir los paneles [solares] y la infraestructura tecnológica asociada a ellos producirían cerca de 149.000 megatoneladas de CO2. Y todos deberíamos trasladarnos al desierto, ya que, de otro modo, las pérdidas debidas a la transmisión harían el plan inviable.15

Puede que los costes futuros de los paneles solares se reduzcan mediante innovaciones tecnológicas (es posible que los costes hayan empezado a estabilizarse ya), pero como señala Zehner:

Unos dispositivos fotovoltaicos más baratos no compensarán los crecientes gastos en seguros, garantías, materiales, transporte, trabajo y otros requisitos. Los costes de la baja tecnología reclaman una proporción cada vez mayor del precio que aparece en la etiqueta de un sistema solar de alta tecnología.16

La energía solar pasiva, que supone ahorrar energía en calefacción y aire acondicionado obtenidos mediante construcciones y diseños arquitectónicos sofisticados, lleva probando su valía durante milenios, como ya demostraron en el siglo X los nativos de lo que hoy es Nuevo México, con ese complejo de viviendas, increíblemente eficiente a nivel energético, que hoy en día llamamos Pueblo Bonito[xv]. La eficiencia energética se tuvo en cuenta desde el inicio de la construcción de Pueblo Bonito. Las casas solares pasivas modernas que se edifican hoy en día pueden tener una eficiencia energética igual y es un placer vivir en ellas. Sin embargo, muchos, quizá la mayoría, de los hogares existentes en la actualidad tienen un potencial limitado de mejora solar pasiva.

La energía solar tiene un importante papel que jugar como una de las fuentes energéticas del futuro, pero no parece que esté a punto de reemplazar al petróleo barato en el mantenimiento de nuestra actual civilización industrial.

Energía eólica. La energía eólica, como la solar, está recibiendo gran cantidad de alabanzas entusiastas, algunas de ellas justificadas. Me hallo entre los que encuentran emotiva y bella la visión de una fila de gigantescas e imponentes turbinas eólicas con sus aspas moviéndose lentamente, pero he de admitir que no vivo cerca de ellas. Dinamarca es la pionera de la energía eólica: en el 2012, Dinamarca obtuvo del viento entre el 25 y el 35 por ciento de su electricidad, y ahora este país espera elevar estas cifras a un 50 por ciento o más. Dinamarca también produce la mitad de las turbinas eólicas del mundo. Como ocurre con la energía solar, la eólica tiene mucho que ofrecer en un futuro energéticamente no muy halagüeño. Sin embargo, no todo en la energía eólica es miel sobre hojuelas.

En The New York Times del 15 de agosto del 2013, Diane Cardwell relata los problemas experimentados por la compañía Green Mountain Power, cuyas turbinas eólicas se alinean sobre la cumbre del monte Lowell, en Vermont.17 Estos problemas son los típicos experimentados por la industria de la energía eólica. Algunas de las dificultades conllevan “restricciones”, cortes obligatorios en la producción de energía cuando la red de suministro no acepta la energía eléctrica de origen eólico, bien porque la compañía eléctrica puede obtener electricidad más barata en otra parte o por razones técnicas que tienen que ver con la relación entre la energía eléctrica generada con combustibles fósiles y la energía eólica. Otras dificultades están relacionadas con el tamaño de las líneas que transportan la electricidad. Cuando se producen las restricciones, las turbinas eólicas deben funcionar a sólo una fracción de su rendimiento potencial. En su artículo, titulado “Intermittent Nature of Green Power Is Challenge for Utilities”, Cardwell escribe:

Dado que la energía producida por el viento … es intermitente, su capacidad de generación es más difícil de predecir que la de la producción eléctrica convencional. Y la ausencia de métodos de almacenamiento de la electricidad generada por el viento que sean ampliamente disponibles y rentables no hace sino complicar el ya de por sí complejo mercado actual … [Un alto cargo de una empresa de energía eólica señalaba que], funcionando a plena capacidad, puede perder 1.000$ a la hora si la electricidad no se vende. “Tenemos una red de suministro que no es inteligente … es un sistema que tiene cien años. Y lo dirigen como si las energías fósiles y la nuclear fuesen las únicas que importasen y pudiesen jugar con el resto de nosotros” decía.18

Integrar la electricidad de origen eólico en un sistema eléctrico que recibe aportes de las centrales que usan combustibles fósiles y de las nucleares, además de los aportes, cada vez más abundantes, procedentes de las instalaciones solares, supone abrumadores desafíos económicos y técnicos. Con el tiempo, algunos de ellos serán bastante sencillos de resolver, otros, como la dificultad o imposibilidad de almacenar el exceso de electricidad producida por el viento cuando la red no puede aceptarla, son mucho más difíciles de solucionar.

Entre los otros problemas que forman parte inseparable de la energía eólica están que las turbinas eólicas matan murciélagos y aves migratorias, que las instalaciones eólicas para la producción de electricidad en los tejados de los edificios de las ciudades son ruidosas y difíciles de mantener, que la instalación de turbinas en lo alto de las crestas montañosas daña y fragmenta algunos de los últimos hábitats no perturbados de la fauna salvaje y que muchas personas se quejan de que las grandes turbinas estropean las vistas del campo o del litoral en los alrededores de sus hogares.

Las muertes de murciélagos y aves causadas por las turbinas son fáciles de documentar. Han sido publicados numerosos recuentos de aves y murciélagos muertos recogidos bajo las turbinas; pero aún no existen pruebas de que población alguna se esté viendo amenazada por la energía eólica y algunos estudios con radar han mostrado que las aves vuelan sin problemas sobre las turbinas durante las migraciones. La producción eléctrica eólica urbana en lo alto de los edificios altos ha sido promovida por los neoverdes como una fuente renovable de energía en las ciudades, pero es muy probable que los problemas del ruido y del mantenimiento limiten el potencial de la energía eólica urbana para un futuro cercano. Incluso fuera de las ciudades, alguna gente que vive cerca de turbinas eólicas en áreas rurales se queja de problemas de salud tales como insomnio, ansiedad, palpitaciones y nauseas, supuestamente relacionados con el ruido de baja frecuencia. La existencia de este “Síndrome de la Turbina Eólica” aún se está debatiendo.19 Y en lo que respecta a la cuestión de la fealdad de los molinos, no hay una respuesta adecuada; a unos les encantan y a otros no.

Biocombustibles. Los biocombustibles son otra dudosa bendición como sustitutos de la energía en vías de extinción procedente de los combustibles fósiles. La idea de los biocombustibles es sencilla: usar vegetales para capturar la energía del sol (como los pepinos de Lagado) y extraer parte de dicha energía de nuevo a partir de las sustancias ricas en energía producidas por esas plantas (azúcares e hidrocarburos) que pueden o bien ser transformadas en carburantes, como el etanol, mediante procesos químicos o bien ser usadas directamente como sustitutos del diesel. El maíz, la caña de azúcar, la soja, la colza, la palma y otros árboles que producen aceite, las gramíneas, las algas y la planta del desierto conocida como jatrofa[xvi] son algunos de los vegetales usados para producir biocombustibles.

Al igual que las energías solar y eólica, los biocombustibles tienen su lado oscuro. Algunas de las plantas cultivadas para producir biocarburantes, especialmente las gramíneas, peden escapar de los campos de cultivo y convertirse en especies invasivas, especialmente dañinas para la agricultura.

La TRE de los biocombustibles es preocupante. El etanol obtenido a partir del maíz en la región central de los Estados Unidos tiene una TRE cercana a 1 o menos, lo cual significa que si sumamos la energía total gastada en cultivar el maíz, cosecharlo y procesarlo, nos encontramos con que la cantidad de energía que obtenemos es solamente la misma o menos que la que hemos invertido; una apuesta claramente perdedora. Mientras tanto, habremos agotado una tierra que podría haber sido usada para cultivar comida y, asimismo, habremos elevado el precio del maíz. La TRE de otros biocombustibles puede que sea mejor que la del etanol de maíz, pero no siempre es lo suficientemente alta como para que compense el resto de dificultades propias de esta tecnología.

Si los resultados del etanol de maíz son tan pobres, ¿por qué la región central de los Estados Unidos sigue produciéndolo en gran cantidad? La respuesta es política: los estados centrales de los Estados Unidos reciben enormes subvenciones federales para cultivar maíz y producir etanol, y pocos políticos están dispuestos a decir la verdad acerca del etanol de maíz y arriesgase así a enfadar a los votantes de esa región.

Mientras la tierra es usada para cultivar plantas productoras de biocombustible deja de estar disponible para cultivar alimento en un mundo hambriento. Es verdad que plantas como la jatrofa crecen bien en suelos secos y desprovistos de nutrientes que no son adecuados para otros cultivos, pero el suministro previsible de biocombustible derivado de la jatrofa podría hacer funcionar sólo a una pequeña parte de los vehículos del mundo.

Timothy Beardsley resumió los problemas asociados a los biocombustibles en la editorial titulada “Biofuels Reassessed”, del número de BioScience de octubre del 2012:

Se necesita mucha tierra, mucha agua y mucha energía para cultivar plantas para obtener biocombustibles y luego convertirlas en combustibles utilizables. El desplazamiento de los cultivos alimentarios por parte de los biocombustibles ha elevado ya los precios de la comida y muchos han dicho que estos efectos pondrán un límite a la aventura de los biocombustibles … los entusiastas tienen razón cuando afirman que las mejoras [en la tecnología de los biocombustibles] son posibles … y la gravedad de la inminente crisis energética –aliviada sólo en parte, a un coste medioambiental sustancial, por la fractura hidráulica- requiere que dichas mejoras se sigan intentando. Sin embargo … es importante entender las limitaciones de los biocombustibles.20

Beradsley cita estudios científicos que muestran cómo la cantidad de biocarburantes que se podría producir globalmente es cuatro veces menor que las estimaciones publicadas previamente:

Todas estas cifras excluyen las pérdidas debidas a la fabricación del combustible … la producción primaria real en la actualidad sugiere con fuerza que los biocombustibles pueden prometer menos de lo que muchos habían creído … Algunos biocarburantes nuevos pueden aliviar ya los problemas de la humanidad, pero nadie debería hacerse ilusiones acerca de las restricciones que la naturaleza –en última instancia, por medio de las leyes de la termodinámica- ha puesto en su camino.21

Para cerrar esta sección acerca de las energías renovables, deberíamos tener en cuenta las palabras de Vaclav Smil: “Ninguno de nosotros puede prever la forma final de los planes sobre las nuevas energías, pero, ¿podrían los países más ricos del mundo equivocarse si tratasen de moderar su uso de energía?” 22. En otras palabras, lo mejor que podemos hacer para administrar la Tierra y nuestra propia civilización es depender menos de las tecnologías de control y más de la regulación de nuestro propio consumo autodestructivo.

Geoingeniería para controlar el cambio climático

Para empezar, el cambio climático es un hecho. En 1981, el físico de la NASA James Hansen calculó cuánto esperaba él que cambiase el clima en un futuro cercano, basándose en las emisiones de CO2 causadas por el hombre. Tres décadas después, estos cálculos han demostrado ser excepcionalmente precisos.23 Las temperaturas se han elevado hasta igualar o sobrepasar los niveles predichos por Hansen; el hielo polar se está derritiendo; y las áreas proclives a la sequía están recibiendo menos precipitaciones. En los últimos años, otras consecuencias del cambio climático –tormentas más fuertes y más frecuentes y niveles marinos ascendentes- nos han obligado a prestarlas atención. El 9 de mayo del 2012, en un artículo del New York Times, Hansen decía que si seguíamos quemando combustibles fósiles convencionales y explotando las arenas bituminosas de Canadá:

Las concentraciones de dióxido de carbono en la atmósfera acabarían alcanzando niveles más altos que los del Plioceno, hace más de 2,5 millones de años, cuando el nivel del mar era al menos 50 pies[xvii] más alto de lo que lo es hoy … la desintegración de los casquetes de hielo se aceleraría sin control. Los niveles del mar se elevarían y destruirían las ciudades costeras. Las temperaturas globales se volverían intolerables. Entre un 20 y un 50 por ciento de las especies del planeta se verían empujadas a la extinción. La civilización estaría en peligro. Este es el paronama a largo plazo. Pero, a corto plazo, las cosas serían ya lo bastante malas. A lo largo de las próximas décadas, el oeste de los Estados Unidos y la región semiárida que se extiende entre Dakota del Norte y Texas desarrollaría una sequía semipermanente, con lluvias cayendo, si llegan a caer, de forma esporádica y torrencial, provocando graves inundaciones. Las pérdidas económicas serían incalculables. Cada vez más superficie de la región central de los Estados Unidos sería un “dust bowl”[xviii]. El Valle Central de California ya no podría ser regado. Los precios de los alimentos se elevarían hasta niveles sin precedentes.24

Otras partes del mundo, incluidas las naciones más pobladas, China y la India, ya están notando los efectos del cambio climático. En China, el desierto del Gobi se está expandiendo, moviéndose hacia el Río Amarillo, y está ya a 100 millas de Pekín. El crecimiento del Gobi no sólo es el resultado del cambio climático, sino también del uso descuidado del agua subterránea y de la tala indiscriminada en el pasado. El uso de agua subterránea y las talas pueden ser y de hecho están siendo controlados en cierta medida por el gobierno, y millones de árboles están siendo plantados en los bordes del desierto para detener su avance, pero el calentamiento global es una presencia constante. En la India, hoy en día el sexto mayor emisor de gases de efecto invernadero (dióxido de carbono, metano y óxido nitroso) del mundo, las inundaciones catastróficas han sido atribuidas al cambio climático; el deshielo de las masas de hielo del Hindu Kush se está acelerando; y el aumento del nivel del mar está empujando el agua salada dentro de los acuíferos costeros, contaminando el agua potable.

La solución al problema del cambio climático es obvia: hemos de parar inmediatamente la expansión de la liberación de gases de efecto invernadero y empezar rápidamente a reducirla por debajo de los niveles actuales. Varias y muy publicitadas reuniones de gobiernos han afrontado este asunto, con algunos resultados positivos. Sin embargo, los acuerdos medioambientales internacionales están sometidos a compromisos y demoras; y, mientras, los niveles de gases de efecto invernadero siguen elevándose.

Impacientes respecto a los procesos políticos, algunos científicos han decidido que la geoingeniería presenta las mejores expectativas a la hora de gestionar nuestro planeta. Las soluciones de la geoingeniería entran dentro de tres categorías: atenuar la luz solar que llega a la Tierra, usar la fotosíntesis de los vegetales para absorber y reducir el dióxido de carbono ya presente en la atmósfera y capturar el dióxido de carbono, transformándolo en carbón y enterrándolo en la Tierra.

Han sido propuestos diversos modos de reducir la luz solar que alcanza la Tierra. Una solución, inspirada en la observación de los efectos de las erupciones volcánicas, sería rociar la estratosfera con un aerosol de sulfatos que reflejen la luz solar, quizá desde globos gigantescos. Algunos otros proyectos barajan usar cohetes para enviar minúsculos reflectores al espacio, plantar cultivos modificados genéticamente para tener unos colores más claros y reflejar así la luz solar, pintar todos los tejados de blanco y cubrir todos los desiertos de la Tierra con PET[xix] reflectante.

Algunas de estas ideas, como la de cubrir los desiertos con plástico o la de los cultivos de colores claros, son tan descabelladas que no merecen comentario alguno. Tras una cuidadosa evaluación, la mayoría de los proyectos, como pintar de blanco todos los tejados, no tendrían un efecto suficientemente importante como para suponer una diferencia significativa en lo que respecta al calentamiento global. Inyectar 5 millones de toneladas de sulfatos al año en la estratosfera (al igual que otros proyectos basados en crear sombra de luz solar) podría suponer realmente una diferencia, especialmente en los trópicos, pero también podría perturbar los monzones, trayendo hambrunas para millones de personas y, según el científico de Oxford Tim Palmer,25 “Podríamos transformar el Amazonas en un desierto”. Se estima que enviar los suficientes reflectores minúsculos al espacio podría requerir unos 20 millones de lanzamientos de cohetes. Y, en caso de haber efectos secundarios negativos, ¿cómo quitaríamos entonces de ahí esos pequeños reflectores?

Utilizar plantas para extraer de la atmósfera el dióxido de carbono mediante la fotosíntesis carece de efectos secundarios adversos que resulten evidentes, y tiene el beneficio añadido de sustituir con oxígeno el dióxido de carbono extraído. Plantar árboles de crecimiento relativamente rápido puede captar una buena cantidad de dióxido de carbono. La reforestación es, por lo general, una buena idea, no sólo a causa de la captación de carbono sino también a sus efectos benéficos para el clima, el almacenamiento de agua y el flujo de las corrientes a nivel local.

La reforestación, sin embargo, es lenta, varía grandemente de un país a otro y puede suponer desafíos ecológicos y sociales. La reforestación puede ser un procedimiento totalmente beneficioso a la hora de frenar el cambio climático. No obstante, los gestores planetarios son una gente impaciente y la reforestación es demasiado lenta para muchos de ellos.

Las algas de los océanos del mundo capturan gran cantidad de dióxido de carbono mediante la fotosíntesis y algunos ingenieros climáticos podrían preguntarse, ¿por qué no fertilizar los océanos, aumentar la cantidad de algas y captar así más dióxido de carbono? Esto frenaría el cambio climático, beneficiaría a las redes tróficas marinas que están basadas en las algas, e incluso, en sistemas cerrados, produciría biomasa algal que podría usarse como pienso o para fabricar biocombustibles. Esta es la teoría, y en cierto modo funciona. Verter fertilizante de hierro en el océano estimula, de hecho, el crecimiento algal; las algas capturan dióxido de carbono y, cuando mueren, algunas de ellas sacan el carbono fuera de los ciclos dañinos hundiéndolo en el fondo del océano.

Desgraciadamente, la fertilización de los océanos con hierro también puede estimular las proliferaciones masivas (“blooms”) de algas tóxicas y causar la producción de óxido nitroso, otro gas de efecto invernadero. Y, cuando las algas mueren, como de hecho hacen en gran cantidad durante las apariciones masivas, la descomposición de las algas que permanecen en la superficie consume el oxígeno del agua y devuelve dióxido de carbono a la atmósfera. En sistemas cerrados artificiales, al contrario que en la fertilización oceánica, las principales dificultades serían los costes de construir, mantener y oxigenar los tanques que contuviesen las algas y el problema de la escala: estos sistemas tendrían un impacto limitado en el cambio climático global y en la producción energética de biocombustibles.

La captura de dióxido de carbono y su almacenamiento es un método que puede reducir el dióxido de carbono causante del cambio climático. El dióxido de carbono es capturado y extraído en lugares donde se produce, normalmente las chimeneas de las grandes centrales térmicas que usan combustibles fósiles para producir electricidad, y luego es llevado a lugares donde puede ser depositado bajo tierra. Esta es una buena idea, pero una idea cuyo alcance es limitado ya que hay muchas fuentes no localizadas de gases de efecto invernadero. El principal riesgo de la captura y almacenamiento de carbono es la fuga del gas de nuevo a la atmósfera desde sus lugares de enterramiento subterráneo (yacimientos petrolíferos en declive, acuíferos salinos, lechos de carbón no explotables y otras formaciones geológicas). La inyección profunda de sustancias no deseadas en pozos ha causado terremotos. Por no mencionar que la captura y almacenamiento de carbono es mucho más cara que simplemente dejar que el gas escape a la atmósfera, y podría requerir incentivos y ayudas financiados por los gobiernos.

La geoingeniería resulta muy atractiva para aquellos que buscan soluciones rápidas y simples a problemas abrumadores y complejos. Esta búsqueda tiende a promover la estrechez de miras, en la cual la mirada se posa siempre en modelos simples y en las soluciones técnicas asociadas a los mismos, no en los muchos efectos secundarios, a veces graves, impredecibles e imposibles de manejar, que causarían las tecnologías geoingenieriles. Vaclav Havel, autor y primer presidente de la República Checa, escribió en The New York Times, el 27 de septiembre del 2007:

Soy escéptico en lo referente a que un problema tan complejo como el cambio climático pueda ser resuelto exclusivamente por cualquier rama de la ciencia. Las medidas y regulaciones tecnológicas son importantes, pero igualmente importantes son el apoyo a la educación y al adiestramiento y la ética ecológicos –la conciencia de lo que tenemos en común todos los seres vivos y el énfasis en la responsabilidad compartida.26

Predicción, control y reparación de accidentes

Nuestros sistemas de gestión global descansan sobre una precaria estructura predictiva. Ésta está formada por predicciones acerca de la sostenibilidad de la agricultura industrial, de la seguridad de las centrales nucleares, de la estabilidad de la estructura política, de la eficacia de las restauraciones ecológicas que llevamos a cabo, del futuro de la globalización –en especial del comercio global-, de la continuación del crecimiento económico y, sobre todo, de la capacidad de nuestra tecnología para resolver cualquier problema que afrontemos, hoy o en los años venideros.

Estas predicciones a menudo son injustificadas y muy peligrosas. Uno podría pensar que la principal prioridad para los gestores del planeta sería volver la vista hacia sus predicciones y asunciones pasadas y ver qué tal han funcionado. Pero esto implicaría tener que admitir el fracaso y, lo que es más importante, cortar las fuentes de ingresos para los proyectos fallidos. En consecuencia, los estudios de riesgos que se hacen al principio de los proyectos con frecuencia son justificaciones infundadas pero bien “preparadas” para que las actividades programadas sigan adelante sea como sea.

En su libro Useless Arithmetic: Why Environmental Scientists Can’t Predict the Future,27 los geólogos Orrin Pilkey y Linda Pilkey-Jarvis muestran cómo se ha estado usando un modelo acerca de la futura erosión de las playas y de los movimientos de las arenas costeras para justificar la huída de la realidad y permitir la construcción en el litoral de estructuras y edificios cuestionables. El modelo típico usado en la ingeniería de playas es la Regla de Bruun, la cual describe el modo en que las líneas costeras se retiran en respuesta a los crecientes niveles del mar. Este modelo simple para describir un proceso complejo tiene una validez general, pero, como los autores señalan:

La Regla de Bruun habita en un mundo dominado por ingenieros, no por científicos. Es un mundo donde no es posible admitir la derrota e irse tan tranquilo o responder de un modo flexible, un mundo en que hay que encontrar una respuesta … y en el cual la respuesta, para ser creíble, lo mejor es que sea encontrada mediante los medios más sofisticados posibles. … Siguen acumulándose pruebas por todo el mundo de que las asunciones básicas en que se basa el modelo de Brunn son muy equivocadas. Sin embargo, sigue siendo aplicado ampliamente por los científicos, planificadores y agencias internacionales interesados en las costas y preocupados por cómo afectarán las tendencias globales futuras a las líneas costeras.28

Cuando se usa la Regla de Bruun para predecir la tasa de erosión de una línea costera concreta, sólo hace falta conocer la tasa de elevación del nivel marino y la pendiente de la superficie de esa playa en particular. Dos variables: es fácil. Sin embargo, tal como señalan Pilkey y Pilkey-Jarvis, existen al menos 31 variables que afectan a la erosión costera, entre ellas: la geología de la subsuperficie de la playa, el tamaño de los granos de arena, el aporte costero de sedimentos, los proyectos para la reposición de arena en la playa, los tipos de tormentas y su frecuencia, la vegetación litoral, los escarpes y dunas más al interior, la construcción y demolición de presas en los ríos cercanos y el historial de dragados.

Incluso si conocemos cómo funcionan e interactúan cada uno de los factores entre sí, incluido el ascenso del nivel del mar, a la hora de provocar el retroceso de las líneas costeras, aún no podremos predecir el futuro ya que no conocemos el orden en que los factores sucederán … en litorales diferentes los diversos parámetros tendrán una importancia variable, a lo largo de intervalos de tiempo variables. Esto es complejidad en el orden. Y es el motivo por el que el retroceso de la línea costera en relación al aumento del nivel del mar no podrá nunca ser predicho con exactitud.29

La complejidad en el orden puede hacer que algunas predicciones para la gestión resulten absurdas. Pilkey y Pilkey-Jarvis ponen, como ejemplo más descabellado, la Evaluación del Funcionamiento Total de los Sistemas (EFTS) llevada a cabo por el Departamento de Energía de los Estados Unidos para la propuesta del almacén de residuos nucleares de Yucca Mountain, Nevada. El resultado de la evaluación de las posibilidades de fugas radiactivas desde el almacén subterráneo, basada en cientos de modelos, es que será seguro durante más de cien mil años. Sin embargo, tal y como señalan estos autores, hay al menos 15 factores importantes que afectarán a la gravedad de las futuras fugas. Ninguno de estos factores se conocía cuando la EFTS fue llevada a cabo y muchos otros jamás llegarán a conocerse.

En el 2009, la Agencia de Protección Medioambiental de los Estados Unidos publicó una orden que exigía que el Departamento de Energía (DDE) limitase estrictamente la cantidad de radiación emitida por las instalaciones a no más de 15 milirems al año durante los primeros diez mil años tras el cierre de las mismas, y requería que el DDE demostrase que el almacén de residuos nucleares resistirá los terremotos, la actividad volcánica, el cambio climático y las fugas de los contenedores durante un millón de años. Este disparate de la evaluación de riesgos sólo paró cuando el congreso decidió interrumpir las obras de Yucca Mountain en el 2011, por motivos políticos. Aún queda por ver si serán reanudadas.

La complejidad en el orden es sólo uno de los dos tipos de complejidad que hacen que las predicciones y asunciones a largo plazo usadas en la gestión planetaria no sean de fiar. El otro es la complejidad estructural. El pionero en estudiar los peligros de la complejidad estructural fue Charles Perrow, profesor emérito de sociología en Yale. Usando como modelo el bien estudiado accidente ocurrido en la central nuclear de Three Mile Island en 1979, Perrow mostró cómo la enorme complejidad de la central nuclear hizo que el accidente fuese inevitable e impredecible -“normal”.

El sistema de funcionamiento de una central nuclear tiene gran cantidad de subsistemas diferentes, muchos de los cuales interactúan de formas que no pueden ser directamente observadas y de modos que no podrían ser comprendidos ni siquiera aunque fuesen observados. Además, los sistemas de funcionamiento interaccionan con los sistemas de seguridad, que son también en sí mismos complejos y a menudo tampoco pueden ser directamente observados.

En su libro Normal Accidents: Living With High-Risk Technologies, Perrow describe cómo el accidente de Three Mile Island fue causado por el fallo de una válvula de escape de presión, que dio como resultado que el agua radiactiva hirviese, saliese del reactor y se esparciese por el suelo del edificio del reactor.30 Esto podía ser determinado sólo indirectamente por los operarios de la sala de control a través de diversas lecturas de los indicadores; mientras, tres alarmas audibles sonaban y, simultáneamente, muchas de las 1.600 luces de los paneles de control centelleaban. Sólo pasaron 13 segundos entre el momento en que la válvula falló y el momento en que el accidente se hizo inevitable. La escena en la sala de control era un caos.

Varias horas después del comienzo del accidente, el personal y los supervisores de la sala de control aún andaban discutiendo acerca de qué era lo que estaba sucediendo. La válvula permaneció abierta durante dos horas y veinte minutos hasta que entró un nuevo turno y alguien pensó en comprobarla. Sin embargo, el accidente estaba sólo empezando. Dos bombas de refrigeración del reactor dejaron de funcionar (posiblemente a causa de las burbujas de vapor dentro de las tuberías) y los niveles de refrigerante comenzaron a caer de forma alarmante; lo más aterrador que puede ocurrir en una central nuclear. Los dos indicadores que indicaban la presión en el reactor daban lecturas diametralmente opuestas.

Entonces, tras treinta y tres horas de accidente, se escuchó un inquietante estallido desde la sala de control. Era una explosión de hidrógeno dentro del edificio del reactor. Nadie se lo esperaba. Se dieron frenéticas discusiones entre los operarios de la central y los comisarios de la Comisión Reguladora Nuclear. Las bombas de emergencia, como cualquier otro motor eléctrico, pueden producir chispas; si el hidrógeno se acumulaba, una chispa podría causar una explosión que destruiría el edificio del reactor. ¿Deberían ser desconectadas las bombas o habría que dejar que siguiesen funcionando? Las opiniones divergían. El que no ocurriese una explosión fue, en gran medida, una cuestión de suerte.

Dada la enorme complejidad de las centrales nucleares, incluidos, paradójicamente, sus sistemas de seguridad, los operarios no sabían realmente lo que estaba pasando mientras ocurría el accidente. Sin embargo, tenían que hacer algo. En este tipo de situaciones, señala Perrow, uno se forma un modelo mental de los acontecimientos. Se imagina qué está pasando basándose en la información inadecuada y parcialmente errónea que tiene. “Uno está en realidad creando un mundo que sea congruente con sus interpretaciones, aun cuando pueda ser el mundo equivocado. Puede que antes de que uno descubra esto ya sea demasiado tarde”.31

En otras palabras, los sistemas complejos que inventamos para gestionar y dirigir el mundo no pueden ser construidos a prueba de fallos. Y si añadimos las interacciones económicas y ecológicas, los sistemas que construimos se vuelven aún más complicados y susceptibles a los accidentes.

He aquí un ejemplo: el 20 de abril del 2010, en el Golfo de México, la plataforma petrolífera Deepwater Horizon estalló en llamas repentinamente. Como relatan Joseph Tainter y Tadeusz Patzek, en su libro Drilling Down: The Gulf Oil Debacle and Our Energy Dilemma:

Todo parecía estar bajo control, con los ordenadores al mando y sus sensores zumbando. La gente asignada a observar dichos ordenadores, y a actuar según sus indicaciones, estaba contenta y lista para irse a dormir. … De repente, se desataron todos los demonios y quedó claro que las personas que observaban las pantallas de los ordenadores no entendían lo que las computadoras les estaban diciendo. Sólo hicieron falta unos pocos segundos para que su falsa sensación de seguridad se esfumase entre las mismas llamas que acabarían consumiendo a la Deepwater Horizon en dos días.32

Cuando se extinguieron las llamas, el accidente estaba aún lejos de haber terminado. Varios meses más tarde, el pozo pudo por fin ser sellado. Para entonces, se estima que unos 210 millones de galones de petróleo habían sido ya vertidos en el golfo. Se hicieron varios intentos de contener el petróleo o mitigar sus efectos. Se usaron las tecnologías más punteras. Sin embargo, varios años después, aún seguimos sin conocer los efectos a largo plazo que este accidente tendrá sobre las miles de especies que viven en el inmensamente complicado ecosistema del golfo ni sobre las comunidades humanas de las zonas terrestres adyacentes.

Tainter, profesor del Departamento de Medioambiente y Sociedad de la Universidad Estatal de Utah, y Patzek, Presidente del Departamento del Petróleo y la Ingeniería de Geosistemas de la Universidad de Texas, analizan en detalle las causas del accidente. Al final de su libro, llegan a la siguiente conclusión:

El de la Deepwater Horizon fue un accidente normal, un accidente sistémico. Las tecnologías complejas tienen … modos de fallar que los seres humanos no podemos prever. Puede que ahora se haya reducido la probabilidad de accidentes similares, pero sólo podrá reducirse a cero cuando los [rendimientos energéticos] decrecientes hagan que la producción de petróleo en alta mar deje de ser rentable energéticamente. Está de moda creer que seremos capaces de producir energías renovables con tecnologías más amables, con máquinas más simples que produzcan menos daño a la tierra, la atmósfera y la gente. Todos esperamos que así sea, pero hemos de aproximarnos a dichas tecnologías con una dosis de realismo y una perspectiva a largo plazo.33

Three Mile Island y la Deepwater Horizon nos enseñan una sencilla lección: no podemos predecir todos los accidentes que ocurrirán en nuestro mundo gestionado; e incluso si pudiésemos predecirlos, no podríamos evitar que muchos de ellos ocurriesen. En nuestros sistemas complejos van a tener lugar desastres inevitablemente y los modelos tecnoutópicos no ofrecen modos creíbles de arreglarlos.

Otros motivos de preocupación asociados a la gestión global

Una gestión global exitosa requiere afrontar necesariamente otros problemas además de los enumerados más arriba. Describiré brevemente algunos de ellos:

Restauración y preservación ecológicas: en algunos casos, la restauración de ecosistemas dañados es posible si se hace con cuidado y con conocimiento ecológico; en otros, puede ser difícil o imposible. Las restauraciones a menudo no salen bien debido a la ignorancia acerca de las especies que forman parte de ecosistemas concretos y acerca de la complejidad de los mismos, debido a la extinción de especies previas, debido a grandes cambios en el suelo o en el agua y debido a la falta de fondos suficientes para realizar la restauración correctamente o para hacer un seguimiento de la misma después de que se haya completado.

La preservación puede ser tan difícil como la restauración. El traslado de especies amenazadas por el cambio climático a zonas con un clima más favorable (“colonización asistida”) y los intentos de reintroducir en sus hábitats originales poblaciones de especies en peligro que se están recuperando se ven entorpecidos por las limitaciones de nuestro conocimiento de los ecosistemas. Esto no es una razón para abandonar los intentos de restauración y preservación, pero nos debería hacer pararnos a pensárnoslo dos veces antes de alardear acerca de lo verde que será el planeta ajardinado que se nos avecina.

Mantenimiento de un suministro adecuado de agua dulce limpia: este suministro será esencial para una gestión global sostenible; no está materializándose hoy en día, y no se ven en el horizonte tecnologías asequibles que vayan a garantizar el agua a todo el mundo, especialmente en presencia del cambio climático. Las luchas internacionales por la gestión del agua complican hoy las ya tensas relaciones políticas en Oriente Medio, en el sur de Asia y en algunas partes de África. El agua será sin duda uno de los grandes obstáculos para lograr un planeta gestionado.

El crecimiento de la población: las poblaciones crecientes requieren más espacio, más comida, más agua, más recursos minerales y más energía que las estables. La población de la Tierra está creciendo: las estimaciones publicadas por las Naciones Unidas (ONU) en junio del 2013 sugieren un incremento desde los actuales 7.200 millones a 9.600 millones en el 2050.34 Los modelos de crecimiento de la población no son más fiables que cualquier otra predicción a largo plazo que implique miles de variables (clima, niveles del mar, enfermedades, conflictos étnicos, guerras, cambios económicos, etc.) y esta falta de fiabilidad incrementará enormemente la dificultad de gestionar una Tierra ajardinada. Un aspecto a considerar es que el consumo per cápita está creciendo más del doble de rápido que la población en muchos países por todo el mundo.

Coordinación entre naciones: un mundo gestionado implica una coordinación entre las naciones que realmente funcione bien. El Convenio sobre el Tráfico Internacional de Especies Amenazadas de Fauna y Flora Silvestres (CITES[xx]) demuestra que esto es posible ocasionalmente.35 En el 2013, 178 naciones habían ratificado el convenio, que protege –al menos sobre el papel- a miles de especies de animales y plantas de la sobreexplotación. Salvo algunas excepciones, esta protección ha tenido un éxito moderado. Sin embargo, una gran debilidad de este tratado es que los países firmantes pueden mostrar reservas (excepciones) para especies concretas. Islandia, Japón y Noruega han establecido excepciones que les permitan cazar algunas especies de ballenas con barbas[xxi], y Arabia Saudita ha establecido que los halcones sean una excepción. El CITES es un modelo alentador; sin embargo, la proliferación de conflictos militares regionales, del terrorismo y de los conflictos étnicos y religiosos, el agotamiento de los recursos y la inestabilidad política no presagian nada bueno en lo que respecta a la gestión cooperativa del planeta.

He considerado individualmente las diversas amenazas a la postura neoverde pero, por supuesto, éstas interactúan, empeorando normalmente la situación. Por ejemplo, la escasez de energía barata afecta a la producción de alimentos y al suministro de agua modernos, a la vez que nos lleva a depender de tecnologías energéticas cada vez más peligrosas, que son proclives a accidentes que no somos capaces de predecir. De un modo similar, el cambio climático tiene un gran impacto en el alimento, el agua, las relaciones internacionales y el uso de energía.

Conclusión

En resumen, los párrafos anteriores sólo ofrecen una muestra incompleta de las razones por las que muchos de los sueños de los neoverdes y modernistas ecológicos acerca de la gestión planetaria es probable que se acaben convirtiendo en pesadillas. En su escalofriante cuento “The Machine Stops”, escrito hace más de un siglo, E. M. Forster describió el caos y el colapso total que se abaten sobre un mundo gestionado cuando el propio “Aparato Reparador”, que siempre arregla todo lo que se estropea, comienza él mismo a fallar: “El Hombre, la flor de toda la carne, la más noble de todas las criaturas visibles, el hombre, que una vez hizo a dios a su imagen y semejanza … estaba agonizando, estrangulado por la tela que él mismo había tejido”.36

Los escenarios del paso del sueño a la pesadilla que aquí se han esbozado no tienen por qué hacerse realidad. Podemos seguir intentando hacer que el mundo sea un lugar mejor, usando cualquier tecnología segura que esté probada o parezca prometedora. Por ejemplo, ya sabemos que los policultivos tradicionales pueden producir año tras año y de forma fiable mayores cantidades de alimento que los monocultivos, con menos aportes de fertilizantes y pesticidas químicos. El campo está abierto de par en par a la aplicación cuidadosa de la investigación científica moderna para mejorar este rendimiento aún más. Y, en el caso de nuestro déficit energético, la reducción del consumo es más segura, fácil, rápida y eficaz que la perforación petrolífera marina o la energía nuclear.

Wendell Berry escribió en The Unsettling of America que “lo que ha llevado al Mundo Moderno a hacerse realidad es un extraño y casi oculto anhelo del futuro, como la mente medieval añoraba el Cielo”.37 Este anhelo, materializado en el culto ciego a la tecnología, nos ha llevado por el camino equivocado: si abrimos nuestros ojos y observamos quiénes somos y dónde estamos, tendremos las mejores opciones para descubrir a dónde ir a continuación. Acabo con la cita, procedente de mi libro The Arrogance of Humanism, publicado en 1981, de unas palabras que creo que son tan aplicables hoy en día como lo eran el día que las escribí:

No todos los problemas tienen soluciones aceptables … No hay … necesidad de sentirse derrotados al saber que existen límites al poder y el control humanos. … [Hemos de empezar] admitiendo honestamente nuestra falibilidad y nuestras limitaciones humanas y, partiendo de esta base realista, [asumir el] desafío de construir una vida buena para uno mismo, su familia y su comunidad … Simplemente, empezamos con realismo y entonces liberamos el espíritu humano para las grandes aventuras y luchas y para un futuro desconocido.38

Notas:

1.   F. Pearce, “New Green Vision: Technology as Our Planet’s Last Best Hope”, Yale Environment 360 (15 de julio del 2013).

2.  L. Brown, “ Can We Raise Grain Yields Fast Enough?”, World-Watch, Worldwatch Institute (julio-agosto 1997): 8-17; véase también F. Magdoff y B. Tokar, “Agriculture and Food in Crisis: An Overview”, en Agriculture and Food in Crisis: Conflict, Resistance, and Renewal, ed. F. Magdoff y B. Tokar (New York: Monthly Review Press, 2010), págs. 10-17; D. Ehrenfeld, “Agriculture in transition”, en Beginning Again: People and Nature in the New Millenium (Nueva York: Oxford University Press, 1993/1995), 164-74.

3.  B. Halweil, “Grain Harvest Flat”, in Vital Signs 2006-2007: The Trends That Are Shaping Our Future (Nueva York: Norton, 2006), 22-24.

4.  M. A. Atieri, Genetic Enginerring in Agriculture: The Myths Environmental Risk, and Alternatives, 2ª ed. (Oakland, CA: Food First Books, 2004); D. Ehrenfeld, Becoming Good Ancestors: How We Balance Nature, Community, and Technology (New York: Oxford University Press, 2009), 4-13; C. M. Benbrook, “Who Controls and Who Will Benefit from Plant Genomics?” Presentado en el Seminario Genómico del 2000 Genomic Revolution in the Fields: Facing the Needs of the New Millenium (Washington, D.C.: Reunión Anual de la Asociación Estadounidense para el Avance de la Ciencia, 19 de Febrero del 2000).

http://www.biotech-info.net/AAASgen.html.

5.  APHIS (Servicios de Inspección Sanitaria de Animales y Plantas[xxii]), Departamento de Agricultura de los Estados Unidos, “Petición (07-CR-191U) de la Compañía Monsanto para la Determinación del Estado No-Regulado del Suceso MON 87460, Identificador Único de la OCDE[xxiii]: MON 87460-4, Evaluación Medioambiental Final (Washington, D.C.: U.S.D.A/APHIS, nov. 2011).

6.   J. Qiu, “GM  Crop Use Makes Minor Pests Major Problems”, Nature (13 de mayo del 2010). Doi:10.1038/news.2010.242.

7.  H. Sudarshan, “Foreword” en V. Ramprasad, Hidden Harvest: Community Based Biodiversity Conservation (Bangalore, India: Green Foundation, 2002), 4-6.

8. J. Qiu, “Genetically Modified Crops Pass Benefits to Weeds”, Nature (16 de agosto del 2013). doi: 10.1038/nature.2013.13517; H. Thompson, “War of Weeds Loses Ground: The Rise of Herbicide-resistant Varieties Drives a Search for Fresh Methods of Control”, Nature 485 (24 de mayo del 2012): 430.

9.   V. Shiva, “Globalization and the War Against Farmers and the Land”, en The Essential Agrarian Reader, ed. N. Wirzba (Lexington, KY: University Press of Kentucky, 2003), 121-139.

10.  A. A. Barlett, “Forgotten Fundamental of the Energy Crisis”, Am. J. of Physics 46 (1978): 876-878.

11.  V. Smil, “Global Energy: The Latest Infatuations”, American Scientist 99, nº 3 (2011): 212-219.

12.  M. Bittman, “The New Nuclear Craze”, The New York Times, 24 de agosto del 2013, pág. A21.

13.  Para los costes de la plataforma petrolífera Deepwater Horizon, véase J. Tainter y T. Patzek, Drilling Down: The Gulf Oil Debacle and Our Energy Dilemma (Nueva York: Springer, 2012), 5.

14.  Smil, “Global Energy: The Latest Infatuations”, American Scientist 99, nº 3 (2011): 212-219.

15.  O. Zehner, “Solar Cells and Other Fairy Tales” en Green Illusions: The Dirty Secrets of Clean Energy and the Future of Environmentalism (Lincoln, NE: University of Nebraska Press, 2012), 3-30.

16.  Íbid.

17.  D. Cardwell, “Grappling with the Grid: Intermittent Nature of Green Power Is Challenge for Utilities”, The New York Times, 15 de agosto del 2013, págs. B1 y B6; véase también O. Zehner, “Wind Power’s Flurry of Limitations”, in Green Illusions, 31-60.

18.  Cardwell, “Grappling with the Grid: Intermittent Nature of Green Power Is Challenge for Utilities”, The New York Times, 15 de agosto del 2013, págs. B1 y B6.

19.  K. French, “‘Never Stops, Never Stops. Headache. Help.’: Some People Living in the Shadows of Wind Turbines Say They’re Making Them Sick. Almost As Upsetting: Their Neighbors Don’t Feel a Thing”, New York Magazine, 23 de septiembre del 2013, pág. 28.

20.  T. Beardsley, “Biofuels Reassessed”, BioScience 62 (2012): 855; véase también S. Raghu et al., “Adding Biofuels too the Invasive Species Fire”, Science 313 (2006): 293.

21.  Beardsley, “Biofuels Reassessed”, BioScience 62 (2012).

22.  Smil, “Global Energy: The Latest Infatuations”, American Scientist 99, nº 3 (2011): 212-219.

23. J. Major, “1981 Climate Change Predictions Were Eerily Accurate”, io9 (16 agosto del 2012). htpp://io9.com/5899907/1981-climate-change-predictions-were-eerily- accurate.

24.  J. Hansen, “Game Over for the Climate”, The New York Times. 9 de mayo del 2012.

25.  Véase S. Battersby, “Cool It: From Sunshades to Making the Seas Bloom, There Are Plenty of Ideas About How to Stop the Planet Warming. But Will Any of Them Work?”, New Scientist 215, nº 2883 (22 de septiembre del 2012): 31-35; J. Winston, “Geoengineering Could Bckfire, Make Climate Change Worse”, Wired UK, 16 de Julio del 2012,  http://www.wired.com/wiredscience/2012/07/geoengineering-climate-change/; C. Hamilton, “Geoengineering: Our Last Hope, Or a False Promise?” The New York Times, 27 de mayo del 2013.

26.  V. Havel, “Our Moral Footprint: The Earth Will Survive-But Will We?” The New York Times, 27 de septiembre del 2007, pág. A33.

27.  O. h. Pilkey y L. Pilkey-Jarvis, Useless Arithmetic: Why Environmental Scientists Can’t Predict the Future (Nueva York:  Columbia University Press, 2007).

28.  Pilkey y Pilkey-Jarvis, Useless Arithmetic: Why Environmental Scientists Can’t Predict the Future, 101.

29.  Pilkey y Pilkey-Jarvis, Useless Arithmetic: Why Environmental Scientists Can’t Predict the Future, 107.

30.  C. Perrow, Normal Accidents: Living With high-Risk Technologies (Princeton, NJ: Princeton University Press, 1999); véase también D. Ehrenfeld, “When Risk Assessment Is Risky: Predicting the Effects of Technology” en The Energy Reader: Overdevelopment and the Delusion of Endless Growth, ed. T. Butler, D. Lerch y G. Wuerthner (Sausalito, CA: Foundation for Deep Ecology en colaboración con Watershed Media and Carbon Institute, 2012), 77-83.

31.  Perrow, Normal Accidents: Living With high-Risk Technologies (Princeton, NJ: Princeton University Press, 1999), pág. 28.

32.  J. Tainter y T. Patzek, Drilling Down: The Gulf Oil Debacle and Our Energy Dilemma (Nueva York: Springer, 2012), págs. 7-8.

33.  Tainter y Patzek, Drilling Down: The Gulf Oil Debacle and Our Energy Dilemma.

34.  C. Sullivan y ClimateWire, “Human Population Growth Creeps Back Up”, Scientific American (14 de junio del 2013).       htpp://www.scientificamerican.com/article.cfm?id=human-population-growth-creeps-back-up&print=true.

35. Convenio sobre el Tráfico Internacional de Especies de Fauna y Flora Silvestres, htpp://www.cites.org/eng/disc/what.php (acceso del 12 de septiembre del 2013).

36.  E. M. Forster, “The Machina Stops” (1909) en The Collected Tales of E. M. Forster (Nueva York: Modern Library, 1968), 144-197.

37.  W. Berry, The Unsettling of America (San Francisco: Sioerra Club Books, 1977), 56.

38.  D. Ehrenfeld, The Arrogance of Humanism (Nueva York: Oxford University Press, 1981): 211, 228-229.



[i] Traducción del capítulo “The Fable of Managed Earth”, del libro Keeping the Wild: Against the Domestication of the Earth, editado por George Wuerthner, Eileen Crist y Tom Butler (Island Press, 2014). Traducción a cargo de Último Reducto. N. del t.

[ii] Diabrotica virgifera. N. del t.

[iii] Insectos heteropteros de la familia Miridae. N. del t.

[iv] “Bollworms” en el original. Nombre vulgar de diversas especies de polillas cuyas larvas atacan, entre otras plantas, al algodón.

[v] Los agricultores chinos dejaron de usar pesticida para el algodón porque sustituyeron los cultivos de algodón convencional por el cultivo de algodón Bt, que producía su propia toxina contra los gusanos de la cápsula, pero no contra los chinches míridos. N. del t.

[vi] Un acre equivale aproximadamente a 0,4 hectáreas. N. del t.

[vii] Un galón equivale a unos 3,78 litros. N. del t.

[viii] “Gas guzzler” en el original. Se refiere a que en aquella época los automóviles estadounidenses eran fabricados sin tener en cuenta ninguna medida para optimizar el ahorro de combustible ya que éste era tan barato que no merecía la pena preocuparse por reducir su consumo. N. del t.

[ix] “US Joint Forces Command” en el original. N. del t.

[x] La energía distribuida o descentralizada consiste básicamente en la generación de energía eléctrica por medio de muchas pequeñas fuentes de energía en lugares lo más próximos posibles a los puntos de consumo. N. del t.

[xi] El LZ 129 Hindenburg fue un dirigible alemán, destruido a causa de un incendio en 1937. N. del t.

[xii] La Deepwater Horizon era una plataforma petrolífera, situada en el golfo de México, que se hundió en el 2010 provocando una gran marea negra. Véase más adelante el punto dedicado la predicción, control y reparación de accidentes. N. del t.

[xiii] Es decir, la paradoja consiste en que el aumento de la eficacia en los procesos de producción y uso de recursos no reduce su consumo ni fomenta su ahorro, sino que, más bien, aumenta el consumo de los mismos al abaratar su coste. N. del t.

[xiv] “1.4 quadrillion” en el original. En inglés moderno, esta cantidad se refiere a 1,4.1015 (1.400 billones en español). N. del t.

[xv] En español en el original. N. del t.

[xvi] La especie de jatrofa usada para producir biocombustible es Jatropha curcas. N. del t.

[xvii] Un pie equivale a 30,48 cm. N. del t.

[xviii] “Dust bowl” en el original. Literalmente “Cuenco de Polvo”, “Dust Bowl” es el nombre por el que se conoce en inglés al fenómeno que en los años 30 del siglo XX afectó a las llanuras y praderas que se extienden desde el golfo de México hasta Canadá. Fue uno de los peores desastres ecológicos del siglo XX. El suelo, despojado de humedad, fue levantado por el viento en grandes nubes de polvo. El “Dust Bowl” fue provocado por una sequía persistente y favorecido por la expansión de la agricultura en la década previa. Las gramíneas resistentes a la sequía del ecosistema original de las praderas fueron reemplazadas por los cultivos de trigo que, al fallar debido a la sequía, dejaron el suelo desnudo, originando tormentas de polvo de una magnitud sin precedentes. N. del t.

[xix] “Mylar” en el original. “Mylar” es el nombre comercial en Estados unidos del tereftalato de polietileno, plástico más conocido en español como PET. N. del t.

[xx] Siglas en inglés de “Convention on International Trade in Endangered Species of Wild Fauna and Flora”. N. del t.

[xxi] “baleen whales” en el original. Se refiere a las ballenas que poseen barbas en lugar de dientes, es decir, a los cetáceos misticetos. N. del t.

[xxii] “Animal and Plant Health Inspection Services” en el original. N. del t.

[xxiii] “OECD” en el original. Probablemente, Organization for Economic Cooperation and Development. N. del t.