En ocasiones hemos señalado la
extraordinaria simpleza de las conclusiones de algunos economistas, como
los que establecen que Roma colapsó a causa del socialismo. También hemos
señalado lo falso de alguno de sus cimientos conceptuales, como la conocida
fábula sobre el origen del dinero a partir del trueque, que
con tanto fervor defendió aquí Juan Ramón Rallo, y que se encuentra en la
base de falacias como “la propensión natural del hombre al intercambio” de Adam
Smith, o en la consideración del dinero como una mercancía, uno de los virus
más perniciosos que pueden infectar la mente humana.
Por fortuna no estamos solos en
esta crítica, la tolerancia social hacia los economistas es cada vez menor, y
en la actualidad se pueden leer artículos como La fraudulenta superioridad de los
economistas en medios del mainstream como el diario El País. Pero los
austriacos, a los que hacíamos en el pasado blanco de nuestras críticas, son la
parte “folclórica” de esta historia. Su relevancia es más política que
académica, desplazando hacia el extremo el centro de gravedad del sentido común
de la sociedad. Troleándolos nos podemos echar unas risas, pero no cambiaremos
el mundo, así que ya es hora de dar un paso más en la dirección correcta y
comenzar a denunciar las mismas prácticas de los austriacos en los neoclásicos,
precisamente la escuela o paradigma dominante. Dominante a través de métodos
que no es ni mucho menos exagerado definir como contrarios al debate
científico, pero ese es otro problema que trataremos más adelante.
Para los neoclásicos, el
pensamiento y los modelos más avanzados sobre explotación de recursos naturales
son, como no podía ser de otra manera, los suyos. Recientemente tuvimos una
ocasión única de comprobar los fundamentos de estos modelos, gracias a la
contestación al manifiesto Última Llamada
realizada desde la web Politikon. La contestación se basa en dos argumentos
habituales de la economía neoclásica, el modelo funcional o piramidal de los
recursos y la sustitución entre capital natural y el hecho por el hombre,
merced al progreso tecnológico y a las señales que emiten los precios. Nos
ocuparemos aquí del primero de los argumentos, y espero hablar del segundo en
un futuro, ya que ambos son muy discutibles.
¿Qué es lo que plantea el modelo
funcional de los recursos? De forma simplificada, que la explotación de los
recursos se realiza siguiendo un orden, extrayéndose primero los de mejor
calidad, y que además la abundancia relativa también sigue un orden, siendo los
recursos de mejor calidad escasos, y los de peor calidad muy abundantes. Este
efecto crea una paradoja, según estos “expertos”
de la economía: cuantos más recursos gastamos, más tenemos, aunque puede ser a
costa de un mayor precio. En
palabras de Juan de Ortega (pseudónimo usado por la gente de Politikon
cuando no quieren firmar con su nombre).
Es cierto que las vetas más rarificadas necesiten una cantidad “exponencial de energía” para su extracción (Philips and Edwards, “Metal Prices as a Function of Ore Grade”, Resources Policy, 1976) pero las cantidades alcanzables en cada nivel de rarificación también crecen exponencialmente. La consecuencia económica es que para una tecnología constante, cada punto de incremento porcentual del precio de un mineral tiene un impacto multiplicativo sobre la cantidad obtenible a ese precio. No es el milagro de los panes y los peces: aquí al final la cantidad hay que pagarla.
Si llevamos este argumento al
extremo, cuantos más recursos gastemos más reservas económicas podremos
encontrar. Las menas con una concentración infinitesimal, unos pocos átomos
disueltos en una montaña de siliatos, nos proporcionarían el máximo de
recursos. No hacen falta grandes demostraciones para comprender que esto es
absurdo. El modelo funcional es una simplificación basada en las relaciones
observadas entre la riqueza de la mena y el tonelaje de mineral para el pórfido
cuprífero por Sam Lasky, durante los años 20 y 30 del siglo pasado.
El problema es que esas
relaciones están sacadas de minerales comercialmente explotables y no estudian
aquellos que se encuentran en concentraciones sub-económicas. Es más, lo poco
que sabemos sobre esos minerales parece ir en la dirección contraria a lo
observado por Lasky. Tal y
como nos cuenta el geólogo Brian Skinner de la universidad de Yale:
Quienes estudian la forma en que los minerales realmente se forman tienden a ser pesimistas y llegan a conclusiones que son distintas de las de los seguidores de Lasky. Concluyen que los grandes tonelajes de metal están sumamente localizados en depósitos con altas concentraciones y que los tonelajes de bajas concentraciones son pequeños – concluyen esto porque la formación de menas implica flujos concentrados o canalizados de disoluciones, en lugar de flujo generalizado, que podría dar lugar a una distribución de tipo Lasky.
Hay pocos datos empíricos al
respecto, pero los que hay parecen avalar las tesis de Skinner. El resultado es
que la probabilidad de encontrar un yacimiento en función de su concentración y
su tonelaje sigue una distribución bimodal para la mayor parte de los metales,
excepto los más comunes como el hierro y el aluminio.
A pesar de ello Skinner es
optimista en cuanto a la futura producción de minerales. El desarrollo de
nuevas tecnologías que nos permitan localizar las mejores menas debajo de dos
kilómetros de sedimentos, seguramente nos permitirá un suministro continuo
durante los próximos cien años. El problema es que esas técnicas de exploración
de momento no existen, por no hablar del mayor coste energético que supone
extraer minerales tan profundos.
La barrera mineralógica separa lo
que hoy consideramos menas (óxidos y carbonatos) de minerales comunes como los
silicatos, que incluyen algún metal valioso en su composición, normalmente a
nivel de trazas. Una vez pasada esta barrera, la energía necesaria para obtener
los metales se multiplica por diez, como mínimo. Aproximadamente entre el
99,99% y el 99,999% del tonelaje de los metales en la corteza terrestre cae por
debajo de la barrera mineralógica, sin embargo mucho antes encontramos el
primer máximo de la distribución, de relevancia económica, puesto que las
cantidades alcanzables en cada nivel de rarificación ya no crecen
exponencialmente, al contrario, decrecen exponencialmente. En consecuencia, la
sociedad tendrá que dedicar una cantidad aceleradamente creciente de la energía
útil que tenga disponible para mantener el suministro de metales.
Descartar las hipótesis
optimistas del modelo funcional de los recursos nos vuelve a remitir a la
energía, como era previsible. Incluso los autores de Politikon admiten que la
energía es primordial:
Por tanto, nuestra versátil economía industrial solo sufre una forma de escasez de recursos realmente esencial: la de la energía que alimenta el capital. Con recursos energéticos abundantes, los demás cuellos de botella físicos al desarrollo son en general abordables.
Un párrafo que podría haber
firmado Frederick
Soddy, aunque como sabemos su pensamiento y su teoría del valor difieren
sustancialmente de la neoclásica.
En efecto, al agotar los recursos
de mayor calidad y recurrir a menas más rarificadas lo que haré será consumir
más energía por unidad de producto extraído. De hecho puedo pensar en los
metales en términos de energía, como sí en lugar de explotar minerales
metálicos explotásemos energía útil. Por ejemplo, Bardi (2011) cita una
estimación del consumo energético necesario para la extracción de cobre en la
corteza terrestre con una concentración de 50 partes por millón, siendo la
energía necesaria de 400 GJ/kg. Para extraer la cantidad de cobre que
consumimos en la actualidad, en esas condiciones, necesitaríamos consumir 20
veces la actual producción mundial de energía primaria. La diferencia entre los
400 GJ/kg que tendría que gastar en el caso más desfavorable, para agrupar el
cobre disperso de forma homogénea en la corteza terrestre, y la energía que
necesito utilizar para explotar las menas de cobre comercial actuales, puede
ser considerada energía gratuita proporcionada por los procesos geoquímicos de
la antigüedad. En realidad, evidentemente, no se trata de energía, sólo de
metales, pero que hayan sido concentrados por el calor y el agua del planeta
tierra me ahorra gastar un buen puñado de energía para obtenerlos.
Según vemos en esta gráfica que
refleja la energía de concentración del cobre (no incluye el proceso
metalúrgico de refinado), al pasar del 3% de riqueza media, al comienzo del
siglo XX, a 0,5% en la actualidad, la energía de concentración ha pasado de
28,66 MJ/t a 50,86 MJ/t (fuente: Trends of exergy costs and ore grade in
global mining).
Estamos entrando en el “palo de
jockey”, comenzando el proceso de aceleración en el incremento de los costes
energéticos, y lo que tardemos en ascender por él dependerá del tonelaje que
encontremos en cada nuevo nivel, no está claro que sea cada vez más, incluso
puede ser cada vez menos, lo que supondría un reto importante para la
civilización industrial.
A lo largo del siglo XX, mientras
los costes energéticos aumentaban, la producción de cobre no paraba de crecer,
y el precio se mantenía estacionario.
Lo cual se puede interpretar como
ganancias de productividad, gracias al progreso tecnológico, que han compensado
el efecto de la mayor escasez física. Pero también se puede interpretar como el
resultado de un flujo creciente de energía barata. Evidentemente, si cada
tonelada cada vez me cuesta más energía y cada vez saco más toneladas, tengo
dos factores que hacen que cada vez deba consumir más energía. La productividad
se suele medir respecto al trabajo humano y al capital, pero no respecto a la
energía, lo cual siembra dudas sobre el sempiterno progreso tecnológico.
La clave es por tanto la energía, así que es
hora de preguntarnos cómo será el suministro de energía, en particular el de
los combustibles fósiles, que es casi el 90% del total de la energía primaria
consumida a nivel mundial. Y aquí nuevamente para Politikon no hay nada que
temer, dado que el modelo piramidal (no está de más volverlo a recordar: basado
en las observaciones de Lasky para el pórfido cuprífero en los años 20 y 30)
también se adapta bien a los combustibles fósiles:
El caso de la minería metálica indica una realidad que observaremos de forma más indirecta (ya que no disponemos de un parámetro de agotamiento tan conveniente como la riqueza media del yacimiento) para los combustibles fósiles: que la explotación de los recursos no renovables empieza con los de calidad más elevada, que estos recursos de alta calidad se agotan relativamente rápido y que los recursos de menos calidad son mucho más abundantes.
¿Cómo de abundantes? Aquí el
autor reconoce que el petróleo convencional da ciertos signos de agotamiento,
pero no demasiados:
Pero desde luego el pico de producción del petróleo no se ha alcanzado (véase esta nota de Vaclav Smil sobre la última oleada de previsiones alarmistas y fallidas sobre el asunto), y las últimas estimaciones basadas en los modelos más avanzados son optimistas sobre el volumen de recursos no convencionales recuperables a menos de 120 dólares/barril (Roberto F Aguilera; Roderick G Eggert; Gustavo C C Lagos; John E Tilton , “Depletion and the Future Availability of Petroleum Resources”, The Energy Journal, 2009).
Respecto al pico, depende de lo
que consideremos petróleo, la Agencia Internacional de la Energía reconoció
que el pico de petróleo convencional llegó en 2006. Esto es importante,
porque los petróleos no-convencionales, además de ser más costosos de
extraer/sintetizar pueden tener menos energía, o ser más desfavorables para
producir diesel en el proceso de refino. Más interesante es la estimación de
los modelos “más avanzados” del volumen de recursos recuperables a menos de 120
dólares/barril.
La verdad que es impresionante,
por debajo de 120 no, por debajo de 36 dólares cerca de 30 billones europeos de
barriles equivalentes de petróleo, o lo que es lo mismo, el consumo de cerca de
900 años al ritmo actual ¿De dónde salen estos números?
Se supone que
hay una relación entre los recursos ya descubiertos, estén en explotación o
sean reservas, y los que se descubrirán en un futuro. Siguiendo la lógica del
modelo piramidal, nos resta por descubrir los de peor calidad, pero hay muchos.
El estudio parte de una estimación previa del USGS (United States Geological
Survey) del año 2000, y la extiende a regiones que no habían sido consideradas
en ese trabajo. Al respecto de las áreas que sí habían sido estimadas, el
estudio del USGS señala: “las áreas estimadas han sido aquellas que juzgamos
serán significativas a nivel global en términos de volúmenes conocidos de
petróleo, potencial geológico para
nuevos descubrimientos, e importancia política o social”. La suposición de
partida es que en las áreas no estimadas puede haber petróleo pero
debido a su localización y a otros factores, los costes de extracción son
altos, y estos recursos serán de poco interés dentro del horizonte temporal de
30 años que adoptaba el estudio original del USGS. Llama la atención esta
premisa tan poco intuitiva, en la actualidad se extrae petróleo de los lugares
más remotos, incluso en aguas profundas ¿cuáles son esos lugares remotos de
poco interés económico a los precios actuales?
Incluso tras la fuerte bajada
registrada desde el verano pasado, los precios siguen, en términos reales, 2,5
veces por encima de su nivel de hace quince años, y por encima de los 36
dólares que es el coste de extracción de los 30 billones de barriles que se
estima se irán añadiendo a las reservas.
En realidad, y dadas las propias
palabras usadas por el USGS, la suposición lógica es que esas regiones no han
sido estimadas porque no tienen potencial geológico para contener petróleo, o
recursos no-convencionales, de forma significativa. Lamentablemente, gracias a
este planteamiento, se han añadido nada más y nada menos que tres billones de
barriles sólo en petróleo convencional a las estimaciones originales del USGS,
doblando las reservas estimadas. No es arriesgado extrapolar que la misma
suerte han debido correr los recursos no-convencionales.
Ahora fijémonos en cómo han
relacionado los volúmenes conocidos de petróleo y los que se añadirán en un
futuro. Indican que todos los métodos usados para prever futuros volúmenes
están basados en asumir que estos siguen una distribución de probabilidad que
relaciona su tamaño con su número. Por ejemplo, si tenemos un campo de volumen
30, deberíamos tener en la región cinco de volumen 6, y diez de volumen 3. La
siguiente suposición “avanzada” (por usar la terminología de Juan de Ortega)
que hacen, es suponer que esta relación se puede extrapolar, en plan fractal,
de los campos a las regiones. Es decir, si tengo una región de volumen 300,
tendré cinco de volumen 60 y diez de volumen 30, por ejemplo. Evidentemente,
todo esto no tiene por qué ser cierto. Ya es problemático suponer que estas
relaciones se cumplen para los campos dentro de las regiones, aunque se haya
observado en la práctica en innumerables ocasiones. Podríamos
hablar aquí de la crítica de Nassim Nicholas Taleb a la estadística, a la curva
normal y la optimización, aplicada a disciplinas donde su empleo es muy
cuestionable. Nos encontramos ante un ejemplo de la falacia inductiva, o del
pavo.
Pero los autores del estudio van
un paso más allá, y extienden esta lógica a un campo donde ni siquiera disponen
de inducciones previas. Si he explorado a fondo una región, ya muy madura,
sabré cómo se distribuyen los volúmenes de petróleo en ella, y esa relación
puedo extrapolarla a otras regiones (siempre teniendo en cuenta que me puede pasar como
al pavo), pero para deducir la relación entre los volúmenes de las distintas
regiones necesito conocer a fondo una unidad mayor, y ese no es el caso.
Además adoptan una distribución
de probabilidad bastante favorable, a medio camino entre la de Pareto (también llamada Fractal) y la
Lognormal.
La distribución de Pareto es la
típica que podríamos esperar de un modelo piramidal, según disminuye el tamaño
de los yacimientos su número aumenta mucho, por el contrario en la distribución
Lognormal se alcanza un tamaño a partir del cual el número de yacimientos
disminuye, hasta llegar a cero. Justifican la elección de una distribución
intermedia señalando que está generalmente aceptado que la distribución de
Pareto sobrestima los recursos, mientras que la Lognormal los subestima. Sin embargo,
en un estudio sobre la cuenca del Mar de Norte (Watkins 2002) se afirma:
La distribución de tamaño de las reservas de petróleo recuperables para los campos de petróleo de la cuenca de Mar del Norte tiene mucho en común con la de cualquier otra cuenca. Está fuertemente sesgada, con predominio de pequeños campos. La hipótesis de lognormalidad no debe ser rechazada.
Tiene mucho en común con
cualquier otra y la hipótesis de lognormalidad no se debe descartar. Eso parece
indicar que la lognormalidad es una característica que o bien define las
distribuciones de las cuencas más usuales o se acerca mucho a ello.
La base de toda la argumentación
es el trabajo previo del USGS, llamado World
Petroleum Assessment. Esa estimación es extrapolada a regiones que no
habían sido consideradas en ese trabajo, pero si la estimación inicial es
errónea, lo que haremos será arrastrar los errores previos y multiplicarlos. Es
por tanto del máximo interés clarificar la fiabilidad de ese estudio. Sin
embargo, los datos disponibles no son, de momento, muy favorables, los
norteamericanos estiman que entre los años 1996 y 2030 se descubrirían 939.000
millones de barriles, pero en el año 2006, trascurrido un 30% del periodo
estimado, sólo se habían descubierto 110.000 millones de barriles, un 12-13% de
la cantidad estimada. Apenas se está descubriendo un tercio de lo estimado.
El caso de Arabia Saudí es
paradigmático, el USGS estima que 128.000 millones de barriles serán
descubiertos alrededor del gran campo de Ghawar y en el desierto de Rub
al-Jali. Pero la realidad es que hasta el año 2006 sólo el 4% de esa cantidad
se había encontrado.
En definitiva, lo que se está
planteando es un cambio radical en las tendencias históricas de
descubrimientos.
Afortunadamente, las estimaciones
del USGS se han tomado como base por organismos como la Agencia Internacional
de la Energía, que realizan previsiones sobre la producción futura. Resulta de
extraordinario de interés comprobar por tanto lo acertado de sus previsiones
pasadas, lo cual nos dará una idea de la solidez de las bases teóricas de sus
modelos.
Si
observamos el World Economic Outlook de 2006 (página 94),
vemos que la agencia predecía una producción para el año en curso de 99,3
millones de barrilles día, unos cinco millones de barrilles superior a la
actual (si bien hay que destacar, que además la producción en EEUU, del que se esperaban grandes aumentos, está comenzando a disminuir). En apenas nueve años es un error del 32%, claro que siempre podemos
pensar que no es una cuestión de oferta, sino de demanda ¿verdad? Quizás no hay
demanda para el crudo. Pero no, la lógica económica nos dice que si hay, como
plantea el USGS o Aguilera y compañía en su artículo, varios billones de
barriles de crudo que se pueden producir a 15 dólares, o a 25 en el caso de las
arenas bituminosas, o a 36 en el caso del Shale Oil, habrá interés en producir
más, hasta que el precio de mercado se vaya aproximando al coste de extracción.
Este es otro de los problemas del estudio, la estimación de costes, la
estimación del coste del petróleo por descubrir se extrapola a partir del que
está descubierto, multiplicando por un factor que no está nada claro cómo se
elige. Sería de esperar que el petróleo por descubrir fuese significativamente
más caro, pero los datos no cuadran, el coste según la AIE fue de 12 dólares
entre 2003 y 2005, pero el coste promedio a nivel mundial estimado por Aguilera
y compañía es de sólo 6 dólares en el año 2006.
Con una contundente batería de
datos hemos mostrado como las suposiciones de partida del modelo piramidal nos
llevan a sobrestimar los recursos, allanando el camino para terminar como el
pavo de acción de gracias. Hay otras estimaciones, que se basan también en
extrapolaciones de tendencias pasadas, pero sin añadir premisas optimistas que
no estén sólidamente fundadas en los datos. Yo destacaría la de Jean Laherrère.
Laherrère pronosticó que
llegaríamos al cénit de lo que se ha dado en denominar “todos los líquidos” (un
sintagma que engloba cosas distintas, incluso petróleos sintéticos con menor
energía) entre 2010 y 2020, con una producción algo inferior a 90 mb/d. Ahora
mismo estamos algo por encima. La realidad, de momento, parece situarse en un
punto intermedio entre los optimistas y pesimistas, aunque más cerca de los
pesimistas. Laherrère
fue capaz de predecir, junto con Colin Campbell, el fin del petróleo barato,
precisamente cuando el mercado anunciaba una era interminable de bajos precios.
A pesar de ello, siempre se muestra extremadamente prudente en sus
predicciones, en especial por la falta de datos, de la que se queja
amargamente.
Los datos sobre petróleo y gas son poco fiables y Naciones Unidas debería obligar a todos los países a publicar datos exactos, actualizados y completos sobre la energía. Esto es especialmente importante para los combustibles fósiles, que son regalos para la humanidad, ay, que tristemente pronto se reducirán a causa de las restricciones en la oferta. En Estados Unidos las normas de la Comisión de Bolsa y Valores deberían cambiarse para informar de las reservas principales (probadas + probables) en lugar de sólo las probadas.
Pero la clave no es cuando se
alcanzará el cénit de producción de petróleo, sino cuando se alcanzará el cénit
de energía neta. Producir energía requiere energía, así que la diferencia entre
lo gastado y lo producido es la energía neta que me resta para el conjunto de
usos de la sociedad que no son la producción energética. Cada fuente de energía
tiene su Tasa
de Retorno Energético, es decir, su relación entre la energía invertida y
la energía obtenida. Este cociente no es fijo, sino que va variando con el
tiempo, por ejemplo a medida la producción de petróleo desde pozos
convencionales decae y la producción nueva se realiza desde aguas profundas,
mediante técnicas de recuperación mejorada, fracking, etc.
Ello implica que la energía neta
puede empezar a disminuir antes de alcanzar el cénit de producción, si la
energía invertida en producir energía aumenta más que la propia producción
energética.
Dada la (sin exagerar) suprema importancia de esto, cabría esperar más estudios y mayor debate sobre la cuestión, especialmente entre los economistas y los geólogos, ecólogos, físicos, etc, que estudian la disponibilidad futura de energía. Sin embargo ese debate no existe, un ejemplo aislado es un documento de trabajo (es decir, que no ha pasado revisión por pares) publicado por el Banco de España y firmado por Mariano Macías y Mariano Matilla-García. La particularidad del documento, y por eso es citado en el artículo de Politikon es que introduce la Tasa de Retorno Energético en un modelo económico neoclásico, con “maximización individual de la utilidad” y “equilibrio de mercado”. Curiosamente las principales conclusiones del artículo no son citadas por Juan de Ortega:
Dada la (sin exagerar) suprema importancia de esto, cabría esperar más estudios y mayor debate sobre la cuestión, especialmente entre los economistas y los geólogos, ecólogos, físicos, etc, que estudian la disponibilidad futura de energía. Sin embargo ese debate no existe, un ejemplo aislado es un documento de trabajo (es decir, que no ha pasado revisión por pares) publicado por el Banco de España y firmado por Mariano Macías y Mariano Matilla-García. La particularidad del documento, y por eso es citado en el artículo de Politikon es que introduce la Tasa de Retorno Energético en un modelo económico neoclásico, con “maximización individual de la utilidad” y “equilibrio de mercado”. Curiosamente las principales conclusiones del artículo no son citadas por Juan de Ortega:
En este artículo el impacto de la reducción en la Tasa de Retorno Energético promedio para el sector energético, desde 10 a 5 implica (dependiendo de la sustituibilidad entre capital y energía) una reducción del consumo por habitante de menos del 10%, un significativo pero no catastrófico declive, aunque nuestro cálculo del impacto está basado en estadísticas comparadas en estado estacionario (el coste de la transición no se tiene en cuenta) y no incluye el efecto del incremento de población.
Todo ello a pesar de adoptar una
visión optimista sobre la sustitución entre energía y capital, que puede
haberse dado en el pasado, pero que los tecnólogos actualmente ponen en duda
(por ejemplo, las alternativas al petróleo en el transporte y a los
combustibles fósiles para proporcionar calor, frente a la electricidad).
Nuevamente nos encontramos ante la falacia del pavo. Sin embargo, quién haya
detrás de Juan de Ortega, no dio importancia a la disminución en el consumo
discrecional ante la caída de la TRE, por el contrario, resaltó la estabilidad
de los precios del cobre pese a la disminución de la ley de las menas y el
aumento de su producción, un hecho que como hemos señalado anteriormente puede
explicarse por el incremento en la disponibilidad de energía barata.
Tenga uno una visión optimista o
pesimista, lo mínimo que podría esperar como ciudadano y como demócrata es un
debate abierto y transparente sobre una cuestión de tanta transcendencia. Es
por ello que llama la atención, al acercarse al debate, que se trata de un diálogo
de sordos (con la sana excepción de Macías & Matilla-García), sin que aparentemente
haya influencia mutua o asimilación parcial de los conceptos de la parte
contraria, al menos por el lado de los optimistas.
Aquí resulta de extraordinario
interés recordar lo que nos cuenta Hugo Bardi (2011) en relación a la
publicación de Los Límites del
Crecimiento en 1971. William Nordhaus, economista cuyos modelos son, según
Juan de Ortega, de lo mejorcito en economía de los recursos naturales, y cuyo
modelo económico-climático es usado por la ONU para recomendar políticas sobre
el calentamiento global, respondió en 1973 en un artículo publicado en la
revista Economic Journal al libro World Dynamics de Jay forrester, que es
la base del posterior Los Límites del Crecimiento.
En su respuesta, Nordhaus afirmaba que el modelo de Forrester no podía
describir datos reales, históricos, de la relación entre crecimiento de la
población y el PIB, y para ello mostraba esta gráfica.
Sin embargo, Nordhaus no había
sido capaz de interpretar de forma correcta las ecuaciones del modelo de
Forrester, como esté mostró a continuación.
Lo curioso es que su respuesta
tuvo que publicarse en Policy Sciences.
No parece razonable, en un debate honrado, no permitir responder a una crítica
en la misma revista donde esta se ha efectuado. Es evidente que los lectores
del primer artículo tienen mayor probabilidad de mantener una idea equivocada,
al desconocer la respuesta que da cuenta de los clamorosos errores de Nordhaus.
La importancia de estos hechos es
extraordinaria, precisamente por el papel primordial que tiene el consenso
académico, científico, a la hora de forjar consensos en la sociedad. No en
vano, en un artículo sobre las revoluciones,
en el que tomaba como epítome la que hemos vivido en los últimos treinta y
cinco años, citaba las palabras de Richard Fink, buscando financiación para un think tank.
La traducción de ideas en acción requiere la elaboración de materias primas intelectuales, su conversión en productos políticos específicos y la comercialización y distribución de esos productos a ciudadanos-consumidores. Quienes otorgan las subvenciones harían bien en invertir en el cambio durante toda la cadena de producción, financiando a estudiosos y programas universitarios en los que se desarrolla el marco intelectual de la transformación social, los laboratorios de ideas en los que las reflexiones eruditas se traducen en propuestas políticas específicas, y grupos de implementación para llevar esas propuestas al mercado político y finalmente a los consumidores.
Tres niveles, ciencia, política,
ciudadanía, y tres vehículos, universidad, think tanks y medios de información.
Si permitimos que alguien consiga sesgar el debate en su favor, excluyendo las
posturas críticas por medios espurios, estaremos dejando la democracia en manos
de minorías que impondrán sus intereses en detrimento del interés general.
Hola Jesús
ResponderEliminarEsclarecedor. Creo que algunas "suposiciones avanzadas" son en realidad técnicas avanzadas de suposición en manos de sofistas sofisticados que casualmente siempre confluyen con el pensamiento económico "dominante".
En cualquier caso la peor noticia sería que aumentara la disponibilidad de recursos fósiles. Ya me los imagino diciendo que la extinción masiva de especies derivada de su extracción y uso en realidad no es significativa porque según el modelo fractal de distribución de las mismas, el número de especies unicelulares tiende a infinito. Esperemos que algunos especímenes de articulista se extingan mucho antes.
Saludos
Buenas Ecora,
EliminarEn efecto, viendo el ritmo que está tomando el cambio climático, y los previsibles efectos no-lineales que pueden desatarse, estamos quemando combustibles en mayor cantidad que la que sería razonable.
un saludo,
Felicidades Jesús. Excelente y elaborado post que comparto y suscribo. Solo sugerir, que el problema no son la falta de fuentes de energías. En mi parecer, el problema es, el grave fallo en la esencia en la formulación del modelo económico productivo, que impide el buen aprovechamiento de los recursos y no restituye ni conserva la naturaleza como único proveedor, dejando al margen el mal aprovechamiento del sol y otras fuentes por explorar inagotables....
ResponderEliminarUn cordial saludo.
Juan Bernardo Montesinos
Buenas Juan,
EliminarEstoy de acuerdo. En este post sobre todo he querido resaltar la incongruencia de los modelos de los economistas neoclásicos, una cuestión que es muy grave, porque la "ciencia", o lo que consideramos conocimiento, tiene una importancia transcendental en la formación y la conformación de consensos.
un saludo,