martes, 28 de abril de 2015

¿Es la economía una ciencia? El lamentable ejemplo de Politikon y el modelo piramidal de los recursos.


En ocasiones hemos señalado la extraordinaria simpleza de las conclusiones de algunos economistas, como los que establecen que Roma colapsó a causa del socialismo. También hemos señalado lo falso de alguno de sus cimientos conceptuales, como la conocida fábula sobre el origen del dinero a partir del trueque, que con tanto fervor defendió aquí Juan Ramón Rallo, y que se encuentra en la base de falacias como “la propensión natural del hombre al intercambio” de Adam Smith, o en la consideración del dinero como una mercancía, uno de los virus más perniciosos que pueden infectar la mente humana.

Por fortuna no estamos solos en esta crítica, la tolerancia social hacia los economistas es cada vez menor, y en la actualidad se pueden leer artículos como La fraudulenta superioridad de los economistas en medios del mainstream como el diario El País. Pero los austriacos, a los que hacíamos en el pasado blanco de nuestras críticas, son la parte “folclórica” de esta historia. Su relevancia es más política que académica, desplazando hacia el extremo el centro de gravedad del sentido común de la sociedad. Troleándolos nos podemos echar unas risas, pero no cambiaremos el mundo, así que ya es hora de dar un paso más en la dirección correcta y comenzar a denunciar las mismas prácticas de los austriacos en los neoclásicos, precisamente la escuela o paradigma dominante. Dominante a través de métodos que no es ni mucho menos exagerado definir como contrarios al debate científico, pero ese es otro problema que trataremos más adelante.

Para los neoclásicos, el pensamiento y los modelos más avanzados sobre explotación de recursos naturales son, como no podía ser de otra manera, los suyos. Recientemente tuvimos una ocasión única de comprobar los fundamentos de estos modelos, gracias a la contestación al manifiesto Última Llamada realizada desde la web Politikon. La contestación se basa en dos argumentos habituales de la economía neoclásica, el modelo funcional o piramidal de los recursos y la sustitución entre capital natural y el hecho por el hombre, merced al progreso tecnológico y a las señales que emiten los precios. Nos ocuparemos aquí del primero de los argumentos, y espero hablar del segundo en un futuro, ya que ambos son muy discutibles.

¿Qué es lo que plantea el modelo funcional de los recursos? De forma simplificada, que la explotación de los recursos se realiza siguiendo un orden, extrayéndose primero los de mejor calidad, y que además la abundancia relativa también sigue un orden, siendo los recursos de mejor calidad escasos, y los de peor calidad muy abundantes. Este efecto crea una paradoja, según estos “expertos” de la economía: cuantos más recursos gastamos, más tenemos, aunque puede ser a costa de un mayor precio. En palabras de Juan de Ortega (pseudónimo usado por la gente de Politikon cuando no quieren firmar con su nombre).

Es cierto que las vetas más rarificadas necesiten una cantidad “exponencial de energía” para su extracción (Philips and Edwards, “Metal Prices as a Function of Ore Grade”, Resources Policy, 1976) pero las cantidades alcanzables en cada nivel de rarificación también crecen exponencialmente. La consecuencia económica es que para una tecnología constante, cada punto de incremento porcentual del precio de un mineral tiene un impacto multiplicativo sobre la cantidad obtenible a ese precio. No es el milagro de los panes y los peces: aquí al final la cantidad hay que pagarla.


Si llevamos este argumento al extremo, cuantos más recursos gastemos más reservas económicas podremos encontrar. Las menas con una concentración infinitesimal, unos pocos átomos disueltos en una montaña de siliatos, nos proporcionarían el máximo de recursos. No hacen falta grandes demostraciones para comprender que esto es absurdo. El modelo funcional es una simplificación basada en las relaciones observadas entre la riqueza de la mena y el tonelaje de mineral para el pórfido cuprífero por Sam Lasky, durante los años 20 y 30 del siglo pasado.

El problema es que esas relaciones están sacadas de minerales comercialmente explotables y no estudian aquellos que se encuentran en concentraciones sub-económicas. Es más, lo poco que sabemos sobre esos minerales parece ir en la dirección contraria a lo observado por Lasky. Tal y como nos cuenta el geólogo Brian Skinner de la universidad de Yale:

Quienes estudian la forma en que los minerales realmente se forman tienden a ser pesimistas  y llegan a conclusiones que son distintas de las de los seguidores de Lasky. Concluyen que los grandes tonelajes de metal están sumamente localizados en depósitos con altas concentraciones y que los tonelajes de bajas concentraciones son pequeños – concluyen esto porque la formación de menas implica flujos concentrados o canalizados de disoluciones, en lugar de flujo generalizado, que podría dar lugar a una distribución de tipo Lasky.

Hay pocos datos empíricos al respecto, pero los que hay parecen avalar las tesis de Skinner. El resultado es que la probabilidad de encontrar un yacimiento en función de su concentración y su tonelaje sigue una distribución bimodal para la mayor parte de los metales, excepto los más comunes como el hierro y el aluminio.



A pesar de ello Skinner es optimista en cuanto a la futura producción de minerales. El desarrollo de nuevas tecnologías que nos permitan localizar las mejores menas debajo de dos kilómetros de sedimentos, seguramente nos permitirá un suministro continuo durante los próximos cien años. El problema es que esas técnicas de exploración de momento no existen, por no hablar del mayor coste energético que supone extraer minerales tan profundos.

La barrera mineralógica separa lo que hoy consideramos menas (óxidos y carbonatos) de minerales comunes como los silicatos, que incluyen algún metal valioso en su composición, normalmente a nivel de trazas. Una vez pasada esta barrera, la energía necesaria para obtener los metales se multiplica por diez, como mínimo. Aproximadamente entre el 99,99% y el 99,999% del tonelaje de los metales en la corteza terrestre cae por debajo de la barrera mineralógica, sin embargo mucho antes encontramos el primer máximo de la distribución, de relevancia económica, puesto que las cantidades alcanzables en cada nivel de rarificación ya no crecen exponencialmente, al contrario, decrecen exponencialmente. En consecuencia, la sociedad tendrá que dedicar una cantidad aceleradamente creciente de la energía útil que tenga disponible para mantener el suministro de metales.

Descartar las hipótesis optimistas del modelo funcional de los recursos nos vuelve a remitir a la energía, como era previsible. Incluso los autores de Politikon admiten que la energía es primordial:

Por tanto, nuestra versátil economía industrial solo sufre una forma de escasez de recursos realmente esencial: la de la energía que alimenta el capital. Con recursos energéticos abundantes, los demás cuellos de botella físicos al desarrollo son en general abordables.


Un párrafo que podría haber firmado Frederick Soddy, aunque como sabemos su pensamiento y su teoría del valor difieren sustancialmente de la neoclásica.

En efecto, al agotar los recursos de mayor calidad y recurrir a menas más rarificadas lo que haré será consumir más energía por unidad de producto extraído. De hecho puedo pensar en los metales en términos de energía, como sí en lugar de explotar minerales metálicos explotásemos energía útil. Por ejemplo, Bardi (2011) cita una estimación del consumo energético necesario para la extracción de cobre en la corteza terrestre con una concentración de 50 partes por millón, siendo la energía necesaria de 400 GJ/kg. Para extraer la cantidad de cobre que consumimos en la actualidad, en esas condiciones, necesitaríamos consumir 20 veces la actual producción mundial de energía primaria. La diferencia entre los 400 GJ/kg que tendría que gastar en el caso más desfavorable, para agrupar el cobre disperso de forma homogénea en la corteza terrestre, y la energía que necesito utilizar para explotar las menas de cobre comercial actuales, puede ser considerada energía gratuita proporcionada por los procesos geoquímicos de la antigüedad. En realidad, evidentemente, no se trata de energía, sólo de metales, pero que hayan sido concentrados por el calor y el agua del planeta tierra me ahorra gastar un buen puñado de energía para obtenerlos.

Según vemos en esta gráfica que refleja la energía de concentración del cobre (no incluye el proceso metalúrgico de refinado), al pasar del 3% de riqueza media, al comienzo del siglo XX, a 0,5% en la actualidad, la energía de concentración ha pasado de 28,66 MJ/t a 50,86 MJ/t (fuente: Trends of exergy costs and ore grade in global mining).



Estamos entrando en el “palo de jockey”, comenzando el proceso de aceleración en el incremento de los costes energéticos, y lo que tardemos en ascender por él dependerá del tonelaje que encontremos en cada nuevo nivel, no está claro que sea cada vez más, incluso puede ser cada vez menos, lo que supondría un reto importante para la civilización industrial.

A lo largo del siglo XX, mientras los costes energéticos aumentaban, la producción de cobre no paraba de crecer, y el precio se mantenía estacionario.



Lo cual se puede interpretar como ganancias de productividad, gracias al progreso tecnológico, que han compensado el efecto de la mayor escasez física. Pero también se puede interpretar como el resultado de un flujo creciente de energía barata. Evidentemente, si cada tonelada cada vez me cuesta más energía y cada vez saco más toneladas, tengo dos factores que hacen que cada vez deba consumir más energía. La productividad se suele medir respecto al trabajo humano y al capital, pero no respecto a la energía, lo cual siembra dudas sobre el sempiterno progreso tecnológico.

La clave es por tanto la energía, así que es hora de preguntarnos cómo será el suministro de energía, en particular el de los combustibles fósiles, que es casi el 90% del total de la energía primaria consumida a nivel mundial. Y aquí nuevamente para Politikon no hay nada que temer, dado que el modelo piramidal (no está de más volverlo a recordar: basado en las observaciones de Lasky para el pórfido cuprífero en los años 20 y 30) también se adapta bien a los combustibles fósiles:

El caso de la minería metálica indica una realidad que observaremos de forma más indirecta (ya que no disponemos de un parámetro de agotamiento tan conveniente como la riqueza media del yacimiento) para los combustibles fósiles: que la explotación de los recursos no renovables empieza con los de calidad más elevada, que estos recursos de alta calidad se agotan relativamente rápido y que los recursos de menos calidad son mucho más abundantes.

¿Cómo de abundantes? Aquí el autor reconoce que el petróleo convencional da ciertos signos de agotamiento, pero no demasiados:

Pero desde luego el pico de producción del petróleo no se ha alcanzado (véase esta nota de Vaclav Smil sobre la última oleada de previsiones alarmistas y fallidas sobre el asunto), y las últimas estimaciones basadas en los modelos más avanzados son optimistas sobre el volumen de recursos no convencionales recuperables a menos de 120 dólares/barril (Roberto F Aguilera; Roderick G Eggert; Gustavo C C Lagos; John E Tilton , “Depletion and the Future Availability of Petroleum Resources”, The Energy Journal, 2009).


Respecto al pico, depende de lo que consideremos petróleo, la Agencia Internacional de la Energía reconoció que el pico de petróleo convencional llegó en 2006. Esto es importante, porque los petróleos no-convencionales, además de ser más costosos de extraer/sintetizar pueden tener menos energía, o ser más desfavorables para producir diesel en el proceso de refino. Más interesante es la estimación de los modelos “más avanzados” del volumen de recursos recuperables a menos de 120 dólares/barril.


La verdad que es impresionante, por debajo de 120 no, por debajo de 36 dólares cerca de 30 billones europeos de barriles equivalentes de petróleo, o lo que es lo mismo, el consumo de cerca de 900 años al ritmo actual ¿De dónde salen estos números?

Se supone que hay una relación entre los recursos ya descubiertos, estén en explotación o sean reservas, y los que se descubrirán en un futuro. Siguiendo la lógica del modelo piramidal, nos resta por descubrir los de peor calidad, pero hay muchos. El estudio parte de una estimación previa del USGS (United States Geological Survey) del año 2000, y la extiende a regiones que no habían sido consideradas en ese trabajo. Al respecto de las áreas que sí habían sido estimadas, el estudio del USGS señala: “las áreas estimadas han sido aquellas que juzgamos serán significativas a nivel global en términos de volúmenes conocidos de petróleo, potencial geológico para nuevos descubrimientos, e importancia política o social”. La suposición de partida es que en las áreas no estimadas puede haber petróleo pero debido a su localización y a otros factores, los costes de extracción son altos, y estos recursos serán de poco interés dentro del horizonte temporal de 30 años que adoptaba el estudio original del USGS. Llama la atención esta premisa tan poco intuitiva, en la actualidad se extrae petróleo de los lugares más remotos, incluso en aguas profundas ¿cuáles son esos lugares remotos de poco interés económico a los precios actuales?


Incluso tras la fuerte bajada registrada desde el verano pasado, los precios siguen, en términos reales, 2,5 veces por encima de su nivel de hace quince años, y por encima de los 36 dólares que es el coste de extracción de los 30 billones de barriles que se estima se irán añadiendo a las reservas.

En realidad, y dadas las propias palabras usadas por el USGS, la suposición lógica es que esas regiones no han sido estimadas porque no tienen potencial geológico para contener petróleo, o recursos no-convencionales, de forma significativa. Lamentablemente, gracias a este planteamiento, se han añadido nada más y nada menos que tres billones de barriles sólo en petróleo convencional a las estimaciones originales del USGS, doblando las reservas estimadas. No es arriesgado extrapolar que la misma suerte han debido correr los recursos no-convencionales.

Ahora fijémonos en cómo han relacionado los volúmenes conocidos de petróleo y los que se añadirán en un futuro. Indican que todos los métodos usados para prever futuros volúmenes están basados en asumir que estos siguen una distribución de probabilidad que relaciona su tamaño con su número. Por ejemplo, si tenemos un campo de volumen 30, deberíamos tener en la región cinco de volumen 6, y diez de volumen 3. La siguiente suposición “avanzada” (por usar la terminología de Juan de Ortega) que hacen, es suponer que esta relación se puede extrapolar, en plan fractal, de los campos a las regiones. Es decir, si tengo una región de volumen 300, tendré cinco de volumen 60 y diez de volumen 30, por ejemplo. Evidentemente, todo esto no tiene por qué ser cierto. Ya es problemático suponer que estas relaciones se cumplen para los campos dentro de las regiones, aunque se haya observado en la práctica en innumerables ocasiones. Podríamos hablar aquí de la crítica de Nassim Nicholas Taleb a la estadística, a la curva normal y la optimización, aplicada a disciplinas donde su empleo es muy cuestionable. Nos encontramos ante un ejemplo de la falacia inductiva, o del pavo.



Pero los autores del estudio van un paso más allá, y extienden esta lógica a un campo donde ni siquiera disponen de inducciones previas. Si he explorado a fondo una región, ya muy madura, sabré cómo se distribuyen los volúmenes de petróleo en ella, y esa relación puedo extrapolarla a otras regiones (siempre teniendo en cuenta que me puede pasar como al pavo), pero para deducir la relación entre los volúmenes de las distintas regiones necesito conocer a fondo una unidad mayor, y ese no es el caso.

Además adoptan una distribución de probabilidad bastante favorable, a medio camino entre la de Pareto (también llamada Fractal) y la Lognormal.



La distribución de Pareto es la típica que podríamos esperar de un modelo piramidal, según disminuye el tamaño de los yacimientos su número aumenta mucho, por el contrario en la distribución Lognormal se alcanza un tamaño a partir del cual el número de yacimientos disminuye, hasta llegar a cero. Justifican la elección de una distribución intermedia señalando que está generalmente aceptado que la distribución de Pareto sobrestima los recursos, mientras que la Lognormal los subestima. Sin embargo, en un estudio sobre la cuenca del Mar de Norte (Watkins 2002) se afirma:

La distribución de tamaño de las reservas de petróleo recuperables para los campos de petróleo de la cuenca de Mar del Norte tiene mucho en común con la de cualquier otra cuenca. Está fuertemente sesgada, con predominio de pequeños campos. La hipótesis de lognormalidad no debe ser rechazada.


Tiene mucho en común con cualquier otra y la hipótesis de lognormalidad no se debe descartar. Eso parece indicar que la lognormalidad es una característica que o bien define las distribuciones de las cuencas más usuales o se acerca mucho a ello.

La base de toda la argumentación es el trabajo previo del USGS, llamado World Petroleum Assessment. Esa estimación es extrapolada a regiones que no habían sido consideradas en ese trabajo, pero si la estimación inicial es errónea, lo que haremos será arrastrar los errores previos y multiplicarlos. Es por tanto del máximo interés clarificar la fiabilidad de ese estudio. Sin embargo, los datos disponibles no son, de momento, muy favorables, los norteamericanos estiman que entre los años 1996 y 2030 se descubrirían 939.000 millones de barriles, pero en el año 2006, trascurrido un 30% del periodo estimado, sólo se habían descubierto 110.000 millones de barriles, un 12-13% de la cantidad estimada. Apenas se está descubriendo un tercio de lo estimado.

El caso de Arabia Saudí es paradigmático, el USGS estima que 128.000 millones de barriles serán descubiertos alrededor del gran campo de Ghawar y en el desierto de Rub al-Jali. Pero la realidad es que hasta el año 2006 sólo el 4% de esa cantidad se había encontrado.

En definitiva, lo que se está planteando es un cambio radical en las tendencias históricas de descubrimientos.



Afortunadamente, las estimaciones del USGS se han tomado como base por organismos como la Agencia Internacional de la Energía, que realizan previsiones sobre la producción futura. Resulta de extraordinario de interés comprobar por tanto lo acertado de sus previsiones pasadas, lo cual nos dará una idea de la solidez de las bases teóricas de sus modelos.



Si observamos el World Economic Outlook de 2006 (página 94), vemos que la agencia predecía una producción para el año en curso de 99,3 millones de barrilles día, unos cinco millones de barrilles superior a la actual (si bien hay que destacar, que además la producción en EEUU, del que se esperaban grandes aumentos, está comenzando a disminuir). En apenas nueve años es un error del 32%, claro que siempre podemos pensar que no es una cuestión de oferta, sino de demanda ¿verdad? Quizás no hay demanda para el crudo. Pero no, la lógica económica nos dice que si hay, como plantea el USGS o Aguilera y compañía en su artículo, varios billones de barriles de crudo que se pueden producir a 15 dólares, o a 25 en el caso de las arenas bituminosas, o a 36 en el caso del Shale Oil, habrá interés en producir más, hasta que el precio de mercado se vaya aproximando al coste de extracción. Este es otro de los problemas del estudio, la estimación de costes, la estimación del coste del petróleo por descubrir se extrapola a partir del que está descubierto, multiplicando por un factor que no está nada claro cómo se elige. Sería de esperar que el petróleo por descubrir fuese significativamente más caro, pero los datos no cuadran, el coste según la AIE fue de 12 dólares entre 2003 y 2005, pero el coste promedio a nivel mundial estimado por Aguilera y compañía es de sólo 6 dólares en el año 2006.

Con una contundente batería de datos hemos mostrado como las suposiciones de partida del modelo piramidal nos llevan a sobrestimar los recursos, allanando el camino para terminar como el pavo de acción de gracias. Hay otras estimaciones, que se basan también en extrapolaciones de tendencias pasadas, pero sin añadir premisas optimistas que no estén sólidamente fundadas en los datos. Yo destacaría la de Jean Laherrère.



Laherrère pronosticó que llegaríamos al cénit de lo que se ha dado en denominar “todos los líquidos” (un sintagma que engloba cosas distintas, incluso petróleos sintéticos con menor energía) entre 2010 y 2020, con una producción algo inferior a 90 mb/d. Ahora mismo estamos algo por encima. La realidad, de momento, parece situarse en un punto intermedio entre los optimistas y pesimistas, aunque más cerca de los pesimistas. Laherrère fue capaz de predecir, junto con Colin Campbell, el fin del petróleo barato, precisamente cuando el mercado anunciaba una era interminable de bajos precios. A pesar de ello, siempre se muestra extremadamente prudente en sus predicciones, en especial por la falta de datos, de la que se queja amargamente.

Los datos sobre petróleo y gas son poco fiables y Naciones Unidas debería obligar a todos los países a publicar datos exactos, actualizados y completos sobre la energía. Esto es especialmente importante para los combustibles fósiles, que son regalos para la humanidad, ay, que tristemente pronto se reducirán a causa de las restricciones en la oferta. En Estados Unidos las normas de la Comisión de Bolsa y Valores deberían cambiarse para informar de las reservas principales (probadas + probables) en lugar de sólo las probadas.


Pero la clave no es cuando se alcanzará el cénit de producción de petróleo, sino cuando se alcanzará el cénit de energía neta. Producir energía requiere energía, así que la diferencia entre lo gastado y lo producido es la energía neta que me resta para el conjunto de usos de la sociedad que no son la producción energética. Cada fuente de energía tiene su Tasa de Retorno Energético, es decir, su relación entre la energía invertida y la energía obtenida. Este cociente no es fijo, sino que va variando con el tiempo, por ejemplo a medida la producción de petróleo desde pozos convencionales decae y la producción nueva se realiza desde aguas profundas, mediante técnicas de recuperación mejorada, fracking, etc.



Ello implica que la energía neta puede empezar a disminuir antes de alcanzar el cénit de producción, si la energía invertida en producir energía aumenta más que la propia producción energética.

Dada la (sin exagerar) suprema importancia de esto, cabría esperar más estudios y mayor debate sobre la cuestión, especialmente entre los economistas y los geólogos, ecólogos, físicos, etc, que estudian la disponibilidad futura de energía. Sin embargo ese debate no existe, un ejemplo aislado es un documento de trabajo (es decir, que no ha pasado revisión por pares) publicado por el Banco de España y firmado por Mariano Macías y Mariano Matilla-García. La particularidad del documento, y por eso es citado en el artículo de Politikon es que introduce la Tasa de Retorno Energético en un modelo económico neoclásico, con “maximización individual de la utilidad” y “equilibrio de mercado”. Curiosamente las principales conclusiones del artículo no son citadas por Juan de Ortega:

En este artículo el impacto de la reducción en la Tasa de Retorno Energético promedio para el sector energético, desde 10 a 5 implica (dependiendo de la sustituibilidad entre capital y energía) una reducción del consumo por habitante de menos del 10%, un significativo pero no catastrófico declive, aunque nuestro cálculo del impacto está basado en estadísticas comparadas en estado estacionario (el coste de la transición no se tiene en cuenta) y no incluye el efecto del incremento de población.


Todo ello a pesar de adoptar una visión optimista sobre la sustitución entre energía y capital, que puede haberse dado en el pasado, pero que los tecnólogos actualmente ponen en duda (por ejemplo, las alternativas al petróleo en el transporte y a los combustibles fósiles para proporcionar calor, frente a la electricidad). Nuevamente nos encontramos ante la falacia del pavo. Sin embargo, quién haya detrás de Juan de Ortega, no dio importancia a la disminución en el consumo discrecional ante la caída de la TRE, por el contrario, resaltó la estabilidad de los precios del cobre pese a la disminución de la ley de las menas y el aumento de su producción, un hecho que como hemos señalado anteriormente puede explicarse por el incremento en la disponibilidad de energía barata.

Tenga uno una visión optimista o pesimista, lo mínimo que podría esperar como ciudadano y como demócrata es un debate abierto y transparente sobre una cuestión de tanta transcendencia. Es por ello que llama la atención, al acercarse al debate, que se trata de un diálogo de sordos (con la sana excepción de Macías & Matilla-García), sin que aparentemente haya influencia mutua o asimilación parcial de los conceptos de la parte contraria, al menos por el lado de los optimistas.

Aquí resulta de extraordinario interés recordar lo que nos cuenta Hugo Bardi (2011) en relación a la publicación de Los Límites del Crecimiento en 1971. William Nordhaus, economista cuyos modelos son, según Juan de Ortega, de lo mejorcito en economía de los recursos naturales, y cuyo modelo económico-climático es usado por la ONU para recomendar políticas sobre el calentamiento global, respondió en 1973 en un artículo publicado en la revista Economic Journal al libro World Dynamics de Jay forrester, que es la base del posterior Los Límites del Crecimiento. En su respuesta, Nordhaus afirmaba que el modelo de Forrester no podía describir datos reales, históricos, de la relación entre crecimiento de la población y el PIB, y para ello mostraba esta gráfica.



Sin embargo, Nordhaus no había sido capaz de interpretar de forma correcta las ecuaciones del modelo de Forrester, como esté mostró a continuación.



Lo curioso es que su respuesta tuvo que publicarse en Policy Sciences. No parece razonable, en un debate honrado, no permitir responder a una crítica en la misma revista donde esta se ha efectuado. Es evidente que los lectores del primer artículo tienen mayor probabilidad de mantener una idea equivocada, al desconocer la respuesta que da cuenta de los clamorosos errores de Nordhaus.

La importancia de estos hechos es extraordinaria, precisamente por el papel primordial que tiene el consenso académico, científico, a la hora de forjar consensos en la sociedad. No en vano, en un artículo sobre las revoluciones, en el que tomaba como epítome la que hemos vivido en los últimos treinta y cinco años, citaba las palabras de Richard Fink, buscando financiación para un think tank.

La traducción de ideas en acción requiere la elaboración de materias primas intelectuales, su conversión en productos políticos específicos y la comercialización y distribución de esos productos a ciudadanos-consumidores. Quienes otorgan las subvenciones harían bien en invertir en el cambio durante toda la cadena de producción, financiando a estudiosos y programas universitarios en los que se desarrolla el marco intelectual de la transformación social, los laboratorios de ideas en los que las reflexiones eruditas se traducen en propuestas políticas específicas, y grupos de implementación para llevar esas propuestas al mercado político y finalmente a los consumidores.



Tres niveles, ciencia, política, ciudadanía, y tres vehículos, universidad, think tanks y medios de información. Si permitimos que alguien consiga sesgar el debate en su favor, excluyendo las posturas críticas por medios espurios, estaremos dejando la democracia en manos de minorías que impondrán sus intereses en detrimento del interés general.

4 comentarios :

  1. Hola Jesús

    Esclarecedor. Creo que algunas "suposiciones avanzadas" son en realidad técnicas avanzadas de suposición en manos de sofistas sofisticados que casualmente siempre confluyen con el pensamiento económico "dominante".

    En cualquier caso la peor noticia sería que aumentara la disponibilidad de recursos fósiles. Ya me los imagino diciendo que la extinción masiva de especies derivada de su extracción y uso en realidad no es significativa porque según el modelo fractal de distribución de las mismas, el número de especies unicelulares tiende a infinito. Esperemos que algunos especímenes de articulista se extingan mucho antes.

    Saludos

    ResponderEliminar
    Respuestas
    1. Buenas Ecora,

      En efecto, viendo el ritmo que está tomando el cambio climático, y los previsibles efectos no-lineales que pueden desatarse, estamos quemando combustibles en mayor cantidad que la que sería razonable.

      un saludo,

      Eliminar
  2. Felicidades Jesús. Excelente y elaborado post que comparto y suscribo. Solo sugerir, que el problema no son la falta de fuentes de energías. En mi parecer, el problema es, el grave fallo en la esencia en la formulación del modelo económico productivo, que impide el buen aprovechamiento de los recursos y no restituye ni conserva la naturaleza como único proveedor, dejando al margen el mal aprovechamiento del sol y otras fuentes por explorar inagotables....

    Un cordial saludo.

    Juan Bernardo Montesinos

    ResponderEliminar
    Respuestas
    1. Buenas Juan,

      Estoy de acuerdo. En este post sobre todo he querido resaltar la incongruencia de los modelos de los economistas neoclásicos, una cuestión que es muy grave, porque la "ciencia", o lo que consideramos conocimiento, tiene una importancia transcendental en la formación y la conformación de consensos.

      un saludo,

      Eliminar