Economía: ¿ciencia o pseudociencia? Parte I

ecociencia

El pasado 12 de enero la Fundación Española de Ciencia y Tecnología (Fecyt) publicó su informe “Percepción Social de la Ciencia y la Tecnología en 2014” basado en la séptima encuesta de percepción social de la ciencia y tecnología en España 2014. Entre las múltiples cosas que aparecieron en ese estudio figuraron que una pseudociencia como la homeopatía es una disciplina considerada más científica por parte de la sociedad que la Economía o que la Historia. Más concretamente, a los encuestados se les pidió que puntuaran del 1 al 5 el grado de “cientificidad” que le conferían a cada disciplina, siendo 1 si consideran esa disciplina nada científica y el 5 si la consideran muy científica. La puntuación promedio que obtuvo tanto Economía como Historia fue de 2,7 puntos frente al 2,9 que obtuvo la homeopatía quedando además empatadas con otra pseudociencia como es la acupuntura.

La percepción de la Economía como una pseudociencia es algo bastante frecuente y desde el ámbito del mismo escepticismo hay diversos autores que así la consideran. Por citar algún ejemplo concreto, el físico y epistemólogo argentino Mario Bunge incluye a la Economía (más concretamente a la economía neoclásica) en su obra “Las pseudociencias ¡vaya timo!”, como una pseudociencia. Libro que por otra parte recomiendo encarecidamente su lectura como el resto de obras de este autor.

La cuestión que toca abordar a continuación es si la Economía es una ciencia o una pseudociencia. Para ello previamente toca establecer una demarcación entre lo que constituye ciencia de lo que no lo es.

Ciencia y método científico

Empecemos por definir que es ciencia, si recurrimos a una de las acepciones de ciencia comúnmente más usadas tenemos que es el conocimiento racional, sistemático, exacto, verificable y falible sobre la realidad. Nos encontramos con una definición cargada de adjetivos que puede resultar un tanto ambigua a la par que confusa. El objetivo de la ciencia es obtener conocimiento acerca del mundo que nos rodea. Por tanto, toda disciplina que se considere ciencia deberá incorporar un conjunto de técnicas ordenadas siguiendo un método que permitan obtener dicho conocimiento.

Ese método existe y es común al de todas las disciplinas que se les considera ciencia, se trata del método científico. De esta forma, se puede afirmar que la ciencia es toda aquella actividad resultante de aplicar el método científico, así como al cúmulo de conocimientos obtenidos mediante su uso.

El siguiente paso es, por tanto, definir que es el método científico. De forma esquemática este método consiste en: formular hipótesis, buscar datos acerca de si se cumplen o no esas hipótesis, para finalmente verificar o rechazar la hipótesis en base a los datos y la información recabada. Sin embargo, este esquema no permite vislumbrar cuál es la filosofía que subyace en el método científico y por qué epistemológicamente es el mejor método demostrado a día de hoy para obtener conocimiento. La filosofía del método científico es la minimización del error, esto es, quien usa el método científico asume de antemano que va a obtener una conclusión errónea o no completamente verdadera de la realidad.

Es por ello que con el fin de conseguir reducir al máximo ese error el investigador de la materia pertinente asume una lista de cuidados que permita obtener las conclusiones más veraces dentro del mínimo margen de equivocación. Así pues, se puede establecer una analogía entre el científico e investigador que intenta desentrañar algún aspecto de la realidad y un detective que busca descubrir al autor de un crimen empleando todos los cuidados posibles y pruebas para desenmascararlo.

Entre esos cuidados figuran los siguientes:

• Utilizar la experimentación siempre que se pueda.

• Definir la hipótesis lo mejor posible, dejando claro que implica y que no. Si la hipótesis puede definirse empleando la lógica y las matemáticas mucho mejor.

• Búsqueda datos de manera sistemática e insesgada (no vale con quedarme solo con los datos que aparentemente refuerzan mi hipótesis también hay que incorporar los datos que parecen refutarla) para comprobar si la hipótesis modelizada es cierta o no. Ojo incluso la hipótesis más correcta y autoevidente desde un punto de vista lógico puede resultar falta al confrontarse con la realidad.

• Úsense los instrumentos adecuados y más precisos para analizar los datos y las observaciones. Conviene no inventarse demasiadas conclusiones sobre los datos sino ver las conclusiones que razonablemente se puede obtener de ellos.

• En muchas disciplinas (en especial aquellas en el que el objeto de estudio es el ser humano) es de gran utilidad la aplicación de poblaciones control y del ciego, doble ciego y hasta triple ciego. Para explicar en qué consiste miremos el caso de la medicina. El ciego es cuando al sujeto del experimento no sabe si le han dado un medicamento o bien un placebo. El doble ciego se da cuando no solo el sujeto del experimento desconoce si le han dado un medicamento o un placebo, sino también el investigador que les administra el medicamento tampoco sabe a quien le ha dado el medicamento y a quien el placebo. En el triple ciego tanto el sujeto sometido a experimentación, como el investigador que administra los medicamentos y el estadístico que interpreta los datos desconocen la información (de antemano) de a quien le han dado el medicamento y a quien el placebo.

• Una vez publicada una investigación sométase a la revisión por pares (que otros expertos en la misma materia que el investigador está analizando, manifiesten sus críticas y correcciones al trabajo presentado). Que el trabajo sea presentado en congresos y seminarios por expertos en la misma materia, también favorece a la labor científica que las investigaciones sean presentadas en revistas JCR para que evalúen de forma anónima dichos resultados. También es una muestra de buena actitud científica que el investigador informe de las observaciones y de los experimentos y que dé detalles suficientes para que terceros investigadores repliquen la investigación y comprueben si obtienen o no los mismos resultados.

• Ponderar hipótesis alternativas, ya que si un resultado contradice a otros bien asentados, probablemente es que la hipótesis principal no es del todo correcta o es completamente falsa.

Esta lista de cuidados no está ni cerrada ni completa, en contra de lo que se cree el método científico no es algo estático ni que ha permanecido invariante a lo largo del tiempo. Si alguien demuestra que hay un cuidado más que permite minimizar el error en una investigación, este tarde o temprano se añade al método científico. Por otro lado, no en todas las disciplinas es posible y/o necesario aplicar todos los cuidados. Por ejemplo, la aplicación del doble o triple ciego no tiene mucho sentido en la Física o en la Química. En las ciencias sociales a veces no es posible experimentar todo lo que se gustaría, (aunque veremos que poco a poco se van dando avances en ello), mientras que en las ciencias naturales la experimentación se da en la mayoría de los casos.

¿Es la Economía una ciencia, o no?

Una vez tratado de exponer que es la ciencia y el método científico toca comprobar si la Economía se ajusta o no a este esquema para dilucidar si es o no una ciencia. En primera instancia hay que señalar que dentro de la economía es mayoritario el número de investigadores y académicos de la disciplina que se adscribe a la idea de aplicar el método científico y emplear el mayor cuidado posible en la elaboración de los estudios. Se promueve la revisión por pares, esto es, se aceptan que otros investigadores económicos critiquen los estudios, señalen las carencias y se propongan aspectos a mejorar dentro de la investigación.

Las revistas académicas y científicas en Economía se rigen por principios similares que las de Física. En ellas, los trabajos teóricos se publican si muestran coherencia y si suponen un avance de ser ciertos. No se aceptan hasta que no estén avalados por más estudios, entre ellos los empíricos que los validen. Hay, en cada época, ideas dominantes o corrientes de pensamiento hegemónicas, pero ninguna revista está cerrada a otras ideas mientras sean prometedoras y se expresen con suficiente rigor como para poder ser confrontadas. En las mejores revistas se han publicado ideas económicas de economistas de muy distintas escuelas, porque el hecho de que un economista pertenezca o no a una determinada escuela no es impedimento de que publique en ella o no, si no del rigor aplicado en su trabajo y de la actitud que manifieste el autor a facilitar los datos que ha obtenido, a someterse a una revisión por pares y a que terceros investigadores repliquen su investigación para comprobar que las conclusiones obtenidas se corresponden a la información recabada.

Como en otras ciencias, los economistas no aceptan porque sí el estado de la disciplina, las nuevas generaciones proponen nuevos modelos, nuevos métodos, recaban más datos y, a veces, cambian la manera en la que se entendía un problema económico. Un vistazo a la evolución del pensamiento económico respecto a los ciclos económicos es un ejemplo de cómo ha ido avanzando el conocimiento en la economía. (esta parte si la quiere ver ampliada el lector está sacada de aquí y de aquí de unas entradas desarrolladas por Manuel Alejandro Hidalgo.)

Antes del crack del 29, el paradigma económico sostenía que los mercados siempre estaban en equilibrio, por lo que era imposible considerar un ciclo económico más allá de un movimiento de la producción y del empleo ajustándose óptimamente a las nuevas condiciones económicas. En este sentido, y dado que los precios y salarios se ajustan automáticamente para vaciar los mercados, el desempleo solo era posible si era voluntario. Además, el hecho de que los mercados fueran eficientes y capaces de autorregularse, permitía suponer que cualquier intromisión en ellos por parte de un Estado era -cuando menos- causa de ineficiencia. Sin embargo, ¿cómo era posible que en 1933, y después de cuatro años de depresión los mercados no se hubieran ajustado? Era evidente que más de un 20% de desempleo no era voluntario. Keynes, y su Teoría General vinieron a decir que los mercados podían permanecer durante un tiempo prolongado en situación de desequilibrio. En su modo de entender la economía, Keynes consideraba que un mercado que se vacía, es decir, cuyos precios son el producto del equilibrio entre oferta y demanda, era un caso particular de lo que podemos observar en la realidad. En consecuencia, el estado natural de los mercados era de permanente desequilibrio a la búsqueda del deseado equilibrio. Surgía la primera visión moderna de los ciclos económicos. En consecuencia, como una economía podía por ejemplo permanecer en recesión durante un tiempo más o menos amplio, se justificaba la intervención del estado para restaurarlo cuanto antes. Se argumentaba que, dada la lentitud de ajustes de los mercados, en el largo plazo los costes de un ciclo contrario serían elevados, justificando su corrección inmediata.

El mainstream (corriente de pensamiento dominante) en la economía tomó el paradigma keynesiano y condenó al ostracismo al paradigma clásico hasta la década de los 70 y de los 80. En ese momento la Macroeconomía se enfrentó al reto de explicar las causas y consecuencias de la crisis del petróleo y más importante aún, buscar la solución a ella. El paradigma keynesiano dominante hasta entonces demostró ser incapaz de poder solventar una crisis en la que se daba una situación que dentro del mismo se consideraba imposible. Una situación simultánea de altos niveles de paro e inflación.

El contrataque de los economistas clásicos, ahora refundados en la escuela neoclásica vino en primer lugar en 1973 con la Crítica de Robert Lucas quien expresó la necesidad de modificar los modelos macroeconómicos para que recogieran las expectativas de los agentes como un elemento más. Lucas argumentó que al existir tales expectativas, los agentes adelantaban las consecuencias de las políticas económicas, y en consecuencia hacía imposible de usar los tradicionales modelos macroeconómicos estructurales. Al crearse estas expectativas en el ámbito del individuo, exige que los nuevos modelos macroeconómicos se basen en fundamentos microeconómicos. En base a la Crítica de Lucas, se construyeron los modelos de ciclos reales (RBC, por sus siglas en inglés) estos modelos se basan en la existencia de expectativas racionales de los agentes. Sus acciones se basan en el análisis de cómo los agentes esperan el futuro y cómo les afectará, condicionando tanto el consumo como las horas de trabajo que los individuos ofrecen al mercado. En particular, estas expectativas son óptimas y “racionales” es decir, no se cometen errores al crearlas. Además, se supone que los precios y salarios se ajustan de un modo flexible, por lo que shocks de demanda y monetarios no generan cambios, siendo todo cambio motivado únicamente por los shocks de oferta (tecnológicos).

Los RBC han tenido una difusión extraordinaria, aportando además a la nueva macroeconomía varios elementos hoy imprescindibles: los nuevos modelos macroeconómicos tienen su base en los RBC y el análisis de política económica se fundamentan en este nuevo modo de entender la macroeconomía. Sin embargo, estos modelos tenían y tienen importantes debilidades. El hecho de que sólo los shocks tecnológicos generen ciclos económicos es una de las mayores críticas que se hizo a los modelos RBC desde el inicio, pues no hay evidencia de que tales shocks adquieran tal protagonismo. En segundo lugar, al suponer que el desempleo es consecuencia de un ajuste en las preferencias de los trabajadores y no de una caída de la demanda de empleo por parte de las empresas, se aleja de la realidad. En tercer lugar, los RBC consideran el dinero neutral y los precios y salarios perfectamente flexibles. Dado que los datos y la evidencia muestran que en el corto y medio plazo esto no es así, rápidamente surgieron nuevos modelos que integraban tanto rigidez en los precios como el dinero en el análisis de los ciclos económicos y que consideraban la posibilidad de nuevos tipos de shocks, como los de demanda.

Fruto de esas fuertes inconsistencias los modelos de la escuela neoclásica tuvieron contestación por los neokeynesianos a través los nuevos modelos keynesianos (NKM por sus siglas en inglés). Estos modelos planteaban ciertas diferencias notables respecto a los RBC. En primer lugar, se supone que los precios, y salarios entre ellos, no se ajustan automáticamente. Esta hipótesis tiene dos consecuencias. Una primera implica que va a existir una relación inversa entre cambios en los precios y en la producción. Un shock de demanda que eleve ésta sobre un nivel previo sin ajuste rápido de precios generará un aumento de la producción pero también, un aumento de la inflación. En segundo lugar, y asociado a lo anterior, los modelos NKM resuelven el problema del ajuste de precios mediante la introducción de la hipótesis de Calvo, según la cual en cada período sólo un porcentaje de empresas pueden modificar sus precios ante un cambio en las condiciones económicas. Una de las implicaciones más sorprendente de esta hipótesis es que la inflación actual va a depender tanto de la brecha respecto al producto potencial como de la inflación esperada. Surge así la llamada New Keynesian Phillips Curve (NKPC). Y en tercer lugar, la relación inversa entre brecha sobre el producto potencial e inflación es la herramienta que utilizan los bancos centrales para estabilizar la economía, siendo el modo en cómo este organismo se introduce en los NKM. Su actuación se formaliza a partir de una función de reacción del tipo de interés, Regla de Taylor, y según la cuál el tipo de interés, verdadero instrumento de política de los bancos centrales, se determina en función de la desviación de la inflación de un nivel de objetivo y de la brecha sobre el producto potencial. Las preferencias del Banco Central se introduce también en el modelo, bajo la hipótesis de que éstos desean reducir de forma conjunta tanto la variabilidad de la brecha sobre el producto potencial como de la inflación.

Durante década y media los RBC y los NKM compitieron entre sí por ver cuál de los dos tipos de modelos describían mejor los procesos que inician y determina los ciclos económicos demostrándose que los NKM  resultaron mejores que los RBC, es por ello que los primeros fueron los que más se utilizaron y se utilizan por parte de los Bancos Centrales en su evaluación de la política económica. No obstante, en los últimos tiempos se ha dado cierta confluencia entre los NKM y los RBC hacia los modelos de equilibrio general dinámico estocástico (DGSE, por sus siglas en inglés), que son ahora mismo los más utilizados por las autoridades económicas para evaluar el impacto tanto de la política monetaria como fiscal, y el crecimiento económico.

Como se puede observar, en solo este ejemplo la Economía ha ido evolucionando y sumando conocimientos de forma sistemática como una ciencia. Por poner un ejemplo clave, basta comparar la gestión que se hizo de la crisis del 29 “Gran Depresión” con la crisis económica que empezó en 2007 “Gran Recesión”. En ambos casos las crisis tenían prácticamente el mismo potencial destructivo y sin embargo hay notables diferencias en los efectos devastadores de una y otra. Por ejemplo, en la crisis del 29, siguiendo el paradigma económico del momento asentado en el conocimiento económico de entonces la tasa de paro llegó en EE.UU. hasta el 25,59% en mayo de 1933, mientras que en la crisis de 2007 interviniendo las autoridades económicas tanto en política fiscal como monetaria, consiguieron que la tasa de de paro más alta fuera del 10% en octubre de 2009, menos de la mitad. Mas datos comparativos, con la crisis de los años 30 al Dow Jones le costó 26 años para volver a los niveles previos al crack del 29 (sin contar la inflación) en la Gran Recesión el mismo índice bursátil tardó sólo dos años en recuperar los niveles previos a la quiebra de Lehman Brothers.

Ha habido avances en el entendimiento de la Economía. Se han dado pasos en la recopilación de datos, se han elaborado mejores técnicas econométricas y se cotejan unas con otras para ver cuales se muestran más efectivas, se han aprovechado los avances informáticos para realizar mejores simulaciones del comportamiento de la economía (fuera de los tiempos de crisis, en que por definición los parámetros de los modelos cambian demasiado). Se han incorporado nuevas técnicas para medir con mayor precisión las decisiones que toman los agentes en la economía, como la teoría de juegos, o la reciente  y prometedora rama de la economía del comportamiento, y en los últimos tiempos se está dando avances en la economía experimental, en donde algunas investigaciones incluso ya son publicadas no solo por revistas económicas sino por revistas científica del más alto nivel.

¿Qué queda mucho camino por andar? Desde luego. Una de las críticas más recurrentes hacia la Economía que se usa para tildarla de pseudociencia es que fracasa estrepitosamente a la hora de predecir las crisis. Si bien es cierto que cualquiera que coja el manual de economía verá que en ningún momento se señala que a partir del conocimiento que se puede obtener analizando la economía se pueda predecir tal cosa. La causa es que por lo que sabemos de la economía (al menos en lo que respecta a la economía de mercado), es casi imposible hacer un pronóstico completamente fiable de cuándo será la próxima crisis y cuál será su intensidad. Dado que la economía no deja de ser un juego de incentivos, en el hipotético caso de que se hiciera una previsión completamente certera de que dentro de dos años habrá una crisis, en el momento en que se conociera tal revelación la caída de las expectativas de consumo e inversión de familias y empresas precipitarían que la crisis empezara en ese mismo instante. Con lo que la adivinación de que la crisis iba a comenzar en dos años quedaría en entredicho. Toda una paradoja.

Pero al margen de todo eso, hay avance, hay ideas que quedan obsoletas o que se mejoran, hay un continuo interés en cotejar los modelos con la realidad, hay errores y hay un sistema de confrontación de ideas para intentar corregirlos. En definitiva, hay ciencia.

Para finalizar este post una recomendación literaria que -además de interesante para ahondar sobre el tema- es justo citar ya que ha inspirado en buena medida este texto. “Economía y pseudociencia” de José Luis Ferreira.

Nota: En esta entrada se ha tratado de argumentar las razones que avalan para considerar la Economía como ciencia. En otra posterior, se analizarán ciertos fenómenos que se están dando ahora mismo que desde luego no contribuyen a que la Economía se la considere una ciencia.

Anuncios

Anumerismo económico: el índice de Frank un pésimo indicador fiscal

Sinopsis. Descripción del Índice de Frank como medidor del esfuerzo fiscal, un término que se esta poniendo en boga últimamente pero que económicamente carece de sentido. Más allá de interpretaciones interesadas de la realidad que se quieran hacer con él. Este es el análisis.

Año electoral, año en el que previsiblemente a la opinión pública se le va a cargar de debates en los que la cantidad de demagogia y manipulación van a campar a sus anchas. La economía va a tener su parte de protagonismo y dentro de ella los temas de impuestos y fiscalidad van a copar gran parte de la atención. En este sentido, conviene estar alerta de un término económico que últimamente se está hablando mucho de él, el esfuerzo fiscal medido con el índice de Frank.

Este índice se utiliza desde ciertas posiciones ideológicas y desde determinadas escuelas del pensamiento económico pseudocientífica (escuela austriaca de economía), para enmascarar un problema que a todas luces es claro a tenor de los datos: España lleva arrojando déficits públicos importantes desde que estalló la crisis económica principalmente por su baja recaudación tributaria.

Basta mirar las cifras que se arrojan desde Eurostat para observar que los abultados déficits públicos que ha registrado España en los últimos tiempos no obedecen tanto por el nivel de gasto público que tiene España -que en ese aspecto se sitúa en la media de la eurozona sin que la mayoría de países europeos no hayan sufrido unos desequilibrios presupuestarios tan abultados. El pie por el que cojean las cuentas públicas es más por la vía de los ingresos los cuales si están muy por debajo del promedio de nuestros vecinos, especialmente en la parte de los ingresos provenientes de los impuestos y de las cotizaciones sociales. En concreto, tomando como referencia el último año disponible, el del año 2012, se observa que los ingresos fiscales de España ascendieron hasta los 345.435 millones de euros, de donde se desprende una presión fiscal del 33,6% del Producto Interior Bruto (PIB) (21,3 puntos porcentuales vienen de impuestos y los 12,3 restantes los ponen las cotizaciones sociales) frente al 41,7% de presión fiscal que en el mismo periodo registraba la eurozona. Es decir, la presión fiscal en España es 8,1 puntos porcentuales inferior a la media europea, cifra que esclarece que la recaudación tributaria en España es inferior a la media europea y que es insuficiente para los niveles de gasto público actuales.

Sin embargo, hay quienes sí o sí pretenden señalar que en España se sufre una carga fiscal asfixiante y superior a la media europea pero como los datos dicen lo contrario, pues en ese caso toca buscar recurrir a una de las formas más burdas de estafa intelectual conocidas. Esta es recurrir de entre todos los índices fiscales a aquel que por las razones que sea me dé la razón en mis prejuicios ideológicos y presentar ese indicador como una estimación más fiable que la otra. Eso es lo que hacen unos cuantos economistas de la escuela austriaca en este documento, recurren al llamado índice de Frank o índice de esfuerzo fiscal. (Elaborando una tabla de datos, con datos sacado en Eurostat, con fecha a 2012, los resultados que sacan se correspondería, tal como lo tienen calculado. Ver imagen)

esfuerzo fiscal 2012

El índice de Frank fue desarrollado por Henry J. Frank como un intento (fallido) de lograr un índice más preciso que la presión fiscal para medir el peso de la carga tributaria que soportan los habitantes de un país. Básicamente, este índice consiste en dividir la presión fiscal entre el PIB per cápita de cada país porque así, según señalaba su autor, si tenemos dos países con igual presión fiscal, sería más gravosa la carga impositiva que deben soportar aquellos ciudadanos con menores ingresos medios o menor renta per cápita.

Suena lógico y sensato, ¿verdad? Pues es una soberana estupidez, que se puede constatar simplemente observando la fórmula con la que se calcula el esfuerzo fiscal. Recordemos esta es (presión fiscal/PIB per cápita) multiplicado por 10.000, cuanto mayor sea el resultado mayor será el esfuerzo fiscal) ya no es que sea un sinsentido económico sino que es un despropósito a nivel matemático. ¿El motivo? La ratio presión fiscal -como toda ratio en la que se divide una cantidad expresada en una unidad de medida (recaudación fiscal en euros), por otra expresada en esa misma unidad de medida (PIB en euros también)- es adimensional y si a su vez dividimos algo adimensional entre una magnitud (en este caso, PIB per cápita que se mide en euros por habitante) la cifra final podrá ser más alta o más baja pero carecerá de una interpretación lógica y menos aún podrá ser comparable a otras, como bien sabe cualquier persona que haya estudiado mínimamente los factores de conversión que se dan en física o matemáticas (de 3º y 4º de la E.S.O).

Para evidenciar claramente esto imaginemos unos ejemplos. Supongamos dos países en los que en uno la renta per cápita fuera 15.000 euros y otros en el que el PIB por habitante fuera 40.000. En el país A la presión fiscal es del 37,5% del PIB y en el país B, imaginemos una presión fiscal altísima equivalente al 90% del PIB –esto es casi la totalidad de lo que producen sus habitantes en un año, que en términos de contabilidad nacional es igual a lo que ingresan se lo queda el Estado- si calculamos el esfuerzo fiscal en el país A sería (37,5%/15.000)*10.000 = 0,25 mientras que en el país B este sería (90%/45.000)*10.000 = 0,2, vamos el índice de Frank es sumamente tan absurdo que te puede salir que en un país en que de media a todo el mundo le quitan en impuestos el 90% de lo que ingresa soporte un esfuerzo fiscal menor que un país en el que en promedio la cantidad que detraen de impuestos es el 37,5%.

Solo ya con esa tara ya sería suficiente para invalidar un concepto como el de esfuerzo fiscal al basarse en una fórmula tan deficiente. Pero para profundizar en el análisis se pueden señalar otras muchas deficiencias, entre ellas está que el índice de Frank pone en relación dos variables cuyo comportamiento a lo largo del tiempo es muy distino. Por un lado, la presión fiscal de un país suele mantenerse bastante estable a lo largo del tiempo (sobre todo en países europeos que cuentan con sistemas tributarios implantados desde hace muchas décadas), tal y como reflejan los datos. En cambio, la renta per cápita de un país crece más rapidamente a lo largo del tiempo que los ingresos fiscales sobre el PIB, de tal forma que a medida que pasaran los años el índice de Frank se iría reduciendo progresivamente. Así analizando la evolución histórica de este índice, reflejaría con ella una disminución paulatina del esfuerzo que les supone a los ciudadanos pagar impuestos, cosa que desde luego no ocurre. A lo sumo, la única conclusión que se puede medianamente intuir es que un país con menos renta tendrá típicamente un índice de Frank mayor. Incluso si insistimos en decir que esto significa que está realizando un esfuerzo fiscal mayor, esto no significa que tenga demasiados impuestos comparándolo con los demás. Significa que llega más tarde a los niveles de renta que tienen los demás.

Finalmente, suponiendo que la hipótesis en la que basa su razón de ser el índice de Frank es cierta, que el pago en impuestos de la misma proporción sobre los ingresos suponen un esfuerzo menor a quien tiene unos niveles de ingresos altos que alguien que tiene unos ingresos bajos, es absurdo dividir la presión fiscal entre la renta per cápita a día de hoy. ¿El motivo? Las investigaciones económicas muestran que el logaritmo del PIB de los países esta muchísimo más correlacionado que la renta per cápita de estos, con los niveles de felicidad, satisfacción o utilidad derivados de ir teniendo cada vez una renta mayor. Pero claro, si hiciéramos un índice de esas características volvería a salir que en España el esfuerzo fiscal es inferior al de los países de nuestro entorno y claro eso no interesa a quienes hacen “estudios” en los que no se pretende analizar la realidad sino buscar confirmar prejuicios ideológicos, y para ello, como en este caso no hay que usar las mejores variables sino aquellas que nos van a dar el resultado que andamos buscando. Otra forma de representar, por definición, con más realismo la forma de reflejar la carga impositiva soportada realmente por los ciudadanos, sería incorporando al índice de Frank el peso de la economía sumergida. Esto es, todas las actividades productivas en la sombra y que no están sometidas a tributación alguna, con la economía sumergida el supuesto esfuerzo fiscal español mal medido con el índice de Frank sería el siguiente (Datos de Eurostat, y los de economía sumergida de las investigaciones de Friedrich Schneider).

esfuerzo fiscal economis sumergida

Puestos a recurrir a un índice tan defectuoso como el de Frank para medir el esfuerzo fiscal hubiera sido mejor hacerlo de esta forma. Pero claro, se observa que de esta forma el esfuerzo fiscal en España es inferior al de la media de la eurozona. Una conclusión que para los que buscan encajar a martillazos la realidad con sus prejuicios, en lugar de comprobar si empíricamente las hipótesis se verifican, al parecer no es admisible. Si queremos darle otra vuelta de tuerca podemos dividir la presión fiscal teniendo en cuenta la economía sumergida entre la renta per cápita en términos de Paridad de Poder Adquisitivo*, para hacer más correcta la comparación entre distintos países. Pero una vez más saldrá que el esfuerzo fiscal en España es inferior al de la media de la eurozona. (Ver imagen).

esfuerzofiscaesppa

En cualquier caso, estos análisis pese a que siguiendo la filosofía del índice de Frank serían mas representativos de la realidad. Al igual que el índice de Frank original presenta las mismas deficiencias y su misma poca capacidad de interpretación. Simplemente se han añadido para hacer ver como no sólo el índice utilizado sino el enfoque que se le ha dado ha sido hecho para que de una conclusión interesada.

En resumen, si alguien dice que la presión fiscal (con todas las imperfecciones que tiene, que las hay) es un indicador peor que el esfuerzo fiscal, simple y llanamente miente o no sabe de lo que está hablando. Por otro lado, hay que hacer un inciso la baja presión fiscal de España en comparación con otros países de su entorno ha sido usado (especialmente por el actual Gobierno) como la excusa para justificar en los últimos tiempos subidas de impuestos, como si la subida de las cargas tributarias fuera la única vía posible de subir la recaudación. Una premisa que es del todo falsa, otra formas de subir la recaudación tributaria es elaborando unos sistemas impositivos más eficientes en los que el abanico de supuestos jurídico que permiten reducciones y deducciones sea menor y no reduzcan tanto las bases liquidables, tal y como se señala en el Informe Mirrlees, un ejemplo claro es Italia que posee una estructura impositiva muy similar a la de España y unos niveles de economía sumergida también muy similares, pero que aun así recauda 10,7 puntos porcentuales más de PIB en impuestos.

*Por Paridad de Poder Adquisitivo se entiende a la expresión de una magnitud económica en términos tales en los que se corrige el efecto distorsionador provocado por los tipos de cambio entre distintas monedas y niveles de inflación entre países, y mide en la práctica lo que se podría comprar si existiera una sola divisa mundial. Así, por ejemplo, con mil dólares un chino puede adquirir muchos más bienes y servicios en Pekín que en Washington. Así pues con la Paridad de Poder Adquisitivo favorece unas mejores comparaciones internacionales al señalar la capacidad de compra de cada lugar.

Anumerismo económico, el fracking solo explica una ínfima parte del crecimiento de EEUU

Sinopsis. Desde que en EE.UU. se lanzara un ambicioso plan para estimular la economía con políticas fiscales y monetarias expansivas. Muchas han sido las voces que en su día señalaron que esas medidas, en el mejor de los casos iban a ser inútiles, o cuando no, iban a agravar la situación. El tiempo ha demostrado todo lo contrario, pero desde algunas escuelas de pensamiento económico siguen buscando pretextos para no asimilar la realidad y para ellas la excusa para explicar el crecimiento de la producción y del empleo en EE.UU. es el fracking. ¿Es  cierta esa hipótesis? Vamos a contrastarlo con datos.  

Desde que EE.UU. iniciara sus programas de estímulos económicos para luchar contra la crisis, varios adláteres de determinada escuela económica de marcado cariz pseudocientífico -la escuela austriaca- han estado denunciando que las medidas emprendidas desde ese país iban a ser en el mejor de los casos inútiles o, incluso, iban a traer consecuencias desastrosas para su economía. Cuando la Reserva Federal el 25 de noviembre de 2008 inició el primero de los Quantitative Easings (QEs) y el establecimiento de los tipos oficiales en mínimos históricos, ya saltaron las primeras voces indicando que dichas medidas iban encaminadas a provocar una hiperinflación. Primer fallo, ya que los QE -como bien explican desde Sintetia– no suponían riesgo de hiperinflación ya que pese a que estas medidas afectan a la base monetaria, apenas afectan al ritmo de crecimiento de los agregados monetarios M2 y M3 y son éstos quienes determinarían si las medidas emprendidas por Bernanke podrían disparar el nivel de precios dada la ecuación cuantitativa del dinero M*V = P*Y (Masa monetaria multiplicada por la velocidad de circulación del dinero = PIB en términos nominales).

El segundo error, vino al señalar que los estímulos no habían traído las consecuencias negativas que se les presumían, pero que tampoco habían contribuido en nada ni las relajaciones cuantitativas de la Fed, ni los programas de gasto público emprendidos en EEUU mediante la American Recovery and Reinvestment Act (ARRA). Esta última, comenzó el 17 de febrero de 2009. Sin embargo, quienes se han preocupado de recabar los datos y hacer un análisis econométrico y/o modelizado pertinente (no basado en simple retórica y dialéctica inoperante condimentada ocasionalmente con algún dato suelto) demuestran que los estímulos si que han sido útiles. Tal es el caso de los economistas James Freyrer y Bruce Sacerdote; Gabriel Chodorow-Reich, Laura Feiveson, Zachary Liscow y William Gui Woolston; Daniel J. Wilson; Benjamin Page y Felix Reichling (de la Oficina del Presupuesto del Congreso de EE.UU.); The Council of Economics Advisers (el gabinete de economistas que asesora al Presidente de los EE.UU.); Mark Zandi y Alain S. BlinderHyunseung Oh y Ricardo Reis. ¿Ha habido estudios que indiquen que los estímulos fracasaron? Si, tal es el caso del análisis efectuado por Timothy Conley y Bill Dupor o este otro de John B. Taylor. No obstante, hay problemas en estos dos últimos, el de Conley y Dupor sus estimaciones no son estadísticamente significativas y en el caso de Taylor señalan un efecto positivo reducido de las políticas fiscales y monetarias, con lo que si los estímulos hubieran sido mayores con su modelo el resultado hubiera salido igualmente, que si han funcionado. Así pues, dado que la mayoría de análisis serios concluyen en que los estímulos si sirvieron en EE.UU. hay un gran consenso sobre que la proactividad del Estado y de la Fed fue útil para combatir la crisis.

Una vez visto que ni los QE han generado una inflación galopante y que los estímulos de política fiscal no han sido inútiles sino todo lo contrario, podría darse por terminado el debate. Pues no, volvieron a la carga. Esta vez como no se puede negar que la economía americana ha crecido y que la situación (pese a que sigue siendo mejorable) es más propicia que en el año 2009 que fue cuando la Gran Recesión se hizó notar a escala mundial,  ahora se argumenta que el crecimiento de la producción y del empleo se debe prácticamente en su totalidad al “fracking” y que los estímulos llevados a cabo no han servido de nada. En un artículo en The Washington Post y en este informe Richard W. Rahn, académico senior en el Cato Institute y presidente del Institute for Global Economic Growth, afirma que sin la fractura hidráulica no habría habido ningún crecimiento económico en los EE.UU. en los últimos cinco años. En resumen, en el trabajo señalan que el fracking supone un 2,5% del PIB estadounidense y su peso está creciendo rápidamente, hasta el punto de que esta técnica estableció un récord de aportación al PIB americano de 284.000 millones de dólares en 2012 y de 462.000 millones el año pasado.

El problema de estas cifras es que son del todo inverosímiles. Mirando los datos oficiales de la Oficina de Análisis Económico de EE.UU. en los que se señala el Valor Añadido que genera cada uno de los sectores de la economía (hay que recordar que la suma del Valor Añadido Bruto de todos los sectores de una economía nos da su PIB a coste de factores, si a este le restamos los impuestos a la producción y le sumamos las subvenciones a la producción nos da el PIB a precios de mercados y este desglosado por sectores nos da el Valor Añadido de cada uno, o lo que es lo mismo lo que aporta cada uno al crecimiento económico), desde finales de 2008 que es cuando se iniciaron los estímulos monetarios y fiscales se detecta la trampa. La actividad del fracking, por sí sola no aparece, pero se integra dentro del sector petróleo y extracción de gas (oil and gas extraction), en donde además de la fractura hidráulica están las actividades convencionales de extracción de crudo y gas.  Pues bien, en los últimos 6 años el PIB de EEUU a precios corrientes fue: 14.718.582 millones de dólares en 2008, 14.418.739 millones de dólares en 2009, 14.964.372 millones 2010, 15.517.926 en 2011, 16.163.158 en 2012 y 16.768.053 en 2013. Por su parte, el Valor Añadido generado por todo el sector de petróleo y extracción de gas fue de 280.516 millones de dólares en 2008, 184.601 millones de dólares en 2009, 209.323 millones en 2010, 252.490 en 2011, 260.369 durante 2012 y 291.937 en 2013. Es decir, prácticamente imposible la cifra de que el fracking aportó 462.000 millones de dólares al crecimiento del PIB en 2013 y de 284.000 millones en 2012 ya que a esa cantidad no llega ni todo el sector de petróleo y extracción de gas, del cual el fracking es sólo una parte. (Ver imagen).

Frankingvspib

Visto esto, profundicemos en la hipótesis de que el crecimiento económico de EEUU durante los últimos cinco años es debido, mayormente, al gas no convencional. Vaya por delante que -a tenor de los datos- el peso de todo el sector de petróleo y extracción del gas (del cual el fracking es solo una parte recordemos, por lo tanto lo estamos sobre valorando) ha sido del 1,9% del PIB en 2008, 1,3% del PIB en 2009, 1,4% del PIB en 2010, 1,6% sobre el PIB en 2011 y 2012 y 1,7% del PIB en 2013. Esto es, una ponderación ínfima de este sector como para provocar un efecto arrastre que le haga generar todo el crecimiento de una economía en esos años. Así, pues la verosimilitud de esta conjetura es bastante cuestionable, no obstante, comprobémosla. Tomemos los datos del PIB de EEUU en términos reales de 2008 y comparémoslos con los últimos disponibles de 2013. En 2008 el PIB fue de 14.830.359 millones $ y en 2013 de 15.710.295 millones. Sale un crecimiento acumulado del 5,93% y en términos absolutos de 879.936 millones de dólares. Ahora tomemos los datos del Valor Añadido del sector petróleo y extracción de gas, en 2009 este fue de 140.734 millones de dólares y en 2013 alcanzó los 204.446 millones. El crecimiento de este segmento del mercado en el mismo periodo es del 45,27% (muy por encima de la media del global de la economía y es de los sectores que hace una aportación positiva al crecimiento, todo hay que decirlo) y en términos absolutos fue de 63.712 millones de dólares. Es decir, de los 879.936 millones de dólares de crecimiento generado, el sector del petróleo y extracción de gas aporta solo 63.712, únicamente un 7,24% sobre el total y dado que el fracking es solo una parte de esta industria su aportación será todavía inferior. De tal forma, que atribuir a la fractura hidráulica el crecimiento económico de los EEUU en los últimos años es descaradamente falso. (Ver imágenes).

frackingporcentaje frackingpibreal

Finalmente, la hipótesis de que el empleo generado en EE.UU. se debe al fracking. Consultando los datos, a finales del noviembre del año 2008 (recordemos el QE y la bajada de tipos oficiales a mínimos históricos es en noviembre y diciembre de ese año y dan el pistoletazo de salida a los estímulos) en EE.UU. había un total de 144.100.000 empleados (datos desestacionalizados y corregidos a efectos de calendario) mientras que actualmente el total de empleados asciende hasta 147.283.000. Es decir, 3.183.000 más. Si nos fijamos en el mismo periodo para el empleo en el sector de petróleo y extracción del gas, este pasa de 167.100 personas a 215.600. Esto es, de los 3.183.000 puestos de trabajo creados en ese periodo sólo 48.500 se han hecho en el seno del sector en el que se encuentra integrado el fracking, tan solo un 1,5% del total. Por haber, había quienes señalaban que solo con la cantidad de empleo generado a raíz del gas convencional en Texas ya explicaba todo el aumento de empleo que ha tenido los EE.UU, conjetura aún más inverosímil ya que es solo un Estado y mirando los datos la inverosimilitud queda manifiesta. En noviembre de 2008 el total de empleados en Texas en el sector petróleo y extracción de gas era 81.900 y según los últimos datos disponibles, había subido hasta 113.700 personas, un incremento de solo 31.800 personas.

(Ampliación a 10-12-2014). Tuve hace unos días un pequeño debate vía twitter con Juan Ramón Rallo (el cual se puede ver aquí) acerca de si el impacto del fracking en la economía americana había sido ínfimo y si tenía sentido considerarlo como una de las causas claves para que la economía americana dejara atrás la crisis, tal y como reza en el título de esta entrada. Rallo, adujo al efecto multiplicador que este sector estaría provocando en otros segmentos de la economía vía abaratamiento de la energía que, a su vez, haría viables un mayor número de proyectos empresariales. Le pedí si me podía pasar un estudio sometido a revisión por pares, en alguna publicación de impacto que calculara el efecto multiplicador. Respondió pasándome este informe del McKinsey Global Institute que se puede ver aquí. Primer punto, si el McKinsey Global Institute es una publicación de impacto (es una de las consultorías con mas prestigio del mundo pero no una publicación académica), esta desde luego no está -en cuanto a rigor y prestigio académico- ni entre las 1.346 primeras y desde luego ese análisis no está sometido a revisión por pares. Por no hablar de que la argumentación se basa en un modelo econométrico Input-Output cuyo enfoque se centraba más en proyecciones desde 2013 hasta 2020 (largo me lo fías) que en el impacto del fracking para que EEUU superara la crisis. 

¿Por qué soy tan “tiquismiquis”, a la hora de pedir un estudio publicado en una revista de impacto y sometido a revisión por pares? Primero, el sector del petróleo y extracción de gas apenas supone un 1,7% de todo el PIB americano, donde el fracking solo es una parte y por tanto la ponderación del shale gas es todavía inferior. ¿Qué las repercusiones de un sector en el total de una economía van más allá de su valor añadido directo? Ahí, de acuerdo con Rallo. Pero aun así para que una actividad, cuyo peso es tan reducido, pueda tener un impacto vital en la recuperación de la producción y del empleo en EEUU, deberá tener un efecto multiplicador descomunal. Por tanto, ante una afirmación extraordinaria del tipo el fracking ha sido clave para la salida de la crisis de EEUU hay que exigir pruebas igualmente extraordinarias y rigurosas que la sustenten. Segundo, tal y como le pasé a Rallo en nuestro intercambio de tweets, está visto que muchos de los estudios que utilizan modelos econométricos Input-Output no son sometidos a revisión por pares, e inflan exageradamente las cifras del efecto arrastre que tiene la fractura hidráulica sobre los otros sectores. Con lo que mi petición de un estudio publicado en una revista de impacto y sometido a revisión por pares no era gratuito.

Otros análisis que si cumplen los requisitos que pedí sobre el impacto del fracking en el crecimiento y en el empleo son muchísimos más modestos en las repercusiones positivas que ha tenido esta actividad y desde luego no invitan a pensar que haya sido la extracción de gas no convencional una de las principales causas que hayan ayudado a los EE.UU. a salir de la crisis. Como ejemplos tenemos como este estudio de Thiemo Fetzer (donde el impacto sobre el empleo da para un total de casi 600.000 puestos de trabajo en total creados en el periodo 2004-2013), éste de Dusan Paredes Araya, Timothy Komarek y Scott Loveridge o este otro de Jason P. Brown o este otro de Peter Manilof y Ralph Mastromonaco, donde señalan que los puestos de trabajo generados por el shale gas durante la última década estaría entre 50.000 y 430.000. Finalmente, la afirmación de que la fractura hidráulica supone un nueva “revolución energética”, que ha tirado a la baja los precios de la energía, posibilitando la viabilidad de más proyectos empresariales hay que cogerla con pinzas a tenor de los datos. Según la Administración de Información Energética de Estados Unidos, en los últimos años (concretamente 2012) se dio una importante bajada del precio del Gas Natural, pero ese descenso tuvo un impacto limitado en los precios finales de energía pagados, por la industria, los residentes y los comercios y ya para este año se espera una subida de estos, con lo que la revolución energética señalada no parece tanto.

Presupuestos Generales del Estado y consolidación fiscal, ¿una solución factible?

Sinopsis. La consolidación fiscal es la medida por la que ha apostado Europa para salir de su crisis. ¿Es correcta esta estrategia de salida? Los partidarios de la austeridad la aplauden y sus detractores la critican con la misma vehemencia. ¿Hay algo a lo que agarrarnos que sea mucho más objetivo que la ideología de nuestro interlocutor y que nos permita vislumbrar cuál de las dos posiciones es más correcta? Haberlo lo hay y parece señalar a la segunda opción.

Esta semana se han votado los Presupuestos Generales del Estado para el año 2015 en el que una de las directrices esenciales que lo componen es la famosa “consolidación fiscal”. Este término tan manido desde el estallido de la crisis de deuda soberana en la eurozona se compone de dos palabras ‘consolidar’ que es fijar y ‘fiscal’ que hace referencia a los ingresos que obtiene el Estado principalmente vía tributos. Estos dos vocablos unidos ilustran la medida por la que ha apostado el área euro para tratar de superar la crisis actual que es que todos los países miembros a la larga no puedan gastar más que lo que ingresan dentro de un margen reducido (máximo un 3% de déficit sobre el PIB) evitando o cuanto menos reduciendo así el endeudamiento para evitar que crisis como la acaecida tras el rescate de Grecia en abril de 2011 vuelva a repetirse y solucionar la que actualmente nos atañe.

¿Supone la consolidación simultánea en todos los países europeos una medida viable y factible para superar la crisis actual que atraviesa Europa? La respuesta que podemos hallar a esa pregunta depende en buena medida de los sesgos ideológicos de a quién preguntemos. Los defensores de la austeridad afirmarán que por supuesto y que ese es el camino a seguir exponiendo razones más o menos fundamentadas para avalar su postura. Los detractores de la austeridad harán otro tanto para señalar que ni mucho menos y que esta receta nos lleva al desastre. ¿Hay algo a lo que agarrarnos que sea mucho más objetivo que la ideología de nuestro interlocutor y que nos permita vislumbrar cuál de las dos opciones sobre la consolidación fiscal, es más correcta? La respuesta es si y se decanta a favor de que la consolidación fiscal simultánea en Europa es cuanto menos un dislate. Vamos a exponerla partiendo de la base de lo que en Economía se conoce como los balances sectoriales o las cuentas no financieras de los sectores institucionales.

El economista Simon Kuznets inventó la macromagnitud del Producto Interior Bruto (PIB) como un intento de reflejar la cantidad de bienes y servicios finales que se han producido dentro de un territorio durante un determinado periodo de tiempo, para así hacerse una idea de la capacidad productiva de una economía. Por identidad contable todo lo producido es igual a todo lo consumido o gastado, equivalente a todo lo ingresado, e idéntico en cantidad a la suma de las remuneraciones de los factores productivos. Tenemos, por tanto, cuatro formas distintas de calcular el PIB pero nos vamos a centrar en dos de ellas: PIB por la vía de gasto -que es igual al consumo privado (C) + consumo público (G) + inversión o formación bruta de capital (I) + el saldo de la balanza comercial (exportaciones (X) – importaciones (M))- y el PIB por la vía de los ingresos -que es igual al consumo privado (C) + ahorro privado (S) + ingresos netos del sector público (T).

Así, tenemos por un lado que PIB ≡ C + G + I + (X – M) y por otro que PIB ≡ C + T + S, con lo que C + T + S ≡ C + G + I + (X – M), resolviendo esta identidad se obtiene (C – C) + (G – T) + (S – I) + (X – M) = 0. Si tenemos en cuenta que (C – C) = 0; (G – T) = Saldo del sector público; (S – I) = Saldo del sector privado; (X – M) = Saldo del sector exterior. Entonces, saldo del sector público + saldo del sector privado + saldo del sector exterior = 0, o lo que es lo mismo, saldo del sector público + saldo del sector privado = -saldo del sector exterior. (G – T) + (S – I) ≡ -(X – M) Quod erat demonstrandum QED. Dado que los flujos financieros enlazan con las actividades productiva conviene señalar que (G – T) = Saldo del sector público es lo mismo que la capacidad/necesidad de financiación del sector público o el superávit/déficit público que conocemos. Análogamente sucede con el saldo del sector privado y del sector exterior. Así pues, desde el razonamiento matemático anteriormente expuesto, los teóricos de los balances sectoriales llegan a la siguiente hipótesis de partida: Capacidad/necesidad de financiación del sector público + capacidad/necesidad de financiación del sector privado = – capacidad/necesidad de financiación de esa economía frente al resto del mundo o lo que es lo mismo a la capacidad/necesidad de financiación del resto del mundo frente a esa economía. Pero por muy correcta que sea una hipótesis desde la lógica o las matemáticas esta puede ser falsa al contrastarla con la evidencia empírica. ¿Sucede eso en el caso de los balances sectoriales? No, de hecho sale verificada en el caso de España al mirar las cuentas no financieras que publica el INE y en las cuentas de cualquier país de la OCDE. Por lo tanto, la conjetura sale reforzada al someterla a la evidencia empírica. Llegados a este punto miremos el caso de España (ver tabla).

Balances sectoriales2

A tenor de los datos, España en el periodo 2000-2014 ha recibido financiación del exterior por valor de 581.948 millones de euros tras incurrir en todos los ejercicios salvo 2013 y en lo que llevamos de 2014 en déficits con el exterior. En el caso del sector privado y público hay que distinguir dos periodos: 2000-2007 (burbuja inmobiliaria) y 2008-2014 (crisis económica). En el primero, el sector público generó una capacidad de financiación frente al resto de sectores o un superávit público por valor de 40.116 millones €, por su parte en el mismo periodo el sector privado generó una necesidad de financiación frente al resto de sectores o un déficit privado de unos 410.141 millones €. En el segundo periodo, se cambian las tornas, el sector privado inicia un brutal proceso de desendeudamiento generando una capacidad de financiación frente al resto de sectores o superávit privado de 366.465 millones, mientras que el sector público en el mismo lapso acumuló una necesidad de financiación o déficit público de 578.388 millones. ¿Era posible el desendeudamiento del sector privado frente al resto de sectores sin que aumentara el déficit público? Los datos manifiestan que NO dado que durante el periodo de la burbuja inmobiliaria el déficit privado fue dirigido a financiar al sector de la construcción, el cuál no contribuyó a hacer de la economía española una economía competitiva susceptible de generar superávits por cuenta corriente abultados que permitieran posteriormente al sector privado desendeudarse frente al resto del mundo sin disparar con ello el déficit público tal y como manda la aritmética.

Esta ha sido la causa por la que se ha generado el descuadre de las cuentas públicas en los últimos tiempos y no como se suele mencionar en multitud de ocasiones por el Plan E. Ese plan, que podrá ser criticado todo lo que se quiera por sus resultados, supuso un desembolso de alrededor 13.000 millones de euros en 2009 y ese año el déficit público fue de 116.384 millones de euros con lo que esa medida no explicaría ni el 12% del desequilibrio presupuestario de ese ejercicio. La razón de esto y de porqué la consolidación fiscal (reducir el déficit público por debajo del 3% del PIB) es harto complicada radica en que la capacidad de financiación que genera el sector privado en España es mucho mayor que la capacidad de financiación que genera la economía española frente al resto del mundo y ese descuadre repercute plasmándose en una necesidad de financiación del sector público y dificultando su reducción.

Alemania, que es el principal adalid de la consolidación fiscal en toda Europa, siempre defiende que si ella fue capaz de lograrla y sacrificarse el resto de países de la eurozona puede. Sin embargo, viendo los datos de sus balances sectoriales ni mucho menos su situación es equiparable a la del resto de países europeos. (Ver tabla).

Balancessectorialesalemania

Cuando Alemania dio el pistoletazo de salida a su programa de consolidación fiscal, en julio de 2010, contaba en ese momento con una capacidad de financiación de su economía frente al resto del mundo de 146.289 millones €, el 6,64% de su PIB y en una tendencia de crecimiento de su superávit exterior dada la gran competitividad de la economía germana. De esta forma, Alemania para cumplir sus objetivos de consolidación fiscal simplemente le bastó con adoptar medidas que implicaron que el superávit privado se redujera un poco para que su sector público pasara de la necesidad a la capacidad de financiación.

Finalmente, ya se vislumbra la respuesta a la cuestión de por qué la consolidación fiscal simultánea para los países europeos es un disparate. Primero porque no todas las economías de la eurozona parten de la misma posición que es contar con un superávit exterior elevado, que les suponga de gran ayuda para cuadrar sus cifras (en el caso de España a mitad de año el superávit exterior solo llega al 0,13% del PIB). En segundo lugar, esos Estados tienen muy complicado convertirse todos en exportadores netos y a partir de ahí valerse de ello para cumplir con la consolidación fiscal, ya que dentro de la eurozona el superávit exterior que tiene un país respecto a otro socio comunitario supone un déficit exterior en este último de igual cuantía por principio contable. Así, en el seno de la eurozona la suma de las necesidades de financiación de un socio comunitario frente al resto y la suma de las capacidades de financiación de otro socio comunitario frente al resto en agregado darán cero. La única salida que queda es que los países que tienen el papel deficitario dentro de la eurozona se conviertan en exportadores netos más allá del área euro. Una labor harto complicada en estos momentos en que el crecimiento mundial es bastante bajo con respecto a la que ha sido su media histórica con lo que la demanda mundial que pueda absorber sus exportaciones ni está ni se le espera.