Economía: ¿ciencia o pseudociencia? Parte II

elrotooo

En la entrada previa se argumentó las razones por las cuales la Economía se debería considerar una ciencia. Si bien en este post no se va a contradecir la tesis anteriormente defendida sí que se van a señalar –a modo de autocrítica- ciertas prácticas que se están dando en la actualidad que desde luego no contribuyen a que la Economía sea entendida y percibida por el gran público como ciencia.

1. Elevada presencia mediática de gurús

El debate entre economistas que se presenta en los medios de comunicación con el afán de buscar la confrontación enconada de posturas, hace que con recurrencia representantes de escuelas económicas que bien pueden situarse en el ámbito de la pseudociencia (escuela marxista y escuela austriaca) incidan en que el público en general tenga una visión distorsionada de lo que es la Economía y se entienda esta como una suerte de método de disfrazar posturas ideológicas con números y ecuaciones. Cabe señalar que las aportaciones científicas tanto de la escuela marxista y la escuela austriaca -salvo honrosas excepciones- (por ejemplo John Roemer en la escuela marxista y Vernon L. Smith en la escuela austriaca), son en el mejor de los casos muy escasas.

Por otra parte, la mayor parte del consenso científico de los economistas defiende posturas intermedias a las defendidas por estas dos escuelas (las cuáles además son respaldadas con datos e investigación que así la corroboran), especialmente en lo que respecta al grado de intervención del Estado en la economía. Una buena forma de pulsar cual es el grado de acuerdo o de discrepancia de la comunidad científica de economistas sobre determinados temas se puede hacer en el Panel de Expertos Económicos del IGM.

2. Descenso del debate económico en las revistas de investigación científica

Frente a esa elevada presencia del debate pseudocientífico en los medios se añade el descenso que se está dando en el debate económico a nivel científico. Así lo deja de entrever este gráfico elaborado por datos de Jstor (una base de datos de revistas científicas de diversas disciplinas entre ellas la Economía). En el gráfico, aparece el porcentaje de investigaciones que han sido o bien replicadas, matizadas, o que habían recibido comentarios señalando alguna matización respecto a la publicación original. De esta forma, se observa que desde 1920 hasta 1968 hay un crecimiento del porcentaje de publicaciones sobre las cuales se ha generado un debate hasta llegar a un pico en 1968. En ese año, casi el 23% del total de investigaciones publicadas fueron replicadas, comentadas o rebatidas por otros economistas. A partir de esa fecha el porcentaje de investigaciones replicadas sigue una tendencia descendente hasta llegar a suponer sólo el 2% en 2013, el último año al que llega este análisis.

 

debate revistas economicas

Se tiende a pensar que a medida que una ciencia se desarrolla y adquiere un conocimiento más profundo de su objeto de estudio se da menos pie a debates al tener unos conocimientos más exactos que nadie duda. Sin embargo, esto no tiene porqué ser así. A medida que se hacen nuevos descubrimientos, se abren nuevos interrogantes que permiten abrir nuevas líneas de investigación, es por ello que el debate en ciencias mucho más exactas que las ciencias sociales sigue produciéndose frecuentemente. En la medida en que el comentario crítico es beneficioso para la investigación científica, la disminución en las publicaciones editoriales de comentarios críticos fundamentados y científicos es perjudicial para el avance del conocimiento económico.

Este descenso de los comentarios críticos y la pérdida de beneficios que susceptiblemente acarrearían al saber científico ha sido abordado por los académicos e investigadores Philip R.P. Coelho, Fredecrick de Worken-Eley III y James E. McClure, aquí. El también investigador Robert Whaples aborda aquí esta cuestión además señalando que los comentarios críticos no solo acarrean beneficios sino también costes, especialmente a las propias revistas editoriales, con la implantación en 1973 del nuevo Social Sciences Citation Index. Con este nuevo indicador, el prestigio de las revistas académicas se basan en publicar estudios científicos que posteriormente sean susceptibles de ser citados o de servir de referencia a otras publicaciones científicas, no en publicaciones científicas que susciten mayores réplicas o criticas científicas por parte de otros investigadores. Philip R.P. Coelho y James E. McClure dieron una respuesta al artículo de Whaples aquí.

3. Escasa interacción de los economistas con otras ciencias

Otro de los vicios que actualmente aquejan a la profesión y que desde luego no ayudan al desarrollo científico de la Economía, es la aparente “arrogancia” que manifiestan los economistas para con otros científicos sociales. Entre los economistas sigue siendo predominante la idea de que la Economía es la ciencia social más desarrollada y más exacta de entre las ciencias sociales. Si bien hay incipientes intentos de recurrir a otras disciplinas para enriquecer sus teorías (como por ejemplo la economía del comportamiento que se sustenta mucho en la psicología), la realidad es que los economistas estudian y citan predominantemente solo a sus colegas y apenas echan mano de estudios científicos de otras disciplinas.

Los autores del estudio “La superioridad de los economistas”, Marion Fourcade, Etienne Ollion y Yann Algan, examinaron las 25 publicaciones científicas más respetadas en Economía, Ciencias Políticas y Sociología. Encontraron que, entre 2000 y 2009, en todos los artículos publicados en The American Economic Review (AER), la más importante, el 40% de las referencias son a artículos publicados en las otras 24 principales revistas de economía. Tan solo el 0,3% de los artículos citados provienen de las revistas de sociología y el 0,8%, de las principales revistas de ciencias políticas. Es decir, que en todos los textos publicados en las 50 revistas más importantes de otras disciplinas durante toda una década, los economistas solo encontraron cerca de un 1% de artículos dignos de ser citados.

No solo eso. A la pregunta “¿Está usted de acuerdo o en desacuerdo con la afirmación de que ‘el conocimiento interdisciplinario es mejor que el conocimiento obtenido de una sola disciplina?”, la mayoría (57%) de los profesores de economía de EE UU que fueron sondeados estuvo en desacuerdo. En cambio el 75% de los profesores de sociología y el 72% de los politólogos encuestados dijeron que trabajar interdisciplinariamente era mejor.

Es evidente que cuanto más se empape una disciplina de las teorías de otras ciencias, su grado de cientificidad crece –mismamente la Economía recurra con frecuencia a las matemáticas para desentrañar y analizar su objeto de estudio- pero en la medida que la Economía estudia el comportamiento humano y es una ciencia, no se puede permitir el lujo de no aplicar en su lista de cuidados la interdisciplinariedad con otras ciencias sociales.

Estos son -a mi juicio- los principales vicios que actualmente aquejan a la Economía y que más contribuyen a que tanto desde el público en general como desde el ámbito de la investigación en numerosas ocasiones se ponga en cuestión la cientificidad de la Economía. ¿Qué hay más? Sin duda, quien quiera comentar puede añadir otros factores que incidan negativamente en la percepción de la Economía como ciencia. Toca a los economistas dejar atrás orgullos y prejuicios y trabajar para que nuestra disciplina siga creciendo en cuanto a conocimiento y en cuanto a percepción de ciencia.

Economía: ¿ciencia o pseudociencia? Parte I

ecociencia

El pasado 12 de enero la Fundación Española de Ciencia y Tecnología (Fecyt) publicó su informe “Percepción Social de la Ciencia y la Tecnología en 2014” basado en la séptima encuesta de percepción social de la ciencia y tecnología en España 2014. Entre las múltiples cosas que aparecieron en ese estudio figuraron que una pseudociencia como la homeopatía es una disciplina considerada más científica por parte de la sociedad que la Economía o que la Historia. Más concretamente, a los encuestados se les pidió que puntuaran del 1 al 5 el grado de “cientificidad” que le conferían a cada disciplina, siendo 1 si consideran esa disciplina nada científica y el 5 si la consideran muy científica. La puntuación promedio que obtuvo tanto Economía como Historia fue de 2,7 puntos frente al 2,9 que obtuvo la homeopatía quedando además empatadas con otra pseudociencia como es la acupuntura.

La percepción de la Economía como una pseudociencia es algo bastante frecuente y desde el ámbito del mismo escepticismo hay diversos autores que así la consideran. Por citar algún ejemplo concreto, el físico y epistemólogo argentino Mario Bunge incluye a la Economía (más concretamente a la economía neoclásica) en su obra “Las pseudociencias ¡vaya timo!”, como una pseudociencia. Libro que por otra parte recomiendo encarecidamente su lectura como el resto de obras de este autor.

La cuestión que toca abordar a continuación es si la Economía es una ciencia o una pseudociencia. Para ello previamente toca establecer una demarcación entre lo que constituye ciencia de lo que no lo es.

Ciencia y método científico

Empecemos por definir que es ciencia, si recurrimos a una de las acepciones de ciencia comúnmente más usadas tenemos que es el conocimiento racional, sistemático, exacto, verificable y falible sobre la realidad. Nos encontramos con una definición cargada de adjetivos que puede resultar un tanto ambigua a la par que confusa. El objetivo de la ciencia es obtener conocimiento acerca del mundo que nos rodea. Por tanto, toda disciplina que se considere ciencia deberá incorporar un conjunto de técnicas ordenadas siguiendo un método que permitan obtener dicho conocimiento.

Ese método existe y es común al de todas las disciplinas que se les considera ciencia, se trata del método científico. De esta forma, se puede afirmar que la ciencia es toda aquella actividad resultante de aplicar el método científico, así como al cúmulo de conocimientos obtenidos mediante su uso.

El siguiente paso es, por tanto, definir que es el método científico. De forma esquemática este método consiste en: formular hipótesis, buscar datos acerca de si se cumplen o no esas hipótesis, para finalmente verificar o rechazar la hipótesis en base a los datos y la información recabada. Sin embargo, este esquema no permite vislumbrar cuál es la filosofía que subyace en el método científico y por qué epistemológicamente es el mejor método demostrado a día de hoy para obtener conocimiento. La filosofía del método científico es la minimización del error, esto es, quien usa el método científico asume de antemano que va a obtener una conclusión errónea o no completamente verdadera de la realidad.

Es por ello que con el fin de conseguir reducir al máximo ese error el investigador de la materia pertinente asume una lista de cuidados que permita obtener las conclusiones más veraces dentro del mínimo margen de equivocación. Así pues, se puede establecer una analogía entre el científico e investigador que intenta desentrañar algún aspecto de la realidad y un detective que busca descubrir al autor de un crimen empleando todos los cuidados posibles y pruebas para desenmascararlo.

Entre esos cuidados figuran los siguientes:

• Utilizar la experimentación siempre que se pueda.

• Definir la hipótesis lo mejor posible, dejando claro que implica y que no. Si la hipótesis puede definirse empleando la lógica y las matemáticas mucho mejor.

• Búsqueda datos de manera sistemática e insesgada (no vale con quedarme solo con los datos que aparentemente refuerzan mi hipótesis también hay que incorporar los datos que parecen refutarla) para comprobar si la hipótesis modelizada es cierta o no. Ojo incluso la hipótesis más correcta y autoevidente desde un punto de vista lógico puede resultar falta al confrontarse con la realidad.

• Úsense los instrumentos adecuados y más precisos para analizar los datos y las observaciones. Conviene no inventarse demasiadas conclusiones sobre los datos sino ver las conclusiones que razonablemente se puede obtener de ellos.

• En muchas disciplinas (en especial aquellas en el que el objeto de estudio es el ser humano) es de gran utilidad la aplicación de poblaciones control y del ciego, doble ciego y hasta triple ciego. Para explicar en qué consiste miremos el caso de la medicina. El ciego es cuando al sujeto del experimento no sabe si le han dado un medicamento o bien un placebo. El doble ciego se da cuando no solo el sujeto del experimento desconoce si le han dado un medicamento o un placebo, sino también el investigador que les administra el medicamento tampoco sabe a quien le ha dado el medicamento y a quien el placebo. En el triple ciego tanto el sujeto sometido a experimentación, como el investigador que administra los medicamentos y el estadístico que interpreta los datos desconocen la información (de antemano) de a quien le han dado el medicamento y a quien el placebo.

• Una vez publicada una investigación sométase a la revisión por pares (que otros expertos en la misma materia que el investigador está analizando, manifiesten sus críticas y correcciones al trabajo presentado). Que el trabajo sea presentado en congresos y seminarios por expertos en la misma materia, también favorece a la labor científica que las investigaciones sean presentadas en revistas JCR para que evalúen de forma anónima dichos resultados. También es una muestra de buena actitud científica que el investigador informe de las observaciones y de los experimentos y que dé detalles suficientes para que terceros investigadores repliquen la investigación y comprueben si obtienen o no los mismos resultados.

• Ponderar hipótesis alternativas, ya que si un resultado contradice a otros bien asentados, probablemente es que la hipótesis principal no es del todo correcta o es completamente falsa.

Esta lista de cuidados no está ni cerrada ni completa, en contra de lo que se cree el método científico no es algo estático ni que ha permanecido invariante a lo largo del tiempo. Si alguien demuestra que hay un cuidado más que permite minimizar el error en una investigación, este tarde o temprano se añade al método científico. Por otro lado, no en todas las disciplinas es posible y/o necesario aplicar todos los cuidados. Por ejemplo, la aplicación del doble o triple ciego no tiene mucho sentido en la Física o en la Química. En las ciencias sociales a veces no es posible experimentar todo lo que se gustaría, (aunque veremos que poco a poco se van dando avances en ello), mientras que en las ciencias naturales la experimentación se da en la mayoría de los casos.

¿Es la Economía una ciencia, o no?

Una vez tratado de exponer que es la ciencia y el método científico toca comprobar si la Economía se ajusta o no a este esquema para dilucidar si es o no una ciencia. En primera instancia hay que señalar que dentro de la economía es mayoritario el número de investigadores y académicos de la disciplina que se adscribe a la idea de aplicar el método científico y emplear el mayor cuidado posible en la elaboración de los estudios. Se promueve la revisión por pares, esto es, se aceptan que otros investigadores económicos critiquen los estudios, señalen las carencias y se propongan aspectos a mejorar dentro de la investigación.

Las revistas académicas y científicas en Economía se rigen por principios similares que las de Física. En ellas, los trabajos teóricos se publican si muestran coherencia y si suponen un avance de ser ciertos. No se aceptan hasta que no estén avalados por más estudios, entre ellos los empíricos que los validen. Hay, en cada época, ideas dominantes o corrientes de pensamiento hegemónicas, pero ninguna revista está cerrada a otras ideas mientras sean prometedoras y se expresen con suficiente rigor como para poder ser confrontadas. En las mejores revistas se han publicado ideas económicas de economistas de muy distintas escuelas, porque el hecho de que un economista pertenezca o no a una determinada escuela no es impedimento de que publique en ella o no, si no del rigor aplicado en su trabajo y de la actitud que manifieste el autor a facilitar los datos que ha obtenido, a someterse a una revisión por pares y a que terceros investigadores repliquen su investigación para comprobar que las conclusiones obtenidas se corresponden a la información recabada.

Como en otras ciencias, los economistas no aceptan porque sí el estado de la disciplina, las nuevas generaciones proponen nuevos modelos, nuevos métodos, recaban más datos y, a veces, cambian la manera en la que se entendía un problema económico. Un vistazo a la evolución del pensamiento económico respecto a los ciclos económicos es un ejemplo de cómo ha ido avanzando el conocimiento en la economía. (esta parte si la quiere ver ampliada el lector está sacada de aquí y de aquí de unas entradas desarrolladas por Manuel Alejandro Hidalgo.)

Antes del crack del 29, el paradigma económico sostenía que los mercados siempre estaban en equilibrio, por lo que era imposible considerar un ciclo económico más allá de un movimiento de la producción y del empleo ajustándose óptimamente a las nuevas condiciones económicas. En este sentido, y dado que los precios y salarios se ajustan automáticamente para vaciar los mercados, el desempleo solo era posible si era voluntario. Además, el hecho de que los mercados fueran eficientes y capaces de autorregularse, permitía suponer que cualquier intromisión en ellos por parte de un Estado era -cuando menos- causa de ineficiencia. Sin embargo, ¿cómo era posible que en 1933, y después de cuatro años de depresión los mercados no se hubieran ajustado? Era evidente que más de un 20% de desempleo no era voluntario. Keynes, y su Teoría General vinieron a decir que los mercados podían permanecer durante un tiempo prolongado en situación de desequilibrio. En su modo de entender la economía, Keynes consideraba que un mercado que se vacía, es decir, cuyos precios son el producto del equilibrio entre oferta y demanda, era un caso particular de lo que podemos observar en la realidad. En consecuencia, el estado natural de los mercados era de permanente desequilibrio a la búsqueda del deseado equilibrio. Surgía la primera visión moderna de los ciclos económicos. En consecuencia, como una economía podía por ejemplo permanecer en recesión durante un tiempo más o menos amplio, se justificaba la intervención del estado para restaurarlo cuanto antes. Se argumentaba que, dada la lentitud de ajustes de los mercados, en el largo plazo los costes de un ciclo contrario serían elevados, justificando su corrección inmediata.

El mainstream (corriente de pensamiento dominante) en la economía tomó el paradigma keynesiano y condenó al ostracismo al paradigma clásico hasta la década de los 70 y de los 80. En ese momento la Macroeconomía se enfrentó al reto de explicar las causas y consecuencias de la crisis del petróleo y más importante aún, buscar la solución a ella. El paradigma keynesiano dominante hasta entonces demostró ser incapaz de poder solventar una crisis en la que se daba una situación que dentro del mismo se consideraba imposible. Una situación simultánea de altos niveles de paro e inflación.

El contrataque de los economistas clásicos, ahora refundados en la escuela neoclásica vino en primer lugar en 1973 con la Crítica de Robert Lucas quien expresó la necesidad de modificar los modelos macroeconómicos para que recogieran las expectativas de los agentes como un elemento más. Lucas argumentó que al existir tales expectativas, los agentes adelantaban las consecuencias de las políticas económicas, y en consecuencia hacía imposible de usar los tradicionales modelos macroeconómicos estructurales. Al crearse estas expectativas en el ámbito del individuo, exige que los nuevos modelos macroeconómicos se basen en fundamentos microeconómicos. En base a la Crítica de Lucas, se construyeron los modelos de ciclos reales (RBC, por sus siglas en inglés) estos modelos se basan en la existencia de expectativas racionales de los agentes. Sus acciones se basan en el análisis de cómo los agentes esperan el futuro y cómo les afectará, condicionando tanto el consumo como las horas de trabajo que los individuos ofrecen al mercado. En particular, estas expectativas son óptimas y “racionales” es decir, no se cometen errores al crearlas. Además, se supone que los precios y salarios se ajustan de un modo flexible, por lo que shocks de demanda y monetarios no generan cambios, siendo todo cambio motivado únicamente por los shocks de oferta (tecnológicos).

Los RBC han tenido una difusión extraordinaria, aportando además a la nueva macroeconomía varios elementos hoy imprescindibles: los nuevos modelos macroeconómicos tienen su base en los RBC y el análisis de política económica se fundamentan en este nuevo modo de entender la macroeconomía. Sin embargo, estos modelos tenían y tienen importantes debilidades. El hecho de que sólo los shocks tecnológicos generen ciclos económicos es una de las mayores críticas que se hizo a los modelos RBC desde el inicio, pues no hay evidencia de que tales shocks adquieran tal protagonismo. En segundo lugar, al suponer que el desempleo es consecuencia de un ajuste en las preferencias de los trabajadores y no de una caída de la demanda de empleo por parte de las empresas, se aleja de la realidad. En tercer lugar, los RBC consideran el dinero neutral y los precios y salarios perfectamente flexibles. Dado que los datos y la evidencia muestran que en el corto y medio plazo esto no es así, rápidamente surgieron nuevos modelos que integraban tanto rigidez en los precios como el dinero en el análisis de los ciclos económicos y que consideraban la posibilidad de nuevos tipos de shocks, como los de demanda.

Fruto de esas fuertes inconsistencias los modelos de la escuela neoclásica tuvieron contestación por los neokeynesianos a través los nuevos modelos keynesianos (NKM por sus siglas en inglés). Estos modelos planteaban ciertas diferencias notables respecto a los RBC. En primer lugar, se supone que los precios, y salarios entre ellos, no se ajustan automáticamente. Esta hipótesis tiene dos consecuencias. Una primera implica que va a existir una relación inversa entre cambios en los precios y en la producción. Un shock de demanda que eleve ésta sobre un nivel previo sin ajuste rápido de precios generará un aumento de la producción pero también, un aumento de la inflación. En segundo lugar, y asociado a lo anterior, los modelos NKM resuelven el problema del ajuste de precios mediante la introducción de la hipótesis de Calvo, según la cual en cada período sólo un porcentaje de empresas pueden modificar sus precios ante un cambio en las condiciones económicas. Una de las implicaciones más sorprendente de esta hipótesis es que la inflación actual va a depender tanto de la brecha respecto al producto potencial como de la inflación esperada. Surge así la llamada New Keynesian Phillips Curve (NKPC). Y en tercer lugar, la relación inversa entre brecha sobre el producto potencial e inflación es la herramienta que utilizan los bancos centrales para estabilizar la economía, siendo el modo en cómo este organismo se introduce en los NKM. Su actuación se formaliza a partir de una función de reacción del tipo de interés, Regla de Taylor, y según la cuál el tipo de interés, verdadero instrumento de política de los bancos centrales, se determina en función de la desviación de la inflación de un nivel de objetivo y de la brecha sobre el producto potencial. Las preferencias del Banco Central se introduce también en el modelo, bajo la hipótesis de que éstos desean reducir de forma conjunta tanto la variabilidad de la brecha sobre el producto potencial como de la inflación.

Durante década y media los RBC y los NKM compitieron entre sí por ver cuál de los dos tipos de modelos describían mejor los procesos que inician y determina los ciclos económicos demostrándose que los NKM  resultaron mejores que los RBC, es por ello que los primeros fueron los que más se utilizaron y se utilizan por parte de los Bancos Centrales en su evaluación de la política económica. No obstante, en los últimos tiempos se ha dado cierta confluencia entre los NKM y los RBC hacia los modelos de equilibrio general dinámico estocástico (DGSE, por sus siglas en inglés), que son ahora mismo los más utilizados por las autoridades económicas para evaluar el impacto tanto de la política monetaria como fiscal, y el crecimiento económico.

Como se puede observar, en solo este ejemplo la Economía ha ido evolucionando y sumando conocimientos de forma sistemática como una ciencia. Por poner un ejemplo clave, basta comparar la gestión que se hizo de la crisis del 29 “Gran Depresión” con la crisis económica que empezó en 2007 “Gran Recesión”. En ambos casos las crisis tenían prácticamente el mismo potencial destructivo y sin embargo hay notables diferencias en los efectos devastadores de una y otra. Por ejemplo, en la crisis del 29, siguiendo el paradigma económico del momento asentado en el conocimiento económico de entonces la tasa de paro llegó en EE.UU. hasta el 25,59% en mayo de 1933, mientras que en la crisis de 2007 interviniendo las autoridades económicas tanto en política fiscal como monetaria, consiguieron que la tasa de de paro más alta fuera del 10% en octubre de 2009, menos de la mitad. Mas datos comparativos, con la crisis de los años 30 al Dow Jones le costó 26 años para volver a los niveles previos al crack del 29 (sin contar la inflación) en la Gran Recesión el mismo índice bursátil tardó sólo dos años en recuperar los niveles previos a la quiebra de Lehman Brothers.

Ha habido avances en el entendimiento de la Economía. Se han dado pasos en la recopilación de datos, se han elaborado mejores técnicas econométricas y se cotejan unas con otras para ver cuales se muestran más efectivas, se han aprovechado los avances informáticos para realizar mejores simulaciones del comportamiento de la economía (fuera de los tiempos de crisis, en que por definición los parámetros de los modelos cambian demasiado). Se han incorporado nuevas técnicas para medir con mayor precisión las decisiones que toman los agentes en la economía, como la teoría de juegos, o la reciente  y prometedora rama de la economía del comportamiento, y en los últimos tiempos se está dando avances en la economía experimental, en donde algunas investigaciones incluso ya son publicadas no solo por revistas económicas sino por revistas científica del más alto nivel.

¿Qué queda mucho camino por andar? Desde luego. Una de las críticas más recurrentes hacia la Economía que se usa para tildarla de pseudociencia es que fracasa estrepitosamente a la hora de predecir las crisis. Si bien es cierto que cualquiera que coja el manual de economía verá que en ningún momento se señala que a partir del conocimiento que se puede obtener analizando la economía se pueda predecir tal cosa. La causa es que por lo que sabemos de la economía (al menos en lo que respecta a la economía de mercado), es casi imposible hacer un pronóstico completamente fiable de cuándo será la próxima crisis y cuál será su intensidad. Dado que la economía no deja de ser un juego de incentivos, en el hipotético caso de que se hiciera una previsión completamente certera de que dentro de dos años habrá una crisis, en el momento en que se conociera tal revelación la caída de las expectativas de consumo e inversión de familias y empresas precipitarían que la crisis empezara en ese mismo instante. Con lo que la adivinación de que la crisis iba a comenzar en dos años quedaría en entredicho. Toda una paradoja.

Pero al margen de todo eso, hay avance, hay ideas que quedan obsoletas o que se mejoran, hay un continuo interés en cotejar los modelos con la realidad, hay errores y hay un sistema de confrontación de ideas para intentar corregirlos. En definitiva, hay ciencia.

Para finalizar este post una recomendación literaria que -además de interesante para ahondar sobre el tema- es justo citar ya que ha inspirado en buena medida este texto. “Economía y pseudociencia” de José Luis Ferreira.

Nota: En esta entrada se ha tratado de argumentar las razones que avalan para considerar la Economía como ciencia. En otra posterior, se analizarán ciertos fenómenos que se están dando ahora mismo que desde luego no contribuyen a que la Economía se la considere una ciencia.

Copyright, el timo basado en el mito de que somos dueños de nuestras ideas

nikola_tesla_vs_thomas_a_edison_2014-08-17

Una de las máximas que defienden organismos como la SGAE (Sociedad General de Autores y Editores) es que no podemos aprovecharnos del trabajo de los demás sin su conocimiento, ni poner en cuestión que cada autor es dueño de sus ideas, es por ello que esta institución justifica su existencia como una suerte de salvaguarda de la propiedad y el monopolio intelectual y en última instancias de figuras como el copyright. ¿Pero es realmente cierto esto? ¿Tiene sentido esta frase? Y lo que es más importante, ¿se sustenta en algo que no sea solamente una posición ideológica? Empecemos primero analizando la argumentación de la SGAE.

“No podemos aprovecharnos del trabajo de los demás sin su conocimiento”. Totalmente incorrecto, nadie puede impedirnos aprovecharnos del trabajo de los demás. De hecho, es algo que se hace de forma bastante frecuente, sin que ello entrañe nada delictivo. Por ejemplo, el investigador que recurre a bibliografía, documentación o investigaciones elaboradas por otras personas que han publicado sobre el tema a tratar anteriormente, y a quienes no hay que pedirles permiso para poder usar los datos que hay en ellos; o bien las persona que adquieren una novela y esta le sirve de inspiración literaria para una obra que luego ellos quieran realizar.

“Ni poner en cuestión que somos dueños de nuestras ideas”. ¿Podemos ser dueños de nuestras ideas en el sentido de ser sus propietarios? Imposible. Tener la propiedad de algo implica la capacidad de poder disponer de aquello sobre lo cual se es propietario y decidir si alguien más puede ser usufructuario de ello. Por ejemplo, si me compro un coche adquiero la propiedad de éste, es decir, poder ser yo únicamente quien lo use o en caso de que lo quiera usar otra persona sea -sí y solo sí- yo decidiera prestárselo.

La concepción de la propiedad no es extrapolable a las ideas ya que somos autores de las ideas que creamos y somos dueños de ellas mientras no se las comuniquemos a alguien y ese alguien la entienda o la tenga descrita de una manera que pueda ser entendida por alguien más. Pitágoras no es dueño del teorema de Pitágoras, ni Beethoven lo es de sus sinfonías, ni Ken Follet de cada una de las frases, párrafos o capítulos sus libros. No hay forma de apropiarse de una idea, y esa imposibilidad hace que la extrapolación del concepto de propiedad de un bien material a uno inmaterial sea absurda. Estas personas son (o fueron) autores de las ideas y, como tales, merecen ser reconocidos, pero les resultaría imposible impedir a alguien que ha entendido sus ideas puedan disponer de ellas pensando y reflexionado sobre ellas y que a partir de ellas generen las suyas propias o les dé pie a inspirarse y generar nuevas obras intelectuales.

Pese a ello, se aplica del concepto de propiedad sobre bienes inmateriales, esto es el copyright o el derecho de autor, según el cual a quien tuviera una idea y la patentara se le concede el monopolio de ésta y cualquier otro que pretenda usarla solo puede hacerlo a cambio de pagar unos cánones al autor. Sobre la existencia de la propiedad intelectual, como en casi todo, hay argumentos a favor y en contra de su existencia los cuales pueden ser contrastados con la empiria para ver cuál de ellos se corresponde con la realidad.

El argumento a favor señala lo siguiente: La propiedad intelectual y la protección de los derechos de autor favorece la creación de obras puesto que el autor ve los beneficios derivados de la venta de copias de su trabajo o bien si inventa algo nuevo, los beneficios económicos que dan las patentes son una jugosa tentación para crear algo nuevo. La difusión se restringe a las copias hechas por el titular de los derechos de autor, cuyo monopolio se defiende como un mal menor que pagar para que la creación de la obra sea posible.

La tesis contraria al copyright dice que no es imprescindible la figura de los derechos de autor para que haya creación intelectual ni aumentarla porque la ventaja de ser el primero y el original, unido a la mayor exposición de la obra, es un incentivo más que suficiente para crear contenidos nuevos. Aún más, puede escribirse un modelo en el que la concesión del monopolio sobre la obra suponga un escollo para la creación intelectual. No son pocas las obras intelectuales que necesiten de material anterior que, según las protecciones actuales de los derechos de autor, no pueden ser accesible mi usarse fácilmente entorpeciendo así la aparición de nuevos contenidos intelectuales.

Tenemos una vez más delante dos hipótesis correctas desde la lógica y que se contradicen la una con la otra. ¿Con cuál quedarnos? Pues depende. Quien quiera hacer una defensa únicamente ideológica de una de las posturas lo tiene fácil, se queda con aquella que mejor le suene a sus oídos y ya está. Quien quiera tomar una postura sustentada en la evidencia empírica lo tiene más complicado. Le tocará hacer una investigación por su cuenta para ver que le dice la realidad, o bien, deberá de indagar en investigaciones ya hechas sobre eso y cuya validez haya sido contrastada. Una vez hecho eso, en función de lo que nos digan, escoger la hipótesis que parece salir verificada, aunque pueda contradecir lo que nuestros sesgos ideológicos nos digan.

Si echamos un vistazo a la mayoría de estudios académicos sobre este asunto, concluyen que la creación no depende en ninguna medida de los derechos de autor y que existen otros beneficios y motivaciones que hacen de tractores para hacer una actividad creadora. Además, la difusión de la obra se ve claramente mermada con la restricción a la copia privada. Veamos los estudios que han tenido mayor impacto y cuál ha sido su evolución histórica.

La investigación del asunto

En 1934 empezó una ola de investigaciones con este estudio de Arnold Plant publicado en la revista “Economica” en el que observó que durante el siglo XIX en los EEUU uno podía copiar y reproducir legalmente los libros de autores de Reino Unido y pese a ello sus editores en los EEUU hacían suficiente negocio como para permitirse pagar a los autores con sustanciosas pagas. Tras esta investigación vino un silencio en este campo, que duró hasta los años 80. Durante ese lapso de 50 años, los estudios que se hicieron apenas pasaron de las formalizaciones o modelizaciones teóricas para defender la necesidad de crear figuras jurídicas que reconozcan los derechos de autor. Sin embargo, los modelos planteados no iban más allá de la corrección lógica, en ningún caso sometieron a una contrastación empírica seria las hipótesis en ellos planteadas.

Entre los últimos modelos teóricos de ese estilo destacan el de 1984 de Novos y Waldman (donde se plantea la hipótesis de cómo un aumento en la protección de los derechos de autor provoca un incremento del bienestar social al incentivar una mayor creación sin que se vea mermada la difusión) o este de Johnson de un año después. Ese mismo año, 1985, los análisis empíricos sobre esta cuestión volvieron a retomarse y en sus conclusiones, contradecían (en algunos casos de forma parcial, en otros planteaban una enmienda a la totalidad) los análisis teóricos previos. Liebowitz fue de los primeros en publicar un estudio de esta nueva ola. En su análisis, abordó el tema de la propiedad intelectual en el campo de las revistas científicas y encontró que las editoriales podían apropiarse indirectamente de ingresos debidos a usuarios que no compraban directamente la revista y que el uso de las fotocopias no dañaba a la editora de la revista. La mayor visibilidad que obtenía la publicación al ser copiada y difundida era suficiente para compensar a la editorial.

Como a la fuerza ahorcan y los modelos empíricos estaban aportando una serie de conclusiones que venían a corroborar que hay posibilidad de que exista creación intelectual sin la necesidad del poder monopolístico otorgado por los sistemas de derechos de autor y de patentes, empezaron a surgir modelos teóricos que plantearon como la ausencia de copyright no incide en una menor creación de bienes inmateriales e intelectuales. A este respecto destacan los modelos de Michele Boldrin y David Levine y este otro de Henry  y Ponce, por tener algunos ejemplos. Sin embargo, volviendo a lo realmente importante, a los modelos empíricos tenemos a Landes y Posner quienes aportan una evidencia de que el valor esperado de la protección de los derechos de autor es muy bajo. ¿El motivo? Aunque la tasa por registrar una obra es muy baja en los EEUU (en torno a los 20 dólares), pequeñas subidas en la tasa llevan a reducciones reseñables en el número de registros, lo cuál, solo puede ser explicado si los autores ven poca ventaja en ver sus obras registradas.

Ku, Raymond Shih Ray, Sun, Jiayang and Fan y Yiying realizan un análisis estadístico para contrastar la teoría que afirma que incrementar la protección de los derechos de autor repercute en un aumento del número de obras. Los autores analizan las creaciones de artes escénicas, grabaciones musicales, libros y películas, utilizando el número de registros por derechos de autor en EEUU como una aproximación al número de obras producidas. Una vez hecha esta recopilación, corrigen por, situación económica, población y tecnología, encuentran que no hay ninguna relación consistente entre los cambios en las leyes y los registros.

Conclusiones

Dada la evidencia empírica analizada en los estudios, si bien no se puede concluir que la ausencia del copyright suponga un acicate para la producción audiovisual. Lo que no se puede sostener bajo ningún concepto a tenor de los estudios realizados es que el copyright sea un mecanismo imprescindible para garantizar la producción de obras intelectuales. Sin embargo esa forma de monopolio intelectual sigue estando profundamente implantada y en algunos casos dando lugar a situaciones lacerantes, como es el caso de las patentes farmacéuticas con los medicamentos. Al otorgarles las patentes de medicamentos a las empresas farmacéuticas se cercena la posibilidad de que cualquiera pueda copiar la fórmula, fabricarlo y venderlo a un precio más bajo, ya que la empresa que lo copie no tiene que incluir en el precio los costes de amortización de la investigación realizada, con lo que lo puede hacer mucho más barato.

Si bien este tipo de controversias pueden sonarnos lejanas, en España a causa de las leyes en defensa de la propiedad intelectual hemos contemplado situaciones lacerantes. Tal es el caso de numerosos enfermos de Hepatitis C que han tardado en recibir una medicación que estaba a unos precios desorbitados para ellos, unos 60.000 euros. La tesis esgrimida por este y tantos otros casos por las farmacéuticas es: “Sin patentes que garanticen el monopolio sobre lo inventado o descubierto, no hay forma de recuperar el coste de la inversión en hallar medicamentos que curen enfermedades y con lo que no habrá inversión ni dichos medicamentos”. Pero en esa argumentación olvidan que si Suiza es actualmente uno de los mayores centros farmacéuticos del mundo es gracias a que fue uno de los países que más tardaron en reconocer los derechos de patente sobre los medicamentos, así a las farmacéuticas les interesaba instalarse ahí para disfrutar de las ventajas de usar los conocimientos ya generados por las anteriores compañías. A su vez, esto les compensaba por el inconveniente de que sus conocimientos fueran usados por otras.

Así pues en estos casos la respuestas científica y moral caminan de la mano en el asunto de la Hepatitis C, el Gobierno debió haberles expropiado esa licencia del medicamento a esas industria y con ella permitir que otras empresas pudieran copiar y reproducir a precios asequibles dichos medicamentos y garantizar de esta forma su acceso a todos los enfermos. (Y en caso de quienes aún ni con los precios más bajos no se lo pudieran permitir, subvencionarles dichos medicamentos, pero esto último ya es desde mi punto de vista ético y no se basa en pruebas).

Detector de gilipolleces a por la quinta entrega

Sinopsis. Con este nuevo capítulo ya se alcanza la veintena de falacias no formales analizadas en el blog. En esta ocasión nos centraremos en la falacia de la frase ingeniosa, la falacia de la conclusión desmesurada, la falacia de la composición y la falacia de la falacia.

Falacia de la frase célebre

Básicamente esta falacia se construye evocando una frase dicha por un personaje célebre desde el plano cultural (científico, escritor, filósofo…etc) en la que se reproduce literalmente una cita dicha por él, únicamente por lo ingeniosamente que ha sido el formularla y sin pararse en ver si ese enunciado es correcto o no.

Ejemplos.

“La estadística es una ciencia que demuestra que si mi vecino tiene dos coches y yo ninguno, los dos tenemos uno”. George Bernard Shaw.
La frase pronunciada por el escritor irlandés, premio Nobel de literatura en 1925 y del Óscar en 1938, es un ejemplo claro de esta falacia ya que la frase es tan ingeniosa como errónea. Por un lado, lo que él está señalando como la estadística en su totalidad simplemente es una parte de ella. Concretamente, una medida de centralización como es la media aritmética. Así que las limitaciones que él usa para referirse a la estadística únicamente solo son atribuibles al promedio de una distribución. Por otro lado, dentro de la propia estadística se estudian otras medidas, como las medidas de dispersión, que nos permiten estimar cuan representativa puede ser una medida de centralización en una distribución. Si la varianza y la desviación típica de una distribución es alta entonces gracias a la estadística podemos saber que un resultado descrito en la frase de Bernard Shaw es poco representativo de la realidad.

“Hasta que no dejemos de dañar al resto de seres vivos y a nuestro entorno, seguiremos siendo salvajes” Thomas Edison.

Aquí otro ejemplo. El prolífico inventor estadounidense recurre en este caso a una relación aparente como es el salvajismo con el daño a otros seres vivos y a nuestro entorno. En primer lugar si aceptamos la literalidad de la frases, caeríamos en el absurdo de que por el mero hecho de nacer una persona ya estará indefectiblemente condenado a ser un salvaje ya que para poder sobrevivir, ese ser humano se verá obligado a comer, lo que implica tener que dañar a otros seres vivos ya sean animales o vegetales. Por otra parte, para garantizar la existencia suficiente de comida deberá de modificar y dañar su entorno preparando terrenos para la agricultura o la ganadería. También para que haya el progreso de la civilización se verá obligado hasta cierto punto a modificar el entorno en el que vive y en algunos casos dañarlo. Pero precisamente la construcción de la civilización es lo que ayuda a ir poco a poco ir dejando atrás el salvajismo. Por su puesto es deseable que en ese proceso se minimice el impacto negativo sobre el medio ambiente y en la medida en que se encuentre formas de que la humanidad vaya progresando en la creación de su civilización sin que ello afecte al medio ambiente es deseable implementarlas. Pero establecer la relación que hace Edison, por muy ingeniosa que haya sido, no deja de ser falsa.

¿Significa esto que debemos considerar toda frase célebre o ingeniosa como falsa? Para nada. Hay multitud de frases célebres que son ciertas y correctas, pero su corrección es porque la conclusión se sigue de sus premisas o está demostrado que son así y además se expresan con ingenio. Lo que aquí se indica es que por el mero hecho que nos planten una frase ingeniosa que nos sorprenda y nos agrade por su ingenio no nos hemos de dejar cegar por ello, sino analizarla para comprobar si es cierta o no.

Falacia de la conclusión desmesurada o secundum quid

Esta falacia surge cuando a partir de una prueba insuficiente se establece una conclusión general, o lo que es lo mismo, a partir de una serie de datos ciertos establecemos conclusiones que van más allá de lo que ellos nos permiten.
Ejemplos. Ante el hecho real de que en los puestos de dirección hay menor presencia de mujeres que de hombres sacamos la siguiente frase. “Hay pocas mujeres en los puestos directivos. Parece ser que a las mujeres no les atrae la dirección empresarial”. Sacar esa conclusión es falaz en la medida en que se da un olvido de alternativas que pueden explicar ese fenómeno. Por ejemplo, una discriminación de las mujeres para poder acceder a los puestos directivos, o bien, puede que haya el mismo deseo por parte de las mujeres que de los hombre de dirigir empresas pero las dificultades de conciliar maternidad con promoción profesional en la actualidad le obliguen en muchas ocasiones a elegir entre una de las dos alternativas y muchas finalmente opten por la primera.
Otro ejemplo de falacia de conclusión desmesurada la podemos obtener observando la siguiente imagen.

jobs-in-shale-vs-non-shale-states-from-zero-hedge

En ella lo que se hace es incurrir en una subvariante de esta falacia que es la muestra sesgada. En este caso se pretende hacer creer que en EEUU la creación de empleo ha sido por el principalmente por el fracking y no por las medidas de política monetarias y fiscales. El problema es que la fractura hidráulica, por si sola, no explica ni la total creación del empleo en esos estados. Además, no se han incluido (que casualidad) otros Estados en los que el fracking esta asentado pero no se ha dado esa gran creación de empleo como por ejemplo Michigan. Y solo se han introducido los estados de Pensilvania, Colorado, Texas, West Virgina y Dakota del Norte. Finalmente un resultado similar al que se da en ese grafico se obtendría si escogiéramos otras cuatro Estados de U.S.A sin que necesariamente fueran Estados que hayan recurrido al fracking no saldría un resultado muy similar. (Para comprobar las estadísticas oficiales de empleo aquí una fuente oficial que recopila los datos de la Oficina de Estadísticas Laborales).

Falacia de composición

Sucede cuando se extrapola al todo las características de las partes. No se puede trasladar al conjunto las características individuales de cada uno de los integrantes. Dicho de otra forma, como el todo no tiene por qué ser igual a la suma de las partes no es correcto asegurar que si el conjunto está compuesto por partes que tienen cierto atributo o propiedad, el conjunto presentará el mismo atributo o propiedad.

Ejemplos.

“Esta pieza de metal no puede romperse con un martillo. Por lo tanto, la máquina de la cual es parte no puede romperse con un martillo.” Un razonamiento en primer lugar porque no todas las partes que componen la máquina tienen por qué resistir el impacto de un martillo. Pero incluso aunque esa máquina estuviera hecha enteramente por piezas irrompibles para un martillo el razonamiento sería igualmente falso ya que si el martillo, aunque no rompiera, consiguiera separar algunas de las partes que componen la máquina de ésta, ya de por sí la maquina dejaría de funcionar y es como si estuviera rota.

“Cada accionista de Telefónica tiene un ombligo, por lo tanto, Telefónica tiene un ombligo”. Sobre el absurdo de una afirmación así poco se puede decir, es un claro ejemplo que evidencia como por el hecho de que todas las partes de un todo tengan un atributo en común la colectividad que los integra no significa que lo deba tener.

Falacia de la falacia

Llegados a este punto en la serie del detector de gilipolleces es interesante comentar esta falacia. La falacia de la falacia consiste en considerar que por el hecho de que alguien al defender un argumento incurra en una falacia no formal su argumento ya es erróneo y el contrario es cierto.

Por ejemplo imaginemos un debate entre dos personas. Uno que defienda que la tierra no es plana y otro que en realidad si es plana. Imaginemos que la primera persona para explicar su postura incurre en una falacia de falsa analogía comparando la tierra exactamente con una pelota (es una falacia ya que la tierra no es exactamente esférica sino que es un geoide, con lo que llegando la analogía hasta el límite describiría comportamientos en el movimiento de rotación que en realidad no se dan). Si quien defiende que la Tierra es plana hace notar que su razonamiento es erróneo detectando esa falacia (que lo es) de ahí considera que ha demostrado con eso que entonces su razonamiento es correcto, está cayendo en la falacia de la falacia.

Sesgos Cognitivos: No dejes que la realidad te impida alcanzar la verdad

Sinopsis. Como consecuencia de la evolución humana nuestra mente ha desarrollado una serie de mecanismos que nos permiten tomar juicios de forma inmediata y asumir una posición rápida ante estímulos. Pero esto acarrea también sus inconvenientes, como que son construcciones irracionales que nos pueden alejar del conocimiento. ¿Cuáles son estos prejuicios y que métodos de obtener conocimiento tenemos que resisten fácilmente a su existencia?

El ser humano es definido en multitud de ocasiones como un animal racional ya que en el transcurso de su evolución el desarrollo de su raciocinio ha sido la clave principal de su éxito biológico convirtiéndose en la especie hegemónica en el planeta. Sin embargo, ese mismo desarrollo evolutivo ha generado la necesidad de emitir de forma inmediata juicios que utiliza nuestro cerebro para asumir una posición rápida ante ciertos estímulos, problemas o situaciones, que debido a la incapacidad de procesar toda la información disponible se filtra de forma selectiva o subjetiva.

Ese proceso da lugar a lo que se conoce como sesgos o prejuicios cognitivos un efecto psicológico que produce una desviación en el procesamiento de lo percibido, lo que lleva a una distorsión, juicio inexacto, interpretación ilógica, o lo que se llama en términos generales irracionalidad, que se da sobre la base de la interpretación de la información disponible, aunque los datos no sean lógicos o no estén relacionados entre sí. Así pues en la medida en que el cerebro puede hacer construcciones erróneas sobre su entorno podemos concretar que los prejuicios o sesgos cognitivos hacen que nuestra realidad construida nos aleje del conocimiento de la verdad.

Los sesgos cognitivos fueron introducidos por los psicólogos Daniel Kahneman y Amos Tversky en 1972 y a partir de varios estudios y experimentos se le fue concedido a Kahneman (Tversky ya había fallecido) el premio Nobel de Economía en 2002 por haber integrado aspectos de la investigación psicológica en la ciencia económica, especialmente en lo que respecta al juicio humano y la toma de decisiones bajo incertidumbre. En su artículo “Juicios en incertidumbre: heurística y sesgos” muestran los resultados de numerosos experimentos que les permiten detectar tres tipos de sesgos en nuestra manera de razonar y que vamos a describir a continuación.

El primero de ellos es la representatividad. Esta consiste en que somos proclives a sesgar nuestros juicios en función de estereotipos. Se tira una moneda varias veces ¿Qué secuencia es más probable obtener, cara-cruz-cara-cruz-cruz-cara o bien cara-cara-cara-cruz-cruz-cruz? Al hacer esa pregunta la gente tendía a pensar que es la primera porque representa mejor una situación aleatoria, a pesar de que ambas son igual de probables. Sucede lo mismo en que por ejemplo un resultado del cupón de la ONCE en que todos los números que salieran fueran 4, mucha gente encontraría ese boleto menos atractivo aunque en probabilidad es igual que cualquier otro.

Otro ejemplo señalado en los estudios de Kahneman y Tversky. Se sabe que en una reunión hay abogados e ingenieros en proporciones 30%-70%. Se pregunta a una persona al azar si le gustan las matemáticas y responde que sí. ¿Con qué probabilidad es ingeniero? Podemos hacer la misma pregunta cambiando las proporciones a 70%-30%. Lo interesante es que las respuestas apenas varían cuando deberían hacerlo, y bastante.

Otro ejemplo, recogido por estos psicólogos. Cuando en un hospital el número de nacimientos de un sexo es superior al 60% del total se considera un día especial. ¿Dónde habrá más días especiales, en un hospital donde nacen unos 45 bebés al día o en uno donde nacen unos 15? La mayoría de la gente suele contestar que da igual y, entre los demás, se reparten más o menos a medias los que opinan que un hospital u otro. La respuesta correcta es que en el hospital pequeño, claro está.

Sesgo de disponibilidad. Este consiste en que tendemos a creer que es más abundante o probable aquello de lo que podemos generar ejemplos más fácilmente. Por ejemplo, en un grupo de 10 personas hay que formar un comité formado por un subgrupo de ellas. ¿Cuántas combinaciones son posibles para elegir uno de 2 personas? ¿Y uno de 8? De nuevo, las respuestas estiman en un mayor número los comités posibles de 2 personas. A nada que pensemos debe quedar claro que deben ser las mismas combinaciones. Cada comité de 2 personas define uno de 8 (los que no se eligen), pero es más fácil pensar en combinaciones de 2 que en combinaciones de 8.

¿En el idioma ingles hay más palabras que comienzan con la letra “r”, como read, o que contienen la letra “r” en tercera posición, como air? Las opiniones son siempre favorables al primer caso, cuando la realidad es que abundan más las segundas. La razón más plausible de esta discrepancia es que es mucho más fácil pensar ejemplos del primer tipo que del segundo. Un ordenador no tendría problemas en encontrar ambos, pero el mecanismo de búsqueda de nuestra mente encuentra mejor unos ejemplos que otros.

Finalmente queda el sesgo del anclaje, que viene a señalar que encontramos, aunque sea inconscientemente, información allí donde no la hay y esa información “ancla” nuestros juicios, opiniones o creencias. Ejemplo, tenemos dos grupos en salas separadas. En ambas hay una ruleta con números del 1 al 100. Se hace girar la rueda. En una sala se para en el número 10 y en la otra en el 65. Se hace la siguiente pregunta: ¿cuántos países africanos son miembros de las Naciones Unidas? (recordemos que el experimento se hizo a comienzos de los 70, sin completar todavía la descolonización). En la primera sala se estima que son 25 y en la segunda, 45. El resultado de la ruleta, totalmente irrelevante para la pregunta, ancla la respuesta.

Otro ejemplo que señalan es el siguiente. Se pregunta a un grupo que estime, en unos pocos segundos y sin calculadora, el resultado de la operación 1*2*3*4*5*6*7*8*9 y a otro grupo el resultado de la operación 9*8*7*6*5*4*3*2*1. El resultado del experimento presenta dos rasgos. El primero es que ambos grupos tienden a estimar el resultado a la baja. El segundo muestra el efecto anclaje: el primer grupo tiende a hacer una estimación mucho más baja que el segundo. La razón se puede atribuir a que uno comienza multiplicando los primeros números y luego extrapola como puede. El resultado de las primeras multiplicaciones ancla la estimación.

Vemos, por tanto, que el ser humano no es tan racional como parece que sus formas de construir la realidad (concepción mental que hacemos de nuestro entorno) cae frecuentemente en irracionalidades de forma que dificulta con ello el análisis objetivo y exacto de su entorno, vulnerando de esta forma los axiomas de la teoría de la elección racional en la economía y dando pie a la llamada economía conductual. (A este respecto señalar este documento “Prospect theory: Decision Making Under Risk”, usaba técnicas de psicología cognitiva para explicar un cierto número de anomalías documentadas en la toma de decisiones económicas racionales). El método científico como método que se basa en seguir todos los cuidados posibles para hallar conocimiento resiste muy satisfactoriamente este tipo de sesgos. No sucede lo mismo con el llamado método clínico, individualismo metodológico o praxeología que son especialmente vulnerables a estos sesgos ya que parten de axiomas o juicios considerados como ciertos a priori que se pueden ver en su desarrollo fácilmente viciado por estos prejuicios. Así pues, cuando alguien afirme que una de estos vías es el valida para entender una disciplina que pretenda ser científica en lugar del método hipotético-deductivo deben cuanto menos saltar las señales de alarma.

Anumerismo económico: el índice de Frank un pésimo indicador fiscal

Sinopsis. Descripción del Índice de Frank como medidor del esfuerzo fiscal, un término que se esta poniendo en boga últimamente pero que económicamente carece de sentido. Más allá de interpretaciones interesadas de la realidad que se quieran hacer con él. Este es el análisis.

Año electoral, año en el que previsiblemente a la opinión pública se le va a cargar de debates en los que la cantidad de demagogia y manipulación van a campar a sus anchas. La economía va a tener su parte de protagonismo y dentro de ella los temas de impuestos y fiscalidad van a copar gran parte de la atención. En este sentido, conviene estar alerta de un término económico que últimamente se está hablando mucho de él, el esfuerzo fiscal medido con el índice de Frank.

Este índice se utiliza desde ciertas posiciones ideológicas y desde determinadas escuelas del pensamiento económico pseudocientífica (escuela austriaca de economía), para enmascarar un problema que a todas luces es claro a tenor de los datos: España lleva arrojando déficits públicos importantes desde que estalló la crisis económica principalmente por su baja recaudación tributaria.

Basta mirar las cifras que se arrojan desde Eurostat para observar que los abultados déficits públicos que ha registrado España en los últimos tiempos no obedecen tanto por el nivel de gasto público que tiene España -que en ese aspecto se sitúa en la media de la eurozona sin que la mayoría de países europeos no hayan sufrido unos desequilibrios presupuestarios tan abultados. El pie por el que cojean las cuentas públicas es más por la vía de los ingresos los cuales si están muy por debajo del promedio de nuestros vecinos, especialmente en la parte de los ingresos provenientes de los impuestos y de las cotizaciones sociales. En concreto, tomando como referencia el último año disponible, el del año 2012, se observa que los ingresos fiscales de España ascendieron hasta los 345.435 millones de euros, de donde se desprende una presión fiscal del 33,6% del Producto Interior Bruto (PIB) (21,3 puntos porcentuales vienen de impuestos y los 12,3 restantes los ponen las cotizaciones sociales) frente al 41,7% de presión fiscal que en el mismo periodo registraba la eurozona. Es decir, la presión fiscal en España es 8,1 puntos porcentuales inferior a la media europea, cifra que esclarece que la recaudación tributaria en España es inferior a la media europea y que es insuficiente para los niveles de gasto público actuales.

Sin embargo, hay quienes sí o sí pretenden señalar que en España se sufre una carga fiscal asfixiante y superior a la media europea pero como los datos dicen lo contrario, pues en ese caso toca buscar recurrir a una de las formas más burdas de estafa intelectual conocidas. Esta es recurrir de entre todos los índices fiscales a aquel que por las razones que sea me dé la razón en mis prejuicios ideológicos y presentar ese indicador como una estimación más fiable que la otra. Eso es lo que hacen unos cuantos economistas de la escuela austriaca en este documento, recurren al llamado índice de Frank o índice de esfuerzo fiscal. (Elaborando una tabla de datos, con datos sacado en Eurostat, con fecha a 2012, los resultados que sacan se correspondería, tal como lo tienen calculado. Ver imagen)

esfuerzo fiscal 2012

El índice de Frank fue desarrollado por Henry J. Frank como un intento (fallido) de lograr un índice más preciso que la presión fiscal para medir el peso de la carga tributaria que soportan los habitantes de un país. Básicamente, este índice consiste en dividir la presión fiscal entre el PIB per cápita de cada país porque así, según señalaba su autor, si tenemos dos países con igual presión fiscal, sería más gravosa la carga impositiva que deben soportar aquellos ciudadanos con menores ingresos medios o menor renta per cápita.

Suena lógico y sensato, ¿verdad? Pues es una soberana estupidez, que se puede constatar simplemente observando la fórmula con la que se calcula el esfuerzo fiscal. Recordemos esta es (presión fiscal/PIB per cápita) multiplicado por 10.000, cuanto mayor sea el resultado mayor será el esfuerzo fiscal) ya no es que sea un sinsentido económico sino que es un despropósito a nivel matemático. ¿El motivo? La ratio presión fiscal -como toda ratio en la que se divide una cantidad expresada en una unidad de medida (recaudación fiscal en euros), por otra expresada en esa misma unidad de medida (PIB en euros también)- es adimensional y si a su vez dividimos algo adimensional entre una magnitud (en este caso, PIB per cápita que se mide en euros por habitante) la cifra final podrá ser más alta o más baja pero carecerá de una interpretación lógica y menos aún podrá ser comparable a otras, como bien sabe cualquier persona que haya estudiado mínimamente los factores de conversión que se dan en física o matemáticas (de 3º y 4º de la E.S.O).

Para evidenciar claramente esto imaginemos unos ejemplos. Supongamos dos países en los que en uno la renta per cápita fuera 15.000 euros y otros en el que el PIB por habitante fuera 40.000. En el país A la presión fiscal es del 37,5% del PIB y en el país B, imaginemos una presión fiscal altísima equivalente al 90% del PIB –esto es casi la totalidad de lo que producen sus habitantes en un año, que en términos de contabilidad nacional es igual a lo que ingresan se lo queda el Estado- si calculamos el esfuerzo fiscal en el país A sería (37,5%/15.000)*10.000 = 0,25 mientras que en el país B este sería (90%/45.000)*10.000 = 0,2, vamos el índice de Frank es sumamente tan absurdo que te puede salir que en un país en que de media a todo el mundo le quitan en impuestos el 90% de lo que ingresa soporte un esfuerzo fiscal menor que un país en el que en promedio la cantidad que detraen de impuestos es el 37,5%.

Solo ya con esa tara ya sería suficiente para invalidar un concepto como el de esfuerzo fiscal al basarse en una fórmula tan deficiente. Pero para profundizar en el análisis se pueden señalar otras muchas deficiencias, entre ellas está que el índice de Frank pone en relación dos variables cuyo comportamiento a lo largo del tiempo es muy distino. Por un lado, la presión fiscal de un país suele mantenerse bastante estable a lo largo del tiempo (sobre todo en países europeos que cuentan con sistemas tributarios implantados desde hace muchas décadas), tal y como reflejan los datos. En cambio, la renta per cápita de un país crece más rapidamente a lo largo del tiempo que los ingresos fiscales sobre el PIB, de tal forma que a medida que pasaran los años el índice de Frank se iría reduciendo progresivamente. Así analizando la evolución histórica de este índice, reflejaría con ella una disminución paulatina del esfuerzo que les supone a los ciudadanos pagar impuestos, cosa que desde luego no ocurre. A lo sumo, la única conclusión que se puede medianamente intuir es que un país con menos renta tendrá típicamente un índice de Frank mayor. Incluso si insistimos en decir que esto significa que está realizando un esfuerzo fiscal mayor, esto no significa que tenga demasiados impuestos comparándolo con los demás. Significa que llega más tarde a los niveles de renta que tienen los demás.

Finalmente, suponiendo que la hipótesis en la que basa su razón de ser el índice de Frank es cierta, que el pago en impuestos de la misma proporción sobre los ingresos suponen un esfuerzo menor a quien tiene unos niveles de ingresos altos que alguien que tiene unos ingresos bajos, es absurdo dividir la presión fiscal entre la renta per cápita a día de hoy. ¿El motivo? Las investigaciones económicas muestran que el logaritmo del PIB de los países esta muchísimo más correlacionado que la renta per cápita de estos, con los niveles de felicidad, satisfacción o utilidad derivados de ir teniendo cada vez una renta mayor. Pero claro, si hiciéramos un índice de esas características volvería a salir que en España el esfuerzo fiscal es inferior al de los países de nuestro entorno y claro eso no interesa a quienes hacen “estudios” en los que no se pretende analizar la realidad sino buscar confirmar prejuicios ideológicos, y para ello, como en este caso no hay que usar las mejores variables sino aquellas que nos van a dar el resultado que andamos buscando. Otra forma de representar, por definición, con más realismo la forma de reflejar la carga impositiva soportada realmente por los ciudadanos, sería incorporando al índice de Frank el peso de la economía sumergida. Esto es, todas las actividades productivas en la sombra y que no están sometidas a tributación alguna, con la economía sumergida el supuesto esfuerzo fiscal español mal medido con el índice de Frank sería el siguiente (Datos de Eurostat, y los de economía sumergida de las investigaciones de Friedrich Schneider).

esfuerzo fiscal economis sumergida

Puestos a recurrir a un índice tan defectuoso como el de Frank para medir el esfuerzo fiscal hubiera sido mejor hacerlo de esta forma. Pero claro, se observa que de esta forma el esfuerzo fiscal en España es inferior al de la media de la eurozona. Una conclusión que para los que buscan encajar a martillazos la realidad con sus prejuicios, en lugar de comprobar si empíricamente las hipótesis se verifican, al parecer no es admisible. Si queremos darle otra vuelta de tuerca podemos dividir la presión fiscal teniendo en cuenta la economía sumergida entre la renta per cápita en términos de Paridad de Poder Adquisitivo*, para hacer más correcta la comparación entre distintos países. Pero una vez más saldrá que el esfuerzo fiscal en España es inferior al de la media de la eurozona. (Ver imagen).

esfuerzofiscaesppa

En cualquier caso, estos análisis pese a que siguiendo la filosofía del índice de Frank serían mas representativos de la realidad. Al igual que el índice de Frank original presenta las mismas deficiencias y su misma poca capacidad de interpretación. Simplemente se han añadido para hacer ver como no sólo el índice utilizado sino el enfoque que se le ha dado ha sido hecho para que de una conclusión interesada.

En resumen, si alguien dice que la presión fiscal (con todas las imperfecciones que tiene, que las hay) es un indicador peor que el esfuerzo fiscal, simple y llanamente miente o no sabe de lo que está hablando. Por otro lado, hay que hacer un inciso la baja presión fiscal de España en comparación con otros países de su entorno ha sido usado (especialmente por el actual Gobierno) como la excusa para justificar en los últimos tiempos subidas de impuestos, como si la subida de las cargas tributarias fuera la única vía posible de subir la recaudación. Una premisa que es del todo falsa, otra formas de subir la recaudación tributaria es elaborando unos sistemas impositivos más eficientes en los que el abanico de supuestos jurídico que permiten reducciones y deducciones sea menor y no reduzcan tanto las bases liquidables, tal y como se señala en el Informe Mirrlees, un ejemplo claro es Italia que posee una estructura impositiva muy similar a la de España y unos niveles de economía sumergida también muy similares, pero que aun así recauda 10,7 puntos porcentuales más de PIB en impuestos.

*Por Paridad de Poder Adquisitivo se entiende a la expresión de una magnitud económica en términos tales en los que se corrige el efecto distorsionador provocado por los tipos de cambio entre distintas monedas y niveles de inflación entre países, y mide en la práctica lo que se podría comprar si existiera una sola divisa mundial. Así, por ejemplo, con mil dólares un chino puede adquirir muchos más bienes y servicios en Pekín que en Washington. Así pues con la Paridad de Poder Adquisitivo favorece unas mejores comparaciones internacionales al señalar la capacidad de compra de cada lugar.

Detector de gilipolleces (falacias no formales) a por la cuarta entrega

En esta nueva entrega del detector de gilipolleces, se analizan la falacia del falso dilema, causalidad aparente, accidente y alegato especial. Estas son menos frecuentes que las anteriores, pero también es posible encontrarse con alguno de estos tipos en una conversación.

Falacia del falso dilema

La falacia del falso dilema o falsa dicotomía es una de las que con mayor recurrencia podemos encontrar en una discusión. Básicamente, consiste en presentar una disyuntiva en la que sólo es posible escoger entre dos opciones, cuando en realidad hay más alternativas que no están siendo consideradas, o bien, se plantean dos opciones en las que se presupone una incompatibilidad entre ambas cuando no tiene por qué ser así.

Ejemplos.

“O estás conmigo o estás contra mí”. Tengo la opción de no posicionarme a favor de ninguna de las dos partes si así lo quiero, por mucho que a alguien le pueda (ilógicamente) molestar.

“Los países del área euro deben aplicar reformas estructurales y austeridad o abandonar la zona monetaria”. Otro falso dilema (aunque esté actualmente impuesto por la fuerza por Alemania, principalmente), cabría la posibilidad de que desde Europa se hubiera optado por una salida de la crisis menos traumática y más efectiva, emulando lo que han hecho Reino Unido y EE.UU. con políticas monetarias expansivas, en las que se hubieran creado eurobonos y el BCE hubiera comprado esa deuda en el mercado secundario.

“O potenciamos el desarrollo de la industria, pese a lo que deteriore el medioambiente. O nos dedicamos a proteger la naturaleza renunciando al progreso que nos daría la industria”. Aquí se pone una relación de exclusión entre dos opciones que no tiene por qué darse necesariamente. Hay sectores como las de las renovables que aúnan desarrollo industrial y respeto al medio ambiente. También cabe la posibilidad de crear un sector manufacturero y a la par poner controles de contaminación y un sistema de multas a las empresas que dañen el medio ambiente, que sea ejemplarizante y disuasorio.

Falacia de la causalidad aparente

“Cum hoc ergo Procter hoc” (Correlación no implica causalidad). Esta es probablemente de las falacias no formales que más nos podremos encontrar en un medio de comunicación en las que pretende dar una información avalándose en un estudio estadístico. Suelen ser de la forma, “un estudio afirma que cuanto más se da A, más sucede B”. En ellos se indican básicamente que lo que dice A es lo que provoca que ocurra B, o, lo que es lo mismo, que B es consecuencia de A. Normalmente, cuando uno se lee esas noticias, acaba dándose cuenta de que lo que hay es una correlación entre A y B (vamos, una relación entre esos dos sucesos), pero, en principio, sin ningún indicio de que sea uno de ellos, A en este caso, el que provoca el otro, B.

Básicamente se cogen datos entre dos series de datos y con ellas se calcula lo que se conoce como coeficiente de correlación que es una forma de medir la fuerza de la vinculación estadística entre dos series de datos. El coeficiente toma valores comprendidos ente -1 y 1 y cuanto mas cercano a 1 indicara que hay una fuerte relación directa entre esas dos variables y si toma valores cercanos a -1 señala que la vinculación es inversa y elevada, pero en sentido estadístico. Ahora bien, la fuerte relación estadística no entraña relaciones de causalidad sino muchas veces casualidad.

Ejemplo de variables fuertemente correlacionadas entre sí pero que una no provoca a la otra figuran por ejemplo el numero de ataques de piratas y la subida de la temperatura global. La cantidad de usuarios griegos de Facebook y la subida de la rentabilidad de su bono a 10 años. El número de nacimiento prematuros y el precio de la vivienda o la cantidad de montañas que hay en un territorio y la tasa de criminalidad. En todos esos casos, se muestra una fuerte correlación estadística. Sin embargo, obviamente lo uno no implica lo otro. Así pues, señalar una relación de causalidad apelando sólo a una correlación estadística y sin aportar más datos es incurrir en una falacia al eludir la carga de la prueba de lo que se pretende demostrar. (ver imagen)

correlación no es causalidad

Falacia del accidente

Esta falacia se da cuando se hace pasar un atributo o característica de la apariencia de una cosa como parte de su esencia. En este sentido, conviene señalar previamente que es la apariencia y la esencia de algo. La esencia de algo es el conjunto de rasgos o atributos que definen el concepto objetivo de esa cosa. Por su parte, la apariencia de algo lo conforman el conjunto de caracteres accesorios que forman parte de algo pero que si son cambiados no cambian la esencia de ese algo. Por ejemplo, un triángulo pintado de verde, seguirá siendo un triángulo si en vez de color verde se pinta de color azul (el color formaría parte de su apariencia). En cambio, si queremos dibujar un triángulo con cuatro lados en vez de tres, ahí si que estaríamos alterando su esencia, ya que al hacerlo así eso ya no sería un triángulo (un polígono de tres lados) sino un cuadrilátero (el número de lados si forma parte de la esencia de un triángulo). Principalmente, los tópicos son los ejemplos más cotidianos que podemos ver de falacias de este tipo.

Ejemplos.

“Los gays son amanerados” Un gay es una persona del sexo masculino que sexualmente le atraen otros hombres. Que sea amanerado o no, no afecta en que sea gay o no ya que hay gays que no son amanerados.

“Los españoles saben bailar flamenco”. Por español se considera a toda persona que tenga la nacionalidad española, el que a alguien se le de esa nacionalidad no implica que por ciencia infusa ya sepa baliar flamenco. Es otro ejemplo de tópico o de falacia del accidente.

“El libremercado asegura la asignación más eficiente de recursos”. El libremercado es un sistema económico en el que la cantidad y el precio al que se intercambian unos bienes es acordado entre compradores y vendedores siguiendo las leyes de la oferta y la demanda. Que en muchos casos logra la asignación más eficiente de recursos es cierto, sin embargo hay excepciones en las que el mercado libre no lo logra. Son los llamados fallos del mercado, como la existencia de bienes públicos, externalidades o asimetrías de información que hacen que sea necesaria la intervención o regulación para lograr una asignación más eficiente.

Falacia del alegato especial

Si alguien impone una condición para poder discutir un tema, está apelando a la falacia del alegato especial. La idea que subyace en esto es presumir que para entender y poder discutir sobre un determinado tema se necesita una visión, un conocimiento o sensibilidad única que solo la tiene cierto grupo. Es un intento de hacer no falsable una creencia, o que sea imposible demostrar que sea falsa. Hay que tener en cuenta que dentro de la libertad de expresión se puede opinar sobre cualquier cosa, (lo ideal sería opinar solo de aquello sobre lo que se tiene conocimiento de la materia, pero bueno decir estupideces se enmarca dentro de este derecho al igual que el hacer notar que se ha dicho una tontería, si fuera el caso). Por otro lado, cualquier afirmación que sea mensurable o comprobable, puede ser juzgada desde el punto de vista lógico y científico aunque sea de índole filosófica o científica.

Ejemplos.

“Si no votas, luego no te quejes del gobierno”. Si un gobierno haces las cosas mal, no va a ser menos cierta la afirmación que señale ese hecho una persona que votó en las elecciones a una que no lo hizo.

“Si no eres cristiano, no puedes juzgar la moralidad de la Biblia o la existencia de Dios”. Las religiones pueden ser estudiadas perfectamente por personas no religiosas, básicamente porque su impacto en la humanidad afecta a la sociedad, la cultura y la política en los territorios. No hace falta ser creyente de una determinada confesión para poder opinar de ella.