Economía: ¿ciencia o pseudociencia? Parte I

ecociencia

El pasado 12 de enero la Fundación Española de Ciencia y Tecnología (Fecyt) publicó su informe “Percepción Social de la Ciencia y la Tecnología en 2014” basado en la séptima encuesta de percepción social de la ciencia y tecnología en España 2014. Entre las múltiples cosas que aparecieron en ese estudio figuraron que una pseudociencia como la homeopatía es una disciplina considerada más científica por parte de la sociedad que la Economía o que la Historia. Más concretamente, a los encuestados se les pidió que puntuaran del 1 al 5 el grado de “cientificidad” que le conferían a cada disciplina, siendo 1 si consideran esa disciplina nada científica y el 5 si la consideran muy científica. La puntuación promedio que obtuvo tanto Economía como Historia fue de 2,7 puntos frente al 2,9 que obtuvo la homeopatía quedando además empatadas con otra pseudociencia como es la acupuntura.

La percepción de la Economía como una pseudociencia es algo bastante frecuente y desde el ámbito del mismo escepticismo hay diversos autores que así la consideran. Por citar algún ejemplo concreto, el físico y epistemólogo argentino Mario Bunge incluye a la Economía (más concretamente a la economía neoclásica) en su obra “Las pseudociencias ¡vaya timo!”, como una pseudociencia. Libro que por otra parte recomiendo encarecidamente su lectura como el resto de obras de este autor.

La cuestión que toca abordar a continuación es si la Economía es una ciencia o una pseudociencia. Para ello previamente toca establecer una demarcación entre lo que constituye ciencia de lo que no lo es.

Ciencia y método científico

Empecemos por definir que es ciencia, si recurrimos a una de las acepciones de ciencia comúnmente más usadas tenemos que es el conocimiento racional, sistemático, exacto, verificable y falible sobre la realidad. Nos encontramos con una definición cargada de adjetivos que puede resultar un tanto ambigua a la par que confusa. El objetivo de la ciencia es obtener conocimiento acerca del mundo que nos rodea. Por tanto, toda disciplina que se considere ciencia deberá incorporar un conjunto de técnicas ordenadas siguiendo un método que permitan obtener dicho conocimiento.

Ese método existe y es común al de todas las disciplinas que se les considera ciencia, se trata del método científico. De esta forma, se puede afirmar que la ciencia es toda aquella actividad resultante de aplicar el método científico, así como al cúmulo de conocimientos obtenidos mediante su uso.

El siguiente paso es, por tanto, definir que es el método científico. De forma esquemática este método consiste en: formular hipótesis, buscar datos acerca de si se cumplen o no esas hipótesis, para finalmente verificar o rechazar la hipótesis en base a los datos y la información recabada. Sin embargo, este esquema no permite vislumbrar cuál es la filosofía que subyace en el método científico y por qué epistemológicamente es el mejor método demostrado a día de hoy para obtener conocimiento. La filosofía del método científico es la minimización del error, esto es, quien usa el método científico asume de antemano que va a obtener una conclusión errónea o no completamente verdadera de la realidad.

Es por ello que con el fin de conseguir reducir al máximo ese error el investigador de la materia pertinente asume una lista de cuidados que permita obtener las conclusiones más veraces dentro del mínimo margen de equivocación. Así pues, se puede establecer una analogía entre el científico e investigador que intenta desentrañar algún aspecto de la realidad y un detective que busca descubrir al autor de un crimen empleando todos los cuidados posibles y pruebas para desenmascararlo.

Entre esos cuidados figuran los siguientes:

• Utilizar la experimentación siempre que se pueda.

• Definir la hipótesis lo mejor posible, dejando claro que implica y que no. Si la hipótesis puede definirse empleando la lógica y las matemáticas mucho mejor.

• Búsqueda datos de manera sistemática e insesgada (no vale con quedarme solo con los datos que aparentemente refuerzan mi hipótesis también hay que incorporar los datos que parecen refutarla) para comprobar si la hipótesis modelizada es cierta o no. Ojo incluso la hipótesis más correcta y autoevidente desde un punto de vista lógico puede resultar falta al confrontarse con la realidad.

• Úsense los instrumentos adecuados y más precisos para analizar los datos y las observaciones. Conviene no inventarse demasiadas conclusiones sobre los datos sino ver las conclusiones que razonablemente se puede obtener de ellos.

• En muchas disciplinas (en especial aquellas en el que el objeto de estudio es el ser humano) es de gran utilidad la aplicación de poblaciones control y del ciego, doble ciego y hasta triple ciego. Para explicar en qué consiste miremos el caso de la medicina. El ciego es cuando al sujeto del experimento no sabe si le han dado un medicamento o bien un placebo. El doble ciego se da cuando no solo el sujeto del experimento desconoce si le han dado un medicamento o un placebo, sino también el investigador que les administra el medicamento tampoco sabe a quien le ha dado el medicamento y a quien el placebo. En el triple ciego tanto el sujeto sometido a experimentación, como el investigador que administra los medicamentos y el estadístico que interpreta los datos desconocen la información (de antemano) de a quien le han dado el medicamento y a quien el placebo.

• Una vez publicada una investigación sométase a la revisión por pares (que otros expertos en la misma materia que el investigador está analizando, manifiesten sus críticas y correcciones al trabajo presentado). Que el trabajo sea presentado en congresos y seminarios por expertos en la misma materia, también favorece a la labor científica que las investigaciones sean presentadas en revistas JCR para que evalúen de forma anónima dichos resultados. También es una muestra de buena actitud científica que el investigador informe de las observaciones y de los experimentos y que dé detalles suficientes para que terceros investigadores repliquen la investigación y comprueben si obtienen o no los mismos resultados.

• Ponderar hipótesis alternativas, ya que si un resultado contradice a otros bien asentados, probablemente es que la hipótesis principal no es del todo correcta o es completamente falsa.

Esta lista de cuidados no está ni cerrada ni completa, en contra de lo que se cree el método científico no es algo estático ni que ha permanecido invariante a lo largo del tiempo. Si alguien demuestra que hay un cuidado más que permite minimizar el error en una investigación, este tarde o temprano se añade al método científico. Por otro lado, no en todas las disciplinas es posible y/o necesario aplicar todos los cuidados. Por ejemplo, la aplicación del doble o triple ciego no tiene mucho sentido en la Física o en la Química. En las ciencias sociales a veces no es posible experimentar todo lo que se gustaría, (aunque veremos que poco a poco se van dando avances en ello), mientras que en las ciencias naturales la experimentación se da en la mayoría de los casos.

¿Es la Economía una ciencia, o no?

Una vez tratado de exponer que es la ciencia y el método científico toca comprobar si la Economía se ajusta o no a este esquema para dilucidar si es o no una ciencia. En primera instancia hay que señalar que dentro de la economía es mayoritario el número de investigadores y académicos de la disciplina que se adscribe a la idea de aplicar el método científico y emplear el mayor cuidado posible en la elaboración de los estudios. Se promueve la revisión por pares, esto es, se aceptan que otros investigadores económicos critiquen los estudios, señalen las carencias y se propongan aspectos a mejorar dentro de la investigación.

Las revistas académicas y científicas en Economía se rigen por principios similares que las de Física. En ellas, los trabajos teóricos se publican si muestran coherencia y si suponen un avance de ser ciertos. No se aceptan hasta que no estén avalados por más estudios, entre ellos los empíricos que los validen. Hay, en cada época, ideas dominantes o corrientes de pensamiento hegemónicas, pero ninguna revista está cerrada a otras ideas mientras sean prometedoras y se expresen con suficiente rigor como para poder ser confrontadas. En las mejores revistas se han publicado ideas económicas de economistas de muy distintas escuelas, porque el hecho de que un economista pertenezca o no a una determinada escuela no es impedimento de que publique en ella o no, si no del rigor aplicado en su trabajo y de la actitud que manifieste el autor a facilitar los datos que ha obtenido, a someterse a una revisión por pares y a que terceros investigadores repliquen su investigación para comprobar que las conclusiones obtenidas se corresponden a la información recabada.

Como en otras ciencias, los economistas no aceptan porque sí el estado de la disciplina, las nuevas generaciones proponen nuevos modelos, nuevos métodos, recaban más datos y, a veces, cambian la manera en la que se entendía un problema económico. Un vistazo a la evolución del pensamiento económico respecto a los ciclos económicos es un ejemplo de cómo ha ido avanzando el conocimiento en la economía. (esta parte si la quiere ver ampliada el lector está sacada de aquí y de aquí de unas entradas desarrolladas por Manuel Alejandro Hidalgo.)

Antes del crack del 29, el paradigma económico sostenía que los mercados siempre estaban en equilibrio, por lo que era imposible considerar un ciclo económico más allá de un movimiento de la producción y del empleo ajustándose óptimamente a las nuevas condiciones económicas. En este sentido, y dado que los precios y salarios se ajustan automáticamente para vaciar los mercados, el desempleo solo era posible si era voluntario. Además, el hecho de que los mercados fueran eficientes y capaces de autorregularse, permitía suponer que cualquier intromisión en ellos por parte de un Estado era -cuando menos- causa de ineficiencia. Sin embargo, ¿cómo era posible que en 1933, y después de cuatro años de depresión los mercados no se hubieran ajustado? Era evidente que más de un 20% de desempleo no era voluntario. Keynes, y su Teoría General vinieron a decir que los mercados podían permanecer durante un tiempo prolongado en situación de desequilibrio. En su modo de entender la economía, Keynes consideraba que un mercado que se vacía, es decir, cuyos precios son el producto del equilibrio entre oferta y demanda, era un caso particular de lo que podemos observar en la realidad. En consecuencia, el estado natural de los mercados era de permanente desequilibrio a la búsqueda del deseado equilibrio. Surgía la primera visión moderna de los ciclos económicos. En consecuencia, como una economía podía por ejemplo permanecer en recesión durante un tiempo más o menos amplio, se justificaba la intervención del estado para restaurarlo cuanto antes. Se argumentaba que, dada la lentitud de ajustes de los mercados, en el largo plazo los costes de un ciclo contrario serían elevados, justificando su corrección inmediata.

El mainstream (corriente de pensamiento dominante) en la economía tomó el paradigma keynesiano y condenó al ostracismo al paradigma clásico hasta la década de los 70 y de los 80. En ese momento la Macroeconomía se enfrentó al reto de explicar las causas y consecuencias de la crisis del petróleo y más importante aún, buscar la solución a ella. El paradigma keynesiano dominante hasta entonces demostró ser incapaz de poder solventar una crisis en la que se daba una situación que dentro del mismo se consideraba imposible. Una situación simultánea de altos niveles de paro e inflación.

El contrataque de los economistas clásicos, ahora refundados en la escuela neoclásica vino en primer lugar en 1973 con la Crítica de Robert Lucas quien expresó la necesidad de modificar los modelos macroeconómicos para que recogieran las expectativas de los agentes como un elemento más. Lucas argumentó que al existir tales expectativas, los agentes adelantaban las consecuencias de las políticas económicas, y en consecuencia hacía imposible de usar los tradicionales modelos macroeconómicos estructurales. Al crearse estas expectativas en el ámbito del individuo, exige que los nuevos modelos macroeconómicos se basen en fundamentos microeconómicos. En base a la Crítica de Lucas, se construyeron los modelos de ciclos reales (RBC, por sus siglas en inglés) estos modelos se basan en la existencia de expectativas racionales de los agentes. Sus acciones se basan en el análisis de cómo los agentes esperan el futuro y cómo les afectará, condicionando tanto el consumo como las horas de trabajo que los individuos ofrecen al mercado. En particular, estas expectativas son óptimas y “racionales” es decir, no se cometen errores al crearlas. Además, se supone que los precios y salarios se ajustan de un modo flexible, por lo que shocks de demanda y monetarios no generan cambios, siendo todo cambio motivado únicamente por los shocks de oferta (tecnológicos).

Los RBC han tenido una difusión extraordinaria, aportando además a la nueva macroeconomía varios elementos hoy imprescindibles: los nuevos modelos macroeconómicos tienen su base en los RBC y el análisis de política económica se fundamentan en este nuevo modo de entender la macroeconomía. Sin embargo, estos modelos tenían y tienen importantes debilidades. El hecho de que sólo los shocks tecnológicos generen ciclos económicos es una de las mayores críticas que se hizo a los modelos RBC desde el inicio, pues no hay evidencia de que tales shocks adquieran tal protagonismo. En segundo lugar, al suponer que el desempleo es consecuencia de un ajuste en las preferencias de los trabajadores y no de una caída de la demanda de empleo por parte de las empresas, se aleja de la realidad. En tercer lugar, los RBC consideran el dinero neutral y los precios y salarios perfectamente flexibles. Dado que los datos y la evidencia muestran que en el corto y medio plazo esto no es así, rápidamente surgieron nuevos modelos que integraban tanto rigidez en los precios como el dinero en el análisis de los ciclos económicos y que consideraban la posibilidad de nuevos tipos de shocks, como los de demanda.

Fruto de esas fuertes inconsistencias los modelos de la escuela neoclásica tuvieron contestación por los neokeynesianos a través los nuevos modelos keynesianos (NKM por sus siglas en inglés). Estos modelos planteaban ciertas diferencias notables respecto a los RBC. En primer lugar, se supone que los precios, y salarios entre ellos, no se ajustan automáticamente. Esta hipótesis tiene dos consecuencias. Una primera implica que va a existir una relación inversa entre cambios en los precios y en la producción. Un shock de demanda que eleve ésta sobre un nivel previo sin ajuste rápido de precios generará un aumento de la producción pero también, un aumento de la inflación. En segundo lugar, y asociado a lo anterior, los modelos NKM resuelven el problema del ajuste de precios mediante la introducción de la hipótesis de Calvo, según la cual en cada período sólo un porcentaje de empresas pueden modificar sus precios ante un cambio en las condiciones económicas. Una de las implicaciones más sorprendente de esta hipótesis es que la inflación actual va a depender tanto de la brecha respecto al producto potencial como de la inflación esperada. Surge así la llamada New Keynesian Phillips Curve (NKPC). Y en tercer lugar, la relación inversa entre brecha sobre el producto potencial e inflación es la herramienta que utilizan los bancos centrales para estabilizar la economía, siendo el modo en cómo este organismo se introduce en los NKM. Su actuación se formaliza a partir de una función de reacción del tipo de interés, Regla de Taylor, y según la cuál el tipo de interés, verdadero instrumento de política de los bancos centrales, se determina en función de la desviación de la inflación de un nivel de objetivo y de la brecha sobre el producto potencial. Las preferencias del Banco Central se introduce también en el modelo, bajo la hipótesis de que éstos desean reducir de forma conjunta tanto la variabilidad de la brecha sobre el producto potencial como de la inflación.

Durante década y media los RBC y los NKM compitieron entre sí por ver cuál de los dos tipos de modelos describían mejor los procesos que inician y determina los ciclos económicos demostrándose que los NKM  resultaron mejores que los RBC, es por ello que los primeros fueron los que más se utilizaron y se utilizan por parte de los Bancos Centrales en su evaluación de la política económica. No obstante, en los últimos tiempos se ha dado cierta confluencia entre los NKM y los RBC hacia los modelos de equilibrio general dinámico estocástico (DGSE, por sus siglas en inglés), que son ahora mismo los más utilizados por las autoridades económicas para evaluar el impacto tanto de la política monetaria como fiscal, y el crecimiento económico.

Como se puede observar, en solo este ejemplo la Economía ha ido evolucionando y sumando conocimientos de forma sistemática como una ciencia. Por poner un ejemplo clave, basta comparar la gestión que se hizo de la crisis del 29 “Gran Depresión” con la crisis económica que empezó en 2007 “Gran Recesión”. En ambos casos las crisis tenían prácticamente el mismo potencial destructivo y sin embargo hay notables diferencias en los efectos devastadores de una y otra. Por ejemplo, en la crisis del 29, siguiendo el paradigma económico del momento asentado en el conocimiento económico de entonces la tasa de paro llegó en EE.UU. hasta el 25,59% en mayo de 1933, mientras que en la crisis de 2007 interviniendo las autoridades económicas tanto en política fiscal como monetaria, consiguieron que la tasa de de paro más alta fuera del 10% en octubre de 2009, menos de la mitad. Mas datos comparativos, con la crisis de los años 30 al Dow Jones le costó 26 años para volver a los niveles previos al crack del 29 (sin contar la inflación) en la Gran Recesión el mismo índice bursátil tardó sólo dos años en recuperar los niveles previos a la quiebra de Lehman Brothers.

Ha habido avances en el entendimiento de la Economía. Se han dado pasos en la recopilación de datos, se han elaborado mejores técnicas econométricas y se cotejan unas con otras para ver cuales se muestran más efectivas, se han aprovechado los avances informáticos para realizar mejores simulaciones del comportamiento de la economía (fuera de los tiempos de crisis, en que por definición los parámetros de los modelos cambian demasiado). Se han incorporado nuevas técnicas para medir con mayor precisión las decisiones que toman los agentes en la economía, como la teoría de juegos, o la reciente  y prometedora rama de la economía del comportamiento, y en los últimos tiempos se está dando avances en la economía experimental, en donde algunas investigaciones incluso ya son publicadas no solo por revistas económicas sino por revistas científica del más alto nivel.

¿Qué queda mucho camino por andar? Desde luego. Una de las críticas más recurrentes hacia la Economía que se usa para tildarla de pseudociencia es que fracasa estrepitosamente a la hora de predecir las crisis. Si bien es cierto que cualquiera que coja el manual de economía verá que en ningún momento se señala que a partir del conocimiento que se puede obtener analizando la economía se pueda predecir tal cosa. La causa es que por lo que sabemos de la economía (al menos en lo que respecta a la economía de mercado), es casi imposible hacer un pronóstico completamente fiable de cuándo será la próxima crisis y cuál será su intensidad. Dado que la economía no deja de ser un juego de incentivos, en el hipotético caso de que se hiciera una previsión completamente certera de que dentro de dos años habrá una crisis, en el momento en que se conociera tal revelación la caída de las expectativas de consumo e inversión de familias y empresas precipitarían que la crisis empezara en ese mismo instante. Con lo que la adivinación de que la crisis iba a comenzar en dos años quedaría en entredicho. Toda una paradoja.

Pero al margen de todo eso, hay avance, hay ideas que quedan obsoletas o que se mejoran, hay un continuo interés en cotejar los modelos con la realidad, hay errores y hay un sistema de confrontación de ideas para intentar corregirlos. En definitiva, hay ciencia.

Para finalizar este post una recomendación literaria que -además de interesante para ahondar sobre el tema- es justo citar ya que ha inspirado en buena medida este texto. “Economía y pseudociencia” de José Luis Ferreira.

Nota: En esta entrada se ha tratado de argumentar las razones que avalan para considerar la Economía como ciencia. En otra posterior, se analizarán ciertos fenómenos que se están dando ahora mismo que desde luego no contribuyen a que la Economía se la considere una ciencia.

Copyright, el timo basado en el mito de que somos dueños de nuestras ideas

nikola_tesla_vs_thomas_a_edison_2014-08-17

Una de las máximas que defienden organismos como la SGAE (Sociedad General de Autores y Editores) es que no podemos aprovecharnos del trabajo de los demás sin su conocimiento, ni poner en cuestión que cada autor es dueño de sus ideas, es por ello que esta institución justifica su existencia como una suerte de salvaguarda de la propiedad y el monopolio intelectual y en última instancias de figuras como el copyright. ¿Pero es realmente cierto esto? ¿Tiene sentido esta frase? Y lo que es más importante, ¿se sustenta en algo que no sea solamente una posición ideológica? Empecemos primero analizando la argumentación de la SGAE.

“No podemos aprovecharnos del trabajo de los demás sin su conocimiento”. Totalmente incorrecto, nadie puede impedirnos aprovecharnos del trabajo de los demás. De hecho, es algo que se hace de forma bastante frecuente, sin que ello entrañe nada delictivo. Por ejemplo, el investigador que recurre a bibliografía, documentación o investigaciones elaboradas por otras personas que han publicado sobre el tema a tratar anteriormente, y a quienes no hay que pedirles permiso para poder usar los datos que hay en ellos; o bien las persona que adquieren una novela y esta le sirve de inspiración literaria para una obra que luego ellos quieran realizar.

“Ni poner en cuestión que somos dueños de nuestras ideas”. ¿Podemos ser dueños de nuestras ideas en el sentido de ser sus propietarios? Imposible. Tener la propiedad de algo implica la capacidad de poder disponer de aquello sobre lo cual se es propietario y decidir si alguien más puede ser usufructuario de ello. Por ejemplo, si me compro un coche adquiero la propiedad de éste, es decir, poder ser yo únicamente quien lo use o en caso de que lo quiera usar otra persona sea -sí y solo sí- yo decidiera prestárselo.

La concepción de la propiedad no es extrapolable a las ideas ya que somos autores de las ideas que creamos y somos dueños de ellas mientras no se las comuniquemos a alguien y ese alguien la entienda o la tenga descrita de una manera que pueda ser entendida por alguien más. Pitágoras no es dueño del teorema de Pitágoras, ni Beethoven lo es de sus sinfonías, ni Ken Follet de cada una de las frases, párrafos o capítulos sus libros. No hay forma de apropiarse de una idea, y esa imposibilidad hace que la extrapolación del concepto de propiedad de un bien material a uno inmaterial sea absurda. Estas personas son (o fueron) autores de las ideas y, como tales, merecen ser reconocidos, pero les resultaría imposible impedir a alguien que ha entendido sus ideas puedan disponer de ellas pensando y reflexionado sobre ellas y que a partir de ellas generen las suyas propias o les dé pie a inspirarse y generar nuevas obras intelectuales.

Pese a ello, se aplica del concepto de propiedad sobre bienes inmateriales, esto es el copyright o el derecho de autor, según el cual a quien tuviera una idea y la patentara se le concede el monopolio de ésta y cualquier otro que pretenda usarla solo puede hacerlo a cambio de pagar unos cánones al autor. Sobre la existencia de la propiedad intelectual, como en casi todo, hay argumentos a favor y en contra de su existencia los cuales pueden ser contrastados con la empiria para ver cuál de ellos se corresponde con la realidad.

El argumento a favor señala lo siguiente: La propiedad intelectual y la protección de los derechos de autor favorece la creación de obras puesto que el autor ve los beneficios derivados de la venta de copias de su trabajo o bien si inventa algo nuevo, los beneficios económicos que dan las patentes son una jugosa tentación para crear algo nuevo. La difusión se restringe a las copias hechas por el titular de los derechos de autor, cuyo monopolio se defiende como un mal menor que pagar para que la creación de la obra sea posible.

La tesis contraria al copyright dice que no es imprescindible la figura de los derechos de autor para que haya creación intelectual ni aumentarla porque la ventaja de ser el primero y el original, unido a la mayor exposición de la obra, es un incentivo más que suficiente para crear contenidos nuevos. Aún más, puede escribirse un modelo en el que la concesión del monopolio sobre la obra suponga un escollo para la creación intelectual. No son pocas las obras intelectuales que necesiten de material anterior que, según las protecciones actuales de los derechos de autor, no pueden ser accesible mi usarse fácilmente entorpeciendo así la aparición de nuevos contenidos intelectuales.

Tenemos una vez más delante dos hipótesis correctas desde la lógica y que se contradicen la una con la otra. ¿Con cuál quedarnos? Pues depende. Quien quiera hacer una defensa únicamente ideológica de una de las posturas lo tiene fácil, se queda con aquella que mejor le suene a sus oídos y ya está. Quien quiera tomar una postura sustentada en la evidencia empírica lo tiene más complicado. Le tocará hacer una investigación por su cuenta para ver que le dice la realidad, o bien, deberá de indagar en investigaciones ya hechas sobre eso y cuya validez haya sido contrastada. Una vez hecho eso, en función de lo que nos digan, escoger la hipótesis que parece salir verificada, aunque pueda contradecir lo que nuestros sesgos ideológicos nos digan.

Si echamos un vistazo a la mayoría de estudios académicos sobre este asunto, concluyen que la creación no depende en ninguna medida de los derechos de autor y que existen otros beneficios y motivaciones que hacen de tractores para hacer una actividad creadora. Además, la difusión de la obra se ve claramente mermada con la restricción a la copia privada. Veamos los estudios que han tenido mayor impacto y cuál ha sido su evolución histórica.

La investigación del asunto

En 1934 empezó una ola de investigaciones con este estudio de Arnold Plant publicado en la revista “Economica” en el que observó que durante el siglo XIX en los EEUU uno podía copiar y reproducir legalmente los libros de autores de Reino Unido y pese a ello sus editores en los EEUU hacían suficiente negocio como para permitirse pagar a los autores con sustanciosas pagas. Tras esta investigación vino un silencio en este campo, que duró hasta los años 80. Durante ese lapso de 50 años, los estudios que se hicieron apenas pasaron de las formalizaciones o modelizaciones teóricas para defender la necesidad de crear figuras jurídicas que reconozcan los derechos de autor. Sin embargo, los modelos planteados no iban más allá de la corrección lógica, en ningún caso sometieron a una contrastación empírica seria las hipótesis en ellos planteadas.

Entre los últimos modelos teóricos de ese estilo destacan el de 1984 de Novos y Waldman (donde se plantea la hipótesis de cómo un aumento en la protección de los derechos de autor provoca un incremento del bienestar social al incentivar una mayor creación sin que se vea mermada la difusión) o este de Johnson de un año después. Ese mismo año, 1985, los análisis empíricos sobre esta cuestión volvieron a retomarse y en sus conclusiones, contradecían (en algunos casos de forma parcial, en otros planteaban una enmienda a la totalidad) los análisis teóricos previos. Liebowitz fue de los primeros en publicar un estudio de esta nueva ola. En su análisis, abordó el tema de la propiedad intelectual en el campo de las revistas científicas y encontró que las editoriales podían apropiarse indirectamente de ingresos debidos a usuarios que no compraban directamente la revista y que el uso de las fotocopias no dañaba a la editora de la revista. La mayor visibilidad que obtenía la publicación al ser copiada y difundida era suficiente para compensar a la editorial.

Como a la fuerza ahorcan y los modelos empíricos estaban aportando una serie de conclusiones que venían a corroborar que hay posibilidad de que exista creación intelectual sin la necesidad del poder monopolístico otorgado por los sistemas de derechos de autor y de patentes, empezaron a surgir modelos teóricos que plantearon como la ausencia de copyright no incide en una menor creación de bienes inmateriales e intelectuales. A este respecto destacan los modelos de Michele Boldrin y David Levine y este otro de Henry  y Ponce, por tener algunos ejemplos. Sin embargo, volviendo a lo realmente importante, a los modelos empíricos tenemos a Landes y Posner quienes aportan una evidencia de que el valor esperado de la protección de los derechos de autor es muy bajo. ¿El motivo? Aunque la tasa por registrar una obra es muy baja en los EEUU (en torno a los 20 dólares), pequeñas subidas en la tasa llevan a reducciones reseñables en el número de registros, lo cuál, solo puede ser explicado si los autores ven poca ventaja en ver sus obras registradas.

Ku, Raymond Shih Ray, Sun, Jiayang and Fan y Yiying realizan un análisis estadístico para contrastar la teoría que afirma que incrementar la protección de los derechos de autor repercute en un aumento del número de obras. Los autores analizan las creaciones de artes escénicas, grabaciones musicales, libros y películas, utilizando el número de registros por derechos de autor en EEUU como una aproximación al número de obras producidas. Una vez hecha esta recopilación, corrigen por, situación económica, población y tecnología, encuentran que no hay ninguna relación consistente entre los cambios en las leyes y los registros.

Conclusiones

Dada la evidencia empírica analizada en los estudios, si bien no se puede concluir que la ausencia del copyright suponga un acicate para la producción audiovisual. Lo que no se puede sostener bajo ningún concepto a tenor de los estudios realizados es que el copyright sea un mecanismo imprescindible para garantizar la producción de obras intelectuales. Sin embargo esa forma de monopolio intelectual sigue estando profundamente implantada y en algunos casos dando lugar a situaciones lacerantes, como es el caso de las patentes farmacéuticas con los medicamentos. Al otorgarles las patentes de medicamentos a las empresas farmacéuticas se cercena la posibilidad de que cualquiera pueda copiar la fórmula, fabricarlo y venderlo a un precio más bajo, ya que la empresa que lo copie no tiene que incluir en el precio los costes de amortización de la investigación realizada, con lo que lo puede hacer mucho más barato.

Si bien este tipo de controversias pueden sonarnos lejanas, en España a causa de las leyes en defensa de la propiedad intelectual hemos contemplado situaciones lacerantes. Tal es el caso de numerosos enfermos de Hepatitis C que han tardado en recibir una medicación que estaba a unos precios desorbitados para ellos, unos 60.000 euros. La tesis esgrimida por este y tantos otros casos por las farmacéuticas es: “Sin patentes que garanticen el monopolio sobre lo inventado o descubierto, no hay forma de recuperar el coste de la inversión en hallar medicamentos que curen enfermedades y con lo que no habrá inversión ni dichos medicamentos”. Pero en esa argumentación olvidan que si Suiza es actualmente uno de los mayores centros farmacéuticos del mundo es gracias a que fue uno de los países que más tardaron en reconocer los derechos de patente sobre los medicamentos, así a las farmacéuticas les interesaba instalarse ahí para disfrutar de las ventajas de usar los conocimientos ya generados por las anteriores compañías. A su vez, esto les compensaba por el inconveniente de que sus conocimientos fueran usados por otras.

Así pues en estos casos la respuestas científica y moral caminan de la mano en el asunto de la Hepatitis C, el Gobierno debió haberles expropiado esa licencia del medicamento a esas industria y con ella permitir que otras empresas pudieran copiar y reproducir a precios asequibles dichos medicamentos y garantizar de esta forma su acceso a todos los enfermos. (Y en caso de quienes aún ni con los precios más bajos no se lo pudieran permitir, subvencionarles dichos medicamentos, pero esto último ya es desde mi punto de vista ético y no se basa en pruebas).

Detector de gilipolleces a por la quinta entrega

Sinopsis. Con este nuevo capítulo ya se alcanza la veintena de falacias no formales analizadas en el blog. En esta ocasión nos centraremos en la falacia de la frase ingeniosa, la falacia de la conclusión desmesurada, la falacia de la composición y la falacia de la falacia.

Falacia de la frase célebre

Básicamente esta falacia se construye evocando una frase dicha por un personaje célebre desde el plano cultural (científico, escritor, filósofo…etc) en la que se reproduce literalmente una cita dicha por él, únicamente por lo ingeniosamente que ha sido el formularla y sin pararse en ver si ese enunciado es correcto o no.

Ejemplos.

“La estadística es una ciencia que demuestra que si mi vecino tiene dos coches y yo ninguno, los dos tenemos uno”. George Bernard Shaw.
La frase pronunciada por el escritor irlandés, premio Nobel de literatura en 1925 y del Óscar en 1938, es un ejemplo claro de esta falacia ya que la frase es tan ingeniosa como errónea. Por un lado, lo que él está señalando como la estadística en su totalidad simplemente es una parte de ella. Concretamente, una medida de centralización como es la media aritmética. Así que las limitaciones que él usa para referirse a la estadística únicamente solo son atribuibles al promedio de una distribución. Por otro lado, dentro de la propia estadística se estudian otras medidas, como las medidas de dispersión, que nos permiten estimar cuan representativa puede ser una medida de centralización en una distribución. Si la varianza y la desviación típica de una distribución es alta entonces gracias a la estadística podemos saber que un resultado descrito en la frase de Bernard Shaw es poco representativo de la realidad.

“Hasta que no dejemos de dañar al resto de seres vivos y a nuestro entorno, seguiremos siendo salvajes” Thomas Edison.

Aquí otro ejemplo. El prolífico inventor estadounidense recurre en este caso a una relación aparente como es el salvajismo con el daño a otros seres vivos y a nuestro entorno. En primer lugar si aceptamos la literalidad de la frases, caeríamos en el absurdo de que por el mero hecho de nacer una persona ya estará indefectiblemente condenado a ser un salvaje ya que para poder sobrevivir, ese ser humano se verá obligado a comer, lo que implica tener que dañar a otros seres vivos ya sean animales o vegetales. Por otra parte, para garantizar la existencia suficiente de comida deberá de modificar y dañar su entorno preparando terrenos para la agricultura o la ganadería. También para que haya el progreso de la civilización se verá obligado hasta cierto punto a modificar el entorno en el que vive y en algunos casos dañarlo. Pero precisamente la construcción de la civilización es lo que ayuda a ir poco a poco ir dejando atrás el salvajismo. Por su puesto es deseable que en ese proceso se minimice el impacto negativo sobre el medio ambiente y en la medida en que se encuentre formas de que la humanidad vaya progresando en la creación de su civilización sin que ello afecte al medio ambiente es deseable implementarlas. Pero establecer la relación que hace Edison, por muy ingeniosa que haya sido, no deja de ser falsa.

¿Significa esto que debemos considerar toda frase célebre o ingeniosa como falsa? Para nada. Hay multitud de frases célebres que son ciertas y correctas, pero su corrección es porque la conclusión se sigue de sus premisas o está demostrado que son así y además se expresan con ingenio. Lo que aquí se indica es que por el mero hecho que nos planten una frase ingeniosa que nos sorprenda y nos agrade por su ingenio no nos hemos de dejar cegar por ello, sino analizarla para comprobar si es cierta o no.

Falacia de la conclusión desmesurada o secundum quid

Esta falacia surge cuando a partir de una prueba insuficiente se establece una conclusión general, o lo que es lo mismo, a partir de una serie de datos ciertos establecemos conclusiones que van más allá de lo que ellos nos permiten.
Ejemplos. Ante el hecho real de que en los puestos de dirección hay menor presencia de mujeres que de hombres sacamos la siguiente frase. “Hay pocas mujeres en los puestos directivos. Parece ser que a las mujeres no les atrae la dirección empresarial”. Sacar esa conclusión es falaz en la medida en que se da un olvido de alternativas que pueden explicar ese fenómeno. Por ejemplo, una discriminación de las mujeres para poder acceder a los puestos directivos, o bien, puede que haya el mismo deseo por parte de las mujeres que de los hombre de dirigir empresas pero las dificultades de conciliar maternidad con promoción profesional en la actualidad le obliguen en muchas ocasiones a elegir entre una de las dos alternativas y muchas finalmente opten por la primera.
Otro ejemplo de falacia de conclusión desmesurada la podemos obtener observando la siguiente imagen.

jobs-in-shale-vs-non-shale-states-from-zero-hedge

En ella lo que se hace es incurrir en una subvariante de esta falacia que es la muestra sesgada. En este caso se pretende hacer creer que en EEUU la creación de empleo ha sido por el principalmente por el fracking y no por las medidas de política monetarias y fiscales. El problema es que la fractura hidráulica, por si sola, no explica ni la total creación del empleo en esos estados. Además, no se han incluido (que casualidad) otros Estados en los que el fracking esta asentado pero no se ha dado esa gran creación de empleo como por ejemplo Michigan. Y solo se han introducido los estados de Pensilvania, Colorado, Texas, West Virgina y Dakota del Norte. Finalmente un resultado similar al que se da en ese grafico se obtendría si escogiéramos otras cuatro Estados de U.S.A sin que necesariamente fueran Estados que hayan recurrido al fracking no saldría un resultado muy similar. (Para comprobar las estadísticas oficiales de empleo aquí una fuente oficial que recopila los datos de la Oficina de Estadísticas Laborales).

Falacia de composición

Sucede cuando se extrapola al todo las características de las partes. No se puede trasladar al conjunto las características individuales de cada uno de los integrantes. Dicho de otra forma, como el todo no tiene por qué ser igual a la suma de las partes no es correcto asegurar que si el conjunto está compuesto por partes que tienen cierto atributo o propiedad, el conjunto presentará el mismo atributo o propiedad.

Ejemplos.

“Esta pieza de metal no puede romperse con un martillo. Por lo tanto, la máquina de la cual es parte no puede romperse con un martillo.” Un razonamiento en primer lugar porque no todas las partes que componen la máquina tienen por qué resistir el impacto de un martillo. Pero incluso aunque esa máquina estuviera hecha enteramente por piezas irrompibles para un martillo el razonamiento sería igualmente falso ya que si el martillo, aunque no rompiera, consiguiera separar algunas de las partes que componen la máquina de ésta, ya de por sí la maquina dejaría de funcionar y es como si estuviera rota.

“Cada accionista de Telefónica tiene un ombligo, por lo tanto, Telefónica tiene un ombligo”. Sobre el absurdo de una afirmación así poco se puede decir, es un claro ejemplo que evidencia como por el hecho de que todas las partes de un todo tengan un atributo en común la colectividad que los integra no significa que lo deba tener.

Falacia de la falacia

Llegados a este punto en la serie del detector de gilipolleces es interesante comentar esta falacia. La falacia de la falacia consiste en considerar que por el hecho de que alguien al defender un argumento incurra en una falacia no formal su argumento ya es erróneo y el contrario es cierto.

Por ejemplo imaginemos un debate entre dos personas. Uno que defienda que la tierra no es plana y otro que en realidad si es plana. Imaginemos que la primera persona para explicar su postura incurre en una falacia de falsa analogía comparando la tierra exactamente con una pelota (es una falacia ya que la tierra no es exactamente esférica sino que es un geoide, con lo que llegando la analogía hasta el límite describiría comportamientos en el movimiento de rotación que en realidad no se dan). Si quien defiende que la Tierra es plana hace notar que su razonamiento es erróneo detectando esa falacia (que lo es) de ahí considera que ha demostrado con eso que entonces su razonamiento es correcto, está cayendo en la falacia de la falacia.

Detector de gilipolleces (falacias no formales) a por la cuarta entrega

En esta nueva entrega del detector de gilipolleces, se analizan la falacia del falso dilema, causalidad aparente, accidente y alegato especial. Estas son menos frecuentes que las anteriores, pero también es posible encontrarse con alguno de estos tipos en una conversación.

Falacia del falso dilema

La falacia del falso dilema o falsa dicotomía es una de las que con mayor recurrencia podemos encontrar en una discusión. Básicamente, consiste en presentar una disyuntiva en la que sólo es posible escoger entre dos opciones, cuando en realidad hay más alternativas que no están siendo consideradas, o bien, se plantean dos opciones en las que se presupone una incompatibilidad entre ambas cuando no tiene por qué ser así.

Ejemplos.

“O estás conmigo o estás contra mí”. Tengo la opción de no posicionarme a favor de ninguna de las dos partes si así lo quiero, por mucho que a alguien le pueda (ilógicamente) molestar.

“Los países del área euro deben aplicar reformas estructurales y austeridad o abandonar la zona monetaria”. Otro falso dilema (aunque esté actualmente impuesto por la fuerza por Alemania, principalmente), cabría la posibilidad de que desde Europa se hubiera optado por una salida de la crisis menos traumática y más efectiva, emulando lo que han hecho Reino Unido y EE.UU. con políticas monetarias expansivas, en las que se hubieran creado eurobonos y el BCE hubiera comprado esa deuda en el mercado secundario.

“O potenciamos el desarrollo de la industria, pese a lo que deteriore el medioambiente. O nos dedicamos a proteger la naturaleza renunciando al progreso que nos daría la industria”. Aquí se pone una relación de exclusión entre dos opciones que no tiene por qué darse necesariamente. Hay sectores como las de las renovables que aúnan desarrollo industrial y respeto al medio ambiente. También cabe la posibilidad de crear un sector manufacturero y a la par poner controles de contaminación y un sistema de multas a las empresas que dañen el medio ambiente, que sea ejemplarizante y disuasorio.

Falacia de la causalidad aparente

“Cum hoc ergo Procter hoc” (Correlación no implica causalidad). Esta es probablemente de las falacias no formales que más nos podremos encontrar en un medio de comunicación en las que pretende dar una información avalándose en un estudio estadístico. Suelen ser de la forma, “un estudio afirma que cuanto más se da A, más sucede B”. En ellos se indican básicamente que lo que dice A es lo que provoca que ocurra B, o, lo que es lo mismo, que B es consecuencia de A. Normalmente, cuando uno se lee esas noticias, acaba dándose cuenta de que lo que hay es una correlación entre A y B (vamos, una relación entre esos dos sucesos), pero, en principio, sin ningún indicio de que sea uno de ellos, A en este caso, el que provoca el otro, B.

Básicamente se cogen datos entre dos series de datos y con ellas se calcula lo que se conoce como coeficiente de correlación que es una forma de medir la fuerza de la vinculación estadística entre dos series de datos. El coeficiente toma valores comprendidos ente -1 y 1 y cuanto mas cercano a 1 indicara que hay una fuerte relación directa entre esas dos variables y si toma valores cercanos a -1 señala que la vinculación es inversa y elevada, pero en sentido estadístico. Ahora bien, la fuerte relación estadística no entraña relaciones de causalidad sino muchas veces casualidad.

Ejemplo de variables fuertemente correlacionadas entre sí pero que una no provoca a la otra figuran por ejemplo el numero de ataques de piratas y la subida de la temperatura global. La cantidad de usuarios griegos de Facebook y la subida de la rentabilidad de su bono a 10 años. El número de nacimiento prematuros y el precio de la vivienda o la cantidad de montañas que hay en un territorio y la tasa de criminalidad. En todos esos casos, se muestra una fuerte correlación estadística. Sin embargo, obviamente lo uno no implica lo otro. Así pues, señalar una relación de causalidad apelando sólo a una correlación estadística y sin aportar más datos es incurrir en una falacia al eludir la carga de la prueba de lo que se pretende demostrar. (ver imagen)

correlación no es causalidad

Falacia del accidente

Esta falacia se da cuando se hace pasar un atributo o característica de la apariencia de una cosa como parte de su esencia. En este sentido, conviene señalar previamente que es la apariencia y la esencia de algo. La esencia de algo es el conjunto de rasgos o atributos que definen el concepto objetivo de esa cosa. Por su parte, la apariencia de algo lo conforman el conjunto de caracteres accesorios que forman parte de algo pero que si son cambiados no cambian la esencia de ese algo. Por ejemplo, un triángulo pintado de verde, seguirá siendo un triángulo si en vez de color verde se pinta de color azul (el color formaría parte de su apariencia). En cambio, si queremos dibujar un triángulo con cuatro lados en vez de tres, ahí si que estaríamos alterando su esencia, ya que al hacerlo así eso ya no sería un triángulo (un polígono de tres lados) sino un cuadrilátero (el número de lados si forma parte de la esencia de un triángulo). Principalmente, los tópicos son los ejemplos más cotidianos que podemos ver de falacias de este tipo.

Ejemplos.

“Los gays son amanerados” Un gay es una persona del sexo masculino que sexualmente le atraen otros hombres. Que sea amanerado o no, no afecta en que sea gay o no ya que hay gays que no son amanerados.

“Los españoles saben bailar flamenco”. Por español se considera a toda persona que tenga la nacionalidad española, el que a alguien se le de esa nacionalidad no implica que por ciencia infusa ya sepa baliar flamenco. Es otro ejemplo de tópico o de falacia del accidente.

“El libremercado asegura la asignación más eficiente de recursos”. El libremercado es un sistema económico en el que la cantidad y el precio al que se intercambian unos bienes es acordado entre compradores y vendedores siguiendo las leyes de la oferta y la demanda. Que en muchos casos logra la asignación más eficiente de recursos es cierto, sin embargo hay excepciones en las que el mercado libre no lo logra. Son los llamados fallos del mercado, como la existencia de bienes públicos, externalidades o asimetrías de información que hacen que sea necesaria la intervención o regulación para lograr una asignación más eficiente.

Falacia del alegato especial

Si alguien impone una condición para poder discutir un tema, está apelando a la falacia del alegato especial. La idea que subyace en esto es presumir que para entender y poder discutir sobre un determinado tema se necesita una visión, un conocimiento o sensibilidad única que solo la tiene cierto grupo. Es un intento de hacer no falsable una creencia, o que sea imposible demostrar que sea falsa. Hay que tener en cuenta que dentro de la libertad de expresión se puede opinar sobre cualquier cosa, (lo ideal sería opinar solo de aquello sobre lo que se tiene conocimiento de la materia, pero bueno decir estupideces se enmarca dentro de este derecho al igual que el hacer notar que se ha dicho una tontería, si fuera el caso). Por otro lado, cualquier afirmación que sea mensurable o comprobable, puede ser juzgada desde el punto de vista lógico y científico aunque sea de índole filosófica o científica.

Ejemplos.

“Si no votas, luego no te quejes del gobierno”. Si un gobierno haces las cosas mal, no va a ser menos cierta la afirmación que señale ese hecho una persona que votó en las elecciones a una que no lo hizo.

“Si no eres cristiano, no puedes juzgar la moralidad de la Biblia o la existencia de Dios”. Las religiones pueden ser estudiadas perfectamente por personas no religiosas, básicamente porque su impacto en la humanidad afecta a la sociedad, la cultura y la política en los territorios. No hace falta ser creyente de una determinada confesión para poder opinar de ella.

Feliz día mundial del escepticismo

Sinopsis. Hoy es el día mundial del escepticismo, aprovechando esta jornada nos acercamos un poco a qué defiende esta corriente filosófica y a los principios que pregona.

Tal día como hoy, un 20 de diciembre, coincidiendo con el aniversario luctuoso de la muerte de Carl Sagan uno de los mayores divulgadores científicos y uno de los padres –junto con Paul Kurtz- de los Movimientos Escépticos Organizados se defendió la iniciativa desde la web “Proyecto Sandía” de proclamar esta jornada como el día mundial del escepticismo. El escepticismo como corriente filosófica, se basa en que toda la información que se obtenga o se de esté bien apoyada en evidencias empíricas o datos. Es decir, en una actitud inquisitiva hacia el conocimiento y en la sistémica aportación de pruebas válidas sobre cualquier afirmación que se haga.

Al calor del escepticismo, surgió el llamado humanismo escéptico o humanismo secular. Movimiento que aboga por descartar las explicaciones sobrenaturales sobre el origen del universo y de la humanidad y en la aplicación de la ciencia y la tecnología para la mejora de la condición humana. En el año 2000 se firmó un manifiesto en el cual esta corriente dejaba claro los principios éticos en que se sustentaban y que a continuación ponemos escritos literalmente.

  1. La dignidad y autonomía del individuo es el valor central. La ética humanista se compromete a maximizar la libertad de elección, libertad de pensamiento y conciencia, el libre pensamiento y la libre investigación, y el derecho de los individuos a seguir sus propios estilos de vida hasta donde sean capaces y hasta tanto que ello no dañe o perjudique a otros. Esto es especialmente relevante en las sociedades democráticas en donde pueden coexistir una multiplicidad de sistemas alternativos de valores. Por consiguiente los humanistas aprecian la diversidad.
  1. La defensa humanista de la autodeterminación no significa que los humanistas acepten como valiosas cualquier clase de conducta por el mero hecho de ser humana. Ni la tolerancia de los distintos estilos de vida implica necesariamente su aprobación. Los humanistas insisten que acompañando al compromiso con una sociedad libre está siempre la necesidad de alcanzar un nivel cualitativo de gusto y distinción. Los humanistas creen que la libertad debe ser ejercitada con responsabilidad. Reconocemos que todos los individuos viven en el seno de comunidades y que algunas acciones son destructivas y están equivocadas.
  1. Los filósofos éticos humanistas han defendido una ética de la excelencia (desde Aristóteles y Kant hasta John Stuart Mill, John Dewey, y M.N. Roy). En ellos se hacen patentes la templanza, la moderación, la continencia, el autocontrol. Entre los tópicos de la excelencia se encuentran la capacidad de elegir libremente, la creatividad, el gusto estético, la prudencia en las motivaciones, la racionalidad y una cierta obligación de llevar a su máximo cumplimiento los más altos talentos de cada cual. El humanismo intenta sacar a flote lo mejor de la gente, de manera que todo el mundo pueda tener lo mejor en la vida.
  1. El humanismo reconoce nuestras responsabilidades y deudas con los otros. Esto significa que no debemos tratar a los demás seres humanos como meros objetos para nuestra propia satisfacción; debemos considerarlos como personas dignas de igual consideración que nosotros mismos. Los humanistas sostienen que «todos y cada uno de los individuos deberían ser tratados humanamente». Aceptan la Regla de Oro según la cual «no debes tratar a los demás como no quieras que te traten a ti». También aceptan por la misma razón el antiguo mandato de que deberíamos «recibir a los extranjeros dentro de nuestras posibilidades», respetando sus diferencias con nosotros. Dada la multiplicidad actual de credos, todos somos extranjeros —aunque podamos ser amigos— en una comunidad más amplia.
  1. Los humanistas creen que las virtudes de la empatía (o buena disposición) y la corrección (o el trato cuidadoso) son esenciales para la conducta ética. Esto implica que deberíamos desarrollar un interés altruista hacia las necesidades e intereses de los demás. Las piedras fundamentales de la conducta moral son las «decencias morales comunes»; es decir, las virtudes morales generales que son ampliamente compartidas por los miembros de la especie humana pertenecientes a las más diversas culturas y religiones: Debemos decir la verdad, cumplir las promesas, ser honestos, sinceros, hacer el bien, ser fiables y confiar, dar muestras de fidelidad, aprecio y gratitud; ser bien pensados, justos y tolerantes; debemos negociar las diferencias razonablemente e intentar ser cooperativos; no debemos herir o injuriar, ni tampoco hacer daño o atemorizar a otras personas. Pese a que los humanistas han hecho llamamientos contra los códigos puritanos represivos, con el mismo énfasis han defendido la responsabilidad moral.
  1. En lo más alto de la agenda humanista figura la necesidad de proporcionar educación moral a los niños y a los jóvenes, al objeto de desarrollar el carácter y fomentar el aprecio por las decencias morales universales, así como para garantizar el progreso moral y la capacidad de razonamiento moral.
  1. Los humanistas recomiendan que usemos la razón para fundamentar nuestros juicios éticos. El punto decisivo es que el conocimiento es esencial para formular elecciones éticas. En particular, necesitamos comprometernos en un proceso de deliberación, si estamos por la tarea de solucionar los dilemas morales. Los principios y valores humanos pueden justificarse mejor a la luz de la investigación reflexiva. Cuando existan diferencias, es preciso negociarlas siempre que podamos mediante un diálogo racional.
  1. Los humanistas mantienen que deberíamos estar preparados para modificar los principios y los valores éticos a la luz de las realidades que vayan produciéndose y de las expectativas futuras. Necesitamos ciertamente apropiarnos de la mejor sabiduría moral del pasado, pero también desarrollar nuevas soluciones para los dilemas morales, sean viejos o nuevos. Por ejemplo, el debate sobre la eutanasia voluntaria se ha intensificado de manera especial en las sociedades opulentas, porque la tecnología médica nos capacita ahora para prolongar la vida de pacientes terminales que anteriormente habrían muerto. Los humanistas han argumentado a favor del «morir con dignidad» y del derecho de los adultos competentes para rechazar el tratamiento médico, reduciendo así el sufrimiento innecesario, e incluso para acelerar la muerte. También han reconocido la importancia del movimiento hospitalario para facilitar el proceso más deseable. De la misma manera, deberíamos estar preparados para elegir racionalmente entre los nuevos poderes reproductivos que la investigación científica ha hecho posibles —tales como la fertilización in vitro, la maternidad de alquiler, la ingeniería genética, el transplante de órganos y la clonación. No podemos estar mirando atrás, hacia las morales absolutas del pasado para guiarnos en estas cuestiones. Necesitamos respetar la autonomía de la elección.
  1. Los humanistas arguyen que deberíamos respetar una ética de principios. Esto significa que el fin no justifica los medios; por el contrario, nuestros fines están modelados por nuestros medios, y hay límites acerca de lo que nos está permitido hacer. Esto es especialmente importante hoy a la luz de las tiranías dictatoriales del siglo XX, en las que determinadas ideologías políticas manipularon comprometidos medios morales con fervor casi religioso para realizar fines visionarios. Somos agudamente conscientes de trágico sufrimiento infligido a millones de personas por quienes estuvieron dispuestos a permitir un gran mal en la prosecución de un supuesto bien mucho mayor.

Personalmente estoy de acuerdo con la mayoría de estos principios, en algunos en cambio tengo mis dudas. Por ejemplo, en el último en el que se niega categóricamente que el fin no justifica los medios. Ante esa disyuntiva siempre planteo la cuestión de que depende de que fin y depende de que medios. Los daños provocados por dictaduras en pro de un supuesto bien mayor son intolerables, evidentemente, pero hay circunstancias en las que el fin si que puede justificar los medios y están recogidos en el propio ordenamiento jurídico. Tal es el caso de que si matas a una persona en defensa propia para evitar que esta te mate a ti, no se te puede condenar por ellos. Ahí tenemos un ejemplo real de cómo el fin (sobrevivir) justifica un medio éticamente reprobable (matar a una persona).

Detector de gilipolleces (falacias no formales) y ya van tres

Sinopsis. Después del detector de gilipolleces 1 y 2, proseguimos en nuestra serie de análisis de falacias no formales. En esta ocasión,  estudiaremos la falacia de la afirmación gratuita, la de la falsa analogía, el non sequitur y la pregunta capciosa.

Falacia de la afirmación gratuita

Sin lugar a dudas, la falacia no formal más frecuente que nos podemos encontrar. Aparece constantemente en los medios de comunicación sobre todo en los editoriales y artículos de opinión, pero también aparece cada dos por tres en las conversaciones cotidianas. La falacia de la afirmación gratuita es simplemente un enunciado disfrazado de argumento, esto es, afirmar cualquier cosa sin dar las razones, las pruebas o los datos en que se sustentan lo que se dice. En definitiva, el “hablar por hablar” de toda la vida.

Ejemplos:

La cultura europea es más rica que la estadounidense.

Nuestros enemigos políticos mienten siempre sobre nosotros.

Mi vecino de arriba es imbécil.

Felizmente, esta falacia tan común tiene una forma muy sencilla de neutralización, basta con preguntar a quien la haga “¿Por qué?” o “¿En qué te basas para decir eso?”o cualquier pregunta de ese estilo. Así le requieres a quien hace la afirmación gratuita que presente las razones/pruebas/datos en los que se fundamenta y una vez conocidos esos elementos ya se puede abrir el debate en caso de no estar de acuerdo.

-Mi vecino de arriba es imbécil.

-¿Por qué?

-Porque se  ha ido de casa dejando el grifo de la bañera abierto, se ha desbordado, le ha inundado el baño y me ha hecho goteras en el techo.

-La cultura europea es más rica que la estadounidense

-¿En qué te basas para decir eso?

-En que al ser una nación más joven EE.UU. que el conjunto de países europeos hay registradas menor cantidad de obras literarias, pictóricas y musicales que en Europa.

-Nuestros enemigos políticos mienten siempre sobre nosostros.

-¿En qué te basas para decir eso?

-En que siempre buscan dar una imagen peor de la que es de nosotros, por que eso les da réditos electorales.

Falacia de la falsa analogía

Esta es una de las falacias más peligrosas, en la medida en que es más difícil de detectar. El motivo es que una de las herramientas de aprendizaje más usadas por la mente humana es la asociación de ideas, justamente la base de toda analogía. Las semejanzas o analogías son excelentes herramienta para explicar conceptos. Permiten asociar ideas nuevas con el conocimiento previo, o describir algo complejo de tal manera que sea entendible a un nivel más básico. Hasta ahí todo correcto, el problema (o mejor dicho la falacia) se da cuando se trata de forzar una analogía más allá de lo razonable.

Ejemplo. “Un Estado es como una familia o un hogar, no puede estar constantemente gastando más de lo que ingresa”. Efectivamente un Estado al igual que una familia o economía doméstica tiene sus ingresos y tiene sus gastos. Si una familia gasta más de lo que ingresa se verá obligada a pedir un crédito al banco en ese momento que les financie de la misma forma que si las AA.PP. gastan más de lo que ingresan incurrirán en un déficit público el cual deberán de financiar emitiendo deuda pública. Sin embargo, un Estado (que no sea de la eurozona) cuenta con herramientas que no cuenta ningún hogar. Por ejemplo, un banco central que tiene por ley el monopolio de emisión de moneda. Es decir, si un Estado incurre repetidamente en déficits públicos y se endeuda mucho en caso de verse con el agua al cuello puede darle a la maquinita de imprimir dinero y sacar toda la cantidad necesaria para liquidar sus deudas, esto es, monetizarla (una medida así tampoco es la panacea ya que provocaría fuertes tensiones inflacionistas, pero ese es otro asunto), por no hablar de que un Estado puede tratar de subir la presión fiscal para obtener más ingresos vía impuestos ya que por ley tiene la capacidad de imposición tributaria. Así pues, salvo que estemos hablando de una familia o un hogar en que sus miembros se dediquen a la falsificación de billetes y/o que ademas tengan la capacidad coercitiva de cobrarles pagos a otras familias, la tan extendida comparación hogares y Estado por motivos de desequilibrios presupuestarios es, a todas luces, una falacia de falsa analogía.

¿Significa esto que debemos renunciar a las comparaciones como forma de tratar de entender la realidad? Ni mucho menos. Simplemente hay que usar la analogía con la que estemos solo hasta la parte en que nos permite explicar la realidad y señalando los motivos por los que ir más allá con ella induce a error. Miguel Ángel Sabadell –editor de la revista Muy Interesante- pone un ejemplo magistral de esto cuando compara la expansión del universo con un globo que se infla. (A partir del minuto 2:00)

Falacia del non sequitur

Non sequitur es una expresión del latina que significa “no se sigue”. En la lógica se usa para referirse a una conclusión que no está relacionada con las premisas usadas. Estas falacias tienen la siguiente forma: Si A, entonces B. Ocurre B. Por lo tanto, A. Si soy un hombre con el pelo moreno, soy un ser humano. Soy un ser humano. Por lo tanto, soy un hombre con el pelo moreno. Dado que la primera premisa es un condicional, que depende de A para poder llegar a B, y la segunda premisa es el consecuente del condicional de la primera premisa, o sea B, entonces no se puede concluir A de ninguna manera. Esto se entiende porque la primera premisa es un condicional, lo cual significa que el antecedente es suficiente para el consecuente, pero no al revés.

La falacia non sequitur se detecta básicamente invirtiendo el orden de las premisas y viendo que de esa forma sale una estupidez o algo que en nada tienen que ver con la afirmación original. Ejemplos.

En nuestra declaración de la renta no figura que hayamos cobrado dinero negro, luego no lo hemos cobrado. (falacia non sequitur)

(inversión de las premisas) No hemos cobrado dinero en negro, porque no figura en nuestra declaración de la renta.

Todos los niños necesitan los cuidados de sus padres, pero cuando ambos padres trabajan no pueden prestárselos. Por eso, las madres no deberían trabajar. (falacia non sequitur)

(inversión de las premisas) Las madres no deberían trabajar, porque todos los niños necesitan los cuidados de sus padres, pero cuando ambos trabajan no pueden prestárselos.

Falacia de la pregunta cargada o capciosa

La pregunta cargada o capciosa es una cuestión que encierra un presupuesto determinado y que se plantea con ánimo de comprometer al interlocutor, ya que cualquier respuesta que dé puede ser malinterpretada o considerada inconveniente.

Ejemplos: ¿Va a decir usted la verdad esta vez? Si dices que sí asumes que antes has mentido. Si dices que no asumes que ahora vas a mentir. La clave sería deshacer el presupuesto de la pregunta antes de dar una respuesta diciendo “siempre he dicho la verdad y ahora también”. ¿Ha dejado ya de golpear a su mujer? Si dices sí, señalas que antes la maltratabas. Si dices no, señalas que antes la maltratabas y ahora también. Solución: decir nunca he maltratado a mi mujer. “¿Es verdad que crees en la evolución? ¿Crees que dos monos copularon y tuvieron un hijo humano?”. En este caso se presentan dos preguntas juntas que no son equivalentes, pero se busca una respuesta de sí o no que aplique a ambas. La teoría de la evolución no dice que dos monos tuvieran sexo y de repente ya apareciera directamente el ser humano.

FiLCHeRS, los “rateros del conocimiento”

Sinopsis. ¿Cuáles son las reglas básicas que debe cumplir un razonamiento o hipótesis para que pueda resultar válido? En los años 90 el filósofo y antropólogo James Lett desarrollo el acrónimo FiLCHeRS (rateros) como una guía básica para detectar las afirmaciones pseudocientíficas, en vista que desde los organismos públicos y desde los medios de comunicación no se invitaba precisamente a desarrollar un pensamiento crítico que protegiera a la población de creencias irracionales. Analizamos aquí la guía que propuso.

Allá por los años 90 el antropólogo y filósofo James Lett alertaba de la creciente tendencia de la población a creer en fenómenos paranormales y en disciplinas cuyos postulados y formas de obtener el conocimiento son, cuanto menos, cuestionables (pseudociencias). Lett señalaba en un artículo de las causas de por qué estaba pasando esto las cuales se resumen en: La irresponsabilidad de los medios de comunicación que explotan las creencias irracionales de la gente (los periódicos que ponen el horóscopo, o los programas de televisión donde se ponen programas de adivinación). La ineficacia de la educación pública y privada que enseña a los alumnos conocimientos pero no a desarrollar un pensamiento crítico que les permita discernir cuando se les está vendiendo argumentos veraces y cuando no. Y finalmente, la dejación de la comunidad científica que considera que su labor sólo consiste en la investigación y los descubrimientos y no en combatir las creencias falaces y las pseudociencias imperantes, quedándose así el saber científico en su torre de marfil, mientras que las creencias irracionales se promocionan viralmente entre la población.

Dejando al margen lo visionario que pudo ser James Lett hace ya más de 20 años, el antropólogo en ese artículo propuso seis reglas imprescindibles a tener en cuenta para comprobar si un razonamiento que se nos presente tiene un adecuado soporte científico. Estas seis reglas son: Falsabilidad, Lógica, Completitud, Honradez, Reproducibilidad y Suficiencia. Todas ellas en inglés forman el acrónimo  FiLCHeRS que significa ratero, ladronzuelo o mangante en clara alusión a que si alguien presenta argumentos que carezcan de alguna de estas pautas será una especie de “ratero del conocimiento”. Analicémoslas una a una.

Falsabilidad. Esta es la más paradójica de las seis reglas, ya que básicamente lo que viene a decir es que para que un argumento pueda ser cierto es imprescindible que se pueda demostrar su posible falsedad. ¿Por qué? Pues porque como señaló el filósofo Karl Popper en su obra La lógica de la investigación científica esto supone una garantía de que si la hipótesis/razonamiento/argumento es falaz, la evidencia empírica mostrará que es falso. En cambio, si el argumento es certero no habrá forma que al contrastarlo con la realidad este pueda ser refutado. De esta forma, cuando oigamos un razonamiento una de las preguntas que nos debemos hacer: ¿Podría encontrar alguna forma de comprobar si esto que me han dicho es falso? Así por ejemplo si alguien te dice el agua se congela a 0ºC, podemos fácilmente imaginar una forma de falsarlo. Cogemos un vaso de agua y un termómetro, enfriamos el vaso de agua hasta que se congele y justo en el momento en que se congele medimos su temperatura, si nos sale que esta es distinta a 0ºC entonces habremos probado la falsedad de esa hipótesis al comprobarla con la realidad. En cambio, si alguien te dice tienes esta enfermedad porque tienes tu energía espiritual desequilibrada y hasta que no la equilibres no te curarás. ¿Cómo puedes falsar eso? ¿Qué es la energía espiritual? ¿Cómo se equilibra? Ante eso, las señales de alarma de que te estés encontrando ante un FiLCHeR, empiezan a sonar.

Lógica. Esta regla se incluye ya que la lógica por sí sola no ayuda a pensar rectamente, pero si sirve para evitar pensar de forma torcida al detectar y tratar de evitar las falacias en un argumento (aquí hemos puesto algunos ejemplos de falacias lógicas en la serie detector de gilipolleces). Que un argumento tenga una estructura lógica correcta es fundamental, si no, no servirá para nada. El motivo es que si no sigue las reglas de la lógica el argumento no será válido ya que la conclusión no se seguirá de las premisas. Premisas que por otro lado deberán de ser todas verdaderas sino estaremos cayendo en un silogismo y el argumento no será sólido (“Todos los perros tienen pulgas. Este animal es un perro. Por lo tanto, este animal tiene pulgas. Puede que sea cierto o no que tenga pulgas en cualquier caso el argumento es falaz desde la lógica ya que su primera premisa –Todos los perros tienen pulgas- es falsa). ¿Una manera útil de saber si un argumento cumple las reglas de la lógica? Comprobar si puede resistir una “reducción al absurdo”. El método de reducción al absurdo consiste en partir de un argumento o enunciado, luego mostrar que conduce a una contradicción. Esto implica que el argumento o enunciado es falso. Pongamos un ejemplo. Un sacerdote del credo cristiano católico podrá aducir que las uniones de personas del mismo sexo nunca podrían llamarse matrimonio, ya que el fin del matrimonio es engendrar hijos y dos personas del mismo sexo nunca lo podrían hacer de forma natural. Pero en ese caso, las parejas de ancianos o en donde alguien es estéril tampoco deberían tener acceso al matrimonio. Si el sacerdote que se opone al matrimonio homosexual por el motivo anteriormente expuesto no se opone también a los matrimonios estériles, quiere decir que su postura es inconsistente y por lo tanto está mintiendo sobre su motivación.

Completitud. La prueba ofrecida en apoyo de una afirmación debe ser exhaustiva, esto es, todas las pruebas disponibles deben ser consideradas. La razón es bastante obvia, no es razonable sólo tener en cuenta la evidencia empírica que avala la teoría que defendamos y no tener en cuenta las pruebas que contradicen nuestros postulados. Es por este motivo, por lo que cuando un investigador realiza un descubrimiento este es sometido a una revisión por pares en la ciencia (por pares entendemos a personas que son tan duchas como el investigador en la materia en la que trabaja) para comprobar si en la elaboración de su trabajo ha hecho una selección sesgada de sus datos y pruebas y en ese caso proponerle correcciones y señalarle los fallos. Un ejemplo los defensores de la teoría del biorritmo señalan los accidentes aéreos que se dan cuando el piloto y el copiloto y los pasajeros del avión están pasando por periodos críticamente bajos en sus ciclos intelectuales, emocionales y físicos. Sin embargo, se les olvida señalar que el número de accidentes aéreos es mayor cuando se da el caso contrario, que la tripulación del avión está pasando por los puntos altos o neutrales de sus ciclos biorrítmicos.

Honestidad. Este regla se deriva de la anterior, por honestidad se entiende a que quien sostenga una hipótesis o argumento una vez haya seleccionado todas las pruebas y todos los datos relevantes para verificarla deberá asimilar el resultado sea el que sea. No vale el auto-engaño y si los datos me dicen lo contrario de lo que esperaba habrá que reconocer que la hipótesis no es cierta. Lo que no es asumible y es fraudulento es que el postulante quite los datos que no le convengan para así terminar encajando la evidencia empírica con la hipótesis. Dado que esta práctica es muy posible que suceda una vez más -tal y como sucede con la completitud- el trabajo deberá de ser sometido a una revisión por pares para comprobar como se ha desarrollado el trabajo. Un ejemplo de esto se vio en el famoso Excel de los economistas Rogoff y Reinhart. En el que sobrevaloraban los efectos que un elevado nivel de deuda pública tenia sobre el crecimiento económico. Un grupo de estudiantes de economía de la Universidad de Massachusets solicitaron sus datos para replicar el estudio y descubrieron que las conclusiones de este no eran ciertas, porque algunos ejemplos de países con elevados niveles de deuda pública en varios periodos experimentaron tasas de crecimiento bastante aceptables (el caso de Bélgica) habían sido descartados.

Reproducibilidad. Si el argumento que defendemos ha sido demostrado en un experimento. Este experimento debe ser fácilmente reproducible. Es decir, que sea relativamente sencillo repetir el experimento y comprobar que la hipótesis sale sucesivamente verificada en cada una de las repeticiones. Con esto tenemos una garantía añadida ante un posible fraude, error o un resultado experimental que dio una vez un resultado por pura coincidencia y que cuando se hace más veces ese resultado estadísticamente no es significativo. La existencia de la fuerza de la gravedad es fácilmente replicable en experimentos de laboratorio, cualquier estudiante de secundaria que haga técnicas experimentales la ha podido comprobar.

Suficiencia. La última de las seis reglas, pero no por ello la menos importante. Las pruebas ofrecidas en respaldo de una afirmación deben cumplir con tres criterios adicionales: La carga de la prueba le corresponde a quien afirma algo, esto no es baladí ya que cuando muchas veces se le pide a alguien que muestre las pruebas en las que se basa para decir algo replica tratando de eludir la carga de la prueba indicando al contrario que no tiene pruebas para demostrar que lo que dice es falso. Pero como bien se sabe -la prueba de ausencia no es ausencia de prueba- es el que afirma y no el que escucha quien debe de aportar las pruebas. Afirmaciones extraordinarias exigen pruebas extraordinarias, porque no se puede probar una abducción, por ejemplo, por haber faltado al trabajo; se necesitan pruebas más concluyentes. Las pruebas basadas en la autoridad o en el testimonio son inadecuadas para las afirmaciones que pretenden romper con leyes básicas de la ciencia como es el caso de la memoria del agua que vulnera la segunda ley de la termodinámica y en química contradice la ley de conservación de la materia. Quienes defiendan la verdad de la memoria del agua deberán aportar unas pruebas como mínimo igual de sólidas que las que sustentan a esas dos leyes. En caso contrario, nunca serán tenidas como argumentos válidos ni nunca será otra cosa que pseudociencia o falsa ciencia.