La güija, ¡vaya timo!

Sinopsis. Como en estas fechas caen Halloween, el día de Todos los Santos y la festividad de Todos los Fieles Difuntos. Algunos esotéricos aprovechan estas jornadas para que haya un ‘boom’ de prácticas espiritistas como la güija, al considerarse un supuesto medio para contactar con el mundo de ultratumba y comunicarse con los espíritus. Sin embargo, la ciencia se encarga de desvelar que hay realmente detrás de ella y lo sobrenatural no parece ser la explicación.

Este viernes noche será Halloween, sábado el día de Todos los Santos y el domingo la festividad de los Fieles difuntos. Fin de semana, por tanto, lleno de connotaciones esotéricas y religiosas hacia el más allá y hacia los muertos. Dadas las fechas, es posible que muchos se sientan tentados de llevar a cabo prácticas para -supuestamente- entrar en contacto con ese hipotético otro lado y comunicarse con los espíritus de quienes ya no están con nosotros.

Hablo de la archiconocida ouija -o güija en castellano según recomienda la RAE-, la práctica que consiste en ponerse en contacto con las almas de los difuntos a través de una plancha en la que están marcadas todas las letras del alfabeto, todos los números del 0 al 9 y palabras como “si”, “no”, “adiós” y algunos símbolos. Su funcionamiento en las sesiones espiritistas básicamente consiste en que los participantes ponen sus dedos sobre un vaso o un puntero sin tratar de moverlo ellos mismos a voluntad. La clave es esperar a que una entidad del más allá se ponga en contacto y desplace el vaso o el instrumento señalador y vaya deletreando un mensaje sobre el tablero para comunicarse con quienes participan en la sesión.

¿Realmente funciona y es un mecanismo para hablar con los muertos? La respuesta a tenor de varios experimentos es no, más allá de la enorme sugestión y estado de disociación que pueden provocar este tipo de prácticas en quienes las hacen y se lo acaban realmente creyendo. La primera prueba experimental que se realizó fue el que hizo el profesor de secundaria Larry Bayou en el cuál a las personas que participaban en una sesión de güija primero la hacían de forma normal y posteriormente la hacían con los ojos vendados. En el primer caso se veía como los integrantes en muchas ocasiones formaban mensajes coherentes durante las sesiones jurando y perjurando que ellos no habían movido el puntero. Sin embargo, en el segundo caso eran absolutamente incapaces de formar alguna palabra coherente cuando los participantes no podían ver el tablero.

A raíz de esta prueba inicial se repitieron en varias ocasiones sesiones de güija de forma experimental (en las que no pasó por cierto nada paranormal, ni posesiones, ni poltergeits, ni demás cosas sobrenaturales que se asocian al mito sobre esta práctica) y las conclusiones que se han llegado aunque no son del todo definitivas descartan que sea una supuesta entidad del más allá quien provoque los movimientos. La explicación de ese fenómeno se debe al llamado “efecto ideomotor”. Este fenómeno se refiere a la capacidad de generar movimientos sin darnos cuenta de que los estamos haciendo, lo cual explicaría otros supuestos fenómenos paranormales como los zahoríes o la comunicación facilitada, (en esta última se demostró que los movimientos con los dedos los hacían inconscientemente los cuidadores en vez de los niños incapacitados). El psicólogo Daniel Wegner escribió sobre lo que eso significa para la naturaleza de nuestra mente en “La ilusión de la voluntad consciente”, en el que argumenta que nuestra sensación normal de ser los dueños de una acción es una ilusión o -si se quiere- una construcción. Los procesos mentales que controlan directamente nuestros movimientos no están conectados a los mismos procesos que deducen qué causó qué, dice Wegner.

En definitiva, la experimentación con la güija lejos de demostrar que existe la vida de ultratumba y los fantasmas estaría mas cercana a corroborar la existencia del llamado “efecto ideomotor”. Como una imagen vale más que mil palabras pongo aquí el experimento que Miguel Ángel Sabadell -editor de la revista Muy Interesante- y otros colaboradores hicieron sobre esta práctica espiritista por estas fechas hace dos años y con unos resultados similares a los que otros obtuvieron en experimentos de este tipo.

Y aquí, la segunda parte del documental.

Detector de gilipolleces (falacias no formales) primera parte

Sinopsis. En esta entrada vamos a analizar algunas de las falacias no formales más extendidas. Este tipo de argumentos -aparentemente válidos- son falsos porque rompen con las reglas esenciales de la lógica y su falsedad se conoce desde hace milenios. Sin embargo, se siguen usando con frecuencia con lo que saber detectarlos es una herramienta indispensable para separar el grano de la paja de una argumentación.

Están por todos lados, abundan en titulares de prensa, son un recurso frecuente en las tertulias televisivas o en los debates que cualquier persona puede tener con su grupo de amigos, pero lo peor de todo es que tiene apariencia de argumentos correctos y resultan bastantes persuasivas pese a que se tratan de razonamientos engañosos y erróneos. Se trata de las falacias, a pesar de que se las conoce desde los tiempos de la filosofía clásica y se sabe que son raciocinios inválidos, por vulnerar las reglas esenciales de la lógica, su uso sigue estando más que extendido. Uno de los ingredientes básicos para desarrollar un pensamiento crítico es saber detectar dentro de un discurso este tipo de enunciados y poder separar el grano de la paja de lo que son razones fundamentadas cuando se defiende una postura de lo que son argucias dialécticas para hacer pasar por verdadero algo que no lo es. En esta entrada analizaremos algunas de las falacias no formales más frecuentes.

Falacia del argumento ad hominem (dirigido contra el hombre)

El sustento de esta falacia consiste en centrar la atención del debate en la persona que enuncia un argumento desacreditándola (ya sea usando o no elementos veraces para su descrédito) en lugar de buscar la refutación de la tesis expuesta.

Ejemplo. “Me gustaría dedicar este Goya a toda esa gente que ha perdido sus casas, sus ilusiones, sus esperanzas incluso sus vidas por culpa de un sistema quebrado, injusto, obsoleto, que permite robar a los pobres para dárselo a los ricos”, Maribel Verdú durante su discurso en la gala de los Goya denunciando los desahucios. A raíz de estas declaraciones, la réplica fue recordar un anuncio en el que esta actriz salía promocionando hipotecas de una entidad que posteriormente fue denunciada por la Plataforma de Afectados por la Hipoteca (PAH). Sin embargo, ¿es cierto que vivimos en un sistema injusto, obsoleto, que permite robar a los pobres para dárselo a los ricos? Las razones sobre si el argumento expuesto era cierto o no, no se presentaron.

La clave de porqué el argumento ‘ad hominen’ es una falacia, reside en que una verdad dicha por un mentiroso, un hipócrita o alguien despreciable sigue siendo una verdad. Aunque Maribel Verdú carezca de legitimidad moral para decir lo que dijo, eso no implica que el argumento expuesto no pueda ser certero. Imaginemos un debate entre Adolf Hitler y Martin Luther King, el primero defendiendo que la Tierra es redonda y el segundo que es plana. En esa supuesta charla quien tendría la razón sería Hitler, en vez de Martin Luther King pese a que el primero fue un asesino de masas y el segundo uno de los mayores luchadores por la igualdad de derechos de la historia.

Falacia el argumento ad populum (apelación al pueblo, provocar emociones)

Esta falacia tiene dos formas de manifestarse: Una consiste en defender un argumento omitiendo las razones adecuadas para sustentar la tesis y en su lugar empleando otras que se saben que tendrán una gran aceptación por parte del público, lo que se conoce como populismo o demagogia. Otra es apelar a una supuesta autoridad del pensamiento mayormente extendido por parte de la población como fuente de veracidad del argumento expuesto.

Ejemplos. “Torrente 5 tienen que ser una película muy buena, hay un montón de gente haciendo cola para entrar a verla”. Que tenga un gran número de personas desando ir a verla no la convierte necesariamente en una buena película, siguiendo los criterios cinematográficos que hacen que un film sea bueno o malo, simplemente significa eso mismo que la ha ido a ver mucha gente y ha sido taquillera. “La mayoría de la población islandesa cree que existen los duendes, por lo tanto en Islandia hay duendes”, pues que los islandeses presenten pruebas de la existencias de duendes y les creeremos hasta entonces como que no. En EEUU se hicieron recientemente varias encuestas preguntando a los ciudadanos si creían que el déficit público había subido en el último ejercicio y la mayoría dijo que si, cuando cerró en el 2,8% del PIB frente al 4,1% del año previo, lo que mucha gente crea no necesariamente tiene por qué ser cierto.

“Hay una parte de la deuda pública española que es ilegítima ya que ha ido a rescatar a los bancos que han sido responsables de la crisis actual, por lo tanto hay que hacer un impago parcial de la deuda pública”. El argumento así presentado constituye una falacia en la medida en que solo busca contentar al público pero se omiten otras razones esenciales para el debate. La deuda pública no es finalista entonces, ¿cómo podemos saber cual es la parte de ésta que ha ido a parar a manos de los bancos y cuál no para delimitar la cantidad que no se va a pagar? Otra razón, la evidencia empírica señala que impagar la deuda ni es el fin del mundo pero ni mucho menos está exenta de consecuencias para el que la hace. ¿Qué consecuencias acarrearía? ¿En función de los costes que supondría y los beneficios que traería merece la pena hacer el impago?

Falacia del argumento ad verecundiam (al respeto o a la reverencia)

Esta falacia consiste en lugar de aportar razones a nuestro punto de vista citar declaraciones de autoridades elegidas a la medida de los temores o respetos de nuestro adversario, o bien apelando a alguna costumbre o tradición arraigada.

Ejemplos: “El Papa, el propio santo padre, ha bendecido hoy al Señor Corleone. ¿Es usted más listo que el Papa?” Este ejemplo sacado de la película el Padrino III evidencia claramente esta falacia. El periodista estaba preguntando al representante de la familia Corleone acerca de los asuntos turbios con los que a esta se le asociaba. El portavoz en lugar de mostrar pruebas de que esas acusaciones son falsas se escuda en que si una figura como el Papa le da su bendición a Corleone es señal de que es inocente ya que alguien como el Papa nunca daría su bendición a un delincuente que realmente lo es. “Los toros es una tradición cultural arraigada en España, por lo tanto en lugar de ir en contra de ella habría que defenderla como patrimonio cultural de nuestro país”. Culturalmente en España también en su día era que la mujer se quedara en la casa haciendo las labores del hogar y el hombre el que trabajara y aportara el salario, esa discriminación formaba parte antes de la cultura y de la tradición y ahora se combate.

No obstante, en esta falacia cabe una pequeña excepción que es cuando la autoridad a la que se cita es un experto reconocido en el tema en cuestión; pero esa no siempre supone una garantía de la validez del argumento. Véase como ejemplo un anuncio publicitario de leche rica con Omega 3 y sale la típica persona vestida de médico (que puede ser o no un doctor o nutriionista, pero lo aparenta para dar una mayor sensación mayor de veracidad apelando a nuestros sesgos cognitivos) hablando de los beneficios del Omega 3 y la conveniencia de adquirir ese producto. Ciertamente la información que dan sobre sus beneficios es veraz, pero no menos cierto es que hay muchos alimentos con más concentración de Omega 3 que ese producto como es el propio pescado azul y se pueden adquirir a un precio más barato que el del producto publicitado.

Falacia del efecto dominó o la pendiente resbaladiza.

Si se da un suceso A, entonces este desencadenará un suceso B, ese suceso B traerá como consecuencia que pase C. A su vez, el suceso C provocará que acabe ocurriendo D. De tal manera que si pasa A es solo una cuestión de tiempo que acabe ocurriendo D.

Ejemplo: “No empieces a fumar porque se empieza fumando un cigarrillo al día y de ahí empieza a surgir una mayor adicción al tabaco, esa mayor adicción al tabaco te volverá un fumador y te abrirá la puerta a otros vicios y acabaras probando otras drogas y tus posibilidades de acabar como drogadicto serán mayores”.

La falacia de la pendiente resbaladiza consiste en una encadenación de hipótesis aparentemente relacionadas la una con la otra que hacen que desde un principio aparentemente inocuo se acabe irremediablemente, o cuanto menos, haya una alta probabilidad de que termine sucediendo una consecuencia indeseable. Es un argumento que se ha demostrado su falsedad en multitud de ocasiones y que falla por dos motivos principales. Primero niega el criterio de falsabilidad de las hipótesis que viene a ser que toda conjetura por muy correcta que esté formulada desde la lógica puede ser falsa al contrastarse con la realidad. En segundo lugar, parte de una premisa en la que la probabilidad de que una hipótesis lleve a que suceda otra es del 100%, cosa que es más que cuestionable que así sea, pueden existir un montón de factores que hagan que la cadena de hipótesis se rompa.

Hasta la próxima entrega del detector de gilipolleces.

Presupuestos Generales del Estado y consolidación fiscal, ¿una solución factible?

Sinopsis. La consolidación fiscal es la medida por la que ha apostado Europa para salir de su crisis. ¿Es correcta esta estrategia de salida? Los partidarios de la austeridad la aplauden y sus detractores la critican con la misma vehemencia. ¿Hay algo a lo que agarrarnos que sea mucho más objetivo que la ideología de nuestro interlocutor y que nos permita vislumbrar cuál de las dos posiciones es más correcta? Haberlo lo hay y parece señalar a la segunda opción.

Esta semana se han votado los Presupuestos Generales del Estado para el año 2015 en el que una de las directrices esenciales que lo componen es la famosa “consolidación fiscal”. Este término tan manido desde el estallido de la crisis de deuda soberana en la eurozona se compone de dos palabras ‘consolidar’ que es fijar y ‘fiscal’ que hace referencia a los ingresos que obtiene el Estado principalmente vía tributos. Estos dos vocablos unidos ilustran la medida por la que ha apostado el área euro para tratar de superar la crisis actual que es que todos los países miembros a la larga no puedan gastar más que lo que ingresan dentro de un margen reducido (máximo un 3% de déficit sobre el PIB) evitando o cuanto menos reduciendo así el endeudamiento para evitar que crisis como la acaecida tras el rescate de Grecia en abril de 2011 vuelva a repetirse y solucionar la que actualmente nos atañe.

¿Supone la consolidación simultánea en todos los países europeos una medida viable y factible para superar la crisis actual que atraviesa Europa? La respuesta que podemos hallar a esa pregunta depende en buena medida de los sesgos ideológicos de a quién preguntemos. Los defensores de la austeridad afirmarán que por supuesto y que ese es el camino a seguir exponiendo razones más o menos fundamentadas para avalar su postura. Los detractores de la austeridad harán otro tanto para señalar que ni mucho menos y que esta receta nos lleva al desastre. ¿Hay algo a lo que agarrarnos que sea mucho más objetivo que la ideología de nuestro interlocutor y que nos permita vislumbrar cuál de las dos opciones sobre la consolidación fiscal, es más correcta? La respuesta es si y se decanta a favor de que la consolidación fiscal simultánea en Europa es cuanto menos un dislate. Vamos a exponerla partiendo de la base de lo que en Economía se conoce como los balances sectoriales o las cuentas no financieras de los sectores institucionales.

El economista Simon Kuznets inventó la macromagnitud del Producto Interior Bruto (PIB) como un intento de reflejar la cantidad de bienes y servicios finales que se han producido dentro de un territorio durante un determinado periodo de tiempo, para así hacerse una idea de la capacidad productiva de una economía. Por identidad contable todo lo producido es igual a todo lo consumido o gastado, equivalente a todo lo ingresado, e idéntico en cantidad a la suma de las remuneraciones de los factores productivos. Tenemos, por tanto, cuatro formas distintas de calcular el PIB pero nos vamos a centrar en dos de ellas: PIB por la vía de gasto -que es igual al consumo privado (C) + consumo público (G) + inversión o formación bruta de capital (I) + el saldo de la balanza comercial (exportaciones (X) – importaciones (M))- y el PIB por la vía de los ingresos -que es igual al consumo privado (C) + ahorro privado (S) + ingresos netos del sector público (T).

Así, tenemos por un lado que PIB ≡ C + G + I + (X – M) y por otro que PIB ≡ C + T + S, con lo que C + T + S ≡ C + G + I + (X – M), resolviendo esta identidad se obtiene (C – C) + (G – T) + (S – I) + (X – M) = 0. Si tenemos en cuenta que (C – C) = 0; (G – T) = Saldo del sector público; (S – I) = Saldo del sector privado; (X – M) = Saldo del sector exterior. Entonces, saldo del sector público + saldo del sector privado + saldo del sector exterior = 0, o lo que es lo mismo, saldo del sector público + saldo del sector privado = -saldo del sector exterior. (G – T) + (S – I) ≡ -(X – M) Quod erat demonstrandum QED. Dado que los flujos financieros enlazan con las actividades productiva conviene señalar que (G – T) = Saldo del sector público es lo mismo que la capacidad/necesidad de financiación del sector público o el superávit/déficit público que conocemos. Análogamente sucede con el saldo del sector privado y del sector exterior. Así pues, desde el razonamiento matemático anteriormente expuesto, los teóricos de los balances sectoriales llegan a la siguiente hipótesis de partida: Capacidad/necesidad de financiación del sector público + capacidad/necesidad de financiación del sector privado = – capacidad/necesidad de financiación de esa economía frente al resto del mundo o lo que es lo mismo a la capacidad/necesidad de financiación del resto del mundo frente a esa economía. Pero por muy correcta que sea una hipótesis desde la lógica o las matemáticas esta puede ser falsa al contrastarla con la evidencia empírica. ¿Sucede eso en el caso de los balances sectoriales? No, de hecho sale verificada en el caso de España al mirar las cuentas no financieras que publica el INE y en las cuentas de cualquier país de la OCDE. Por lo tanto, la conjetura sale reforzada al someterla a la evidencia empírica. Llegados a este punto miremos el caso de España (ver tabla).

Balances sectoriales2

A tenor de los datos, España en el periodo 2000-2014 ha recibido financiación del exterior por valor de 581.948 millones de euros tras incurrir en todos los ejercicios salvo 2013 y en lo que llevamos de 2014 en déficits con el exterior. En el caso del sector privado y público hay que distinguir dos periodos: 2000-2007 (burbuja inmobiliaria) y 2008-2014 (crisis económica). En el primero, el sector público generó una capacidad de financiación frente al resto de sectores o un superávit público por valor de 40.116 millones €, por su parte en el mismo periodo el sector privado generó una necesidad de financiación frente al resto de sectores o un déficit privado de unos 410.141 millones €. En el segundo periodo, se cambian las tornas, el sector privado inicia un brutal proceso de desendeudamiento generando una capacidad de financiación frente al resto de sectores o superávit privado de 366.465 millones, mientras que el sector público en el mismo lapso acumuló una necesidad de financiación o déficit público de 578.388 millones. ¿Era posible el desendeudamiento del sector privado frente al resto de sectores sin que aumentara el déficit público? Los datos manifiestan que NO dado que durante el periodo de la burbuja inmobiliaria el déficit privado fue dirigido a financiar al sector de la construcción, el cuál no contribuyó a hacer de la economía española una economía competitiva susceptible de generar superávits por cuenta corriente abultados que permitieran posteriormente al sector privado desendeudarse frente al resto del mundo sin disparar con ello el déficit público tal y como manda la aritmética.

Esta ha sido la causa por la que se ha generado el descuadre de las cuentas públicas en los últimos tiempos y no como se suele mencionar en multitud de ocasiones por el Plan E. Ese plan, que podrá ser criticado todo lo que se quiera por sus resultados, supuso un desembolso de alrededor 13.000 millones de euros en 2009 y ese año el déficit público fue de 116.384 millones de euros con lo que esa medida no explicaría ni el 12% del desequilibrio presupuestario de ese ejercicio. La razón de esto y de porqué la consolidación fiscal (reducir el déficit público por debajo del 3% del PIB) es harto complicada radica en que la capacidad de financiación que genera el sector privado en España es mucho mayor que la capacidad de financiación que genera la economía española frente al resto del mundo y ese descuadre repercute plasmándose en una necesidad de financiación del sector público y dificultando su reducción.

Alemania, que es el principal adalid de la consolidación fiscal en toda Europa, siempre defiende que si ella fue capaz de lograrla y sacrificarse el resto de países de la eurozona puede. Sin embargo, viendo los datos de sus balances sectoriales ni mucho menos su situación es equiparable a la del resto de países europeos. (Ver tabla).

Balancessectorialesalemania

Cuando Alemania dio el pistoletazo de salida a su programa de consolidación fiscal, en julio de 2010, contaba en ese momento con una capacidad de financiación de su economía frente al resto del mundo de 146.289 millones €, el 6,64% de su PIB y en una tendencia de crecimiento de su superávit exterior dada la gran competitividad de la economía germana. De esta forma, Alemania para cumplir sus objetivos de consolidación fiscal simplemente le bastó con adoptar medidas que implicaron que el superávit privado se redujera un poco para que su sector público pasara de la necesidad a la capacidad de financiación.

Finalmente, ya se vislumbra la respuesta a la cuestión de por qué la consolidación fiscal simultánea para los países europeos es un disparate. Primero porque no todas las economías de la eurozona parten de la misma posición que es contar con un superávit exterior elevado, que les suponga de gran ayuda para cuadrar sus cifras (en el caso de España a mitad de año el superávit exterior solo llega al 0,13% del PIB). En segundo lugar, esos Estados tienen muy complicado convertirse todos en exportadores netos y a partir de ahí valerse de ello para cumplir con la consolidación fiscal, ya que dentro de la eurozona el superávit exterior que tiene un país respecto a otro socio comunitario supone un déficit exterior en este último de igual cuantía por principio contable. Así, en el seno de la eurozona la suma de las necesidades de financiación de un socio comunitario frente al resto y la suma de las capacidades de financiación de otro socio comunitario frente al resto en agregado darán cero. La única salida que queda es que los países que tienen el papel deficitario dentro de la eurozona se conviertan en exportadores netos más allá del área euro. Una labor harto complicada en estos momentos en que el crecimiento mundial es bastante bajo con respecto a la que ha sido su media histórica con lo que la demanda mundial que pueda absorber sus exportaciones ni está ni se le espera.

19/10/1987, el día en que el pánico se manifestó en forma de cifras

Sinopsis. Hoy se cumplen 27 años del “lunes negro de Wall Street”. El descalabro bursátil que pudo haber desembocado en otra ‘Gran Depresión’ fue contenido dentro del sector financiero, evitando su contagio a la economía real. Parte de las lecciones que se pueden extraer del pasado es que la contundencia de la actuación del Banco Central en este tipo de situaciones, aunque solo sea de forma verbal puede ser decisiva para que un evento de esta magnitud no desemboque en una crisis de mayor calado. En un día como hoy recordamos la historia.

¿Pueden las emociones como la histeria o el pánico ser expresadas en números? La respuesta es claramente no. Sin embargo, si ha habido momentos en la historia en que se ha estado cerca de producirse eso, uno de ellos sin duda fue tal día como hoy hace 27 años, el bautizado como “lunes negro de Wall Street”. En esa jornada, la Bolsa de Nueva York se hundió un 22,6%, perdiendo el índice Dow Jones 508,32 puntos en una sola sesión, literalmente se volatilizaron del mercado 500.000 millones de dólares (casi la mitad del PIB actual de España) y se produjo un efecto arrastre en el resto de mercados bursátiles como en el caso del japonés Nikkei 225 que cedió un 14,9% y del británico Footsie 100 que cayó más de un 12%.

Las causas que desencadenaron el considerado por la mayoría de analistas como el mayor crac de la historia bursátil todavía se están debatiendo sin que se haya llegado a una conclusión de consenso. Oficialmente, la Comisión Brady –encargada de investigar lo sucedido- señaló que el crac fue culpa de un fallo técnico en la entonces recién estrenada sincronización automática de los mercados de acciones y del de derivados de Chicago. Ciertamente en esa época estaban dando sus primeros pasos en Wall Street los programas informáticos de trading de alta frecuencia capaces de ejecutar órdenes de compra-venta a velocidades muchísimo mayores que la de cualquier operador humano, y sistemas como el Telerate o el Monitor Money Rate (este último desarrollado por la agencia Reuters) los cuales informaban del precio de los canjes de bonos y de las cotizaciones en el mercado de divisas, respectivamente. Sin embargo, en ese 19 de octubre se vio que la implementación de esa sofisticada informática -que por muy llamativa que era en esos momentos todavía estaba en pañales- era un mero ejercicio de voluntarismo. El mismo día del desplome, en la hora previa a que este se produjera las compañías aseguradoras fueron las responsables de más del 50% de las órdenes de ventas, demasiado para aquellos ordenadores que se colapsaron e incentivaron aún más la histeria reinante.

Pero más allá de los fallos técnicos, lo cierto es que el terreno para una abultada corrección bursátil estaba más que sembrado. El mercado acumulaba desde agosto de 1982 una racha alcista del 250% de revalorización –pasando de los 776 a los 2.722 puntos en agosto de 1987- muy por encima de lo que había aumentado el valor de las empresas que cotizaban en él. Además, en esa época se generalizaron el uso de complicados productos financieros basados en el apalancamiento (comprar aportando una pequeña suma de dinero y una elevada deuda para obtener suficientes beneficios con los que saldarla y además conseguir ganancias) que entrañaban un alto riesgo (*). La política del ‘laissez-faire’ (dejar hacer) favoreció la desregulación de los mercados y la especulación en Bolsa, estimulando la compra de grandes corporaciones con operaciones de alto endeudamiento las llamadas ‘leverage buyout’ (compra con apalancamiento) que debilitaban la estructura financiera de las empresas y  permitiendo también las ventas al descubierto (sin tener las acciones previamente).

No obstante, si hay una lección que aprender del “lunes negro de Wall Street” es cómo la rapidez, contundencia y el acierto que hagan desde el Banco Central de un país puede ser decisiva para que lo que fue un crac en el sector bursátil no se contagie a la economía real y desencadene una crisis de mucha mayor magnitud. A este respecto, la figura clave fue el por aquel entonces presidente de la Fed, Alan Greenspan, con unas declaraciones históricas que evitaron que un descalabro bursátil mayor al que supuso la antesala de la crisis de los años 30 no desembocara en una nueva ‘Gran Depresión’. Las declaraciones pronunciadas por Greenspan fueron: “La Reserva Federal, de acuerdo con sus responsabilidades como Banco Central de la nación, ha afirmado hoy su disponibilidad para servir como fuente de liquidez con el fin de apoyar al sistema económico y financiero”. Así, Greenspan además de garantizar todo el dinero necesario para la banca, inició un proceso de reducción de los tipos de interés que en apenas tres meses pasaron del 7,25% al 6,25%. Por su parte, la Casa Blanca llamó a todas las grandes corporaciones cotizadas para pedirles que recompraran sus propias acciones y atenuar el descalabro en Bolsa.

La tensión no fue más allá de Wall Street, el descenso del Dow Jones se detuvo en los 2.000 puntos apenas tres meses después, y la economía resistió. Un año después, el PIB de EEUU creció al 4,1% frente al 3,2% de 1987. Por todos estos méritos la figura de Alan Greenspan fue poco menos que endiosada (el New York Times llegó a titular ¿Quién necesita a Dios si tenemos a Alan Greenspan?). Sin embargo, tras su retirada aparecieron las primeras críticas fundamentadas, a modo de borrones, en la que había sido hasta el momento una carrera intachable. No en vano, sus políticas de amplia liquidez fueron uno de los pilares en los que se sustentó la crisis de las subprime. En cualquier modo, si hay una lección que Greenspan dejó para la posteridad es como el poder de la palabra y las intervenciones verbales de los Banco Centrales pueden marcar la diferencia entre el desastre o no. Así quedó demostrado en la Unión Europea cuando el presidente del BCE, Mario Draghi, pronunció sus celebres declaraciones el 26 de julio de 2012 que evitaron que la eurozona se fragmentara y la moneda única prácticamente desapareciera: “El euro es irreversible. Y no es una palabra vacía. […] El Banco Central Europeo está preparado para hacer lo que sea necesario para preservarlo. Y créanme, será suficiente”.

(*) Imaginemos que queremos realizar una operación en bolsa, y nos gastamos 1 millón de euros en acciones. Al cabo de un año las acciones valen 1,5 millones de euros y las vendemos. Hemos obtenido una rentabilidad del 50%. ¿Qué ocurre si realizamos la operación con cierto apalancamiento financiero? Supongamos que ponemos 200.000 euros y un banco (o varios, en un crédito sindicado) nos presta 800.000 euros a un tipo de interés del 10% anual. Al cabo de un año las acciones valen 1,5 millones de euros y vendemos. ¿Cuánto hemos ganado? Primero, debemos pagar 80.000 euros de intereses. Y luego debemos devolver los 800.000 euros que nos prestaron. Es decir, ganamos 1,5 millones menos 880.000 euros menos 200.000 euros iniciales, total 420.000 euros. Menos que antes, pero en realidad nuestro capital inicial eran 200.000 euros, y hemos ganado 420.000 euros, es decir, un 210%. La rentabilidad se ha multiplicado.

Ahora bien, también existen los riesgos. Imaginemos que al cabo del año las acciones no valen 1,5 millones de euros sino 900.000 euros. En el caso en que no haya apalancamiento hemos perdido 100.000 euros. En el caso con apalancamiento hemos perdido 100.000 euros y 80.000 euros de intereses. Casi el doble. Pero con una diferencia muy importante. En el primer caso hemos perdido dinero que era nuestro, teníamos 1 millón de euros que invertimos y perdimos el 10%. En el segundo caso teníamos 200.000 euros y al banco hay que devolverle 880.000 euros de los 900.000 que valían las acciones. Sólo recuperamos 20.000 euros. Es decir, las pérdidas son del 90%. Las pérdidas también se multiplican con apalancamiento. (ejemplo extraído de el Blog Salmón)

Pena capital, algunas reflexiones desde una óptica racional

Sinopsis. Enfocar el debate sobre la pena de muerte no desde un punto de vista moral sino desde una óptica racionalista. En este sentido, el argumento a favor sería “el efecto disuasorio que la pena capital ejerce evita un número de asesinatos de personas inocentes que se salvan por ello lo que claramente justifica la ejecución de un criminal”. La tesis contraria es “no hay pruebas del efecto disuasorio de la pena de muerte y dado que no hay sistema judicial perfecto que en algún determinado momento condene a un inocente, la instauración de este tipo de castigo implicaría matar a personas que no tienen culpa sin que por ello se eviten homicidios”. ¿Cuál de los dos argumentos tiene más verosimilitud? Los datos nos permiten vislumbrar una respuesta favorable hacia el segundo argumento.

Esta es una reedición de un post que hice en otra plataforma, el 10 de octubre con motivo del Día Mundial contra la pena de muerte.

Hoy es 10 de octubre y se celebra el 12º Día Mundial contra la pena de muerte. Con motivo de esta efeméride voy a escribir algunas reflexiones acerca de la aplicación de este tipo de castigo. En primer lugar, desde el punto de vista ético los argumentos a favor o en contra de la pena capital van desde “quien comete el crimen capital o un delito aún más abominable, merece la pena capital” al “la vida humana es ‘sagrada’, incluso la de un criminal, matarle por su delito nos pone a su nivel o nos acerca a él”.

Esquivando este tipo de apriorismos morales (sobre los cuales sin duda también se puede elaborar un debate) intentaré enfocar la posición en contra de la pena de muerte desde una óptica más racionalista. En este sentido, los argumentos a favor de este tipo de castigo serían básicamente apelar al efecto disuasorio que una condena de este calibre ejerce en la sociedad, así pues los defensores de la pena de muerte la justificarían en la medida en que por cada reo ejecutado se evita un número de asesinatos tal que las vidas de inocentes que se salvan por ello claramente justifican la muerte de un criminal.

En contraposición, la postura opuesta sería que la pena capital no genera ningún efecto disuasorio y que no hay sistema judicial perfecto que en un momento dado pueda condenar a un inocente, y en el caso de la pena capital de llevarse a cabo la condena la posibilidad de reparación si se ha dado un error judicial es imposible porque el reo para entonces estará muerto.

¿Con cuál argumento quedarse? Miremos algunos datos. En el argumento a favor uno de los estudios al que más echan manos quienes comparten esa postura es un análisis econométrico realizado por el economista Isaac Ehrlich  en el cual señala que se produce una reducción de ocho asesinatos por ajusticiamiento, lo que supondría una justificación de peso para los defensores de la pena de muerte. Por otro lado, la postura en contra de la pena de muerte se puede sustentar en los estudios realizados por el sociólogo y criminólogo Thorsten Sellin quien señala la nula capacidad disuasoria de este tipo de condenas ya que las principales causas que provocan un homicidio son el crimen pasional (llevado por un arrebato o enajenación transitoria), la compulsión (el criminal compulsivamente no puede evitar cometer el delito) y la ganancia económica (personas calculadoras que elaboran planes para perpetrar los crímenes con la firme convicción de que no serán atrapados). Sellin además de aportar este enfoque cualitativo de las principales motivaciones en la mente de los homicidas aporta también datos haciendo una exhaustiva comparación de las tasas de homicidios y delitos graves entre los diferentes Estados de EEUU que aplican la pena de muerte y quienes no. El resultado entre ambos es que las tasas de criminalidad en ese tipo de delitos son muy similares en todos los Estados comparados, lo que vendría a reforzar las tesis de Sellin.

¿Con que estudios nos quedamos entonces? Para responder a esta pregunta nos debemos basar en la robustez del método aplicado en cada estudio. A este respecto, en el caso de otros estudios econométricos realizados a la hora de replicar el análisis de Ehrlich con diferentes datos de distintas épocas salen conclusiones bastantes dispares. Por un lado, hay análisis en los que la capacidad disuasoria de la pena de muerte se eleva hasta 18 casos de asesinato evitados por ejecución (más del doble del efecto señalado por Ehrlich), hay otros estudios econométricos en los que el desaliento que puede provocar la pena de muerte en los asesinos es nulo y por haber existen hasta estudios siguiendo esa misma metodología en los que la pena de muerte estaría, si cabe, relacionada con más asesinatos y no menos. En resumen, no parece que las conclusiones que se puedan obtener aplicando la econometría, en lo que respecta a la criminalidad, sea muy fiable.

En cambio a la hora, de replicar el estudio elaborado por Sellin las conclusiones que se extraen son siempre las mismas y el nivel de matización de unas a otras es bastante reducido, en los estudios realizados estadísticamente no hay variaciones significativas entre la criminalidad de Estados en los que hay pena de muerte y entre los que no. También se han llegado a replicar el estudio de Sellin a escala internacional haciendo comparativas de diferentes países que abolieron la pena de muerte y comparando sus tasas de criminalidad antes y después de eliminar de su código penal ese castigo. Los resultados (*) mostraron que los índices de criminalidad no subieron. Así pues, la hipótesis de que la pena de muerte no sea un elemento desalentador para cometer crímenes y que no sirva para evitar asesinatos cobra fuerza.

Vamos con el otro pilar en el que se sustenta el argumento en contra de la pena de muerte. La posibilidad de que personas inocentes sean ejecutadas. Estimar cuál es el porcentaje de errores judiciales en este tipo de delitos es más complicado que en otros crímenes ya que cuando la condena se ha ejecutado hay muy pocos incentivos para seguir investigando sobre la posible inocencia del delincuente (si a un presunto ladrón le meten en la cárcel por robar, puede incentivar buscar su inocencia después de su condena ya que con ello podría quedar libre, en cambio seguir investigando la inocencia de un reo de muerte tras aplicar su condena, su ejecución, apenas incentiva ya que el muerto no va a resucitar por muchos que se demuestre que era inocente). No obstante, podemos acercarnos un poco a la realidad tomando por ejemplo las estadísticas en EEUU acerca de la pena de muerte, que es de los pocos países que posee una amplia base de datos sobre esto. Así, cogiendo los datos del Centro de Información obre la Pena de Muerte (DPIC, por sus siglas en inglés) se observa que desde que en EEUU se volvió a instaurar la pena capital en 1976 se han producido 7.817 condenas, (7.745 desde  1976 hasta 2013 más la recientemente contadas 72 de 2014) sobre las cuales se han llevado a cabo 1.394 ejecuciones y en las que se han exonerado (se les ha puesto en libertad por ser inocentes) a 150 personas. De esta forma, el porcentaje de exoneraciones sobre sentencias no ejecutadas sería del 2,3%, proporción reducida pero ni mucho menos igual a cero lo que viene a señalar que el hecho de imponer la pena de muerte en el código penal supone, cuanto menos, poner en peligro de muerte la vida de personas inocentes que pueden estar en el corredor de la muerte de media, entre que se produce la condena y su puesta en libertad tras demostrar su inocencia, 10 años.

Ampliación (20-12-2014) ¿Ha habido algún caso plenamente constatado de un ejecutado que sea inocente? La respuestas es sí. George Stinney, un adolescente negro de 14 años de edad que fue ejecutado en 1944 en el estado de Carolina del Sur. Su inocencia acaba de ser recientemente probada después de que la jueza Carmen Tevis Mullen haya dictaminado este 17 de diciembre que no fue sometido a un juicio justo, en el que se le acusó de matar a dos niñas blancas  y se demostró que él se autoinculpó sometido por una fuerte coacción, aunque en el momento en el que se perpetró el crimen el se encontraba con su hermana. Setenta años después se ha comprobado su inocencia y que su ejecución fue injusta.

A tenor de los datos expuestos, un servidor se decanta por escoger el argumento racional en contra de la pena de muerte, a la cual también me opongo en el plano ético-moral y lo reivindico especialmente en el día de hoy.

(*) Archer, Dane, and Rosemary Gartner. 1984. Homicide and the death penalty: A cross-national test of a deterrence hypothesis. In Archer and Gartner, Violence and Crime in Cross-National Perspective, New Haven: Yale University Press.