Cuídate de los cisnes negros


por:  José Cabrera

Antes del descubrimiento de Australia, los europeos no tenían ningún motivo para pensar que podía existir un cisne negro. Hasta que llegamos a Australia, y el descubrimiento de una sola ave acabó con siglos de evidencia. Este hecho ilustra una grave limitación de nuestro aprendizaje a partir de la observación y la experiencia.
Nassim Nicholas Taleb, autor de The Black Swan
 
La reflexión de Nassim nos muestra uno de los errores más comunes en los seres humanos cuando nos enfrentamos a la complejidad y la incertidumbre. Si hemos vivido en el hemisferio norte toda nuestra vida, pensaremos que todos los cisnes son blancos. La existencia de un cisne negro nos parece imposible debido a nuestra reducida experiencia. Pero el hecho es que hoy, en un mundo interconectado, complejo y extremo, en el que la información circula a toda velocidad y en todas las direcciones, cada vez es más posible que nos crucemos con un Cisne Negro en el camino. Y eso puede cambiar nuestra vida.
De ahí la importancia de preguntarnos: ¿Cómo podemos identificar un Cisne Negro, si éstos son impredecibles? ¿Qué es lo que podemos hacer para amoldarnos a su existencia?  En esta primera conversación sobre las propuestas de Nassim Taleb, reflexionaremos sobre estas cuestiones y sobre nuestra ceguera frente a los Cisnes Negros. En la siguiente conversación, hablaremos de algunos consejos prácticos que nos ayudarán a centrar nuestra atención en lo verdaderamente importante en nuestras vidas.
¿Qué es un Cisne Negro?
Lo que Nassim llama un Cisne Negro no es un ave, sino un suceso que tiene las tres propiedades siguientes:
    1.    Es una rareza que habita fuera del reino de las expectativas normales, porque no hay ningún elemento en el pasado que apunte de forma convincente a su posibilidad.
    2.    Produce un impacto extremo con consecuencias importantes para nuestras vidas.
    3.    Está caracterizado por la predictibilidad retrospectiva. Es decir, no podemos predecirlo antes de que suceda, pero una vez que ocurre, pensamos que “lo habíamos visto venir”.
Hay muchas cosas que no somos capaces de predecir, pero que pueden cambiar nuestra vida por completo. Por ejemplo, la crisis financiera global, o los atentados del 11M. No todas tienen por qué ser negativas: también estamos hablando del impacto de Internet, el ascenso del ordenador, el descubrimiento de la penicilina, o la caída del régimen franquista. Pensemos en nuestra propia vida, en la elección de carrera, por ejemplo; en cómo nos ha ido económicamente, dónde vivimos actualmente o cuándo conocimos a nuestra pareja. ¿Cuántos sucesos realmente importantes en nuestra propia existencia ocurrieron de una forma prevista y programada, conforme a un plan establecido? En mi caso personal, la respuesta es bien sencilla: la mayoría de los eventos importantes en mi vida han sido Cisnes Negros. Es decir, eventos que cumplen las tres propiedades anteriores: rareza, impacto extremo y predictibilidad restrospectiva.
La cuestión es la siguiente: ¿por qué, a pesar del tiempo y el esfuerzo que dedicamos al estudio y al análisis de la información, no somos capaces de anticipar estos fenómenos? ¿De dónde procede nuestra ceguera ante los Cisnes Negros? Lo sorprendente, según Nassim, no es la magnitud de nuestros errores de predicción, sino la falta de conciencia que tenemos de los mismos. En otras palabras, nos cuesta aceptar que lo que no sabemos es más importante que lo que sabemos, y por eso seguimos centrados en los detalles, dedicando más tiempo a la calderilla que a los billetes. Lo vemos cada día en la trivialidad de las noticias, tertulias o foros de opinión. ¡Qué gran desperdicio de energía! Es como si nuestra mente operara con un manual de usuario equivocado.
La ilusión de la predicción
Nos pasamos gran parte de nuestra vida preocupados por el futuro, tratando de anticipar lo que sucederá, con el fin de proteger a nuestras familias y maximizar nuestras oportunidades. Los expertos analizan los sucesos y noticias en la televisión, y ofrecen sus predicciones. El Gobierno, los sociólogos, los departamentos de estadística, y la industria informática acumulan montañas de datos que luego utilizan para anticipar y predecir los riesgos a los que nos enfrentamos. Pero la realidad es que fallamos una y otra vez. Acontecimientos que después resultan trascendentales nos pillan por sorpresa, como sucedió con la crisis del los mercados en 1987, con los trágicos ataques terroristas del 11 de septiembre de 2001, el estallido de la burbuja .com en el 2000 y, todavía más recientemente, con el colapso del mercado inmobiliario en España y la crisis financiera global en la que nos encontramos inmersos.
En su libro El cisne negro: el impacto de lo altamente improbable, Nassim Nicholas Taleb -profesor libanés-americano, ensayista de éxito y antiguo operador bursátil- nos propone una profunda reflexión sobre gran parte de los supuestos filosófico-matemáticos que actualmente aplicamos a la economía, a la concepción del riesgo y a la gestión de la incertidumbre. Esa filosofía fallida es la que ha estado detrás de la crisis financiera actual. Las reflexiones de Taleb nos ayudarán a descubrir los errores que cometemos en nuestros procesos de razonamiento cuando nos enfrentamos a la complejidad, la incertidumbre y la aleatoriedad del mundo en el que vivimos
La tesis de Taleb es que no somos somos muy buenos a la hora de predecir los fenómenos realmente importantes. Nuestra capacidad se reduce a las predicciones sencillas en entornos sencillos. Como máximo, somos capaces de anticipar el número de accidentes que va a haber esta semana en nuestras carreteras. Más allá de eso, nuestras predicciones son una mera ilusión. ¿Por qué? Vamos a tratar de explicarlo.
La evidencia silenciosa
La “evidencia silenciosa” es el mecanismo por el que mantenemos la ilusión de que podemos entender el mundo, y de que somos capaces de anticipar lo que va a ocurrir. Tras el suceso, nos centramos sólo en una parte de la información, justamente la que podría explicarlo, y dejamos de lado el resto de las pruebas y evidencias. Para Taleb, el ejemplo más claro es la I Guerra Mundial. Después de la guerra, estudiamos que el conflicto estalló por la tensión existente entre Reino Unido por un lado, y Austria y Alemania por otro. Es decir, que la tensión llevó a la guerra y que, por lo tanto, si hay tensión, podemos predecir el estallido de una guerra. Pero en esta concepción no tenemos en cuenta los episodios de tensión que no desembocaron en una guerra, y que han sido la mayoría. En palabras de Taleb: “estos episodios llevaron a los reyes y políticos a Baden-Baden a escuchar ópera y beber champán”.
El hecho es que, a la hora de tomar decisiones, nos basamos en una cierta información, y dejamos de lado todo el resto: lo que no vemos, lo que no sabemos, lo que no observamos, los textos perdidos, los desenlaces diferentes, etc. Tenemos la tendencia a fijarnos en los que sobreviven, en los que triunfan, y no en los que no llegan a nada. Entre otras cosas, porque de ellos no sabemos casi nada.
El Pavo de Russell: el problema de la inducción simplificada
Taleb presenta el problema de la inducción -obtener conclusiones generales a partir de datos particulares- utilizando el caso del “pavo de Russell”, llamado así en honor a Bertrand Russell, que fue quien expuso por primera vez el ejemplo, retomando el problema de la inducción que inició David Hume. El caso es el siguiente:
El pavo comprobó que todas las mañanas le daban de comer y, tras varios meses de observaciones, concluyó que existía una ley universal: “Estos humanos tan amables me deben de querer mucho, puesto que todos los días me dan de comer generosamente”. Cuando llegó el día de Acción de Gracias, resulta que los “amables humanos” afilaron el cuchillo y demostraron que la ley formulada por el pavo valía bien poco. Para el pavo, eso era un Cisne Negro; para el carnicero no, porque sabía lo que iba a pasar. Así que el cisne negro depende de nuestro conocimiento. Y debemos tener en cuenta que hay muchas cosas que no conocemos.
Nuestra manera de pensar no es muy diferente de la del “pavo de Russell”. Gran parte de la matemática estadística, el cálculo de riesgos y las distribuciones de probabilidad están atravesadas por esta manera de pensar: a mayor frecuencia de un hecho, menor es la sensibilidad frente a lo inesperado.
¿Por qué tenemos problemas para predecir las cosas más importantes?
Nuestro mecanismo interno para la estimación de las probabilidades de eventos significativos es demasiado anticuado para la complejidad actual del mundo moderno. Históricamente, hemos tenido que hacer frente a un número mucho menor de variables, menos información y un menor número de teorías para explicar lo que nos sucede. Nuestros antepasados vivieron en un hábitat muy previsible. Hubo muchas pequeñas sorpresas, pero pocas grandes.
Hoy en día, la comunicación es global. La sociedad es tan compleja que casi nada de nuestro futuro sale como lo habíamos planeado. Nos preocupamos y ponemos nuestra energía en cosas irrelevantes. Y prestamos poca atención a sucesos tan trascendentales como la caída de la Unión Soviética, el cambio climático, o la variabilidad de los precios del petróleo. El mayor problema es que nos resistimos a la idea de que nuestra existencia es cada vez más imprevisible. Nos resulta aterrador pensar que lo que ocurre es a menudo sólo una cuestión de azar. Preferimos engañarnos con la ilusión de que realmente controlamos nuestro mundo.
La distorsión retrospectiva
En su libro, Taleb hace un recorrido por los diferentes errores del razonamiento humano cuando se encuentra frente a los cisnes negros. Lo más relevante es que los humanos no somos capaces de anticipar lo que va a suceder pero, en cambio, “somos muy buenos a la hora de predecir los sucesos de modo retroactivo”… Esta distorsión se produce porque sobrestimamos el valor de las explicaciones racionales y de los datos, a la vez que subestimamos la importancia de la aleatoriedad, de lo que no puede ser explicado con los datos.
Para el profesor Taleb, existe una base genética y filosófica que explica lo mal preparados que estamos los humanos cuando nos enfrentamos a la incertidumbre y la aleatoriedad. Según Taleb, la evolución no favoreció un tipo de pensamiento complejo y probabilístico; muy al contrario: somos muy rápidos a la hora de adoptar decisiones instantáneas, sustentadas en una mínima cantidad de datos o en teorías superficiales y carentes de solidez. Este es el ejemplo que propone un divertido Taleb para explicarlo:
Tal vez porque quienes divisaban un león y echaban a correr -presuponiendo que todos los animales salvajes siempre comen seres humanos- tenían más probabilidades de sobrevivir que quienes preferían poner a prueba tal hipótesis de manera experimental. Claro que hay leones de talante amistoso -de la misma manera que existen los cisnes negros- pero es preferible ser prudente y cauteloso de antemano que sufrir más tarde las consecuencias. Es, de nuevo, una visión sobre el problema de la inducción que hemos tratado antes.
La falacia platónica
Para Taleb existe un problema filosófico fundamental. Se trata de la “falacia platónica”. Somos hijos de la escuela platónica, que nos animó a preferir la teoría estructurada, ordinaria y comprensible, frente a la desordenada y compleja realidad. También somos víctimas de una “falacia narrativa. Y es que, como ya hemos comentado, seleccionamos únicamente los hechos que encajan en nuestras teorías. Y cuando los hechos ya han tenido lugar, creamos historias post-hoc para que el hecho parezca tener una causa. De hecho, siempre tendemos a recordar que nuestras previsiones fueron más ajustadas a lo que luego sucedió. Es un mecanismo psicológico por el que todo el tiempo tratamos de construir historias “consistentes”, retocando las previsiones reales que en su momento hicimos.
Mediocristán y Extremistán
Para explicar la evolución de nuestro sistema económico, Taleb propone la existencia de dos “países” bien diferentes: Mediocristán y Extremistán. Imaginemos que reunimos en uno de esos países a 1.000 personas elegidas al azar, y que las pesamos para extraer la media. Si traemos a la persona más gorda del mundo -pongamos que pesa 350 kilos- ¿cambiará mucho el peso medio de las 1.001 personas reunidas en ese país? La respuesta es no. La media apenas variará. Bienvenidos a Mediocristán, el país de las matemáticas, la estadística y la teoría de la probabilidad. En ese país existen las excepciones, pero apenas tienen consecuencias. Las variaciones individuales apenas alteran el promedio. En Mediocristán tienen sentido distribuciones como la de la Campana de Gauss.
Ahora cojamos a esas mismas 1.000 personas y contemos su dinero para hacer una media. Acto seguido, introduzcamos en el país a Bill Gates, supuestamente el hombre más rico del mundo. ¿Cambiará mucho la media de riqueza de los allí reunidos? Sí. Cambiará de forma brutal. Es casi seguro que Bill Gates, con sus 50.000 millones de dólares, tenga mucho más dinero él sólo que todo el resto de habitantes. Bienvenidos a Extremistán, un país en el que la estadística, la probabilidad y la mayor parte de las herramientas de medición que utilizamos no funcionan bien. Extremistán es el país de matemáticas menos ortodoxas, como por ejemplo la geometría fractal descubierta por Benoît Mandelbrot. Las distribuciones siguen una ley de potencia como la de Zipf, la de Pareto o, por poner un ejemplo más reciente, el “Long Tail” de Chris Anderson, del que ya hemos hablado en ocasiones anteriores.
En otras palabras, Extremistán es el país de los Cisnes Negros. Es el país dominado por la excepción. La justicia social pertenece a Mediocristán, pero las oportunidades y, sobre todo, la vida económica actual, es típica de Extremistán, un país en el que una sola excepción puede llegar a destruir el sistema. Ese es el mundo complejo en el que vivimos.
A modo de resumen, nuestra ceguera frente a los Cisnes Negros
    ▪    Un Cisne Negro es un suceso raro, de gran impacto en nuestras vidas y que solo podemos predecir retrospectivamente.
    ▪    Muchas de las cosas más importantes que han ocurrido en nuestras vidas son Cisnes Negros; es decir, que no han ocurrido de una forma predecible y programada.
    ▪    La lógica de los Cisnes Negros hace que lo que no sabemos sea más importante que lo que sabemos. Lo que sabemos realmente no nos puede sorprender o hacer daño. A menudo lo normal es irrelevante.
    ▪    Tendemos a sobrestimar el valor de las explicaciones de los datos, a la vez que subestimamos la importancia de la aleatoriedad (que resulta inexplicable utilizando los datos). Estamos mal dotados para enfrentarnos a la incertidumbre y lo altamente improbable.
    ▪    Preferimos la teoria estructurada, ordinaria y comprensible a la realidad desordenada y compleja. Seleccionamos los hechos que encajan bien en nuestra historia y rechazamos lo discontinuo.
    ▪    La incapacidad para predecir los Cisnes Negros conlleva la incapacidad para predecir el curso de la historia, dada la incidencia y la importancia de estos sucesos en el curso de los acontecimientos.
    ▪    Los Cisnes Negros han ido en aumento a medida que el mundo se ha hecho más complejo y global. La Era de la Colaboración es un Cisne Negro con gran impacto para las personas y las organizaciones.

Entradas populares de este blog

Científicos declaran oficialmente el fluoruro (flúor) como una neurotoxina

Francia: ‘Mi orina contiene glifosato, ¿y la tuya?’ Denuncia contra el polémico herbicida

Japón decidió deshacerse de todos los hornos de microondas en el país antes de finales de este año