La teoría del cisne negro
Nassim Taleb se pregunta qué responsabilidad tenemos frente a lo que no podemos prever y reflexiona sobre nuestra reacción ante aquellos acontecimientos inesperados que hacen tambalear el sistema.
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2026
Artículo
Antes de llegar a Australia, en Occidente se creía que todos los cisnes eran blancos. Era algo que se daba por hecho porque nadie había visto uno de otro color. «La visión del primer cisne negro pudo ser una sorpresa interesante para unos pocos ornitólogos (y otras personas con mucho interés por el color de las aves), pero la importancia de la historia no radica aquí. Este hecho ilustra una grave limitación de nuestro aprendizaje a partir de la observación o la experiencia, y la fragilidad de nuestro conocimiento», escribe Nassim Nicholas Taleb. El filósofo y matemático explica así la metáfora que da nombre a su libro El cisne negro. El impacto de lo altamente improbable.
A lo largo de su ensayo, Taleb se pregunta qué responsabilidad tenemos frente a lo que no podemos prever y reflexiona sobre nuestra reacción ante aquellos acontecimientos inesperados que hacen tambalear el sistema. Un «cisne negro» tiene tres atributos. En primer lugar, es una rareza porque nada del pasado puede ayudarnos a preverlo. En segundo, tiene un gran impacto. Y, en tercer lugar, pese a la rareza del evento, el ser humano busca una explicación lógica a posteriori con el objetivo de hacerlo explicable y predecible. Nassim Taleb lo resume como «rareza, impacto y predictibilidad retrospectiva (aunque no prospectiva)».
El problema no es solo la dificultad para prever algunos eventos que parecen improbables, sino la tendencia humana a construir explicaciones retrospectivas que nos hacen creer que el mundo es más predecible de lo que realmente es. Cuando miramos hacia atrás, todo parece tener una lógica clara. Sin embargo, cuando miramos hacia adelante, reaparece la incertidumbre. «La lógica del Cisne Negro hace que lo que no sabemos sea más importante que lo que sabemos. Tengamos en cuenta que muchos Cisnes Negros pueden estar causados y exacerbados por el hecho de ser inesperados», afirma Taleb.
Esta teoría, que puede aplicarse a los mercados financieros, a conflictos políticos o problemas sociales, plantea importantes dilemas. Si los acontecimientos más decisivos son precisamente aquellos que no sabemos anticipar, entonces la cuestión ya no es únicamente predecir el futuro, sino decidir cómo actuar en un contexto que nunca podremos controlar del todo.
Durante décadas, buena parte de las instituciones modernas se han construido sobre la confianza en modelos predictivos. Economistas, analistas de riesgos y tecnócratas elaboran proyecciones basadas en datos del pasado para estimar lo que ocurrirá mañana. Sin embargo, Taleb sostiene que esta confianza puede ser engañosa. Muchos de esos modelos funcionan solo en situaciones estables, pero fallan cuando aparecen acontecimientos extremos, que son los que realmente transforman la historia.
Un ejemplo clásico de cisne negro fue el atentado del 11 de septiembre de 2001 en Estados Unidos. ¿Quién podría haber pensado que era posible que alguien atacara las Torres Gemelas utilizando aviones comerciales? También la crisis económica de 2008 suele citarse como ejemplo de cisne negro, a pesar de que existieran señales de advertencia. Durante años, el sistema financiero internacional parecía relativamente estable gracias a modelos matemáticos de gestión del riesgo. Sin embargo, cuando el sistema colapsó, se hizo evidente que esos modelos habían subestimado riesgos sistémicos y nadie (o casi nadie) esperaba un colapso de tales dimensiones.
Tras un suceso traumático, tendemos a sobrestimar la probabilidad de que algo parecido vuelva a ocurrir. Es lo que Amos Tversky y Daniel Kahneman llamaron «heurística de la disponibilidad»: un sesgo cognitivo que nos lleva a evaluar los riesgos a partir de los ejemplos más vívidos o recientes que tenemos en mente.
Reaccionar ante lo imprevisible
En un contexto de incertidumbre, ¿es posible adelantarnos a los peligros? La información y la prevención pueden ayudarnos a anticipar algunos escenarios, pero lo que propone Taleb es un cambio de perspectiva. Tenemos que aceptar que el conocimiento humano tiene límites. Por eso, en lugar de intentar predecir todos los posibles cisnes negros —algo que es imposible—, las sociedades deberían preocuparse por construir sistemas capaces de resistirlos. Taleb utiliza el concepto de «robustez» para referirse a las estructuras que no se derrumban cuando aparece lo inesperado, sino que se adaptan o, incluso, se fortalecen ante ese tipo de evento.
En lugar de intentar predecir los cisnes negros, las sociedades deberían preocuparse por construir sistemas capaces de resistirlos
Un sistema diseñado para resistir la incertidumbre acepta, también, cierto margen de error y de ineficiencia. La búsqueda constante de la eficiencia de los procesos puede funcionar en momentos de estabilidad, pero vuelve a las instituciones más vulnerables cuando aparece algo inesperado. Los sistemas que mantienen reservas, márgenes de seguridad o cierta flexibilidad pueden parecer menos eficientes en el corto plazo, pero suelen resistir mejor cuando ocurre algo inesperado. Una red eléctrica con capacidad de reserva puede responder si la demanda aumenta de repente; un sistema sanitario que no funciona siempre al límite dispone de más margen para afrontar una crisis. En todos estos casos, se renuncia a parte de la eficiencia inmediata para ganar estabilidad a largo plazo.
Pero la crítica de Taleb también apunta a la relación entre conocimiento y humildad. Queremos entender por qué ocurren las cosas, identificar patrones y construir narrativas coherentes sobre el mundo. Sin embargo, esa misma necesidad puede llevarnos a sobreestimar nuestras capacidades. «El Cisne Negro procede de nuestra falsa comprensión de la probabilidad de las sorpresas, de esos libros no leídos, porque nos tomamos un poco demasiado en serio lo que sabemos», afirma Taleb.
Por eso, esta falsa ilusión de comprensión tiende a llevarnos a buscar explicaciones lógicas cuando aparece algo que no habíamos podido imaginar. Con el tiempo, esas explicaciones crean la sensación de que el evento era previsible, aunque no lo fuera. Sin embargo, aceptar la incertidumbre y los límites de nuestro conocimiento no significa resignarnos, sino entender que los cisnes negros existen. Así, podremos diseñar sistemas que soporten los golpes de los eventos poco probables sin derrumbarse.
COMENTARIOS