Historia de dos mentes: La abismal diferencia entre el riesgo real y el riesgo percibido

lunes, 22 de octubre de 2018

«En nuestra sociedad generalmente no se considera justificable tomar decisiones basadas puramente en una respuesta emocional. Queremos considerarnos científicos y racionales, por ello creamos estas razones después de haber decidido para justificar nuestra elección». —Raj Raghunathan, McCombs School of Business, The University of Texas at Austin

Mira atentamente la siguiente figura. ¿Qué círculo dirías que es más grande, el de la derecha o el de la izquierda?

imagen ilusión óptica de Ebbinghaus

Sí, efectivamente, ambos círculos son iguales. Sin embargo, por mucho que los midas con una regla y por mucho que "sepa" que son iguales, no puedes dejar de ver más grande el de la derecha que el de la izquierda, ¿verdad? 

Se trata de la conocida ilusión óptica de Ebbinghaus y seguro que has visto otras muchas parecidas. Pero ¿sabías que no todas las ilusiones de las que somos presa en nuestro día a día son visuales? Existen otras ilusiones mucho más peligrosas: son las ilusiones del pensamiento o "ilusiones cognitivas".

Las ilusiones cognitivas son las responsables de que nos dé más miedo volar en avión que conducir un coche o que nos parezca que mueren más personas víctimas de cualquier accidente que del corazón. Somos malísimos estimando el riesgo. Según los psicólogos, nos dejamos engañar de diferentes maneras:
  1. Distorsión por hábito: Cuanto más familiarizado estás con un riesgo, más expuesto a él y más habituado a mitigarlo, menos peligroso te parece. No pasa nada por usar el móvil mientras conduces, ¿verdad que no? Por el contrario, tiendes a sobreestimar los riesgos excepcionales o imprevistos.
  2. Distorsión temporal: Infravaloras un riesgo que va creciendo lentamente o que aumenta a largo plazo. Esos cigarritos que sabes que no tienes que fumar, pero que uno a uno parece que no hacen nada, … Sabes de lo que hablo, ¿a que sí? Por el contrario, tiendes a sobrerreacionar ante el riesgo inmediato.
  3. Distorsión espiritual: La gente sobreactúa frente a riesgos personificados, intencionales o mediatizados. ¿Verdad que tu reacción no es la misma si alguien te tira una piedra a la cabeza intencionadamente que si esa misma piedra te golpea porque se ha desprendido de una cornisa por culpa del viento? Por el contrario, tu reacción se queda corta antes los peligros naturales y no humanos.
Si somos animales racionales, la cúspide de la Evolución, ¿por qué entonces evaluamos tan mal el riesgo y podemos tomar tan malas decisiones? Porque no somos tan racionales como nos gusta creernos. Porque en realidad, no tenemos una sola mente: ¡somos dos mentes!

Dionisio y Apolo conviviendo en un mismo cerebro
Poseemos dos tipos de pensamiento: uno es intuitivo y automático, el otro es reflexivo y racional. Reciben nombres como AUTOMÁTICO y REFLEXIVO o SISTEMA I y SISTEMA II.  


AUTOMÁTICO y REFLEXIVO o SISTEMA I y SISTEMA II imagen

Tal y como explica Daniel Kahneman en su obra magna Pensar rápido, pensar despacio:

«El Sistema 1 opera de manera rápida y automática, con poco o ningún esfuerzo y sin sensación de control voluntario.

El Sistema 2 centra la atención en las actividades mentales esforzadas que lo demandan, incluidos los cálculos complejos. Las operaciones del Sistema 2 están a menudo asociadas a la experiencia subjetiva de actuar, elegir y concentrarse.

Cuando pensamos en nosotros mismos, nos identificamos con el Sistema 2, con el yo consciente, racional, que tiene creencias, hace elecciones y decide qué pensar y qué hacer. Las operaciones automáticas del Sistema 1 generan patrones de ideas sorprendentemente complejos, pero solo el lento Sistema 2 puede construir pensamientos en una serie ordenada de pasos».

La siguiente tabla recoge varios ejemplos de operaciones de ambos sistemas:

imagen tabla de operaciones ciberseguridad

No existe una dicotomía entre el Sistema 1 y el Sistema 2: no son dos homúnculos sentados sobre nuestros hombros, susurrándonos cada uno a un oído. Ni somos perfectamente racionales ni completamente emocionales e instintivos. Somos ambos, todo el tiempo. Son componentes entrelazados de un sistema único. Sí, a veces usamos más uno que otro, pero ambos se ven involucrados en la evaluación del riesgo.

Si no sabes responder a una pregunta difícil, sustitúyela por una fácil
¿Por qué nuestro cerebro habría de evolucionar hacia esta división del trabajo entre el Sistema 1 y el Sistema 2? Porque resulta ser muy eficiente: minimiza el esfuerzo y optimiza la ejecución. La mayor parte del tiempo nos va muy bien con esta división de tareas, porque, como afirma Daniel Kahneman en Pensar rápido, pensar despacio:

«El Sistema 1 es en general muy bueno en lo que hace: sus modelos de situaciones familiares son adecuados, sus predicciones a corto plazo suelen ser también adecuadas y sus respuestas iniciales a los retos son rápidas y generalmente apropiadas. Sin embargo, en el Sistema 1 hay sesgos, errores sistemáticos que es propenso a cometer en circunstancias específicas».

¿Y cómo se originan estos sesgos? Responde a las siguientes preguntas con un simple SÍ o un NO y te quedará clarísimo.
  1. ¿Crees que el ciberterrorismo representa una amenaza seria para la seguridad ciudadana?
  2. ¿Crees que el criptominado representa una amenaza seria para la seguridad ciudadana?
  3. ¿Crees que el uso de smartphones con conexión a Internet representa una amenaza seria para la seguridad ciudadana?
  4. Y ahora la pregunta más importante: ¿Tenías a tu disposición todos los datos y hechos necesarios para dar una respuesta completa y totalmente informada, analítica y razonada a las tres primeras preguntas?

No sé lo que habrás respondido a las tres primeras, pero apuesto a que has respondido un rotundo NO a la cuarta. ¡Nadie piensa que posee todos los hechos necesarios para responderlas! Y, a pesar de todo, respondiste Sí o No a las tres primeras porque tienes un conocimiento intuitivo gracias a tus experiencias y lecturas sobre el riesgo de las amenazas mencionadas.

Así funcionamos la mayor parte del tiempo en nuestra vida: a cada instante nos vemos obligados a realizar juicios y tomar decisiones, aunque no dispongamos a nuestro alcance de todos los datos y hechos, ni de tiempo para reunirlos todos, ni de capacidad intelectual para procesarlos por completo. Nuestra racionalidad está limitada o "acotada", como la llama Herbert Simon.

El mundo moderno es demasiado complejo y nuestra mente demasiado limitada como para poder procesar toda la información antes de tomar una decisión. Así que, en lugar de perseguir procedimientos óptimos de maximización de las funciones de utilidad, ¡usamos heurísticas! Cuando nos vemos ante una cuestión difícil, a menudo respondemos a otra más fácil, por lo general sin advertir la sustitución. Se trata de un procedimiento sencillo que nos ayuda a encontrar respuestas adecuadas, aunque a menudo imperfectas, a preguntas difíciles.

Ahí reside el origen de nuestros sesgos. Ahí reside la razón por la que suele existir un abismo entre nuestra evaluación del riesgo y el riesgo real. Nuestros Sistema 1 y 2 evolucionaron en un entorno donde las amenazas eran relativamente sencillas de entender: un depredador que se abalanza sobre ti, un fuego que avanza o un miembro de otra tribu que te mira con cara de pocos amigos con un objeto oculto en la mano. A la hora de evaluar riesgos en el contexto de nuestra sociedad moderna el Sistema 1 suele fallar miserablemente, mientras que el Sistema 2 es incapaz de hacerse con el control. Nuestros cerebros se han quedado estancados en las mismas heurísticas de hace cientos de miles de años, aptas para la vida primitiva en la Naturaleza en grupos sociales muy reducidos. No le ha dado tiempo de actualizarse a una versión para el siglo XXI.

Necesitamos ejecutar un sistema operativo nuevo en un hardware de más de 100.000 años
Ese viejo software plagado de bugs y pobremente parcheado es propenso a errores. Y cuando una heurística falla, nuestro sentimiento de seguridad se aleja de la realidad de la seguridad. A veces prestamos más atención al riesgo mediático o más amenazador, en lugar de al más prevalente pero menos noticioso o llamativo. O creamos riesgos nuevos tratando de eludir los viejos. La seguridad es siempre un compromiso. Y si la severidad del riesgo se malinterpreta, entonces la seguridad será inadecuada. De ahí la importancia de aprender a vencer los sesgos cognitivos a la hora de tomar decisiones de seguridad.

En suma, la percepción del riesgo es un sistema único, pero multifacetado: cada una de sus complejas caras contribuye a nuestros juicios sobre las amenazas que se nos ciernen. En próximas entradas explicaremos por qué nos resulta tan difícil pensar estadísticamente y, en consecuencia, evaluamos tan mal el riesgo, lo que conduce a malas decisiones de seguridad. Nos adentraremos en el funcionamiento del cerebro para entender los límites de nuestra racionalidad acotada y estar en guardia ante nuestros errores de pensamiento más devastadores.

Gonzalo Álvarez de Marañón
Innovación y Laboratorio de ElevenPaths

2 comentarios:

  1. Perfecto. Espero ansioso el próximo artículo. Tal vez encuentre algunas respuestas a la pregunta: ¿se pueden integrar ambos sistemas para ayudarnos a realizar una "adecuada" estimación del riesgo?

    ResponderEliminar
  2. Mañana saldrá la siguiente entrega de esta serie sobre nuestros errores de pensamiento y cómo superarlos. Hablaré sobre la Teoría Prospectiva y nuestras decisiones menos racionales de lo que creemos.

    ResponderEliminar