Lo incompleto y la imaginación

4

Junio de 2015
Ivan Obolensky

Los seres humanos percibimos el mundo a través de la pequeña ventana de los sentidos, y en comparación con lo que el mundo nos ofrece, ciertamente es una ventana muy pequeña.

Nuestra visión, por ejemplo, se limita a una porción microscópica del amplio espectro de la radiación electromagnética, que se extiende desde las altas frecuencias de los rayos gamma hasta las bajas frecuencias de las ondas de radio. Nuestra audición nos permite percibir los cambios de presión que crean el sonido, pero las vibraciones de baja frecuencia, como las que utilizan los elefantes, y los chirridos de alta frecuencia emitidos por los murciélagos escapan a nuestras habilidades auditivas. Tenemos en la piel un sensor de radiaciones infrarrojas, sensible al calor, y podemos sin duda degustar moléculas y oler algunas de ellas cuando viajan en el aire, pero con mucha menor intensidad que otros animales, como los perros. Además, somos conscientes de los cambios en la ubicación y la dirección.

Si tomáramos la cantidad disponible de información en bruto que podríamos percibir en un momento dado a nuestro alrededor y la comparáramos con la que realmente llega a nuestro cerebro a través de los sentidos, el porcentaje sería muy pequeño. Es cierto que podemos mejorar nuestras percepciones mediante sensores infrarrojos o monitores térmicos, pero el desempeño de estos dispositivos todavía tendría que adaptarse a lo que nuestros sentidos pueden asimilar. Operamos basados en una información incompleta, y siempre lo haremos. Esto no es un fallo mental, sino sistémico, que compartimos todos los humanos.

Para compensar esta percepción siempre incompleta de lo que nos rodea, nuestro cerebro cuenta con un mecanismo incorporado que complementa los datos que recibimos con información elaborada internamente. (El punctum caecum es un ejemplo. Este es el nombre dado en latín al punto ciego causado por la falta de fotorreceptores en el lugar donde el nervio óptico se conecta al ojo. Ver “Recuerdos). El resultado es una visión del mundo continua e integrada, pero que no es necesariamente su representación verdadera y exacta. Es tanta la percepción que se ve aumentada, que no resulta extraño que tengamos una excelente imaginación. Nuestra capacidad de imaginar es una compensación extraordinaria para nuestra ceguera sensorial. Somos expertos en vislumbrar consecuencias, posibilidades y cosas que no existen.

Los centros y los mecanismos que el cerebro utiliza para generar estos datos suplementarios aún no se entienden por completo.

Existen varios modelos que explican el funcionamiento de la mente. Uno de mis favoritos es el de un director ejecutivo que maneja una organización compuesta por una multitud de miembros con derecho a voto, pero sobre los cuales el director tiene poco control, aparte de vetar lo que el consenso recomienda. Estos miembros funcionan a un nivel por debajo de la conciencia del director.

La parte activa de la mente podría compararse con el director, que consideramos como nosotros mismos, mientras que los miembros votantes constituyen las funciones automáticas.

Tanto la parte activa como la automática tienen atributos positivos y negativos que se desprenden indirectamente del mecanismo que compensa nuestra falta de información sensorial completa. La parte activa tiene capacidad de imaginar, pero al igual que un director típico puede sentir desgano o sobrecargarse de trabajo y depender de las partes automáticas para manejar actividades monótonas del día a día, como los desplazamientos, mientras piensa en otras cosas. La parte automática tiene varias cualidades positivas. Permite que el director general se concentre en el panorama general y suministra a la vez una visión integrada del mundo. En el lado negativo tenemos que también funciona con datos incompletos y, si el director se encuentra haciendo otras cosas, puede sacar conclusiones precipitadas que este acepta. Esto se conoce como sesgo cognitivo.1

Hay otros modelos.

Según Daniel Kahneman, ganador del Premio Nobel de Economía en 2002, quien junto a Amos Tversky introdujo en 1974 la idea del sesgo cognitivo, nuestras mentes pueden modelarse si pensamos en ellas como conformadas por dos partes básicas llamadas Sistema 1 y Sistema 2. El Sistema 1 es intuitivo, emocional y automático. El Sistema 2 es más lento, deliberado y lógico.

Si decidimos aprender un idioma o volar un avión, utilizamos inicialmente la parte más lenta, el Sistema 2. Pensamos en lo que estamos haciendo y cómo hacerlo. Poco a poco el comportamiento aprendido se automatiza y el lado intuitivo se hace cargo. El Sistema 1 realiza tareas como hablar con fluidez, sin necesidad de que pensemos en ello. El Sistema 1 es rápido.

Según Kahneman, el Sistema 2 también puede bajar la guardia y dejar de inspeccionar la información del sistema 1. Entonces nos convertimos en presas de los sesgos cognitivos.

Los sesgos cognitivos son tendencias a pensar automáticamente, de maneras particulares que conducen a errores de juicio.2

Miramos el mundo en el contexto de lo que sabemos y lo que hemos vivido.

Esto se llama un efecto de encuadre. Un aguacero que se acerca es visto de manera muy diferente por un agricultor que tiene su campo seco que por su esposa que organiza una venta de pasteles al aire libre.

Tenemos el sesgo de supervivencia. Tendemos a pensar que quienes sobrevivieron a algún proceso o evento son de alguna manera mejores que los que no lo hicieron.

Escuchamos siempre historias de éxito basadas en el trabajo arduo, la persistencia y un plan claramente diseñado, pero ¿cuántos trabajadores y personas persistentes con planes escritos no lograron alcanzar el éxito? La cifra nunca se publica.

Nos fijamos en lo que es y rara vez en lo que no es.

Si el resultado se enmarca como negativo (ser devorado por un tiburón), no nos acercaremos entonces al agua, a pesar de que la probabilidad de un evento así sea remota.

Somos dados a esperar que suceda un evento de muy baja probabilidad. Jugamos a la lotería buscando aumentar las posibilidades si elegimos nosotros mismos los números.

Por otro lado, cuando nos ofrecen una probabilidad del 70 % para obtener un retorno de 40 % con una inversión de 10.000 dólares, preferimos no hacerlo ante el 30 % de probabilidad de tener un resultado negativo. En ese sentido somos adversos al riesgo. Tenemos la tendencia a favorecer las opciones en las que no existen riesgos.

Esta tendencia puede dar un vuelco cuando la enmarcamos de manera diferente. Si replanteamos el escenario del tiburón diciendo que el 99.999999 % de las personas que nadan en el océano sobrevive, o que podríamos recibir 14.000 dólares en lugar de 10.000 si seguimos este plan de inversión, nos inclinaríamos a actuar.

La manera en que se enmarca un evento para sacar provecho de nuestros sesgos es el eje de la publicidad.

Supongamos que somos conscientes de tener un prejuicio que nos lleva a creer que podemos terminar un trabajo con mayor rapidez de lo que realmente es posible (el sesgo de optimismo). Nos anticipamos sabiamente y decidimos añadir siempre una cantidad adicional de tiempo para compensar. Esto se conoce como heurística. Es un atajo práctico y, sabiendo que existe la tendencia a subestimar el tiempo necesario para completar el trabajo, añadimos un factor de corrección (fudge factor en inglés) a los horarios de trabajos importantes. Pero no siempre estamos en guardia. ¿Recordamos hacer lo mismo cuando calculamos el tiempo que tardaremos en cortar el césped? Lo más probable es que olvidemos hacer dicha asignación. Si tuviéramos que decirle a nuestra pareja que el trabajo estará listo en media hora, nos miraría y lo negaría con la cabeza. Ella sabe que por lo menos demandará una hora.3

Los sesgos cognitivos conducen a pensamientos erróneos y a tomar decisiones que no son propiamente óptimas. Además, pueden resultar imposibles de erradicar. La familiaridad no es ninguna garantía y los sesgos cognitivos perversos son mucho más fáciles de detectar en los demás que en nosotros mismos.

Todos aspiramos a pensar de manera lógica y racional. Si tenemos cargos de responsabilidad esto resulta aún más importante. Los errores de juicio pueden afectar a muchas más personas y no solo a nosotros mismos.

Los griegos se basaban en la lógica para alcanzar la meta de vivir bien y descubrir las verdades sobre el mundo que les rodeaba. Las matemáticas adoptaron la lógica por una razón similar: para llegar a conclusiones válidas.

A partir de principios del siglo XX se hizo un esfuerzo concertado para demostrar que las matemáticas eran una materia consistente, sin contradicciones lógicas, y que eran completas porque abarcaban todas las verdades disponibles. Si podía demostrarse que las matemáticas eran ciertas, entonces podría comprobarse lo mismo de la física, que utiliza las matemáticas, y asegurar así que se tenía una imagen correcta del universo.4

Kurt Gödel fue un matemático checo que emigró a Estados Unidos y fue amigo de Albert Einstein. En 1931 presentó un trabajo que establecía los límites para todos los sistemas, excepto los axiomáticos más triviales. Un sistema axiomático es aquel que parte de un conjunto de premisas consideradas ciertas para construir con estas otras verdades, usando operaciones lógicas.

En un notable logro matemático, Gödel demostró que incluso en un sistema axiomático tan simple como la aritmética existen verdades que son indemostrables (el sistema es incompleto) o bien que hay falsedades aritméticas cuya verdad puede ser comprobada (el sistema es inconsistente).5

Las implicaciones de la prueba de Gödel tuvieron un efecto profundo en el avance de las matemáticas, ya que demostraron que mediante su uso resultaba imposible establecer una verdad universal.

Aunque esta prueba se centró específicamente en los sistemas axiomáticos, muchos procesos comienzan con una serie de datos iniciales y siguen una secuencia de pasos extraordinariamente complicados. Los sistemas complejos, ya se trate de un programa de computadora o de la mente, están sujetos a lo incompleto y a inconsistencias, y por lo tanto son vulnerables a los errores.

Kahneman, en un artículo preparado en 2001, señaló los desafíos de evitar los sesgos individuales, pero resaltó también que había la esperanza de tomar mejores decisiones si utilizáramos nuestra capacidad colectiva para detectar sesgos en otros. Kahneman favorecía un enfoque de equipo para la toma de decisiones.

Mediante la detección de los sesgos en el pensamiento de otros y la elaboración posterior de un consenso se pueden generar mejores decisiones. Puede ser que los proyectos sigan fallando, pero no será debido a expectativas irracionalmente optimistas; o que ni siquiera comiencen por la tendencia a ir sobre seguro y mantener el statu quo.6

Un punto de decisión único implica la propensión de actuar de manera irracional, no por deficiencia mental de quien toma la decisión sino por los errores sistémicos que nos son inherentes.

Los dictadores son particularmente vulnerables, puesto que nadie que valore su vida estará dispuesto a señalarles los errores en su pensamiento. Por lo general están rodeados de personas que simplemente están de acuerdo.

Los líderes pueden sin duda inspirar y liderar un grupo, pero los líderes ecuánimes utilizan un grupo diverso de asesores que no temen decir lo que piensan.

El manejo de las tendencias sistémicas hacia el comportamiento irracional que tenemos como individuos comienza con la comprensión y la aceptación de que estas siempre van a existir, sin importar que tan alto sea nuestro nivel de competencia. Tenemos que rodearnos de personas que puedan señalar nuestros sesgos y ayudarnos a lograr una buena planificación, que en última instancia nos llevará a una mejor calidad de vida, una meta que todos, como individuos, deseamos. Es dudoso que podamos hacerlo solos.


  1. Kahneman, D. (2011) Thinking, Fast and Slow, Nueva York, N.Y.: Farrar, Straus y Giroux.
  2. Eagleman, D. M. (2011). Incognito, The Secret Lives of the Brain. Nueva York, N.Y.: Pantheon Books.
  3. Bevelin, P. (2007) Seeking Wisdom from Darwin to Munger. Malmo, Suecia: Post Scriptum AB.
  4. Ferrell, E. (1994) Mathopedia. Greensboro, N.C.: OMNI Books.
  5. Gensler, H. J. (1984) Godel’s Theorem Simplified. Lanham, M.D.: University Press of America.
  6. Kahneman, D., Lovallo D., Sibony, O. (2011) The Big Idea: Before You Make That Big Decision, Harvard Business Review. Consultado el 2 de junio de 2015 en: https://hbr.org/2011/06/the-big-idea-before-you-make-that-big-decision.

Lea su blog de autor en inglés o la traducción literaria al español de su novela, El ojo de la luna.

¿Interesado en reproducir uno de nuestros artículos? Consulte nuestros requisitos de reproducción.

© 2015 Dynamic Doingness, Inc. Todos los derechos reservados. Ninguna parte de esta publicación puede ser reproducida sin el permiso escrito del autor.

 

 

 

Leave a Reply