Síndrome de dios

Llegué a la charla TED de Tim Harford el domingo por la mañana al repasar los enlaces recomendados de Quantified self. Está relacionada con su nuevo libroAdapt: Why success always starts with failure. En él, argumenta que para solucionar problemas complejos, el método adaptativo de prueba–error, es decir, la experimentación continua es el más eficaz.

Experimentar, sin embargo, choca con el síndrome de dios, al que dedica la charla entera. El síndrome de dios consiste en creer que ya sabemos «la verdad» sobre algo y no interesarnos en cuestionar e investigar esa verdad. Harford, en su charla, pone ejemplos del campo de la medicina, relacionados con la figura de Archie Cochrane, promotor de la medicina basada en pruebas, quien, entre muchas otras cosas, demostró que las personas se recuperaban de un infarto antes en su casa que quedándose en el hospital.

¿Conocéis a personas que no comen huevo porque creen que aumenta el colesterol? Pues sucede que, según el estado del arte, el colesterol que comemos no influye en el nivel de colesterol en sangre. Aun así, al parecer, sigue habiendo expertos que recomiendan no comerlos.

El interés desde la economía por fenómenos como el síndrome de dios no es nueva. Herbert Simon, Premio Nobel de economía de 1978, formuló el principio de la racionalidad limitada según la cual sólo el 10% de nuestras opiniones y afirmaciones tienen su origen en hechos comprobados. El 90% son creencias e historias. Concluyó que el responsable de ese 90% de nuestras afirmaciones que creemos ciertas pero que objetivamente no lo son, es nuestra actitud.

Todo esto parecerá obvio para algunos, dice Harford, pero el hecho de que en las escuelas se enseñen respuestas en lugar de maneras de hacer preguntas e investigar, demuestra que no lo es. No es obvio. El síndrome de dios sigue estando presente en nuestras vidas, día sí y el siguiente también.

20 comentarios en «Síndrome de dios»

  1. Acabas de poner nombre a algo que he estado investigando estos últimos meses. El «síndrome de dios» es lo que considero que tienen los escépticos que vociferan contra la astrología: aun sin tener ni idea y sin ninguna intención de profundizar en ella de manera seria, se creen en posesión de la verdad.

    Yo creo que parte de las causas de ese síndrome también radica en el miedo a perder la propia estructura, quedarse desnudo ante la disolución de uno mismo y la obligación de recomponerse. En el caso de los escépticos de la astrología, se trata de un auténtico pánico a darse cuenta de que uno no tiene el control total de su vida y de que hay unas compulsiones, defensas psicológicas y complejos que están reflejados en el cielo, que es aquello que para ellos son cuerpos inanimados sin ningún significado ni propósito.

    Parece que crearse estructuras mentales demasiado rígidas supone un verdadero problema, porque no permite evolucionar ni reaccionar con flexibilidad a nuevas estructuras. Dejarse arrebatar por el cambio supone no tener miedo a recomponerse una y otra vez, cuestionándose continuamente.

    Por otra parte, te recomendaría que te leyeras dos artículos sobre la polarización de grupos (no sé si te lo he recomendado ya, si es así, disculpa): Una presentación y el ensayo de Cass Sunstein Deliberative Trouble? Why groups go to extremes

    La polarización de grupos consiste en que en un grupo de gente con la misma ideología las discusiones suelen tender a extremarse y llegan a conclusiones y toman acciones como grupo a las que nunca se atreverían individualmente. Después de analizar este concepto considero que, por ejemplo, los grupos de escépticos deberían hablar más con astrólogos (aparte de estudiar astrología y saber de qué hablan) y los astrólogos deberían hablar más con escépticos. Si no, los argumentos de cada grupo por separado son muy limitados (de hecho, siempre que empiezo una discusión ya sé lo que me plantearán) y no tienen posibilidad de evolucionar ni de perfeccionarse. La radicalización sin contraste es una espiral de ignorancia que se retroalimenta y sentirse parte de un grupo sienta bien, pero no ayuda a dar pasos adelante.

    Las críticas que hagamos necesitan profundidad, y esa profundidad no puede toparse con la barrera de la propia estructura mental.

    Lo que dices también me recuerda al sesgo de confirmación: solemos dar por cierto aquello que confirma lo que opinamos. Si algo no lo confirma, buscamos la manera de que encaje. Este sesgo es un mal bicho, la verdad.

    ¡Un abrazo!

    1. Formulaste eso que llamamos complejo de dios mucho mejor que yo: «miedo a perder la propia estructura, quedarse desnudo ante la disolución de uno mismo y la obligación de recomponerse». Y no me cabe duda de que los «escépticos» que comentas tampoco se libran de ese complejo. No se puede evitar toparse con ese 90% de las «verdades» que tienen su origen en nuestra actitud. Es un terreno resbaladizo y los más racionales se sentirán más inseguros ahí. Si notas violencia, me imagino que tendrá que ver ese miedo. ¡Gracias por el enlace! ¡Saludos!

  2. Lo curioso es que para tener unos principios y unas estructuras mentales sólidas, éstas no tienen que ser de hormigón, sino más bien de bambú: tienen que ser firmes pero flexibles, e incluso intercambiables. Así quizás no duela tanto darse cuenta de que uno estaba equivocado.

    Un saludo

    David Gil

    1. En el caso de los que promueven el método científico, el «dolor» al darse cuenta de que estamos equivocados me resulta sorprendente puesto que la «prueba y error» consiste en aceptar errores constantemente y pasar a una prueba nueva.

      1. En realidad el error no lo realizan en las pruebas en el ámbito físico y material (astronomía, física, etc.) Los especialistas de estos temas se mueven con soltura en estos campos, como tiene que ser. A través de las pruebas y los errores evolucionan.

        El error lo realizan al juzgar las disciplinas que se mueven en el ámbito simbólico, es decir, las que consideran un planeta como símbolo, mito y arquetipo. En eso no son especialistas y pretenden desacreditar sin tener ni idea. El dolor, por tanto, vendría al darse cuenta de que existen ámbitos que no controlan y que quedan fuera de lo racional y científico. Sobre estos ámbitos, que necesitan otro tipo de mirada, opinan sin haber hecho una investigación en profundidad. Otra característica de la polarización de grupos es la superficialidad de sus argumentos.

        Bueno, ya basta, que me enrollo.

        Un abrazo 🙂

        1. Te deben estar dando la chapa bastante con eso. Leí en su día tu post sobre los argumentos para los que llaman la astrología pseudociencia y me gustó mucho, lo explicaste muy bien. En mi opinión, las personas que reaccionan con violencia ante las cosas que no entienden en realidad no tienen interés en «razonar». Si fueran personas con ganas de comprender, una de las primeras preguntas que les tocaría hacerse es «por qué reacciono así», pregunta que da muchísimo juego para una mente racional, con ganas de experimentar y comprender.

          Estoy de acuerdo contigo, deberían hablar más entre ellos los astrólogos y los escépticos. Si realmente se pusieran a hablar, las personas con argumentos superficiales desaparecerían, ¿no crees? Este sábado voy a una charla de unos escépticos de aquí (son gente maja) sobre las «dietas milagro». A ver qué tal se desarrolla la cosa, ¡ya te contaré! ¡Abrazos!

  3. Gracias por la referencia de los vídeos, ambos son perfectos para el proceso de «ordenación» 🙂 del discurso de lo que fuimos aprendiendo-descubriendo con nuestro Proyecto Máscaras. Me ha encantado la forma en que Archie Cochrane presentó los resultados sobre la recuperación del infarto.

    Lo que parece obvio es muy difícil de comunicar, todo el mundo cree estar por encima. Y yo adoro las obviedades 🙂

    1. Acabo de ver el corto de vuestro proyecto, Calcetin(e)s. ¡Formidable! Con un resultado así, me imagino que os lo pasaríais muy bien 🙂

      Lo de Archie Cochrane es interesante porque parece que llegó a la conclusión de que necesitaba crear una experiencia de choque para sacar a sus colegas de su zona de confort. Las películas del Proyecto Máscaras seguro que tienen ese efecto también.

      Y llegamos entonces a eso de cuestionar lo obvio que es difícil precisamente porque se encuentra con nuestra resistencia de salir de la zona de confort. Conozco personas que ante cada segunda afirmación que hacen, te adelantan el «obviamente» como para reafirmarse a sí mismos. Me resulta también curioso el «¿no?» que añadimos al final de las frases cuando hablamos en público y explicamos algo de forma más prolongada. Es un «¿no?» que, como por convención social no recibe respuesta, nos autoafirma y nos ayuda a convencernos que lo que decimos es cierto o al menos merece la pena que lo digamos. Esto es sólo mi especulación, obviamente (jeje).

      ¡Saludos!

      1. Pues coincido contigo Bianka… obviamente 🙂

        Ayer hicimos un pase súper privado de la película a algunos padres. La palabra más repetida era «¡Increíble!». Han (hemos) hecho una película. Creo que va a sorprender (humildemente). Y si soy capaz de seguir el camino que estoy trazando os necesitaremos. Espero tener que ir pronto a Madrid y poder aprovechar para vernos.

        Por cierto, el corto cobrará otra dimensión después de ver la película, se entenderá mejor la dimensión y el valor como experiencia y del aprender haciendo.

        Los temas que tú y Jose abordáis y cómo lo hacéis me están ayudando mucho para enfocar Biaka. A veces es un poco difícil ir contra lo convencional.

        Un saludo!!! 🙂

        1. Aquí estamos para dejarnos sorprender 🙂 Tengo los oidos muy abiertos ante todo que sea «aprender haciendo» a través de la propia experiencia. Ir contra lo convencional me parece harto difícil… hasta que consigamos crear nuestras propias convenciones, momento en el cual lo difícil será admitir que hasta estas son cuestionables.

    1. Lecciones que vamos aprendiendo… los que queremos aprender 😉 Yo estoy en beta permanente…

      Me encantan tus aportaciones David 🙂

  4. En una comunidad, las personas nos gusta destacar por nuestro poder (económico o/y en actitud, como bien dices) y, mucho, viene del efecto da la religión ¿para qué enseñar a leer si los sacerdotes ya “transmitían”? y del modelo educativo arcaico, dependiente y limitado ¿qué enseñamos y para qué?

    Creemos o creamos verdades por comodidad o conveniencia. Mantener “el síndrome de Dios” es una manera muy sencilla de control y, por tanto, de seguridad.

    Dice Halla Tomasdottir en un TED: ¿Han visto la increíble prisa por reconstruir las mismas cosas que nos fallaron?

    1. Estoy totalmente de acuerdo con la conclusión de esta charla: hay que hacer negocios buenos (con valores transparentes, sostenibles) y no negocios por un lado y caridad por otro. Y lo de «no invertir en lo que no entendemos» también es muy bueno. Justo este finde he leído la historia de la crisis financiera relatada por Tim Harford en Adapt. Insiste en la importancia de puertas de seguridad para que cuando se caiga un dominó (siempre caerá) no caigan todos los demás también. El principio de no invertir en lo que no entendemos me parece un buen candidato a puerta de seguridad.

      Mientras tanto, ¡a recordar ese 90% de nuestras percepciones que depende de nuestra actitud! ¡Saludos!

Los comentarios están cerrados.