UNA VENTANA AL MUNDO DE LA PASIÓN CIENTÍFICA

Cómo convencer a alguien cuando los hechos fallan


Texto escrito por Michael Shermer, 1 enero de 2017 para Scientific American

Traducido y adaptado para ULÛM por Fernando Cervera

¿Alguna vez te has dado cuenta de que cuando presentas a la gente hechos que son contrarios a sus más profundas creencias, siempre cambian de opinión? Yo tampoco. De hecho, la gente enseña los dientes cuando le presentas una abrumadora evidencia en contra de sus creencias. La razón es que su visión del mundo se ve amenazada por esos datos.

Los creacionistas, por ejemplo, luchan contra la evidencia de la evolución en los fósiles y el ADN porque están preocupados por las fuerzas seglares que invaden su fe religiosa. Los antivacunas desconfían de las grandes farmacéuticas y piensan que el dinero corrompe la medicina, lo que les lleva a creer que las vacunas causan autismo a pesar de la inconveniente verdad de que el único estudio afirmando tal vínculo fue retractado y su principal autor acusado de fraude. Los creyentes en la conspiración del 11-S se enfocan en detalles como el punto de fusión del acero en los edificios que colapsaron en el World Trade Center, porque creen que el gobierno miente y es el responsable de operaciones encubiertas para crear un nuevo orden mundial. Los negacionistas del cambio climático estudian los anillos de los árboles y la cantidad de gases de efecto invernadero porque son unos apasionados de la libertad, especialmente la libertad de los mercados y las industrias para que puedan operar sin restricciones debido a las duras regulaciones gubernamentales. Los partidarios de la conspiración acerca del nacimiento de Obama, han diseccionado desesperadamente el antiguo certificado de nacimiento del presidente en busca de fraude porque creen que el primer presidente afroamericano de la nación es un socialista que busca destruir el país.

En estos ejemplos, la visión del mundo de esas personas se veían amenazadas por los escépticos, convirtiendo los hechos en enemigos que deben ser abatidos. Ese poder de creer por encima de la evidencia es el resultado de dos factores: la disonancia cognitiva y el efecto de rebote. En el libro clásico de 1956, When Prophecy Fails, el psicólogo Leon Festinger y sus coautores describieron lo que le sucedió a un culto ovni cuando la nave nodriza no llegó a la hora señalada. En lugar de admitir el error, “los miembros del grupo buscaron frenéticamente convencer al mundo de sus creencias”, e hicieron “una serie de intentos desesperados para borrar su dolor haciendo después otra predicción con la esperanza de que se hiciera realidad”. Festinger llamó a ese proceso disonancia cognitiva, o la tensión incómoda que nace al tener dos pensamientos que están en conflicto de forma simultánea.

Dos psicólogos sociales, Carol Tavris y Elliot Aronson (un ex estudiante de Festinger), en su libro de 2007 Mistakes Were Made (But Not by Me) documentan miles de experimentos que demuestran cómo la gente modifica hechos dolorosos para ajustarse a creencias preconcebidas y así reducir la disonancia. Su metáfora de la “pirámide de elección” coloca a dos individuos en lo alto de una pirámide, y muestra la rapidez con la que divergen y terminan en las esquinas inferiores opuestas de la base, ya que cada uno de ellos defiende una posición diferente.

En una serie de experimentos realizados por el profesor Brendan Nyhan de la Universidad de Dartmouth y el profesor Jason Reifler de la Universidad de Exeter, los investigadores identifican un factor relacionado que llamaron el efecto de rebote “en el cual los datos contrarios a una creencia realmente aumentan las percepciones favorables a esa creencia porque amenazan su visión del mundo o autoconcepto”. Por ejemplo, a algunos sujetos se les dieron falsos artículos periodísticos que confirmaron conceptos erróneos ampliamente difundidos, como el de que existían armas de destrucción masiva en Irak. Cuando a los sujetos se les dio un artículo correctivo de que las armas de destrucción masiva nunca fueron encontradas, los liberales que se opusieron a la guerra aceptaron el nuevo artículo y rechazaron el viejo, mientras que los conservadores que apoyaban la guerra hicieron lo contrario, es más: muchos de los defensores de la teoría de las armas de destrucción masiva decían estar aún más convencidos gracias a los dos artículos, argumentando que el artículo disonante demostraba que Saddam Hussein ocultó o destruyó las armas. De hecho, Nyhan y Reifler señalan que, entre muchos conservadores, “la creencia de que Irak poseía armas de destrucción masiva inmediatamente antes de la invasión estadounidense, persistió mucho después de que la propia administración Bush concluyera lo contrario”.

Si los hechos correctivos sólo empeoran las cosas, ¿qué podemos hacer para convencer a la gente del error de sus creencias? De acuerdo con mi experiencia, 1) mantener las emociones fuera del intercambio de información, 2) discutir, no atacar (no ad hominem y no ad Hitlerum), 3) escuchar atentamente y tratar de articular la otra posición con precisión, 4) mostrar respeto, 5) reconocer que entiendes por qué alguien puede sostener esa opinión, y 6) tratar de mostrar cómo el cambio de hechos no significa necesariamente el cambio de visión de las cosas.

Esas estrategias no siempre funcionan para cambiar las ideas de la gente, pero ahora que la nación acaba de ser sometida a una prueba política, puede ayudar a reducir la división innecesaria*.

* Nota del editor de ULÛM: el periodista hace referencia a la división generada por la elección de Donal Trump como presidente de los Estados Unidos de América.

Leave a Reply

Your email address will not be published. Required fields are marked *