3 de enero de 2017

Como convencer a alguien cuando los hechos fallan

¿Alguna vez has notado que cuando le presentas a la gente hechos que son contrarios a sus creencias más profundas, siempre cambian de opinión? Yo tampoco. De hecho, las personas parecen duplicar sus creencias ante la abrumadora evidencia en su contra. La razón está relacionada con la visión del mundo percibida como amenazada por los datos contradictorios.

Los creacionistas, por ejemplo, cuestionan la evidencia de la evolución en los fósiles y el ADN porque les preocupa que las fuerzas seculares invadan la fe religiosa. 

Los antivacunas desconfían de las grandes farmacéuticas y piensan que el dinero corrompe la medicina, lo que los lleva a creer que las vacunas causan autismo a pesar de la incómoda verdad de que el único estudio que afirmaba tal vínculo fue retractado y su autor principal acusado de fraude. 

Los veraces del 11 de septiembre se enfocan en minucias como el punto de fusión del acero en los edificios del World Trade Center que causó su colapso porque creen que el gobierno miente y lleva a cabo operaciones de “bandera falsa” para crear un Nuevo Orden Mundial. 

Los negacionistas del clima estudian los anillos de los árboles, los núcleos de hielo y las ppm de los gases de efecto invernadero porque les apasiona la libertad, especialmente la de los mercados y las industrias para operar sin las trabas de las regulaciones gubernamentales restrictivas. Los parientes de Obama analizaron desesperadamente el certificado de nacimiento de formato largo del presidente en busca de fraude porque creen que el primer presidente afroamericano de la nación es un socialista empeñado en destruir el país.

En estos ejemplos, las cosmovisiones más profundas de los proponentes se percibieron como amenazadas por los escépticos, lo que convirtió a los hechos en el enemigo a matar. Este poder de la creencia sobre la evidencia es el resultado de dos factores: la disonancia cognitiva y el efecto contraproducente. En el libro clásico de 1956 "When Prophecy Fails", el psicólogo Leon Festinger y sus coautores describieron lo que le sucedió a un culto OVNI cuando la nave nodriza no llegó a la hora señalada. En lugar de admitir el error, "los miembros del grupo buscaron frenéticamente convencer al mundo de sus creencias" e hicieron "una serie de intentos desesperados para borrar su irritante disonancia haciendo predicción tras predicción con la esperanza de que una se hiciera realidad". Festinger llamó a esto disonancia cognitiva, o la tensión incómoda que surge al tener dos pensamientos en conflicto simultáneamente.

En su libro de 2007 "Mistakes Were Made (But Not by Me)", dos psicólogos sociales, Carol Tavris y Elliot Aronson (ex alumno de Festinger), documentan miles de experimentos que demuestran cómo las personas tergiversan los hechos para adaptarlos a creencias preconcebidas y reducir la disonancia. Su metáfora de la "pirámide de elección" coloca a dos individuos uno al lado del otro en el vértice de la pirámide y muestra cuán rápido divergen y terminan en las esquinas inferiores opuestas de la base, ya que cada uno de ellos toma una posición para defender.

En una serie de experimentos realizados por el profesor de Dartmouth College, Brendan Nyhan, y el profesor de la Universidad de Exeter, Jason Reifler, los investigadores identificaron un factor relacionado que llamaron el efecto contraproducente "en el que las correcciones en realidad aumentan las percepciones erróneas entre el grupo en cuestión". ¿Por qué? “Porque amenaza su cosmovisión o autoconcepto”. Por ejemplo, los sujetos recibieron artículos de periódicos falsos que confirmaban conceptos erróneos generalizados, como que había armas de destrucción masiva en Irak. Cuando a los sujetos se les dio un artículo correctivo de que nunca se encontraron armas de destrucción masiva, los liberales que se oponían a la guerra aceptaron el nuevo artículo y rechazaron el anterior, mientras que los conservadores que apoyaban la guerra hicieron lo contrario... y más: dijeron estar aún más convencidos allí. fueron armas de destrucción masiva después de la corrección, argumentando que esto solo probaba que Saddam Hussein las escondió o las destruyó. De hecho, Nyhan y Reifler señalan que, entre muchos conservadores, “la creencia de que Irak poseía armas de destrucción masiva inmediatamente antes de la invasión estadounidense persistió mucho después de que la propia administración Bush llegara a la conclusión de lo contrario”.

Si los hechos correctivos solo empeoran las cosas, ¿Qué podemos hacer para convencer a las personas del error de sus creencias? Algunos proponen:

1. Mantener las emociones fuera del intercambio, 

2. Discutir, no atacar (ni ad hominem ni ad hitlerum). Usted se debe centrar en las ideas, no en la persona que la está sosteniendo. 

3. Escuchar atentamente y tratar de articular la posición del otro con precisión, 

4. Mostrar respeto, 

5. Reconocer que se entiende por qué alguien podría tener esa opinión, y 

6. Tratar de mostrar cómo cambiar los hechos no significa necesariamente cambiar las visiones del mundo. 

Es posible que estas estrategias no siempre funcionen para cambiar la opinión de las personas, pero pueden ayudar a reducir divisiones innecesarias.

Estos pasos que se proponen no son otros que los mismos que impulsaron Fisher y Ury en sus técnicas de negociación a finales del siglo pasado y que hoy son conocidos como "técnicas de negociación de Harvard". 

Que alguien reconozca un error es raro, pero es mucho más raro que dos personas, países o lo que sea se sienten a discutir como saldar esas diferencias. 

Sobre todo cuando existe la creencia de ambos lados de que se tiene razón. Aunque un mundo donde todos pensáramos igual sería demasiado aburrido. Aun así de estas diferencias en el pensamiento no pocas veces nacen las rivalidades y las guerras. 


Referencias
Fisher y Ury. Si de acuerdo. Resúmen.

Shermer M. When Facts Backfire. Sci Am. 2016 Dec 20;316(1):69. doi: 10.1038/scientificamerican0117-69. PMID: 28004709.

No hay comentarios.:

Publicar un comentario