Guía para rebatir las teorías conspiranoicas de tu cuñado esta Navidad

Guía para rebatir las teorías conspiranoicas de tu cuñado esta Navidad

Todos los consejos que necesitas si en tu familia hay algún amante de los bulos y la desinformación.

Frustrated adult man at a restaurant being stood up for dinner - lifestyle conceptsGetty Images/iStockphoto

Las teorías conspirativas y los bulos son ya parte de las costumbres navideñas y, aunque las reuniones familiares serán diferentes este año, es posible que queramos rebatirlos si vuelven a aparecer en nuestras cenas, algo que podemos hacer con las claves que nos da la ciencia.

Antes de saltar como un resorte en algún momento entre los langostinos y el cordero asado, cuando una frase nos parezca demasiado grave como para que se quede sin respuesta, puede ser útil saber cómo piensan aquellos que creen en hipótesis sin ninguna base científica y sienten una especial necesidad de difundirlas.

En un área del conocimiento en el que queda mucho por explorar, algunas investigaciones apuntan a que el cerebro humano tiene una inclinación natural a creer en esas teorías y que las personas reforzamos nuestras ideas previas cuando nos contradicen.

En el caso de que uno quiera entrar a debatir, conviene tener en cuenta que los argumentos racionales son menos eficaces que los emocionales y que la retórica y la educación son importantes, no solo para preservar la paz antes de los polvorones, sino también en la consecución del difícil objetivo de convencer al otro.

El cerebro humano tiende a crear relaciones causales entre elementos aunque estas no existan, para lo que puede establecer conexiones de hechos aislados.

“Una de las causas por la que las teorías de la conspiración surgen periódicamente es nuestro deseo de imponer una estructura al mundo y nuestra increíble capacidad para reconocer pautas”, explica el investigador Mark Lorch en un artículo publicado en 2017 en The Conversation. 

Este catedrático de Química y Ciencias de la Comunicación de la Universidad de Hull, en el Reino Unido, cree que la responsabilidad es de “unos mecanismos neurológicos evolutivos no demasiado avanzados” que nos llevan a ver “relaciones causa efecto inexistentes —teorías de la conspiración— por todas partes”.

Además, sentimos propensión a mantener posturas que son mayoritarias en nuestro grupo social, como demuestran diversos estudios desde los años 50, por lo que existe una probabilidad creciente de que aceptemos una hipótesis como verdadera cuanta más gente a nuestro alrededor crea en ella.

Iniciar un debate con alguien que defiende un mito sustentado en falsedades es una decisión personal que depende de muchos factores.

Entre esas circunstancias se encuentra el hecho de que, como insisten instituciones y científicos, la desinformación en peligrosa porque afecta a las decisiones que adoptamos en cuestiones tan sensibles como la salud, algo que se ha puesto de manifiesto durante la pandemia.

“La ciencia es importante”, señalaba el secretario general de la ONU, Antonio Guterres, en un mensaje de vídeo difundido el 29 de septiembre después de que se alcanzara el millón de muertos por la covid-19 en todo el mundo y en el que también sentenciaba: “La desinformación mata”.

La Organización Mundial de la Salud (OMS) explica que el estudio “fraudulento” que en 1998 planteó la posible relación entre la vacuna triple vírica (sarampión, paperas y rubéola) y el autismo “creó un estado de pánico que produjo una disminución de las tasas de inmunización y posteriores brotes de esas enfermedades”.

La dificultad de entablar un debate racional con un defensor de las teorías de la conspiración estriba en las pocas posibilidades de éxito que hay de que modifique sus posturas.

Las investigaciones científicas siguen profundizando en el conocimiento de cómo procesa el cerebro la información que recibe y los motivos que llevan a los seres humanos a establecer sus sistemas de creencias.

Un estudio publicado en septiembre de 2019 en la revista Nature Human Behaviour por los psicólogos Philipp Schmid y Cornelia Betsch, de la Universidad de Erfurt (Alemania), cuestiona la influencia del llamado efecto bumerán o “backfire”.

Esa denominación describe un sesgo cognitivo observado en las personas según el cual quien recibe argumentos contrarios a sus opiniones acaba reforzando sus creencias.

Tras la publicación de ese trabajo, la ciencia reflexiona sobre la importancia de ese efecto bumerán, dado hasta ahora por seguro.

No obstante, hay una amplia consideración de que esgrimir argumentos racionales basados en datos y hechos contrastados es menos eficaz que utilizar mensajes que apelen a las emociones.

1.- Dirigirse con respeto al interlocutor.

Dirigirse con educación y respeto al interlocutor con el que se debate no es solo una buena técnica para no generar un rechazo entre los asistentes a la discusión, sino que también puede ayudar en el objetivo de persuadirle de que cambie de opinión.

2.- Empezar por un punto de acuerdo.

Dentro de la estrategia de evitar el efecto bumerán, varios expertos, entre los que se encuentra Mark Lorch, proponen empezar con un punto de acuerdo y a partir de él intentar moderar los juicios del contrincante.

Basado en este principio, un estudio firmado por un equipo encabezado por Matthew Hornsey, de la Universidad de Queensland, en Australia, plantea la necesidad de alinearse con las creencias previas de los defensores de postulados anticientíficos para conseguir cambios más eficientes que con la confrontación.

Los autores de la investigación han llamado a esa técnica “persuasión jiu-jitsu”, en una identificación con el arte marcial que utiliza la fuerza del adversario en su contra.

3.- Dejar que el oponente caiga en sus propias contradicciones.

Otra propuesta planteada por los expertos es pedir explicaciones sobre el proceso lógico que ha llevado a las conclusiones que se rebaten, propiciando que quien las defiende caiga en sus propias contradicciones y deje en evidencia la debilidad de su discurso, lo que acaba conduciendo a posiciones más moderadas.

Esta técnica se basa en la teoría de “la ilusión de entendimiento”, que, formulada en un contexto de opinión política por un grupo liderado por Philip Fernbach, de la Universidad de Colorado Boulder (Estados Unidos), sostiene que la gente sabe menos de lo que cree acerca de las causas que sustentan sus juicios más polarizados.

4.- Poner de manifiesto las trampas en el discurso negacionista.

Aunque el trabajo de Schmid y Betsch se centra en las estrategias para rebatir a los negacionistas en debates públicos, algunas de sus conclusiones pueden aplicarse en el ámbito familiar.

Así, el estudio subraya que es “eficaz” poner de manifiesto las técnicas retóricas que siempre utilizan los negacionistas —como son, entre otras, recurrir a falsos expertos o la selección interesada de los datos— para convencer a quien escucha del engaño que suponen.