La idea de que corregir desinformación “empeora” las cosas tiene una potencia narrativa perfecta: transforma el fact-checking en un acto ingenuo, sugiere que el público es impermeable y convierte el silencio en estrategia. El problema es que esa historia se repite más por su dramatismo que por su frecuencia.
En investigación, backfire no significa “la corrección no convenció”. Significa algo más específico y más raro: que, después de ver la corrección, la gente termina creyendo más la afirmación falsa que antes, o más que un grupo comparable que no recibió corrección. Esa definición importa porque muchas discusiones públicas mezclan fenómenos distintos: el rezago de la desinformación (cuando baja la creencia pero no desaparece), el olvido de la corrección con el tiempo, y el rebote propiamente dicho.
Swire-Thompson y colegas atacaron el corazón del mito con una pregunta simple: si el backfire fuera un efecto robusto, debería aparecer con claridad cuando se compara una condición con corrección contra un control sin corrección. En dos experimentos longitudinales, el resultado fue incómodo para la narrativa popular: ningún ítem “rebotó” más en la condición con corrección que en el control de test-retest. Lo que sí apareció con fuerza fue otra cosa: la tasa aparente de “rebote” se asociaba estrechamente con un factor técnico que casi nunca protagoniza el debate público, la confiabilidad de la medida; con ítems poco estables, el “rebote” puede ser, en buena parte, un artefacto.
Esa observación explica por qué el backfire se volvió un fantasma difícil de matar: un fenómeno raro, cuando aparece, hace titulares; cuando no aparece, nadie lo recuerda. En su revisión metodológica, el mismo equipo subraya que para evaluar backfires con seriedad se requieren diseños más potentes, controles adecuados y medidas confiables, porque sin eso se confunde variación aleatoria con psicología humana.
Lo importante es lo que se sigue de ahí: si el backfire es excepcional, la pregunta relevante deja de ser “¿corregir es peligroso?” y pasa a ser “¿qué hace que una corrección sea efectiva?”. El meta-análisis de Chan y Albarracín ayuda a ordenar el terreno porque muestra cómo el resultado cambia según qué se mida y cómo se calcule el efecto. En desinformación científicamente relevante, reportan una heterogeneidad alta, pero también condiciones en las que las correcciones rinden mejor (por ejemplo, cuando son más detalladas, cuando el tema no está fuertemente polarizado y cuando el público llega con familiaridad previa del tema).
El formato, entonces, no es accesorio: una corrección no compite solo con un dato falso, compite con identidad, repetición, familiaridad y con la sospecha sobre quién corrige. En esa línea, el meta-análisis clásico de Chan, Jones, Jamieson y Albarracín ya mostraba que los mensajes de debunking suelen producir cambios relevantes, aunque la persistencia del mito y el modo de presentar la refutación pueden modular la magnitud del efecto.
Visto así, el mito del backfire cumple una función cómoda: desincentiva la corrección con un argumento que suena científico y definitivo. La evidencia sugiere una lectura más sobria y más útil: corregir desinformación suele ayudar; el “rebote” es raro y, cuando parece aparecer, a menudo está enredado con problemas de medición o diseño. La credibilidad se pierde menos por corregir y más por corregir sin método: sin claridad, sin estructura, sin fuente percibida como legítima y sin considerar cómo el formato y el contexto moldean la recepción.
Chan, M.-P. S., Jones, C. R., Jamieson, K. H., & Albarracín, D. (2017). Debunking: A meta-analysis of the psychological efficacy of messages countering misinformation. Psychological Science, 28(11), 1531–1546. doi:10.1177/0956797617714579
Swire-Thompson, B., DeGutis, J., & Lazer, D. (2020). Searching for the backfire effect: Measurement and design considerations. Journal of Applied Research in Memory and Cognition, 9(3), 286–299. doi:10.1016/j.jarmac.2020.06.006
Swire-Thompson, B., Miklaucic, N., Wihbey, J. P., Lazer, D., & DeGutis, J. (2022). The backfire effect after correcting misinformation is strongly associated with reliability. Journal of Experimental Psychology: General, 151(7), 1655–1665. doi:10.1037/xge0001131


0 Comentarios