Por Michael Shermer
Publicado na Scientific American
Já notou que, quando você apresenta fatos as pessoas que são apegadas profundamente as suas crenças, elas sempre mudam de ideia? Não? Nem eu. Na verdade, as pessoas parecem se fechar em suas crenças, mesmo com evidências esmagadoras contra elas. A razão está relacionada com sua percebida cosmovisão, que é ameaçada pelos dados conflitantes.
Criacionistas, por exemplo, rejeitam a evidência para a evolução por fósseis e DNA porque eles estão preocupados com as forças seculares que invadem a fé religiosa. Pessoas rejeitam vacinas por causa da indústria farmacêutica e acham que o dinheiro corrompe a medicina, o que os leva a acreditar que as vacinas causam autismo, apesar da verdade inconveniente que o único estudo que fez tal afirmação foi refutado e seu principal autor foi acusado de fraude. Os conspiracionistas do 11 de setembro se concentram em minúcias como o ponto de fusão do aço nos edifícios do World Trade Center que causaram seu colapso porque pensam que o governo está mentindo para eles e conduz “operações de falsa bandeira” para criar uma Nova Ordem Mundial. Os negadores do clima falam de anéis de árvores, núcleos do gelo e as ppm dos gases de efeito estufa porque são apaixonados pela liberdade, especialmente aquela dos mercados e das indústrias em operar totalmente livres de regulamentos governamentais restritivos. Conspiracionistas sobre o nascimento de Obama abordam desesperadamente sobre o nascimento e vida do presidente em busca de fraudes, porque eles acreditam que o primeiro presidente afro-americano da nação faz parte de uma tática socialista para destruir o país.
Nestes exemplos, as visões de mundo mais profundas dos proponentes eram percebidas como ameaçadas pelos céticos, tornando os fatos um inimigo a ser assassinado. Este poder de crença sobre a evidência é o resultado de dois fatores: Dissonância cognitiva e Backfire effect [Efeito de retrocesso]. No clássico livro de 1956, When Prophecy Fails [Quando a Profecia Falha], o psicólogo Leon Festinger e seus co-autores descreveram o que aconteceu a um grupo de crentes em OVNIs quando a nave-mãe falhou em chegar ao horário indicado. Em vez de admitirem o erro, “os membros do grupo procuraram freneticamente convencer o mundo de suas crenças”, e fizeram “uma série de tentativas desesperadas em apagar sua dissonância, fazendo previsões após previsões, na esperança que se tornassem realidade”. Festinger chamou isto de dissonância cognitiva, ou tensão desconfortável, que ocorre quando pessoas mantêm, simultaneamente, dois pensamentos conflitantes.
Dois psicólogos sociais, Carol Tavris e Elliot Aronson (ex-aluno de Festinger), em seu livro de 2007 Mistakes Were Made (But Not by Me) [Erros foram cometidos (mas não por mim)] documentam milhares de experiências que demonstram como as pessoas decoram frases e “fatos” prontos para manter crenças pré-concebidas e reduzir a dissonância. Sua metáfora da “pirâmide de escolha” coloca dois indivíduos lado a lado no ápice da pirâmide e mostram o quão rapidamente eles divergem e terminam na parte inferior oposta dos cantos da base com cada um agarrando uma posição para defender.
Em uma série de experiências feitas pelo professor Brendan Nyhan, da Universidade de Dartmouth, e pelo professor Jason Reifler, da Universidade de Exeter, eles identificam um fator relacionado que chamam de Backfire effect [efeito de retrocesso], “em que as correções realmente aumentam percepções erradas entre o grupo em questão”. “Porque ameaça sua cosmovisão ou auto-conceito”. Por exemplo, para os assuntos, foram dados falsos artigos de jornal que confirmaram equívocos generalizados, como que havia armas de destruição em massa no Iraque. Quando os sujeitos receberam um artigo corretivo de que as armas nunca foram encontradas, os liberais que se opuseram à guerra aceitavam o novo artigo e rejeitavam o antigo, enquanto os conservadores que apoiaram a guerra fizeram o oposto… e mais: Eles relataram estar ainda mais convencidos. Foram favoráveis as armas após a correção, argumentando que isso só provou que Saddam Hussein ocultou-as ou destruiu elas. De fato, Nyhan e Reifler observam, entre muitos conservadores, “a crença de que o Iraque possuíam armas imediatamente antes da invasão dos Estados Unidos persistiu muito tempo depois que a própria administração Bush concluiu o contrário”.
Se os fatos corretivos só pioram as coisas, o que podemos fazer para convencer as pessoas do erro de suas crenças? Da minha experiência, 1. Mantenha as emoções fora da troca, 2. Discuta, não ataque (sem ad hominem e sem ad Hitlerum), 3. Ouça atentamente e tente articular sobre a outra posição com precisão, 4. Mostre respeito, 5. Reconheça que você entende o por que alguém pode ter essa opinião e 6. Tente mostrar como a mudança de fatos não significam, necessariamente, a mudança de cosmovisões. Essas estratégias nem sempre funcionam para mudar as mentes das pessoas, mas agora que a nação acabou de ser submetida a uma verificação política, elas podem ajudar a reduzir divisões desnecessárias.