Modelos mentais

Gustavo Bicalho
Feb 22, 2019

(Status epistêmico: apanhado de ideias que acho que funcionam por experiência própria. Algumas tem base científica (leitura recomendada: Rápido e Devagar). Representa minha visão no momento da publicação.)

Modelos mentais são os mapas (metafóricos) que nos ajudam a navegar (metaforicamente) o território do mundo real.

Um exemplo simples é meu conhecimento de onde as coisas estão guardadas na minha cozinha. Eu não preciso de um mapa em papel ou uma tabela indicando a localização de cada item para encontrar pratos e talheres - eu me lembro onde eles estão. A ideia de “copo” junto ao contexto daquela cozinha específica imediatamente evoca a imagem do armário correto. O mapa está em minha mente.

Outra experiência similar, mas significativamente diferente: se alguém me para na rua e pergunta “Por favor, onde fica a Avenida Paulista?”, eu provavelmente consigo responder, assim como consigo encontrar os copos e pratos na minha cozinha. Mas o movimento mental é um pouco diferente. Eu preciso imaginar as ruas conhecidas em minha mente numa grade, me orientar em relação a elas e navegar para encontrar a resposta. Há indireção e esforço, diferente do caso do copo na cozinha.

(Eu sei que tem gente que consegue se localizar quase que instintivamente em bairros e regiões conhecidas, diferente do que eu descrevi acima. Se esse é o seu caso, acredite em mim: nem todo mundo tem esse talento!)

No caso da cozinha, eu diria que tenho um modelo implícito da localização dos utensílios. É extremamente fácil de usar, mas descrevê-lo completamente em palavras ou diagramas seria um desafio! No caso da Avenida Paulista, meu modelo é explícito: eu conseguiria colocar no papel a maior parte do meu conhecimento sobre onde as ruas ao redor se localizam. Só que o modelo explícito é mais difícil de usar.

Outro exemplo: se eu vejo uma bola lançada ao ar, em geral consigo ter uma boa ideia de onde ela vai cair. Aposto que você também consegue (com mais ou menos precisão). Talvez você tenha aprendido as equações de lançamento oblíquo na escola, e talvez você até se lembre como usar. Só que não dá tempo - a bola cai antes que você possa escrever qualquer coisa.

Quem faz os cálculos nesse caso é um sistema intuitivo em nosso cérebro, ótimo em prever o movimento de coisas em geral. Ele provavelmente faz aproximações e chutes e aceita premissas que podem estar erradas, e nada disso é algo que conseguimos descrever explicitamente. O modelo é implícito, mas funciona bem o bastante.

Por outro lado, precisão é um requisito necessário se você for um engenheiro construindo um edifício. Nosso modelo intuitivo de física não foi feito para lidar com estruturas de aço e concreto de dezenas ou centenas de metros de altura. Sabe como, às vezes, você está com sono e coloca um livro só um pouquinho demais para fora da mesa e ele cai? Isso não pode rolar se você tiver um monte de gente dentro do seu prédio.

Um bom modelo explícito pode alcançar um nível de precisão muito além do melhor palpite da intuição mais bem calibrada. Um ótimo modelo pode levar pessoas à Lua. Mas dá trabalho e é complicado.

Informalmente, eu às vezes chamo os modelos implícitos de intuições e os modelos explícitos de teorias. Eu sei, são palavras cheias de conotações e que têm um significado um pouco diferente e que varia conforme o leitor. No entanto, acho que são próximas o suficiente do que eu quero dizer, então vou usá-las no decorrer do texto.

Essa dicotomia entre modelos implícitos e explícitos está relacionada à distinção entre Sistemas 1 e 2, apresentada por Daniel Kahneman no livro Rápido e Devagar. Em termos gerais, o Sistema 1 representa os processos rápidos, automáticos, que nossa mente desempenha sem esforço consciente. Já o Sistema 2 representa os processos lentos e deliberativos, que demandam atenção e concentração. Nessa classificação, nossos modelos implícitos fazem parte do Sistema 1, enquanto os modelos explícitos fazem parte do Sistema 2.

Resumindo:

Todos temos modelos implícitos (na verdade, às vezes temos que lutar para não usá-los). Mas eu gosto de usar modelos explícitos sempre que consigo, até em situações em que parece que eles não se aplicam tão bem.

Modelos implícitos são duvidosos (até que se prove o contrário)

Há intuições e intuições.

O exemplo da trajetória da bola é um caso em que faz todo sentido contar com um modelo implícito.

Em primeiro lugar, se alguém lança uma bola em minha direção e diz “Pega!”, não há tempo para pensar muito, e com certeza não dá pra fazer cálculos de física em papel. Usar um modelo explícito está fora de questão.

Em segundo lugar, eu sei, por experiência, que minhas intuições sobre esse tipo de coisa são razoáveis (mesmo que não tão boas quanto as de um jogador de basquete, por exemplo). O “simulador de física” no cérebro humano é muito bom em situações cotidianas. É um modelo implícito que é testado constantemente. Se ele começasse a falhar, eu começaria a tropeçar nos móveis e cair o tempo todo.

A maioria dos nossos modelos implícitos não passa por esse tipo de teste contínuo. Ouvimos uma história, sofremos um trauma e pronto, formamos uma intuição a partir de um ou dois exemplos. Essa intuição pode ou não fazer previsões corretas, dependendo de quanta sorte ou azar tivemos ao encontrar os exemplos em que ela se baseia.

Intuições surgem como preconceitos - conclusões rápidas formadas a partir de poucos dados. Elas podem ser aperfeiçoadas pela experiência se expostas a um ciclo de feedback, ou seja, se formos forçados a repetidamente encarar as consequências de nossas previsões, errando ou acertando.

Quando faço uma previsão com base em uma intuição, me pergunto: Quanto será que essa intuição vale? Quanto melhor o ciclo de feedback a que a intuição está exposta, mais valor ela tem.

Note que um bom ciclo de feedback exige encarar nossos erros, não apenas contabilizar nossos acertos. O desafio é lidar com o viés de confirmação - nossa tendência a só prestar atenção àquilo que confirma nossos modelos.

Esse ciclo de confirmação e refutação, no caso dos modelos implícitos, em geral exige experiências imediatas e concretas que nos digam o que deu certo ou errado. Estatísticas e argumentos lógicos não têm muito impacto na formação de nossas intuições. Além disso, modelos implícitos estão presos dentro de nossas mentes individuais. Nesse sentido, eles têm um potencial de crescimento limitado.

Modelos explícitos são incompletos (mas podem melhorar)

É fácil ver a utilidade dos modelos explícitos usados na engenharia: são precisos e claros. Um projeto baseado em um modelo explícito pode ser revisado por outras pessoas para evitar erros. E, principalmente, esse modelos acertam. O Empire State Building foi construído em 1930 e ainda está de pé. A Estação Espacial Internacional dá 15 voltas ao redor da Terra por dia.

Nem todos os modelos tem um histórico impressionante para mostrar. A maioria sequer tem uma base científica - ou mesmo um mínimo de dados coletados com um mínimo de rigor. Nosso modelos implícitos são formados por nossas experiências pessoais e anedotas ouvidas ao longo da vida, e o jeito mais fácil de construir um modelo explícito é colocar no papel as conclusões e regras gerais que usamos intuitivamente (i.e. extraídas de nossos modelos implícitos).

Um modelo explícito desse tipo é tão enviesado e falível quando a intuição que lhe serviu de fonte. Na verdade, ele pode ser ainda pior, porque o processo de explicitar uma intuição pode esquecer nuances e detalhes importantes, que são trocados por regras claras, mas incompletas.

Apesar disso, construir um modelo explícito torna possível duas coisas extremamente poderosas:

Um modelo explícito pode ser aperfeiçoado intencionalmente através desses dois tipos de testes - confronto com o mundo e com outras pessoas. Podemos inventar um experimento específico para verificar se um aspecto de nosso modelo está correto. Ou podemos enviar um artigo a um especialista e perguntar: “O que você acha?” Podemos escrever um livro ou criar uma disciplina acadêmica, e outros podem continuar o processo de desenvolvimento do modelo.

“Faz sentido” é só o começo

Modelo: “Palavras que lemos ou escrevemos influenciam nossa memória associativa, despertando outras ideias associadas, que podem influenciar fortemente nosso comportamento. Por exemplo, escrever uma série de palavras relacionadas à velhice pode fazer com que você ande mais devagar!”

Reação: “Faz sentido!”

Faz sentido, mas não é verdade.

Em geral, pessoas não contam histórias que não “fazem sentido”. Até sonhos muitas vezes têm uma narrativa com começo, meio e fim. Nosso cérebro é extremamente hábil em inventar histórias ao redor de experiências limitadas - mesmo que, para isso, precise fazer extrapolações ou aceitar premissas injustificadas.

A sensação de que um modelo “faz sentido” significa apenas que meu raciocínio e memória não foram capazes de encontrar nenhuma contradição ou incongruência óbvia após uma análise rápida e superficial. Há muitas histórias possíveis que passam por esse filtro, mas só algumas (poucas) delas são verdadeiras. Apenas raciocínio aprofundado e a busca por dados podem dar mais segurança a respeito de um modelo.

Uma ideia relacionada é o conceito de conforto cognitivo, também apresentada no livro Rápido e Devagar. A sensação de que uma ideia é fácil de entender leva à intuição de que ela é fácil de aceitar e, portanto, à percepção de que ela é provavelmente verdadeira. Essas inferências são inválidas, especialmente para nós, humanos do século XXI, que vivemos num mundo complexo, em que muitas histórias são contadas e as evidências não estão todas à vista.

Quando leio algo, penso “entendi, legal, faz sentido” e sinto a sensação de compreensão, eu me lembro: “faz sentido” é só o começo.

Force os modelos além do óbvio

Verifique e expanda os limites de seus modelos, “virando os botões para ver o que sai”. Fazer experimentos mentais do tipo “o que essa teoria me diz no caso X?” é uma forma fácil de identificar falhas (caso o modelo faça uma previsão claramente errada) ou pontos que merecem mais investigação (caso o modelo não seja capaz de dar uma resposta).

Desconfie dos modelos

“Algo entre duas semanas e três meses.” - Gustavo Bicalho

Foi o que respondi certa vez, quando me pediram uma estimativa sobre quanto um projeto ia demorar para ficar pronto.

Era um projeto com várias incertezas e partes móveis que podiam dar errado, e eu não tinha experiência em estimar a duração de algo assim. Eu não tinha nenhum modelo implícito confiável e nenhum modelo explícito forte o suficiente para dar uma resposta com uma margem de erro menor do que essa.

(No fim, o projeto levou aproximadamente um mês e meio.)

Minhas intuições são enviesadas, minhas teorias são incompletas. Tenho menos de três décadas de experiência acumulada a respeito de um canto específico do mundo, e a maioria das minhas ideias não passaram por rigorosas avaliações e experimentos.

Isso não significa que devemos jogar tudo pro alto e decidir aleatoriamente, nem é motivo para bancar o Asno de Buridan e travar diante de toda escolha difícil.

Significa que é melhor colocar margens de erro bem largas e procurar mais informação sempre que possível.

Use muitos modelos

“A raposa sabe muitas coisas; o porco-espinho, apenas uma, mas muito importante.” - Provérbio grego

Se nossos modelos têm margens de erros largas, como podemos ter confiança ao decidir a respeito de questões complexas? A melhor solução que conheço é usar vários modelos. Quanto mais, melhor. Olhar a mesma situação a partir de vários pontos de vista e entender onde esses pontos de vista convergem ou divergem (i.e. onde os modelos concordam ou discordam sobre a resposta certa).

Onde os modelos convergem, as margens de erro diminuem. Quanto mais diversos forem os modelos usados, maior a importância dessa convergência. Se dois modelos parecidos concordam, isso não conta muito. Por outro lado, se dois modelos radicalmente diferentes chegam à mesma conclusão, podemos ganhar muito mais confiança.

A ideia aqui é que modelos parecidos se baseiam em muitos dos mesmos fatos. Portanto, temos que tomar cuidado para não contar duas vezes os mesmos argumentos (relacionado: Double counting fallacy). Quanto mais diferentes os fundamentos dos modelos usados, mais dados novos estamos trazendo para a análise.

As previsões em que os modelos divergem são os pontos onde uma investigação mais aprofundada pode ser produtiva: porque temos respostas diferentes? Quais fatores são importantes em um modelo e irrelevantes em outro? Será que algum modelo se aplica melhor a essa situação do que o outro? Por quê? Há algum teste que eu possa fazer ou informação que eu possa procurar para ajudar a entender melhor a situação?

No livro Superprevisões, Philip E. Tetlock discute a capacidade humana de fazer previsões sobre o futuro. O livro explica as técnicas usadas por pessoas que realmente conseguem (ter uma chance razoável de) acertar apostas sobre “O ditador do país X vai cair nos próximos 4 anos?” ou “Haverá um conflito armado entre os países Y e Z em 2019?” Uma das diferenças cruciais é justamente a disposição para agregar várias perspectivas, ao invés de se prender a uma única teoria.

Nessa perspectiva, ter vários modelos disponíveis é útil, mesmo que eles sejam incompletos ou falhos em algum aspecto importante. Quase todos os modelos o são. Por isso mesmo, vários pontos de vista incompletos fazem um trabalho melhor do que apenas um.

Por exemplo, se preciso lidar com um conflito no ambiente de trabalho, eu tento analisar a situação a partir da teoria dos jogos, que em geral me indica uma postura mais rígida. Eu também tento colocar meu “chapéu” de negociador cooperativo, que acaba chamando atenção para os interesses das outras pessoas envolvidas. Também tento me ver no papel de mentor ou juiz ou mediador e pensar “o que um bom (mentor ou juiz ou mediador) faria nessa situação?” Cada um desses pontos de vista destaca pontos importantes sobre a situação em análise. A decisão final deveria ponderar e avaliar a importância de todos eles.

Reframing

Há outra forma de provocar a mente para gerar perspectivas diversas: tentar imaginar uma situação um pouco diferente, e ver quais modelos parecem se aplicar ao cenário modificado. Essa técnica é às vezes chamada de reframing, ou “reenquadramento”.

O exemplo do link: uma amiga está considerando uma oferta de emprego em outra cidade, com um salário muito mais alto, mas longe de seus amigos e família. Ela está em dúvida sobre aceitar ou não.

Uma forma de reenquadrar a decisão é inverter o status quo: imagine que ela já trabalha no novo emprego, em outra cidade, ganhando mais. Será que ela aceitaria uma oferta para o emprego atual, ganhando menos, para poder ficar perto da família e amigos? Se a resposta parecer óbvia desse novo ponto de vista, talvez ela esteja apenas sofrendo com o viés do status quo.

Ou talvez o medo seja do processo de mudança, não do resultado - ter que encontrar uma nova casa, formar um novo círculo social, escolher um novo restaurante preferido. De todo modo, o novo quadro sugere novos caminhos: será que a nova empresa oferece algum suporte no processo de relocação?

Reframing não é só útil como contraponto ao viés do status quo. Eu uso em todo tipo de situação complexa, para tentar entender quais aspectos são importantes ou irrelevantes para minha intuições e teorias. Também é uma forma poderosa de entender os modelos de outras pessoas, em especial quando elas não conseguem explicá-los claramente (i.e. são modelos implícitos ou semi-implícitos). Nesse sentido, reframing é um jeito de forçar o modelo para encontrar suas fundações e limites.

Estudar e explorar

Há duas formas de conseguir um mapa: comprar um atlas ou explorar o mundo e desenhá-lo você mesmo. Nossos modelos mentais podem ser aprendidos de outras pessoas (via livros, aulas e conversas) ou inventados a partir de nossa experiência.

Muitos dos modelos prontos que lemos ou ouvimos são incompletos ou baseados em evidências fracas. Livros que expressam confiança vendem mais, mas em geral essa confiança é exagerada. Por isso, vejo a habilidade de explorar e criar modelos como essencial, pois as mesmas técnicas permitem criticar e corrigir o que aprendemos.

No entanto, é importante tomar cuidado com dois tipos de erros:

  1. Criticar duramente as ideias dos outros, mas não estar disposto a raciocinar da mesma forma em relação às nossas próprias ideias; e
  2. Esquecer que nossa experiência pessoal é limitada, e portanto um modelo pode parecer incorreto em relação a ela, mas ser apoiado em evidências muito mais sólidas e abrangentes do que conseguimos coletar sozinhos.

Evitar esses erros exige uma postura de autocrítica que não é nada confortável. Precisamos encontrar o equilíbrio entre o ceticismo e a confiança exageradas, tanto em relação aos outros quanto a nós mesmos.