por Desidério Murcho
Em meados do século XVIII, a maior parte das mulheres na Europa davam à luz em casa. As que faziam os seus partos na maternidade, porém, morriam em elevados números de sépsis puerperal: mais precisamente, entre 25 a 30 por cento. Em 1844, o médico germano-húngaro Ignaz Semmelweis (1818–1865), então um jovem de 26 anos, começou a trabalhar numa maternidade de Viena. Semmelweis deitou imediatamente mãos ao trabalho de tentar fazer baixar o índice de mortes das parturientes… e o resto é história. Sem grandes dificuldades, Semmelweis descobriu o que seria óbvio para qualquer pessoa que olhasse com olhos de ver: as mulheres na secção da maternidade em que os estudantes recebiam formação morriam numa percentagem duas a três vezes superior em comparação com as mulheres da secção em que as parteiras recebiam formação. Qual era a diferença? Os estudantes vinham da sala de dissecção, na qual cortavam e abriam cadáveres; as parteiras não faziam tal coisa. Nessa altura, a teoria médica dos germes ainda não estava cientificamente estabelecida e, consequentemente, os estudantes e médicos não lavavam as mãos de todo em todo, quanto mais apropriadamente. Porém, não é preciso acreditar na teoria médica dos germes para fazer o que fez Semmelweis: lavar as mãos apropriadamente depois de lidar com os cadáveres, e ver o que acontece. Obviamente, o resultado foi que os estudantes de Semmelweis, que receberam ordens para lavar bem as mãos, deixaram quase completamente de infetar as parturientes que observavam. Como seria de esperar, os índices de mortalidade entre as parturientes baixou de 18,27 por cento para… 1,27 por cento.
Consegue-se ver que o mesmo procedimento — nada mais do que lavar bem as mãos — tem efeitos milagrosos em qualquer maternidade, e seria de esperar que os médicos do mundo inteiro se apressassem a testá-lo, fosse para reproduzir os resultados, fosse para os falsificar. Contudo, não foi isso que aconteceu, de modo algum. A hipótese de Semmelweis foi ridicularizada, com base na ideia de que os médicos eram criaturas asseadas por natureza, de modo que não precisavam de lavar as mãos depois de dissecar cadáveres. Devia-se ao invés compreender que morrer de parto era um facto bruto, com o qual nos devíamos reconciliar; talvez fosse essa a vontade de Deus. Nada poderia evitá-lo. Claro que a teoria médica dos germes acabou por se impor cientificamente, mas demorou décadas. No decurso dessas décadas, Semmelweis morreu aos 47 anos, pobre e ridicularizado pelos colegas por ser supostamente um lunático.
A história trágica de Semmelweis mostra que, para ter uma compreensão apropriada da ciência, os seus aspetos sociais e institucionais são cruciais. Os aspetos epistémicos, apesar de interessantes, não são suficientes. Qualquer médico que trabalhasse numa maternidade poderia ter verificado a hipótese de Semmelweis, e poderia ter contribuído para fazer baixar os índices de mortalidade das parturientes. Não havia aqui qualquer dificuldade epistémica profunda. Mas havia fatores sociais e institucionais profundos que se revelaram poderosos obstáculos epistémicos, muito difíceis de ultrapassar. Em resultado disso, milhares de parturientes morreram desnecessariamente. E os médicos, homicidas por negligência, não foram castigados.
Para ilustrar melhor o que está aqui em questão, recorde-se o que era a prática médica europeia até meados do século XIX:
..
Durante qualquer coisa como dois mil anos, do século I a.C. até meados do século XIX, a principal terapia usada pelos médicos era a sangria (abrindo habitualmente uma veia do braço com uma faca especial chamada lanceta, um processo denominado flebotomia ou vivissecção; mas usava-se também por vezes ventosas ou sanguessugas), que enfraquecia e até matava os pacientes.
Além disso, à medida que o tempo passava, a medicina tornou-se mais perigosa, e não menos: as maternidades do século XIX matavam as parturientes porque os médicos (que recebem formação para se considerarem cientistas) espalhavam sem intenção infeções entre as parturientes. As parturientes e os recém-nascidos estavam muito mais seguros nos séculos anteriores, quando recebiam cuidados de parteiras que só recebiam uma formação informal. Durante 2400 anos, os pacientes pensavam que os médicos lhes faziam bem; durante 2300 anos, estavam enganados. (David Wootton, Bad Medicine: Doctors Doing Harm Since Hippocrates, 2006, p. 2)
..
..
Qualquer médico teria conseguido testar a terapia mais querida daqueles tempos e ver que não era melhor do que o mero acaso — na verdade, era pior. A principal dificuldade não era epistémica, metodológica ou algo desse género; era institucional e social: os médicos e pacientes eram levados a acreditar que a instituição médica, com os seus métodos de formação, livros venerados e universidades tidas em grande estima, eram de confiança. Mas não eram. Era simplesmente uma fraude, baseada em nada de mais sólido do que o ar rarefeito da irresponsabilidade epistémica: aqueles livros, instituições e profissionais altamente prestigiados afirmavam saber coisas sem provas suficientes de que as sabiam realmente.
Consequentemente, parece que uma pergunta crucial a fazer é esta: como conseguiremos conceber instituições epistemicamente responsáveis, que sejam dignas da nossa deferência epistémica? Para compreender a dificuldade, considere-se outra ilustração. Uma das características mais básicas do raciocínio probabilístico é que a probabilidade de uma dada pessoa, chamemos-lhe “Linda”, trabalhar como caixa num banco e ser feminista é inferior à probabilidade de ela trabalhar como caixa num banco. Contudo, é comum as pessoas não se darem conta disto, incluindo pessoas que de facto o sabem, num sentido profissional. Quando Amos Tversky e Daniel Kahneman aplicaram este teste, hoje amplamente conhecido, ficaram estupefactos ao descobrir que 89% das pessoas violavam a lógica simples da probabilidade e escolhiam a primeira opção anterior. Eles mudaram a ordem das perguntas e outras variáveis, mas uma imensa parte das pessoas escolhia sempre a opção errada. Por fim, decidiram que era tempo de acabar com todo aquele disparate e que os estudantes de teoria da decisão, que se baseia fortemente no cálculo de probabilidades, se sairiam muitíssimo melhor:
..
Estávamos convencidos de que as pessoas que respondessem, caso fossem estatisticamente sofisticadas, se sairiam melhor, de modo que aplicámos o mesmo questionário a estudantes de doutoramento do programa de ciência da decisão da Stanford Graduate School Business, estudantes que tinham, todos eles, feito vários cursos avançados em probabilidade, estatística e teoria da decisão. Ficámos uma vez mais surpreendidos: em 85% das respostas, considerava-se que trabalhar como caixa num banco e ser feminista era mais provável do que trabalhar num banco. (Daniel Kahneman, Thinking, Fast and Slow, 2011, p. 158)
..
Há questões semânticas com respeito ao teste da Linda, mas isto limita-se a apontar para outra limitação humana profunda que não cabe abordar agora. O que parece relevante neste caso é que esses mesmos estudantes muito provavelmente não responderiam tão mal noutro contexto — um exame académico, por exemplo, crucial para os seus doutoramentos. Para raciocinar adequadamente, os seres humanos precisam do ambiente apropriado que lhes exija os seus melhores esforços e cuidado. Quando os seres humanos raciocinam descuidadamente, falham quase sempre em tudo, exceto os casos mais simples do aqui-e-agora. Chamo a isto “epistemologia do quotidiano”: a maneira como os seres humanos se orientam na vida quotidiana, raciocinando descuidadamente. Isto é suficiente para escolher um restaurante ou para ir ao banco, mas é terrivelmente inadequado para ter como resultado qualquer raciocínio probabilístico sólido, ou até qualquer raciocínio dedutivo simples que não seja falacioso. Uma das mentiras mais persistentes acerca dos seres humanos é a noção de Aristóteles de que somos animais racionais. Somos de facto animais, e certamente que conseguimos ser racionais, mas só com muito esforço e cuidado. A racionalidade não é uma coisa natural nos seres humanos. É quase exatamente o oposto.
De modo que este é o primeiro fator que precisamos de ter seriamente em conta se quisermos conceber instituições epistemicamente responsáveis: a menos que o façamos bem, as pessoas irão raciocinar muito, muito mal, como se vê na triste história da medicina, e as mesmíssimas instituições que deveriam impedir que isso aconteça limitam-se a dar-lhe o peso da autoridade e do prestígio.
Para compreender o segundo fator, considere-se a ilusão provocada pela revolução científica do século XVII. No século seguinte, passou a ser comum pressupor que a história era sempre uma questão de progredir, ainda que lentamente, em direção a melhor e melhor tudo: melhor ciência, melhor medicina, melhor tecnologia, melhor economia. Em resultado disto, ainda há quem acredite que a descoberta da ciência era mais ou menos inevitável, como se tivesse desde sempre feito parte do ADN humano. Na verdade, é o exato oposto. Muitas civilizações duraram séculos, e por vezes milénios, sem descobrir a ciência, como é o caso do Egito clássico, dos romanos, da China, dos astecas, dos maias e da Índia clássica, entre outras. Claro que todas estas civilizações tinham algum conhecimento matemático e astronómico, e é claro que tinham um conhecimento prático de várias questões, mas não tinham ciência propriamente dita — uma compreensão sistemática, profunda e genuína do Universo. Porquê? Talvez porque a ciência é profundamente contranatura. Considere-se Aristóteles e o seu modelo cosmológico, que persistiu até Copérnico. Qualquer pessoa — incluindo Aristóteles — poderia ter visto que a sua cosmologia era simplesmente arbitrária. Se mudarmos vários dos seus aspetos, tudo fica exatamente na mesma. Aristóteles não tinha fosse o que fosse em termos de provas sequer remotamente suficientes de que o Universo era realmente uma sequência de esferas em rotação. A cosmologia de Aristóteles não era melhor do que a mitologia grega. Era igualmente arbitrária, e, como esta, não se baseava em provas suficientes, mas antes na especulação vácua.
Claro que a especulação é importante; a ideia não é desconsiderá-la. A ideia é que se a especulação não for levada a cabo com um certo grau de humildade e de contenção, torna-se um obstáculo epistemológico, não só porque dá a ilusão de conhecimento, mas também porque — e isto é muito mais importante — nos impede de tentar raciocinar apropriadamente com base nas provas disponíveis. Impede a ciência no seu sentido mais geral e nobre: a procura de crenças bem fundamentadas, baseadas na aplicação cuidadosa do raciocínio, tendo sempre em mente que nos enganamos e que, portanto, precisamos de ter à mão os melhores instrumentos que conseguirmos imaginar para corrigi-los. A revolução científica foi um acaso feliz, e não algo que esteja na nossa nossa natureza. Pensar cientificamente é contranatura, e sem os incentivos e desincentivos certos, os seres humanos são capazes de passar milhares de anos sem ela, arrastando-se na pobreza, exploração e obscurantismo.
De modo que a ideia cimeira que emerge destes dois fatores é que o obstáculo mais geral que se atravessa no caminho da ciência é a natureza humana caída, que se reflete na maneira como as instituições funcionam. Precisamos de instituições que tenham os incentivos certos para que as pessoas sejam epistemicamente responsáveis, e também os desincentivos certos para que evitem ser epistemicamente irresponsáveis. O crucial da atitude científica é a rejeição firme da epistemologia fácil do quotidiano e a exigência de responsabilidade epistémica, sem exceções. O seu lema poderia muito bem ser as maravilhosas palavras de Clifford: “É sempre errado, em todos os casos, acreditar com base em provas insuficientes” (W. K. Clifford, “The Ethics of Belief”, 1877, p. 309) Afinal, estas não são palavras muito diferentes do lema da Royal Society, fundada em 1660, e que desempenhou um papel capital na revolução científica: Nullius in verba.
..
..
..