Marco Túlio Pacheco Coelho
Doutorando em Ecologia & Evolução
Universidade Federal de Goiás
Na postagem “O que é Ciência” vimos rapidamente que uma prática muito comum na ciência é a utilização de modelos matemáticos que representam teorias, ou hipóteses, formuladas por cientistas. Raramente os cientistas possuem um único modelo matemático para explicar um fenômeno natural e isso cria um dilema bastante intrigante. Se existem múltiplos modelos matemáticos tentando explicar um fenômeno natural, qual deles seria o modelo mais plausível? Não há uma única resposta para essa pergunta mas, de maneira geral, quando um cientista é confrontado com esse dilema ele provavelmente responderá que diante de múltiplas explicações para um mesmo fenômeno, deveríamos escolher a explicação mais simples. Escolher a explicação mais simples, dentre múltiplas opções concorrentes, representa um princípio filosófico amplamente difundido em diversas áreas da ciência que chamamos de “princípio da parcimônia” ou “princípio da economia de explicação”. No entanto, apesar do princípio de parcimônia ser frequentemente invocado, não existe nenhuma evidência empírica de que modelos, teorias, ou hipóteses mais simples seriam de fato mais plausíveis. Discutiremos aqui os desafios de justificar ou uso de parcimônia na ciência e em quais situações podemos seguramente confiar no princípio, ou ignorá-lo (veja aqui um artigo que publicamos recentemente discutindo mais detalhadamente esse princípio na área de ecologia e biodiversidade).
Seria Parcimônia um ‘Deus ex machina’ na Ciência?
Deus ex Machina é uma expressão de origem grega muito utilizada na análise de obras ficcionais para indicar uma solução mirabolante para um problema aparentemente insolúvel. Por exemplo, em "O Senhor dos Anéis" (e em outras obras de J.R.R Tolkien), as Grandes Águias são um claro exemplo de Deus ex Machina. No capítulo “O Campo de Cormallen” do livro "O Retorno do Rei", Frodo Baggins e Samwise Gamgee estão prestes a serem mortos, cercados por lava e sem nenhuma possibilidade de salvação. No entanto, no momento exato em que eles seriam engolidos por lava, as Grandes Águias (Gwaihir e Landroval) aparecem para resgatá-los. Vamos pensar nos cientistas como Frodo e Sam, mas que ao invés de lava ao seu redor, estão cercados por múltiplas explicações para um fenômeno natural. Poderíamos assumir que invocar parcimônia para escolher um modelo mais plausível seria apenas uma resolução mirabolante para tirar os cientistas de um problema aparentemente insolúvel? Para respondermos essa pergunta, precisamos analisar em que contexto parcimônia era invocada por filósofos e cientistas no passado.
Muitos dos slogans utilizados para discutir parcimônia aparecem nas obras de William of Ockham (1285-1348). Slogans famosos como “É inútil fazer com mais o que pode ser feito com menos”, ou “a pluralidade não deve ser posta sem necessidade” são atribuídas a Ockham e é por isso que o princípio de parcimônia é conhecido popularmente como a "navalha de Ockham". A ideia por trás da navalha de Ockham seria cortar os excessos de qualquer explicação para fenômenos naturais. Mas, apesar de Ockham ser o filósofo mais frequentemente associado ao princípio de parcimônia, muitos filósofos traçaram a utilização desse princípio, começando por Platão e Aristóteles. Quando analisamos as origens e a utilização do princípio de parcimônia no passado, o mais importante a ser entendido é que existiam diferentes justificativas para validar o uso desse princípio nas tentativas de compreensão da natureza. Até o século XX, filósofos e cientistas como Descartes, Leibniz, Newton, Kant, dentre muitos outros, acreditavam que o princípio de parcimônia era relevante porque simplicidade era assumida como uma característica verdadeira da natureza. Alguns deles (Descartes, Leibniz, Newton) utilizavam inclusive argumentos religiosos para justificar o uso de parcimônia e argumentavam que o "Deus das religiões abraâmicas" criou um mundo simples, regido por regras simples e que tentar entender a natureza seria o equivalente a entender "a mente de Deus". Vejam que assumir que a natureza é verdadeiramente simples era tido com um argumento válido para invocar parcimônia na ciência (Newton discute isso na formulação de suas leis). No entanto, outros filósofos, incluindo Hume, Mill e Morgan, viam o uso de parcimônia de maneira diferente e argumentavam que invocar simplicidade no estudo de fenômenos naturais era uma estratégia útil para fazer predições sobre a natureza, sem nenhuma garantia de que a natureza era de fato simples. Nesse caso, o princípio de parcimônia era visto como uma justificativa metodológica, sem nenhuma tentativa de representar uma característica real do mundo.
Com a ascensão da estatística no século XX a ideia de que simplicidade poderia indicar plausibilidade fica ainda mais fraca, já que a ciência foi transformada em uma investigação intensamente orientada por dados, o que reduziu muito a ênfase em relatos narrativos dos fenômenos observáveis. A estatística passou a ser amplamente utilizada por cientistas para ampliar o alcance da cognição humana, já que possibilitou a descrição de regularidades e a avaliação de ideias científicas sobre fenômenos naturais. A ascensão da estatística e sua popularização em ciência deu origem a tipos alternativos de inferências estatísticas que diferem não apenas metodologicamente, mas também epistemologicamente. Parcimônia passa a ser invocada, ou completamente ignorada, dependendo do tipo de inferência estatística escolhida pelo pesquisador.
Por exemplo, na abordagem estatística que geralmente ensinamos em cursos de graduação nas universidades, utilizamos um teste de significância que assume uma hipótese nula parcimoniosa. A hipótese nula presenta a menor complexidade possível por assumir a ausência de relação, associação, ou efeito entre fenômenos medidos (veja aqui videoaulas do Prof. Thiago Rangel, da Universidade Federal de Goiás, sobre a hipótese nula). O objetivo desse tipo de análise é estimar o grau de compatibilidade entre os dados observados e o cenário parcimonioso em que a hipótese nula é assumida como verdadeira. Rejeitamos a hipótese nula se os dados observados são substancialmente diferentes da expectativa do cenário parcimonioso nulo. Vejam que existe uma conveniência matemática em assumir um cenário de ausência de relação, associação, ou efeito entre os fenômenos medidos, pois é mais fácil derivar uma distribuição de probabilidade desse cenário único, do que nos infinitos cenários de possíveis efeitos, relações ou associações entre os fenômenos medidos. Nesse caso, a utilização de parcimônia na hipótese nula é uma estratégia puramente metodológica, ao invés de uma afirmação sobre a realidade da natureza. Apesar desse tipo de inferência ser um dos tipos de inferência estatística mais amplamente difundidos e lecionados nas universidades em nível de graduação, existem outras estratégias no leque de opções metodológicas de um cientista.
Um outro tipo de inferência que se tornou uma moda amplamente difundida na área de Ecologia e Biodiversidade é o arcabouço metodológico de seleção de modelos, ou inferência de múltiplos modelos tendo como principal representante o critério de seleção de Akaike (como diria o Prof. Dr. Marco Mello da USP, “ai, meu São Akaike!”). Nesse tipo de inferência, parcimônia tem um papel fundamental na comparação entre múltiplos modelos, pois os modelos são ordenados a partir de medidas que representam o quão bom os dados observados se ajustam aos modelos e o quão simples são esses modelos. A simplicidade de um modelo é um importante componente na inferência estatística de seleção de modelos porque o principal objetivo aqui é escolher o melhor modelo em termos de acurácia preditiva. Acurácia preditiva representa a habilidade de um modelo se ajustar a dados futuros, não coletados, ou que não foram utilizados na parametrização de um modelo. Se esse tipo de inferência é utilizado corretamente, parcimônia é um critério relevante porque muitos estudos indicam que modelos complexos tendem a ter um baixo poder preditivo (um fenômeno conhecido na literatura como a “maldição da dimensionalidade”). Percebam que novamente não existe uma expectativa de que a realidade seja simples, mas a escolha de modelos mais simples garante mais segurança se o intuito do pesquisador é fazer predições.
Por fim, existem outros tipos de inferência, como a inferência Bayesiana ou a inferência por ‘Maximum likelihood’ (traduzido algumas vezes para a língua portuguesa como inferência de máxima verossimilhança), em que parcimônia não possui nenhum papel relevante. Os cientistas que utilizam estatística Bayesiana, por exemplo, estão interessados nos modelos, ou hipóteses que possuem maior probabilidade. Nesse caso, a simplicidade de um modelo, ou hipótese, não afeta a sua probabilidade. Portanto, parcimônia é completamente irrelevante nesse tipo de inferência.
Quando analisamos atentamente as justificativas para invocar parcimônia nos diferentes tipos de inferência podemos notar que não existe uma justificativa universal para o princípio, já que parcimônia pode ser útil, ou inútil, dependendo do tipo de inferência estatística escolhida pelo cientista. Dessa maneira, já podemos adiantar aqui que se o cientista está amplamente consciente de uma justificativa plausível para invocar parcimônia, então ele não está utilizando-a como uma solução mirabolante para o problema aparentemente insolúvel de estar cercado de múltiplos modelos que potencialmente explicam o mesmo fenômeno. Ou seja, parcimônia só seria um Deus ex machina na ciência se for invocada sem pensamento crítico sobre a sua potencial utilidade. Mas então, na prática, em quais situações os cientistas deveriam invocar o princípio de parcimônia, e em quais situações eles deveriam ignorá-la? A resposta para essa pergunta depende da visão filosófica que o cientista tem sobre o papel da ciência no entendimento da natureza. Os cientistas buscam fazer predições sobre a natureza, ou explicá-la?
Realismo versus Instrumentalismo científico
Existem duas visões opostas sobre o papel da ciência no entendimento da natureza. Por um lado, o realismo científico argumenta que o objetivo da ciência é fornecer uma descrição ou explicação da verdadeira realidade subjacente à natureza. Por outro lado, o instrumentalismo científico argumenta que teorias e modelos científicos são apenas instrumentos para auxiliar os pesquisadores a fazer predições sobre fenômenos naturais. Dessa maneira, do ponto de vista instrumentalista, teorias são utilizadas para fornecer predições de dados observáveis e não existe nenhuma contradição se teorias alternativas são igualmente boas em suas habilidades preditivas. Por outro lado, sob a perspectiva realista, há apenas uma teria verdadeira, que descreve perfeitamente a base de mecanismos da natureza. Ou seja, do ponto de vista realista, invocar parcimônia seria um pressuposto metafísico de que a natureza é de fato simples (como argumentado por Descartes, Leibniz, Newton e Kant). No entanto, sob uma visão instrumentalista da ciência, o princípio de parcimônia é um critério metodológico para julgar dentre os infinitos modelos (ou explicações) quais deles seriam os mais seguros quando o objetivo principal dos cientistas é fazer predições. O realismo e o instrumentalismo científico podem ser ilustrados por dois tipos de modelo que são corriqueiramente utilizados em ciência: os modelos correlativos e os modelos mecanísticos.
Digamos que estamos interessados em entender como o isolamento geográfico causado por montanhas afeta o número de espécies em uma determinada região. Como nos é ensinado desde o ensino médio, o isolamento entre populações de uma espécie, por barreiras físicas e/ou fisiológicas, pode reduzir o fluxo gênico entre populações que consequentemente, ao longo do tempo evolutivo, acumularão diferenças até serem consideradas por pesquisadores como populações de diferentes espécies. Por exemplo, poderíamos esperar que em regiões montanhosas do mundo, encontraríamos mais espécies do que em regiões menos montanhosas porque essas regiões causaram maior isolamento entre populações. Como podemos testar isso? De maneira geral, temos uma visão desde a escola primária sobre como o método científico consiste em observações que levam a formulação de hipóteses que são então testadas com um experimento. Porém, a biologia evolutiva é uma ciência histórica. Como astrônomos e geólogos, estudos evolutivos tentam descobrir o que aconteceu no passado. E, como todos os historiadores nós não podemos voltar no tempo e assistir o que aconteceu (como repetido muitas vezes por Stephen Jay Gould). Além disso, a evolução ocorre notoriamente lentamente, o que torna ainda mais difícil observá-la enquanto ela ocorre. Portanto, biologia evolutiva não é uma ciência dedutiva. Pelo contrário, é uma ciência indutiva na qual princípios gerais emergem a partir da acumulação de observações (veja uma discussão mais aprofundada sobre dedução e indução na postagem anterior sobre "O que é Ciência"). Os biólogos estão usualmente limitados a estudos observacionais em que coletamos dados na natureza e tentamos escolher um modelo para medir a associação estatística entre os dados observados e um suposto fator causal. Mas, na prática não podemos afirmar de fato que existe uma causa nas associações estatísticas observadas em nossos estudos observacionais. Vejam a figura abaixo.
Nesse gráfico os pontos representam observações e as curvas são potenciais "explicações" para a relação entre o número de espécies e a complexidade topográfica. Estamos diante do nosso grande dilema, que estamos discutindo desde o início do texto. Diante das múltiplas curvas (que são nossos modelos) qual delas é a mais provável dado as observações? A curva que melhor se ajusta aos dados é aquela que se aproxima do maior número de observações. Então, podemos afirmar seguramente, que a curva que possui maior ajuste aos dados é a curva tracejada. No entanto a irregularidade geométrica dessa curva também indica a sua complexidade matemática e, portanto, ela é considerada a menos parcimoniosa. Por outro lado, o modelo em vermelho representa um modelo linear que possui o pior ajuste aos dados, mas é o mais simples matematicamente. Por fim, a curva azul representa uma entre as infinitas possibilidades de balanço entre ajuste e complexidade de um modelo. Vejam que nesse caso estamos explorando a natureza através de relações funcionais (padrões) entre fenômenos observados, mas não há nenhuma relação causal implícita na construção dos nossos modelos. Esse tipo de modelo é chamado de modelo correlativo. Nesse caso, os dados utilizados para ajustar os nossos modelos são mais importantes do que a própria teoria, já que o método estatístico é utilizado apenas para resumir os dados observados, sem explicitamente incluir toda a narrativa que descrevemos acima sobre como a complexidade topográfica pode afetar o número de espécies. Em sua essência, o uso de modelos correlativos é instrumentalista e, portanto, existe uma justificativa razoável para escolher o modelo mais simples, já que o principal objetivo do pesquisador deveria ser fazer predições sobre a natureza. Como discutimos anteriormente, fazer predições sobre a natureza é algo bastante arriscado para modelos complexos e, por isso, é mais seguro escolher o modelo mais simples. Porém, esse não é único tipo de estratégia empregada por cientistas.
Nós também podemos utilizar modelos mecanísticos para entender se a complexidade topográfica afeta o número de espécies em uma determinada região. Poderíamos criar uma realidade virtual na qual populações de espécies estão sob o controle de processos ecológicos e evolutivos que nós definimos. Dessa maneira, poderíamos simular a dinâmica evolutiva de populações em uma região montanhosa e investigar o que aconteceria com a nossa biodiversidade simulada se a região montanhosa fosse gradativamente transformada em uma planície. Respondemos essa, entre outras perguntas, em um artigo que publicamos na Science em 2018. O Prof. Thiago Rangel explica esse estudo de maneira didática e detalhada neste vídeo. De maneira geral, o principal teste de um modelo mecanístico está na sua capacidade de gerar padrões simulados que se assemelhem a padrões reais. Veja que existe uma diferença fundamental entre esse tipo de abordagem, e aquele da figura acima. No caso de modelos mecanísticos os cientistas estão interessados em propor ou testar explicações causais sobre o fenômeno natural estudado. Ao contrário dos modelos puramente correlativos, os modelos mecanísticos são construídos com processos que possuem significados, por exemplo significados biológicos, e que podem nos ajudar a interpretar os fenômenos naturais. Nesse caso, a teoria é mais importante do que os dados na construção do modelo, já que o objetivo final do uso de modelos mecanísticos é propor ou avaliar a teoria por trás dos processos inseridos no modelo. Portanto, modelos mecanísticos tentam descrever a natureza de maneira realista. Invocar parcimônia para julgar modelos mecanístico implica na crença de que a natureza é simples, com poucos processos estruturando padrões naturais.
Como vimos, invocar o critério de parcimônia é particularmente importante ao construir e comparar modelos correlativos, nos quais teoria desempenha apenas um papel modesto, enquanto os dados são críticos para definir a estrutura do modelo. Podemos esperar que o uso de parcimônia tende a se tornar ainda mais importante com o crescente uso científico de Big Data e inteligência artificial em que a ênfase está na construção de modelos preditivos, sem nenhuma ênfase na compreensão, ou na explicação de fenômenos naturais. No entanto, quando modelos mecanísticos são explicitamente utilizados como representantes de explicações causais, a aplicação do princípio de parcimônia para julgar a plausibilidade de modelos mecanísticos implicaria em uma crença realista de que a natureza é simples. A aplicação do princípio de parcimônia acrítico para julgar modelos mecanísticos poderia, portanto, potencialmente interromper o avanço do entendimento de fenômenos complexos.
Assim, invocar o princípio de parcimônia não representa um Deus ex Machina desde que o cientista esteja amplamente consciente do porquê invocar o princípio. Isso coloca em evidência uma ampla discussão internacional sobre trazer mais filosofia para a formação de nossos cientistas, já que precisamos de pensadores críticos e não apenas profissionais amplamente especializados. A filosofia dos métodos de pesquisa é uma área do conhecimento que recebe atenção limitada no ensino de ciências. Uma atenção mais séria ao ensino da filosofia dos métodos estatísticos utilizados na pesquisa científica ajudaria bastante a superar a comum prática acrítica do uso de estatística em ciências naturais. Apesar de frequentemente nos referirmos ao estudo de filosofia em ciências como filosofia ‘da’ ciência temos que transformar o estudo de filosofia em ciências, em filosofia ‘para’ a ciência. Pense nisso...
Valeu, Marco, muito legal o texto. Tô pensando até em explorá-lo na próxima vez q a gte oferecer a Disciplina de Análise da Biota aqui na Unifal. Mudamos um pouco a cara dela e temos discutido alguns textos. Tô ansioso pelas próximas postagens...abs
Oi, Valério. Muito obrigado pelo comentário. De fato, essa distinção é bastante interessante e ainda foi pouco explorada no confronto entre complexidade e simplicidade de modelos na área de biodiversidade. No entanto, essa literatura é bastante abundante na área de Economia e cheguei a revisar algumas coisas quando estávamos preparando o artigo da Ecography. Na área de economia é obrigatório fazer intervenções com grande segurança, já que qualquer falha pode resultar em uma mudança desastrosa no mercado. Os economistas argumentam que, se o seu objetivo é utilizar modelos para fazer predições que levarão a intervenções, utilizando modelos correlativos ou modelos causais, você deveria priorizar a simplicidade do modelo. A grande questão é que sinal por ser confundido com ruído ao…
Parabéns, Marco, pelo artigo! Uma questão interessante a explorar é a distinção entre um modelo preditivo e um modelo causal quando o estudo tem como objetivo propor intervenções em um sistema. Se o modelo for apenas preditivo, a intervenção pode dar com os burros n'água.