Eduardo Rêgo | Professor (aposentado) do Departamento de Matemática da Faculdade de Ciências da Universidade do Porto

O Governo e a Direcção-Geral da Saúde (DGS), as famosas reuniões no INFARMED, têm sido informados e/ou aconselhados por especialistas, entre os quais matemáticos e epidemiologistas com os seus modelos matemáticos de previsão e análise.

António Costa aprendeu seguramente com essa colaboração. Ao vir explicar que o agudizar da crise “covírica” se deve à conjugação da abertura do Natal com o aparecimento – não previsto, será essa uma desculpa – da nova estirpe inglesa do vírus, estava a mimetizar o que acontece habitualmente com os modelos matemáticos: as falhas nas previsões podem ser quase sempre justificadas com os possíveis efeitos de algum novo parâmetro, ou de uma nova relação entre parâmetros já considerados, com que a realidade se furtou às previsões.

Para o que quero abordar, onde quero chegar, não é relevante se essa justificação pelos efeitos da “estirpe inglesa”, conjugados com o Natal (English Strain Is Coming To Town), é ou não aceitável (pelos números e cronologia da evolução da pandemia e do conhecimento da estirpe, parece não, como quase todos os analistas concordarão, julgo).

O que me interessa é aquela semelhança apontada com as previsões dos modelos matemáticos. E, no final, a sua relação com a dita colaboração…

Não há nada de necessariamente errado com as falhas de previsões dos modelos matemáticos, que são muito frequentes. Se não forem por erros de cálculo ou por falhas básicas na construção do modelo. Nem com as mencionadas justificações a posteriori, se feitas em boa vontade e espírito construtivo. Na verdade, os modelos partem de decisões iniciais, pressupostos metodológicos, que envolvem escolhas de parâmetros e de relações entre eles, dando usualmente origem a alguma fórmula ou conjunto de fórmulas com que são feitos cálculos sobre os dados recolhidos em processos de medida e quantificação da “realidade”. Realidade que não é o conjunto desses dados! Não só não é, como tem em geral uma dinâmica muito mais complexa do que a que logramos modelar.

As falhas de previsão, e as justificações a posteriori pela consideração de novos parâmetros ou novas relações, são parte de um processo natural de melhor conhecer essa dinâmica enquanto se tenta afinar o modelo. Para o tornar suficientemente confiável e, só assim, poder ser útil a sua utilização. E há modelos úteis!

Vou dar um exemplo concreto que envolve questões de mortalidade nesta pandemia, em Portugal, tentando ser pedagógico em benefício de quem não sabe nada disto.

Vejamos os seguintes números:

+1520; -3106; +4764; – 1058; -1711; +3696; +2034; -815; +3293; -1258.

São as 10 variações de mortalidade anuais entre 2009 e 2019. Por exemplo, em 2010 morreram mais (+) 1520 pessoas que em 2009. E em 2019 (último número) morreram menos (-) 1258 pessoas que em 2018. Note-se que há 5 positivas, 5 negativas e não são alternadas (há duas positivas consecutivas, bem como duas negativas consecutivas).

Qual foi a variação entre 2019 e 2020? É a diferença entre os óbitos verificados nos dois anos, 123.667 em 2020 e 111.793 em 2019, ou seja +11.874.

Acrescentando este número à série de cima, sentimos que é uma variação anómala, bem mais que o dobro da variação máxima nos dez anos anteriores, aqueles +4764 de 2012.

Pensamos naturalmente num grande “excesso” de óbitos em relação ao esperado. Mas o que é o “esperado”, se olhando a série de variações vemos até que há umas positivas e outras negativas? Deveria agora em 2020 ter sido positiva ou ser negativa? Elas nem são alternadas em sinal, como já notámos: por que não poderia haver outra negativa depois daqueles -1258 do último ano? É aqui que entram os modelos matemáticos…

Em vista deste tipo de variação em que não se descortina facilmente um padrão, olha-se para médias. A média daquelas dez variações dá +736: significa isto que, “em média”, houve, entre 2009 e 2019, um aumento do número de mortes de 736 de um ano para o seguinte. Se não víssemos aquela série, poderíamos pensar que em 2020 seria de esperar, aproximadamente, um número de mortos igual ao de 2019 mais uns 736. 

Mas vendo aquela variação nos acréscimos e diminuições, sem padrão aparente, percebemos como isso poderá ser errado: a variação em 2019 foi negativa, porque não poderia acontecer um acréscimo maior como aconteceu nos dois anos precedentes, em que passámos de -815 para +3293? O que parece então mais acertado é considerar a média das mortalidades totais daqueles 10 anos. Frequentemente é isso que se faz, comparar a mortalidade de um ano com a média das dos anos anteriores, como já devem ter visto. Não estão aqui todos esses números, mas essa média foi de 107.814. Ora, esse valor é bastante inferior aos 111.793 de 2019, pelo que a utilização dessa média levaria a um valor mais conservador… 

Note-se que a série parece revelar uma “tendência” crescente naquelas variações. É, a olho, maior na segunda metade da década. Na verdade, se fizermos a média das cinco primeiras variações obtemos +81.8 (aproximadamente 82) e para as cinco seguintes obtemos +1390 (claro que a média destes dois números dá a média da década, indicada anteriormente: (82+1390)/2=736). 

Aquilo que os matemáticos fazem é considerar modelos que dão conta dessa tendência, de forma mais fina (detalhes técnicos não comportáveis nesta nota e no seu intuito pedagógico), e geralmente em períodos mais longos. Entre os mais usados, muitas vezes referidos durante esta pandemia são os chamados de “regressão linear”. Devem tê-los visto ilustrados por algum gráfico de barras (mortalidades por anos, por exemplo) sobre o qual aparece uma recta, a que se chama “linha de tendência”, que aproxima mais ou menos os topos das barras (por defeito ou excesso) e que dá conta dessa tendência, precisamente.

Mas façamos aqui uma estimativa grosseira, “à mão”, sobre estes números que temos, e de forma a sermos o menos possível conservadores. Fixemo-nos então nos cinco últimos anos (muitas publicações recentes comparam a mortalidade de 2020 precisamente com a média dos últimos cinco anos)

Aquele número para 2019 é o segundo maior desde 2000 [podem consultar “Óbitos de residentes em Portugal: total e por mês de morte – PORDATA]. Aliás, os quatro maiores das duas décadas 2000-2019 são os dos quatro últimos anos, 2016-2019: 110.573; 109.758; 113.051; e 111.793 (e o maior, os 123.667 de 2020!).

Com os 108.539 óbitos de 2015, a mortalidade média em 2015-2019 foi de 110.743, inferior, portanto, à de 2019. Assim sendo, consideremos então:

1 – Como mortalidade “esperada” para 2020, aqueles 111.793 de 2019 mais a variação média dos cinco anos, 1390, ou seja 113.183, ligeiramente superior, portanto, à máxima dos vinte anos 2000-2019, que foi a de 2018.

Diremos então que a mortalidade de 2020 “em excesso”, relativamente ao valor esperado, é de 11.874–1390 = 10.484 (ou seja, a diferença entre a variação real, verificada, e a variação “esperada”).

2 – Que o excesso de mortes “por outras causas”, além da covid, foi de 10.484–6951 = 3.533. Já que, segundo os dados da DGS, as mortes por covid, até 31 de Dezembro de 2020, foram 6.951. Ou seja, a covid foi responsável por 66.3% do excesso de mortalidade.

[Nota: todos estes números que tenho indicado podem apresentar ligeiras variações de algumas unidades ou poucas dezenas, dependendo da fonte. Por exemplo, foi-me também indicado que no Worldometers este último número seria 6.906. Mas essas pequenas diferenças são irrelevantes para o que estamos a fazer.]

Aquilo que eu quero é chamar a atenção para as “fragilidades metodológicas”, chamemos-lhes assim, deste procedimento.

No passo 2: note-se que aquela simples subtracção é uma decisão de ignorar qualquer efeito de “absorção” pela covid de outras doenças que lá estariam, em muitos casos, como causas naturais e usuais de morte. 

Supor que as vítimas de covid, que na sua larga maioria são, como se sabe, (muito) idosos, sobreviveriam não fosse por ela, não contribuindo assim para o excesso de mortalidade “por envelhecimento”, e que todos os outros que morreram por outras causas teriam morrido na mesma, como morreram, é naturalmente absurdo. (Além disso, já há neste momento alguns números sobre uma diminuição significativa da mortalidade registada para outras doenças respiratórias, que apontam fortemente para esse efeito de absorção).

No passo 1, sobre a mortalidade “esperada”, de acordo com a “tendência”: quer esta seja determinada por um critério ad hoc, como aqui fizemos, quer por um verdadeiro modelo de regressão linear, com a determinação da “linha de tendência”, tudo o que podemos dizer sobre os cálculos que façamos a partir desse valor “esperado” é que os resultados a que chegarmos são possíveis, admissíveis. Não que são certos! Nem sequer prováveis. Isso por causa da falta de padrão nas variações. 

Se eu apresentar a minha estimativa do valor esperado como muito provável, qualquer aluno atento perguntará de imediato o que aconteceria se eu fizesse o mesmo exercício retrospectivamente, considerando a série até 2018, e calculando o valor esperado para 2019. É claro que iria ser bem superior ao real, que até foi de variação negativa (seriam 114.350 em vez dos verificados 111.793).

Note-se que se ao número total de mortes em 2020 subtrairmos o número de mortes por covid, obtemos 123.667 – 6.951=116.716. Este número está bem fora do “esperado”, tanto no nosso método ad hoc como nos verdadeiros modelos. No entanto representa uma variação em relação a 2019 de 4.923, que acrescentada àquela série inicial não pareceria excessiva, anómala… Em termos do que parecem anomalias na série das mortalidades, até poderíamos dizer que todo o excesso de mortes em 2020 se deveu exclusivamente aos mortos por covid!

Quer isto dizer que estes modelos são tão pouco fiáveis que são inúteis? Não, o que acontece é que estes modelos são bons para fazer estimativas a médio e longo prazo (ou médio e longo número de acontecimentos), e estimativas sobre tendências precisamente, sobre médias. Não são bons para prever acontecimentos singulares e isolados na série de acontecimentos que é modelada; como, por exemplo, o de prever a mortalidade do próximo ano. 

Além disso, se num dado ano a mortalidade bater certíssimo com o que o modelo prevê, não significa isso que não haja questões interessantes a colocar. Por exemplo, se nesse ano se verificou que algumas condições que habitualmente se correlacionam com aumentos significativos de mortalidade, como ondas de frio ou calor extremos, foram especialmente intensas, é interessante perguntar por que razão, apesar disso, a mortalidade ficou dentro do esperado.

Este tipo de “fragilidades metodológicas”, como lhes chamo, não aparecem aqui por bizarria, por mim forçada, neste exemplo de procedimento, que nem é uma verdadeira modelação. Aparecem também profissionalmente, com verdadeiros modelos trabalhados e usados por matemáticos!

Há uns dois meses vi por acaso uma publicação de Carlos Antunes, professor da Faculdade de Ciências da Universidade de Lisboa que juntamente com o seu colega Manuel Carmo Gomes fazem parte dos especialistas colaboradores que referi logo no início, e que recentemente têm dados entrevistas em televisões e jornais, em particular defendendo o fecho das escolas e outras medidas. Na altura em que vi essa publicação não sabia sequer da existência de Carlos Antunes, e só a coincidência de ter estes números sobre mortalidade, que aqui usei, ainda frescos na cabeça, vistos apenas uns dias antes, me fez olhar com alguma atenção para o estudo e acabar por fazer alguns comentários. 

O estudo era sobre o que aqui falei: excesso de mortalidade, e concluindo com o cálculo de uma percentagem da contribuição das mortes por covid. Os meus comentários foram precisamente no sentido de apontar para estas duas fragilidades metodológicas.

Quero deixar bem claro que não estou a pôr em causa a competência de Carlos Antunes nestas lides (como explicarei numa nota final, nem tenho competência para isso). E até aproveito para salientar a boa opinião com que dele fiquei, pela abertura, com cordialidade e espírito de cooperação, que manifestou na troca de comentários.

Não tenho nada contra este tipo de exercício de matemática, feito com as ditas fragilidades. Mesmo com aquela fragilidade do passo 2, que classifiquei como absurda: considerar essa hipótese pode ser uma mera conveniência, não sendo possível estimar ainda (talvez nunca venha a ser possível) qual terá sido a dimensão do tal “efeito de absorção” pela covid, antes mencionado. 

[Com quem eventualmente questione a existência desse efeito, ou o ache negligenciável, não vale a pena argumentar. O melhor a fazer será, em gesto solidário, indicar-lhe por mensagem privada o contacto de uma pedo-psicóloga que conheço, excelente profissional, e que me disse que neste período decidiu abrir as consultas da especialidade a todos os grupos etários.]

Desde que seja visto como um exercício, com a consciência das suas fragilidades, e não como uma prova. O problema é, como comentei nessa publicação de Carlos Antunes, a forma como, para lá das intenções de quem faz estes estudos e os torna públicos (e de intenções cada um saberá das suas), eles são depois partilhados e o tipo de mensagem que lhes associam. Muita gente, incluindo da comunidade matemática, verá de facto o estudo, e assim o apresentará depois, como uma “prova” de que a covid contribuiu para o excesso de mortalidade na percentagem estimada, por exemplo 70%, ou 85%. Poder-se-á ouvir algo como “foi mostrado matematicamente que 85% do excesso de mortes foi por covid”. 

Apresentado assim, numa percentagem final e como um facto matemático certo, este tipo de estudo poderá esbater o problema do excesso de mortalidade em 2020 distorcendo a percepção da sua dimensão. Foi também por essa razão que quis apresentar os números anteriores e fazer umas contas e umas especulações com eles: acredito que olhando para aquela série das mortalidades e correspondentes variações anuais mais gente se aperceba melhor do enorme salto da mortalidade verificado em 2020!

[É minha convicção de que nunca teremos um retrato razoavelmente racional, honesto, global e proporcional do que aconteceu, sem fazer uma análise detalhada (e que será demorada, haja vontade de a fazer) deste nosso excesso de mortalidade; e que não afectou todos os países, ou em igual dimensão.]

Estamos, por estes dias, a verificar como as previsões dos matemáticos sobre as datas para os picos desta “vaga”, infecções, internamentos e mortalidade, e os números que lhes associava, falharam de uma forma que parece bastante clara. Mas não é relevante discutir se é claro, ou não. Do ponto de vista estritamente científico, não há mal nenhum que falhem. Desde que as falhas sejam reconhecidas de forma franca e não disfarçadas, como infelizmente não acontece por vezes.

Para os matemáticos (não só, mas sobretudo), sobre esta questão dos modelos, e da sua fiabilidade, em particular nesta crise pandémica, pode ser útil ler a entrevista do Artur Avila, galardoado com a Medalha Fields e especialista em Sistemas Dinâmicos, uma das áreas mais relevantes para a modelação matemática. 

[Ele também fala de “negacionismo” com uma racionalidade e um cuidado em não generalizar o dito conceito que é também muito recomendável…). 

Aqui fica um excerto:

«Como a área que você pesquisa, sistemas dinâmicos, se relaciona com o que a gente está vivendo na pandemia?

Gosto de brincar que, quando olho para as equações gravitacionais, formulo questões que dizem respeito a escalas de tempo muito maiores que a vida do Sistema Solar. São modelos em que o fato o Sol ter explodido não interfere no que vejo. Obviamente, olhando para a pandemia, interessado em estimar qual era a real situação, tentei fazer considerações sobre as possíveis dificuldades. Na minha capacidade de analisar, observei que, de maneira geral, há a tendência de a modelagem ser feita em excesso. O problema é às vezes ter confiança demais nos modelos. Há modelos extremamente complexos, complicados demais para a situação atual, porque as incertezas passam por cima das capacidades deles. Falo isso orientado por sistemas dinâmicos. Quando modelo com extrema precisão o que acontece, tenho perfeita noção de que essa análise tão fina só será válida se valer esse modelo. Se houver uma pequena variação, talvez precise de uma análise mais robusta. As pessoas ficam achando que, se puserem mais e mais complexidade no modelo, podem ter mais confiança. Isso não é necessariamente verdade. Você precisa aceitar a incerteza. Pensa no problema que a gente está tentando entender: a progressão da pandemia nos estágios iniciais. Seria fundamental ser capaz de dar uma previsão válida para daqui a algumas semanas, para orientar os recursos. Seria desejável. Por outro lado, a natureza do problema introduz um nível de incerteza tão grande que torna um pouco inúteis os números que sairiam daí. A natureza das interações humanas e a heterogeneidade das redes de relações podem ter muito mais relevância. O pessoal estava tentando achar números que representassem a transmissão, mas o mais importante podem ser pequenos detalhes da rede de interação, especialmente num momento de pequena prevalência do vírus. Os modelos se tornam bem mais robustos quando uma grande parte da população já está infectada, aí se torna mais razoável supor certas uniformidades na distribuição. A gente tem o desejo de poder dar a melhor informação possível, mas o que a ciência frequentemente ensina, quando olho para problemas da realidade, é que você deve se preocupar com o limite do que poderia conhecer. Deve tentar identificar o ponto além do qual você não terá mais certeza, por mais que se esforce, por mais que tente modelar. Cheguei a isso. É uma coisa compreendida em previsões de tempo. A incerteza faz com que, por mais que você coloque novas estações meteorológicas, chega um momento – e não é muito longe – em que não consegue dizer se faz sol ou chuva. A perda de informação é muito rápida, você não consegue lutar contra efeitos exponenciais. A situação da pandemia não é muito diferente. Mas esse conhecimento que a ciência traz, mesmo que seja um conhecimento negativo, é útil, porque você fica sabendo como pode reagir. A gente sabe que terá de tomar uma decisão diante de uma situação inerentemente incerta. Talvez não seja a informação que a gente gostaria, mas é alguma coisa.»

Artur Ávila

O que é relevante, em face da incerteza das previsões na modelação matemática de certos fenómenos e, sobretudo, da forma como esses modelos são dependentes da metodologia inicial – na escolha dos parâmetros (ou ignorância de outros possíveis, porventura mais relevantes) e das relações entre eles (ou ausência delas) – é a forma de colaboração dos especialistas com as autoridades.

Numa entrevista de Carlos Antunes na SICN, que aconteceu entre as duas reuniões no INFARMED, em que se passou da abertura das Escolas à decisão de as encerrar, mostrou ele uns gráficos que evidenciavam a maior prevalência dos contágios nos grupos etários em idade escolar. Esses dados, que não existiriam ainda na primeira daquelas duas reuniões, foram invocados por Carlos Antunes, em entrevistas posteriores (nomeadamente no Público), e pelo seu colega Carmo Gomes, para defenderem o encerramento das Escolas e outras medidas para um confinamento mais pesado. Dizendo que embora não existissem conclusões seguras e definitivas sobre o grau de transmissibilidade através das Escolas, havendo estudos e opiniões diversas sobre isso, face àqueles dados se deveria aplicar o Princípio da Precaução Máxima. 

[Ainda não tive tempo de verificar de qual área científica deriva esse Princípio; imaginando que não será oriundo das Ciências Sociais ou das Humanidade áreas de conhecimento banidas deste processo de aconselhamento.]

O primeiro-ministro também viria a invocar esse princípio, na comunicação que fez ao país a anunciar as novas medidas mais apertadas, incluindo o encerramento das Escolas.

É um princípio que parece indiscutível e de senso comum. Aplicámo-lo muitas vezes nas nossas vidas, invocando de forma mais popular o velho provérbio de que “mais vale prevenir do que remediar”.

Subsiste, no entanto, um óbvio problema ético: até que ponto a aplicação do Princípio da Precaução Máxima numa dada situação pode interferir e impedir o Princípio da Precaução Mínima (imagino que exista, assim mesmo na forma de Princípio), devido também a outras realidades. Precaução Mínima porque abaixo dela podem dar-se danos graves, ou mesmo irreparáveis a essas outras realidades.

Ora, se os resultados das modelações matemáticas podem influenciar decisões políticas que afectam milhões de pessoas e podem pôr em causas o Princípio da Precaução Mínima, então o Princípio da Precaução Máxima deveria ter sido aplicado também à forma de aconselhamento das autoridades pelos especialistas, em particular os matemáticos modeladores. Esse princípio deveria ter levado o Governo a constituir, de forma pública e transparente, um gabinete de aconselhamento, com conhecimento dos currículos dos especialistas e dos critérios de escolha (eventualmente por pedido a entidades profissionais ou académicas, que os dariam então).

E, sobretudo, pelo menos no caso da Matemática, com equipas a trabalharem de forma independente, e a confrontarem posteriormente as ideias, os resultados e as metodologias usadas! É isto que o dito Princípio de Precaução Máxima aconselharia!

Mas acredito que também nas outras especialidades seria útil proceder da mesma forma, já que ficou patente que há opiniões divergentes entre especialistas reconhecidos e com currículos inquestionáveis. Assim se teria algo mais perto de um “consenso científico”.

Mas não, não sabemos como foram escolhidos estes especialistas, o que os tornou “especiais”. E lhes permitiu, em vários casos, uma projecção mediática que vão protagonizando. Alguns quase desde o início da pandemia. São os especialistas oficiosos.

Têm, é claro, o direito a dar as suas opiniões e aproveitando o seu mediatismo. Na maioria dos casos, mediatismo apenas circunstancial. E é natural que defendam as medidas de gestão social que, na sua visão de especialistas, acreditam que melhor e mais rapidamente podem solucionar os aspectos da dinâmica da pandemia, de que tratam os modelos que trabalham, ou áreas que estudam. Só que quando as defendem já não o fazem na condição de especialistas dessas difíceis decisões de gestão social. Não é saber modelação matemática, ou virologia, ou epidemiologia, ou pneumologia que torna alguém mais capaz em decidir sobre o devido equilíbrio entre os dois Princípios: o das Precauções Máximas e o das Precauções Mínimas.

[Nota final: Não posso avaliar pessoalmente, porque o trabalho deles está muito longe das minhas áreas e interesses matemáticos, a competência matemática das pessoas que referi, ou a que indirecta e involuntariamente possa ter aludido. Mas pelo que sei são competentes. Sou até muito ignorante nas áreas matemáticas mais ligadas à “matemática da pandemia”, chamemos-lhe assim. Estatística, métodos quantitativos, de análise numérica, modelação e áreas associadas como equações diferenciais, sistemas dinâmicos, etc. Além disso não me atraem especialmente, algumas delas; não tenho gosto em trabalhar com esta Matemática. Por isso nunca andei a ver com cuidado o que me foi aparecendo, sobre a Matemática da Pandemia, mantendo apenas um olhar heurístico. A única excepção foi aquela publicação de Carlos Antunes, como expliquei. Razão mais forte ainda terá sido que tenho andado, desde há uns meses, a reler um livro sofisticado e difícil com o intuito de terminar a parte final que tinha deixado de lado na primeira leitura. Isso protegeu-me também da tentação de me meter nas análises, discussões e divergências sobre os números da pandemia: sentia logo que era roubar tempo ao que era importante e escolhia pegar no livro e avançar mais uma ou duas páginas.

Já agora, aproveito para um desabafo, que vem a propósito. Isso, essa minha auto-exclusão, incluiu em particular a questão dos “falsos positivos”, em que fui vendo publicações, quase todas por não-matemáticos. Ora, as probabilidades condicionadas, acontecimentos independentes, o Teorema de Bayes (não sei se com o nome) fazem parte do programa da matemática do 12º ano e são tratados nos manuais; pelo menos no que eu revi há uns quatro anos, era. E na Wikipédia sobre o Teorema de Bayes aparecem precisamente exemplos com testes e as suas percentagens de sensibilidade e especificidade. O que eu estranhei foi a ausência de matemáticos a darem a sua contribuição pública para a pedagogia do assunto. Tão importante quando se viu aquele contorcionismo intelectual de Pedro Simas em explicações à volta do teste positivo do Presidente. Estranhei… A sociologia e psicologia da ciência, e dos cientistas, é um assunto fascinante!]

Apoie o Farol XXI