top of page
  • Foto do escritorJosé Alexandre F. Diniz F

O Colapso da CAPES e do CNPq


Alguns colegas, com razão, estranharam o meu silêncio aqui no “Ciência, Universidade e Outras Ideias” em relação às muitas confusões que aconteceram na CAPES nos últimos poucos meses. Afinal, desde o início do blog ainda 2019 tenho feito diversas postagens sobre a CAPES, tanto em um sentido mais “positivo” quanto “negativo”. Por exemplo, em 2019 coloquei rapidamente como a plataforma SUCUPIRA e a coleta de dados, a base da avaliação quadrienal, têm sido importantes para o progresso da Ciência no Brasil (apesar de alguns problemas e da necessidade, sempre, de aprimorar o sistema). Ao mesmo tempo, em um lado mais negativo, questionei a nomeação de Benedito Aguiar - um forte defensor de visões pseudocientíficas - para a presidência da agência e, mais recentemente, coloquei a falta de lógica e a desmotivação de preencher mais um relatório SUCUPIRA e fazer um “planejamento estratégico” e “autoavaliação” diante de tantas incertezas e de poucas perspectivas. Nas últimas semanas as coisas se complicaram mais ainda, na CAPES, no CNPq e para a ciência brasileira como um todo...Dificil, mas vamos lá!






A CAPES


Em relação à CAPES, crônicas de uma morte anunciada. Pouco tempo depois da minha última postagem questionando o SUCUPIRA em 2020, o presidente Benedito Aguiar foi inesperadamente substituído por Claudia Mansani de Toledo, ex-reitora do Centro Universitário de Bauru, uma instituição privada de propriedade sua família, com atuação questionável em pesquisa e pós-graduação (e em outros aspectos) mas onde, não por coincidência, estudaram alguns dos “expoentes” do Bolsonarismo, como o atual ministro da Educação Milton Ribeiro e o Ex-Advogado Geral da União, André Mendonça (e talvez futuro STF, aquele "terrivelmente evangélico"). Essa nomeação de Cláudia Toledo trouxe outros tipos de problemas e perspectivas ruins para a CAPES. Após uma sucessão de escândalos e questionamentos por parte da Academia, os coordenadores de área que eram membros titulares do Conselho Técnico Científico do Ensino Superior (CTC-ES) da CAPES, que ainda tentam à duras penas manter o sistema funcionando, fizeram um manifesto questionando uma série de problemas. Em seguida, em pleno processo de preparação para a Avaliação quadrienal 2017-2020, o Conselho Técnico Superior (CTC) foi então destituído por questões legais (ou legalistas) e depois reeleito e reconduzido. Muita instabilidade e desânimo, sem dúvida...Tudo isso culminou em uma ação do Ministério Público aceita pela Justiça Federal do Rio de Janeiro, que suspendeu a avaliação quadrienal em curso até que a CAPES explique as mudanças nas diretrizes e indicadores. Como assim?


Desde o início da minha carreira como professor universitário em 1994 fui coordenador de Programas de Pós-Graduação (PPG) por quatro vezes, participei ativamente da criação de alguns programas e de avaliações da DAV/CAPES em diferentes comitês, fui coordenador-adjunto da área de Ecologia & Meio Ambiente (hoje reestruturada como “Biodiversidade”) e, finalmente, fui Pró-Reitor de Pós-Graduação da UFG. Assim, pude perceber o Sistema Nacional de Pós-Graduação (SNPG) sob diferentes perspectivas ao longo do tempo que me permitem, creio, entender algumas situações de forma um pouco distinta de alguns colegas, especialmente aqueles mais jovens e que ingressaram nas IES recentemente. Ao mesmo tempo, é também bastante deprimente acompanhar o desenrolar do que tem acontecido na CAPES desde 2019.


Não quero entrar nos detalhes da sequência de eventos na CAPES no último mês, já há muitas postagens e reportagens discutindo o assunto. Tivemos também cartas de manifestação das sociedades científicas e institucionais, como ABC, SBPC, ANDIFES, FOPROP e outras. Pensando no último “grande” evento, a suspensão da avaliação quadrienal até que a CAPES explique as mudanças nas regras, acho importante fazer algumas considerações, inclusive porque acredito que minha visão seja um pouco diferente da maioria (talvez por causa das múltiplas perspectivas de percepção, como expliquei anteriormente; ou talvez eu esteja simplesmente errado, mas vamos chegar lá...). Ao mesmo tempo, há muitas implicações importantes para o futuro do SNPG.


Uma primeira declaração polêmica é que, embora ouçamos com bastante frequência comentários e declarações sobre a importância da avaliação da CAPES e a maneira como ela transformou (para melhor) a ciência brasileira nas últimas décadas, a verdade nua e crua é que grande parte da comunidade acadêmica nunca gostou dessa avaliação, por diferentes razões. Há 30 anos ouço reclamações...Vemos, por parte de pesquisadores em instituições públicas, muitos questionamentos dizendo que a avaliação é “produtivista” (seja lá o que isso signifique...), que não há oportunidades para programas emergentes e que “a CAPES” é que define como a ciência deve ser feita ou não no Brasil. Em um extremo, alguns chegam a dizer que as ações da CAPES ferem a autonomia da Universidade, por exemplo em termos de criar e gerenciar seus cursos e programas. Por outro lado, sabemos que muitas instituições mais tradicionais nunca “engoliram” a avaliação e a necessidade de se sujeitar a critérios nacionais, a partir do momento que se formou um Sistema Nacional de Pós-Graduação (SNPG) fortemente centrado na CAPES. Por outro lado, as instituições privadas com mais “interesses de mercado” (um eufemismo para instituições predatórias) claramente querem ficar livres da avaliação para abrir os cursos que quiserem e cobrar preços exorbitantes sem que haja o menor controle de qualidade. Afinal, o mercado vai regular isso, certo? Os alunos vão pagar só pelos bons cursos. Vai mesmo? No Brasil, onde a valorização da ciência é um sonho cada vez mais distante? Será que não vai acontecer a mesma coisa que aconteceu nos cursos de especialização e aperfeiçoamento há 30-40 anos atrás...Longa estória!


Tenho também ouvido com frequência que o modelo de avaliação está esgotado...Difícil definir o que isso significa, mas tenho uma certa preocupação com algumas ideias que podem estar associadas à essa frase, ou que podem decorrer do seu uso distorcido. Minha percepção é que o sistema de avaliação tem mudado constantemente e que vem sendo aprimorado em vários aspectos, embora talvez não com a velocidade que alguns querem. O sistema é dinâmico e, claro, é muito difícil avaliar milhares de PPGs no Brasil, uma situação muito diferente de 20-30 anos, atrás quando fui convidado para participar, pela primeira vez, da avaliação dos cursos da Área de Ciências Biológicas I. Na época havia poucos programas em cada área e tudo era muito mais simples e subjetivo. Além da avaliação, era comum que consultores fizessem visitas a cada PPG para avaliar “in loco” as condições, conversar com docentes, estudantes, e na realidade ajudá-los a melhorar o PPG. Mas vejam que isso não é possível ou viável hoje justamente porque as IES passaram a ter, por diferentes razões, uma política extremamente agressiva de criação de novos cursos, nem sempre tendo um olhar crítico sobre a real necessidade destes e de sua capacidade de formar recursos humanos de alto nível. Claro que parte dos novos PPGs se justifica e sua criação demonstra um processo natural de crescimento da Ciência no país, uma consequência da retroalimentação positiva em termos de formação de excelentes jovens pesquisadores. Em muitos casos o programa REUNI do Governo Federal, em 2009-2015, mostrou isso, pois tivemos não só um aumento no número de docentes em muitas instituições, mas também uma mudança clara no seu perfil acadêmico. Entretanto, parte do crescimento do SNPG reflete outros interesses, especialmente econômicos.


Não surpreende, portanto, que por diferentes razões, as Universidades, tanto públicas quanto privadas, queiram ter mais liberdade de criar novos PPGs e lidar com suas prioridades. No fundo, a motivação é financeira e de competição por números, mas há que se discutir como elas iriam arcar com as responsabilidades das escolhas ruins. Paradoxalmente, diz-se que a política de avaliação da CAPES é “produtivista”, mas muitas instituições raramente avaliam internamente a sua qualidade e querem que os comitês de área minimizem o nível dessa avaliação, aprovando propostas sem qualidade, sem sentido e muitas vezes sobrepostas em escala local ou regional. Na melhor das hipóteses há muito conflito de interesse e por isso é importante, na minha opinião, um olhar externo (no caso, da CAPES). Não houve um crescimento estratégico do sistema, as IES trabalham de forma independente e competitiva e sempre resistiram a qualquer tentativa da CAPES de tentar organizar isso. Existem muitos pontos a se discutir aqui.


Em relação ao chamado “produtivismo”, a última ficha de avaliação, discutida durante um bom tempo e apresentada à comunidade no início de 2019, é bastante diferente da anterior e, creio, há bem menos ênfase em aspectos puramente “quantitativos” na produção científica (respondendo à uma demanda da comunidade acadêmica). Minha percepção é que se os comitês de área souberem usar indicadores que capturem as dimensões propostas, acho que o resultado será sim interessante. Há muito mais ênfase na formação dos estudantes e nos impactos dos PPGs em diferentes escalas. Claro, ainda é uma primeira experiência e tenho certeza que será possível amadurecer e pensar gradualmente em bons indicadores e métricas, há muito o que avançar e é possível melhorar em vários aspectos. Pensando em algo mais inovador, temos inclusive muita discussão sobre um novo “modelo multidimensional” de avaliação que poderá ser implementado em breve. Mas há uma certa confusão, na minha opinião, entre usar indicadores quantitativos e fazer uma avaliação puramente quantitativa.


A ideia de usar indicadores quantitativos, entendo, é mais viável pela dimensão atual do SNPG, em termos de números de cursos, e por permitir uma avaliação um pouco mais objetiva e comparativa. Isso não significa, entretanto, que esses indicadores só capturem componentes quantitativos, eles podem ser desenhados para capturar componentes qualitativos. O exemplo óbvio e mais simples seria usar um indicador de quantidade geral da produção docente (por exemplo, em um dado PPG os 10 docentes publicaram 400 artigos em 4 anos), e entendo que já há muito tempo há um consenso que isso não é interessante ou relevante nesse momento em que a pesquisa no Brasil já amadureceu consideravelmente. Poderíamos pensar em quantos desses artigos estão em periódicos classificados como QUALIS A1, ou então pedir para o PPG indicar quais são os 4 “melhores” artigos de cada docente, ou artigos de destaque, com base em diretrizes previamente estabelecidas e com cada área definindo de forma clara o que ela considera “importante” (e isso já foi incorporado para esta última avaliação quadrienal). Os próprios PPGs poderiam justificar qual a importância de cada artigo, mas claro que nesse caso aumentamos a subjetividade porque haveria necessidade de “convencer” os avaliadores dessa importância. Enfim, há muita margem de discussão, mas com certeza há ao mesmo tempo muitas oportunidades e possiblidades de melhorar o sistema de avaliação.


Nesse sentido, algumas pessoas continuam questionando as mudanças nas regras “no meio do jogo”, ou seja, as mudanças foram anunciadas na metade do quadriênio 2017-2020, e há inclusive um estudo detalhado recente sobre isso feito por professores da Escola de Engenharia da UFMG (um PDF circulou nos grupos de WhatsApp há algumas semanas). No fundo, essa é a base da suspensão da avaliação quadrienal pela justiça a partir da solicitação do MP, pelo que eu entendi. Embora eu entenda a origem e a lógica desse questionamento, vou divergir da maioria quando digo que não vejo grandes problemas nisso. Em primeiro lugar, entendo que as regras têm sim sido anunciadas com uma certa antecedência, pelo menos em algumas áreas, e elas não são tão drasticamente diferentes do que tem sido feito anteriormente (no período anterior), de forma geral. A análise da produção indicada, discutida acima, é realmente uma novidade, mas ela vai justamente na direção que os pesquisadores queriam e tenta amenizar as críticas de “produtivismo”. Qual o problema então?


Mais importante, não podemos esquecer que estamos falando de INDICADORES e não de algo “real”. Todos sabem que o objetivo de um PPG é formar bons alunos que tenham capacidade de atuar no mais alto nível técnico e científico ou acadêmico, o que requer um corpo docente bem preparado e qualificado em termos de atuação científica (o que, por sua vez, implica em bons projetos de pesquisa, atuação e interações em nível internacional e capacidade de captação de recursos, quando for o caso). Espera-se, como consequência, um bom retorno para a sociedade do que é investido nesse PPG. Podemos medir tudo isso de infinitas formas e elas seriam, na verdade, tentativas de descrever algo abstrato, pois estamos falando de coisas como “alto nível”, “qualidade”, “bem preparado”, “retorno para a sociedade”. Entretanto, a maior parte dos pesquisadores e professores das IES entende que os indicadores que são escolhidos para essas avaliações são “reais” quando, na verdade, eles de fato têm o objetivo de capturar algo que estaria subjacente ao que podemos observar com quaisquer dados “empíricos” que colocamos na plataforma SUCUPIRA (e outros dados disponíveis, por exemplos, nas bases internacionais, como SCOPUS e WoS, que são usados também na avaliação). Vejam que interessante, na realidade é a mesma discussão do "empiricismo versus realismo" nas teorias científicas que já discutimos aqui no blog algumas vezes...


Vamos pensar em um indicador que quer avaliar, por exemplo, a produção discente, que é uma dimensão que tem, com razão, ganhado importância ao longo das duas ou três últimas avaliações em muitas áreas. Claro, se o objetivo do PPG é formar pesquisadores, devemos avaliá-lo pela sua capacidade de formar recursos humanos de alto nível e tentar medir de alguma forma como os discentes e egressos estão fazendo ciência. Nas ciências naturais, por exemplo, precisamos avaliar se os discentes estão produzindo ciência de alto nível, o que na nossa realidade significa publicar os resultados de seus trabalhos de pesquisa em boas revistas científicas (nas áreas tecnológicas ou nas humanidades isso pode ser um pouco diferente, mas é possível pensar de forma análoga). Mas vejam que, do modo como coloquei, isso é um princípio geral, e para realmente fazer a avaliação precisamos pensar em COMO fazer isso, sob um ponto de vista operacional. Temos então que tomar uma série de decisões e assumir que várias ideias são boas aproximações para compor um MODELO da realidade que queremos capturar. Por exemplo, como avaliar a “qualidade” dos trabalhos dos discentes? Pela qualidade das revistas em que eles são publicados? E como medir a qualidade, pelo Fator de Impacto? Web of Science ou Scopus, ou o melhor percentil dentro da área? São boas ideias, mas que tal usar o número de citações do artigo? Pode ser melhor que o impacto, mas leva tempo para estabilizar, é viável? Será que o número de citações está realmente refletindo que o trabalho é algo realmente novo e interessante, ou será que o número é função de alguma característica específica que precisamos levar em consideração (trabalhos metodológicos são mais citados, por exemplo)? E como vamos lidar com a questão da autoria? O aluno pode ser primeiro autor, ótimo, mas será que se ele publica sozinho (como algumas áreas valorizam) isso significa que ele é mais independente mesmo? Será que se ele tem vários coautores isso não significa que ele tem capacidade de liderança e demonstrou que pode articular o trabalho com vários grupos de pesquisa e unificar ideias? Isso é interessante e pode demonstrar habilidades importantes para que ele ou ela sejam bem-sucedidos profissionalmente em um futuro próximo. Como esse fator vai ser ponderado? Podemos pensar em muito mais coisas, mas vocês já entenderam a ideia... Precisamos decidir em COMO medir todas essas coisas e tomar uma serie de decisões, mas sempre será um indicador, pois não existe, exceto em um contexto Platônico, algo como “qualidade” científica.


Então, é preciso que alguém defina regras e as aplique. Esperamos que essas regras capturem esses componentes mais platônicos de “qualidade” (assumindo que isso “existe”). Sob um ponto de vista mais pragmático e sem pensar que existe essa realidade subjacente, espera-se que pelo menos essa métrica seja “justa” no sentido de medir o esforço ou sucesso de cada PPG. Mas, honestamente, há muita discordância sobre como avaliar isso e sobre o que é ou não justo. Voltamos à questão do que é “sucesso” e “justiça”... Será que vale premiar “esforço” independentemente, ou parcialmente independente, de resultado - outra questão interessante... Talvez fosse possível discutir mais amplamente e tentar chegar de forma mais consensual a esses indicadores, não digo que não. Hoje a decisão é feita pelos coordenadores de área, com apoio dos seus adjuntos, com alguma discussão na comunidade, e alguns questionam isso (mas cabe lembrar que esses coordenadores de área são pessoas comprometidas e, mais importante, são eleitos e eleitas em lista tríplice pelos coordenadores dos PPGs, com escolha final pela presidência da CAPES...). Em função dessas dificuldades, uma ideia que sempre defendi é que precisamos de 2 ou 3 indicadores pelo menos para cada dimensão que queremos avaliar, na expectativa de que eles possam capturar diferentes aspectos dela e contrabalancear diferentes vieses potenciais (há muitas questões ligadas a não-linearidade e efeitos de limiar, uso de razões para comparar PPGs de “tamanhos” diferentes, e tudo isso pode criar problemas). Não é algo simples mas, de qualquer modo, o ponto crítico para mim aqui é que estamos sempre falando de um MODELO de avaliação. É bem possível que várias pessoas usem indicadores e valorizem diferentes componentes e dimensões do que poderia ser “qualidade”, ou mesmo “quantidade”. Essa definição vai depender inclusive da experiencia de cada avaliador como pesquisador, e eles podem chegar a indicadores diferentes para um mesmo componente de forma realmente honesta.


Alguns vão argumentar que é justamente por isso que é preciso definir “a priori” os indicadores, para que as pessoas o entendam e busquem essa “qualidade”, mas aí temos um problema. Uma vez que isso fique claro e todos comecem a entender como alcançar o indicador e usá-lo como referência, será que vamos melhorar a qualidade do PPG ou vamos simplesmente nos ater àquela maneira particular de avaliar uma dimensão importante? É bem possível, como argumentei, que essa perspectiva seja apenas uma das possibilidades e que, de fato, outras pessoas vejam essa “qualidade” de outras formas. Ou seja, esse indicador pode levar a problemas e, de fato, ele pode mesmo deixar de ser um indicador de qualidade, o que é conhecido em um contexto um pouco diferente como “lei de Campbell” (há várias variações e propostas semelhantes). Será que estamos medindo realmente “qualidade” mensurada pelo indicador ou habilidade de alcançar esse indicador independente da qualidade “em si”. É bem abstrato, mas é um ponto interessante para considerar, acho...Assim, sob essa visão, em um extremo o correto seria ninguém conhecer os indicadores com antecedência, apenas fazer o seu melhor ao longo de diretrizes e princípios gerais. Mas um pressuposto é que é que todos confiam que os indicadores a serem escolhidos, quaisquer que sejam eles, representam aspectos relevantes das dimensões e foram estabelecidos de forma isenta e honesta. Sei que quase ninguém vai concordar com essas ideias, estamos muito acostumados a pensar nas regras do jogo...Mas isso é um jogo? Mesmo? Talvez não precisássemos, no caso da pós-graduação, chegar a esse extremo de desconhecer os indicadores (e focar em definir melhor os princípios) mas isso ilustra o ponto de que o que temos são apenas indicadores e que eles precisam mudar constantemente sim, sob o risco de travarem o progresso dos programas em suas dimensões importantes.


Outro aspecto que ilustra bem essa questão do indicador refere-se ao sistema QUALIS. Já ouvi alguns pesquisadores reclamando e dizendo algo como “...uma vez que o QUALIS não está disponível, como vamos saber em que revista devemos publicar nossos trabalhos”! Sério, é isso mesmo??? Um pesquisador ou pesquisadora não sabe em que revista ele ou ela vai dar mais visibilidade e ter mais impacto para o seu trabalho? Não sabe em que revista ele vai obter mais reconhecimento na comunidade científica? Não sabe em qual revista seu trabalho vai ser avaliado de forma mais coerente pelos pares e passar por um crivo mais rigoroso, dando mais valor científico a ele? Na verdade, seguindo a regra de Campbell, o que poderia acontecer é que os pesquisadores podem buscar a melhor relação “custo-benefício”, publicando por exemplo na “pior” revista dentro de um extrato alto (A1, digamos), pois ela é suficientemente boa para dar crédito máximo na CAPES, sendo ao mesmo tempo um pouco “mais fácil” publicar nela. Mas será que não seria possível ser mais ambicioso e tentar uma revista melhor? Então, nesse sentido o problema do QUALIS pode ser justamente o inverso do que muitas pessoas falam. Sabemos, de fato, que isso acontece...Na realidade, alguns argumentam que muito da prática científica atual, baseada em avaliação por indicadores, tem de fato levado à uma “seleção natural” de ciência de má qualidade, em muitos casos. Há inclusive uma discussão importante sobre o real ganho de inovação científica nesse modelo, algo que realmente precisamos discutir melhor aqui (em breve!).


Para encerrar essa discussão sobre a avaliação quadrienal e sua suspensão pela justiça, mesmo que os indicadores sejam conhecidos “a priori”, como a maior parte quer, é impossível saber a significância disso. A avaliação da CAPES sempre foi comparativa, de modo que o que o indicador de um dado PPG significa depende, de fato, da distribuição dos indicadores em todos os PPGs da área. Ter uma produção de 5 artigos A1 por docente no quadriênio é bom ou ruim? Não sei, parece bom, mas na prática depende do que os outros PPGs da área conseguiram fazer. Claro, esse também é um ponto questionado por muitos, as faixas de avaliação de cada indicador deveriam ser também estabelecidas “a priori”. Mas como vamos chegar a essas faixas? Ou seja, o que é uma “boa” produção científica? Sabemos disso “a priori”? Acho que não e isso nos leva de volta à discussão anterior. De qualquer modo, certamente, definir as faixas vai ainda mais contra a independência conceitual da avaliação em relação aos indicadores e reforça o problema da regra de Campbell. Na verdade, o sistema funciona atualmente pelo que chamamos, em Ecologia e Biologia Evolutiva, de “Princípio da Rainha Vermelha”. Ou seja, temos que correr e correr para ficar no mesmo lugar...Temos sempre que melhorar os nossos indicadores, temos que ir sempre além do que tínhamos antes, pois sabemos que os outros PPGs também estão melhorando (ou pelo menos tentando melhorar). Quem ficar parado vai sair prejudicado. Então, de qualquer maneira teríamos que reavaliar as faixas a cada avaliação, sob pena de perdemos o indicador por falta de variação (ou seja, todo mundo atinge o máximo). Mas isso, claro, pode ser uma decisão também, se definirmos, por exemplo, que não teremos mais rank de programas, se dissermos apenas que o PPG está ou não consolidado (ver a seguir).


Não estou dizendo que esses problemas são irrelevantes ou artificiais, apenas que eles podem ser resolvidos sem que seja necessário “romper com a ideia de avaliação”, como tenho ouvido em alguns momentos. Existem muitos outros problemas que poderíamos considerar, incluindo a heterogeneidade entre as áreas de avaliação (sabemos que existe muita variação e algumas funcionam bem, outras nem tanto...), o excesso de indicadores e a sobrecarga de trabalho nos coordenadores de PPGs ao preencher o SUCUPIRA (com muitas informações que são irrelevantes e que não irão compor indicadores relevantes). As notas que geram o rank e que são usadas atualmente são interessantes? (de 2 a 7, sendo que os PPGs 6 e 7 referem-se aos cursos com nível internacional)? Como coloquei acima, seria melhor apenas diferenciar, por exemplo, PPGs “consolidados” ou “em consolidação”? Será que não seria importante ter uma maior participação de consultores externos na avaliação, vindo de outros países? Se falou muito disso para PPGs 6 e 7, mas não sei se isso aconteceu de fato (acho que não). O modelo “multidimensional”, em discussão atualmente, vai trazer novidades que podem ser interessantes em muitos desses sentidos, embora tenhamos que discutir suas implicações (mas vamos aguardar...). É preciso discutir, em um contexto mais amplo, a agenda de pesquisa para o Brasil e como os PPGs podem contribuir para isso, e ao mesmo tempo quais são as demandas da sociedade. Mas de qual sociedade estamos falando? Não podemos esquecer que algo como 8% acreditam que a Terra é plana e pelo menos 25-30% não “acreditam” em evolução...Tudo isso tem que ser amplamente discutido e dar as diretrizes para a construção do novo Plano Nacional de Pós-Graduação (PNPG), que já está atrasado, aliás...


Claro, o que estou colocando acima são as minhas percepções e estas não são, necessariamente, “corretas”. Elas sem dúvida estão fortemente baseadas na minha experiência e, mesmo pensando nas múltiplas perspectivas, certamente há vieses e muitos irão colocar questões de “lugar de fala” (já que atualmente sou coordenador de um PPG nota 7; mas nem sempre fomos 7 e estamos em uma Universidade no meio do Centro-Oeste brasileiro...). Sem problemas, claro, entendo perfeitamente, não sou dono da verdade. Então, assumindo que eu estou errado e que todos os problemas da avaliação mencionados brevemente acima são relevantes e realmente estão criando problemas para o avanço da ciência e educação superior no Brasil, quais seriam as alternativas?


Não discordo que temos que rediscutir o sistema de avaliação e isso está sendo feito. Mas qual o nível de radicalização em relação à essas mudanças? Em um extremo, que ouvimos eventualmente, vamos eliminar a avaliação e deixar que as Universidades exerçam sua autonomia e decidam, cada uma independentemente, o que é melhor para elas? Em muitos outros países desenvolvidos não temos avaliações nessa escala nacional...Isso seria melhor para o SNPG como um todo? Na verdade, nesse caso precisamos pensar se é mesmo necessário ter um SNPG, ou se não seria melhor que cada IES trabalhasse com seus objetivos e metas em termos de formação de pessoas? Por um lado, nesse modelo não importa quem vai pagar pela expansão desordenada e individualizada do sistema (como já temos hoje, como discuti acima, na minha opinião em parte porque a CAPES e os comitês terminam, mesmo que em parte, cedendo às pressões). De alguma forma o sistema como um todo irá se auto-regular em termos de tamanho e qualidade, como nos EUA, na Europa e em outros países. Será que temos maturidade, independência e isenção para isso?


Isso leva, de fato, à questão dos financiamentos, que também é atualmente um dos gargalos do SNPG. Há muito tempo a CAPES não disponibiliza recursos para apoiar projetos de pesquisa e o que é repassado aos PPGs em termos de capital e custeio é apenas um apoio geral, não sendo suficiente para custear projetos, especialmente em áreas com maior demanda tecnológica. O SNPG depende de todo o sistema de C&T do Brasil para funcionar, claro! O principal fomento da CAPES se refere à bolsas de mestrado e doutorado e, mesmo assim, a CAPES tem reduzido e usado uma estratégia equivocada para distribuir as bolsas, como já apresentado aqui (isso sem contar que a maior parte dos PPGs não tem bolsas suficientes para todo o seu corpo discente). Em um novo modelo de maior autonomia, como discutido acima, esse financiamento seria mais reduzido ainda, já que as IES teriam que arcar com suas responsabilidades e custos, pelo menos em parte...Em tese, a autonomia vale para os dois lados e teria um preço, ou não? Um dos pontos críticos das visões que diminuem o papel da CAPES é que esta deveria diminuir ou focalizar o seu fomento por projetos institucionais, mas será que as IES públicas vão mesmo priorizar os PPGs de qualidade e investir mais neles? Será que os recursos dos projetos serão suficientes para as demandas das IES, ou teremos que buscar recursos de outras fontes de forma complementar? De qualquer modo, uma maior autonomia das instituições gera uma série de incertezas e questões a serem resolvidas em escalas ainda maiores, uma cadeia de problemas ligados à política interna das IES (e, em última instância, chega até a questões sobre como os reitores são escolhidos e qual o seu perfil técnico-científico). Por outro lado, será que poderíamos pensar em um modelo no qual as bolsas para os discentes em formação são financiadas como parte dos recursos de pesquisa captados pelos pesquisadores, isoladamente ou em grupo? Pode ser um modelo interessante (já tentativamente utilizado pelo CNPq em pequena escala há alguns anos), mas tradicionalmente os projetos que temos no Brasil não disponibilizam recursos dessa magnitude, e mesmo os INCTs (ver abaixo) ou projetos integrados maiores teriam uma capacidade limitada para atender à uma demanda de orientações de mestrado, doutorado e pós-doutorado dos muitos pesquisadores envolvidos. Ou seja, a nossa escala de recursos obtida em projetos é muito limitada diante da demanda dos PPGs.

Então, acho que teríamos que repensar totalmente o SNPG (ou mesmo eliminá-lo...) ao abandonar ou diminuir o peso da avaliação da CAPES e confesso não sou muito otimista em relação a tudo isso, especialmente no Brasil de 2021, com o avanço da pseudociência e do negacionismo e com tantos interesses escusos. Não sei nem se esse é o momento de rediscutir isso tudo, às vezes fico com a impressão de que, em uma tentativa desesperada de conter os estragos que têm sido feitos por esse (des)governo, queremos achar solução para problemas que “não existem” (i.e., que foram criados por esse desgoverno) ou que poderiam ser resolvidos com mudanças bem menos radicais em tempos melhores. Não seria melhor esperar a tempestade passar para mudar de rumo? Acho que a prioridade é sobreviver a ela, não? Pode ser que, uma vez reestabelecidas as condições mínimas aceitáveis para o funcionamento da Ciência no país, possamos pensar em uma nova estrutura que seja diferente da atual, que seja melhor e que possa ser implementada de forma menos desesperada e sob menos pressão. No fundo, acho que toda a discussão está na questão da regulação, pelo Estado, dos sistemas educacionais e dos interesses econômicos ligados a ele (lucro no caso das IES privadas e priorização de investimentos no caso das IES publicas). Claro, isso por sua vez reflete toda a lógica da política econômica do País como um todo. Sendo assim, considerando quem está no comando da Economia do Brasil em 2021, fico realmente desconfiado de querer discutir o sistema em suas bases nesse momento. É forçoso, nesse contexto, nos perguntamos: a quem realmente interessa questionar as bases do SNPG e desmontar a CAPES, como estamos vendo? Temos que tomar cuidado, então, com o "fogo amigo"!


Há muitos pontos rapidamente mencionados acima que exigiriam mais discussões e muitas reflexões. Temos vários grupos se mobilizando e discutindo todas as questões acima, inclusive buscando alternativas diante do cenário desolador que temos pela frente. Mesmo que tenhamos um novo Governo a partir de 2023, vai dar muito trabalho para juntar os cacos e reconstruir tudo...O estrago tem sido enorme, e não é à toa que alguns desistem no meio do caminho, embora outros continuem tentando (e sempre há aqueles que aparentemente não entendem o tamanho do problema e acham, por exemplo, que é “só” um problema de financiamento...). Temos uma “fuga de cérebros” em uma escala nunca vista antes, e com razão...De qualquer modo, cada um desses temas exigiria por si só uma postagem diferente aqui no “Ciência, Universidade e Outras Ideias”. Quem sabe, mas é preciso fôlego para manter o ânimo, mesmo que seja para reclamar e questionar. E a breve digressão a seguir ilustra bem isso...



CNPq, INCT e FNDCT


Voltando ao início da postagem, demorei a me manifestar sobre toda essa confusão na CAPES aqui principalmente porque, no último mês ou mais, estive bastante atarefado com uma série de demandas adicionais ligadas ao Instituto Nacional de Ciência e Tecnológica (INCT) em “Ecologia, Evolução e Conservação da Biodiversidade” que coordeno desde 2017. Os INCTs são o programa de maior prestígio do MCTI e o último edital foi lançado em 2014 com apoio da CAPES, CNPq e Fundações Estaduais de Amparo à Pesquisa dos vários Estados do Brasil (no caso aqui de Goiás, a nossa FAPEG). Os projetos só foram avaliados e finalmente aprovados em 2016 e tiveram um corte geral de aproximadamente 30% sobre os 10 milhões de reais solicitados por cada projeto. O nosso INCT tem por objetivo apoiar projetos “de ponta” na área de biodiversidade, estabelecendo redes de pesquisa formadas por cerca de 120 pesquisadores do Brasil (além de cerca de 30 pesquisadores estrangeiros). Aliás, segundo relatório recente do Centro de Gestão e Recursos Estratégicos do MCTI, essa é uma das áreas de pesquisa mais importantes no Brasil atualmente!


Os INCTs estão se encerrando no final de 2022 e, no início de setembro deste ano, recebemos um ofício do CNPq sinalizando a possibilidade de restaurar os 30% que haviam sido cortados em 2016, com prorrogação de dois anos na vigência dos projetos. Para tal, seria preciso um novo plano de trabalho e apresentação das demandas, além do relatório das atividades, que deveriam ser entregues agora no início de outubro. Claro, apesar do grande trabalho de organizar as demandas para uma rede de pesquisa tão ampla em relativamente pouco tempo, eu e os coordenadores dos nossos grupos de trabalho e projetos nos esforçamos para discutir novas ideias e pensar em quais linhas de pesquisa seria interessante investirmos. Qual a prioridade em termos de financiamento? Com certeza bolsas para os nossos estudantes de pós-graduação e pós-doutorandos, tentando manter os nossos jovens pesquisadores, formados à duras penas e com tanto investimento, um pouco mais na academia para dar a eles um mínimo de perspectiva até que esse pesadelo atual termine...No meio de tantas notícias ruins, receber esse ofício foi, certamente, bastante estimulante e trouxe até alguma esperança! Até animei, mas sempre penso no velho ditado pirata: “Confie em Deus e mantenha sua pólvora seca”. De fato, havia um ponto no ofício que destacava que essa liberação seria condicionada à obtenção, pelo CNPq, dos recursos do FNDCT. Aqueles que estão acompanhando a situação já entenderam então o problema...


O FNDCT (Fundo Nacional para o Desenvolvimento Científico e Tecnológico) foi criado a em 1969, com recursos do tesouro nacional, mas ganhou força a partir da criação dos fundos setoriais e várias legislações de regulamentação a partir de meados anos 2000. Os vários fundos setoriais, incluindo o FNDCT, possuem destinações específicas pois são oriundos de contribuições da iniciativa privada inclusive. Entretanto, apesar da sua importância para a ciência brasileira desde a sua criação, houve problemas com a utilização e destinação do fundo em diversos momentos, mas especialmente a partir de 2019. Em 2020 o fundo já havia sido transformado em um fundo financeiro, impedindo o contingenciamento pelo Governo e, desde o início deste ano, todos estavam otimistas com a liberação efetiva do FNDCT para a pesquisa, depois de tantos problemas. Isso ocorreu especialmente após a aprovação do Projeto de Lei 177 (após a derrubada do veto de Bolsonaro), que previa a impossibilidade de contingenciamento do fundo e, consequentemente, a incorporação da destinação prevista em lei ao orçamento 2022, enviado ao congresso em agosto. Os recursos, da ordem de 4,2 bilhões de reais, seriam destinados a diversos setores da C&T e, mais importante, haveria uma destinação adicional em torno de 690 milhões para o CNPq, segundo o projeto enviado ao congresso (PLN 16), a maior parte vinda do FNDCT. O CNPq vem sofrendo cortes sucessivos já há muito tempo e ultimamente mal consegue honrar os compromissos com as bolsas de pesquisa e pós-graduação, que têm sido reduzidas de qualquer modo, havendo com pouca ou nenhuma capacidade de manter outros programas e projetos. Assim, com os recursos do FNDCT, haveria possibilidade de retomar pelo menos algumas dessas ações e as perspectivas para 2022, comparadas com os anos anteriores, eram realmente boas, deixando a maior parte dos gestores de C&T e toda a comunidade científica um pouco mais otimista. O Edital Universal do CNPq já sinalizava, inclusive, essa possibilidade de usar recursos para aprovar um número satisfatório de propostas. Recebemos, como mencionei acima, ofício do CNPq com a perspectiva de continuidade dos INCTs. Ao mesmo tempo, começaram a chegar em nossas caixas de email pedidos de avaliação de projetos do Universal e de bolsas de Produtividade, já que milhares de pesquisadores de todo o Brasil, animados com a perspectivas de conseguir recursos, submeteram propostas que precisam, agora, ser avaliadas. Esses recursos do FNDCT, portanto, iriam subsidiar muitas ações importantes em C& T no Brasil. Claro que apenas esses recursos não deveriam ser considerados e isso não deveria desobrigar o Governo Federal a apoiar mais o MCTI e o CNPq, mas na situação atual esse aporte seria um alívio...


Entretanto, essa última semana fomos todos surpreendidos com mais uma manobra do Governo, em particular do Ministério da Economia liderado pelo Paulo Guedes. No meio dos arremedos tentando justificar suas contas milionárias offshore e se esquivar do inevitável conflito de interesses da situação, ele e sua equipe encontraram tempo de alterar o PLN 16, no apagar das luzes da aprovação do orçamento, retirando quase 90% dos recursos do FNDCT que iriam para o CNPq, redistribuindo-o para outros ministérios. Uma pá de cal, um banho de água fria, mas nada inesperado nesse (des)Governo Bolsonaro, que ataca a ciência e as Universidades desde o início...Confie em Deus e mantenha sua pólvora seca! Mas dessa vez foi tão sério e mesquinho que até o próprio ministro Marcos Pontes, usualmente defensor ferrenho de Bolsonaro, apesar de tudo, quase pediu para sair, a essa altura do campeonato! Rapidamente começaram novamente as manifestações da comunidade científica e suas representações, incluindo SBPC, ABC, ANPG, dentre tantas outras.


É interessante notar também que o CNPq e a CAPES têm situações políticas e administrativas totalmente diferentes, talvez refletindo problemas diferentes no MCTI e no MEC, ministérios aos quais esses órgãos estão subordinados, respectivamente. O desmonte, assim, está ocorrendo de formas bem distintas. A CAPES está em uma situação caótica desde o início do (des)governo Bolsonaro, se agravando a partir de 2020, principalmente desencadeada pela escolha de gestores sem a qualificação e visão esperada para uma agência desse porte, o que causa inclusive uma série de conflitos internos e uma falta generalizada de credibilidade por parte da comunidade acadêmica. Junte-se a isso os problemas na avaliação mencionados acima e a desconfiança das influências externas políticas, sociais e religiosas ligadas ao mercado educacional sobre esta. Claro que há os funcionários de carreira na CAPES que continuam tentando ajudar e “apagar os incêndios”, mas realmente há uma crise de liderança. O CNPq, por outro lado, já está com problemas de financiamento há muito tempo, com muito de sua estrutura de pessoal e física com problemas (tivemos há não muito tempo um “apagão” nos sistemas computacionais, só a ponta do iceberg...). Mas a percepção que temos na comunidade científica é que o CNPq tem tentado internamente se manter funcionando, aos trancos e barrancos e mesmo com tantos problemas, o que faz com que o órgão ainda tenha credibilidade junto aos pesquisadores.


É isso então. Como coloquei antes, tudo muito surreal e, talvez no caso do plano do nosso INCT, mais uma frustração. De qualquer modo queria ter tido mais tempo e conseguido me organizar melhor discutir com mais calma a questão da CAPES e tantas outras desgraças que aconteceram no país nesse tempo (assunto não falta). Mesmo que seja, como sempre, só para aliviar minha consciência e extravasar minha indignação! Teremos amanhã, 15 de outubro, mais um dia de “Mobilização em Defesa da Ciência”, chamado pela SBPC de forma emergencial para tentar engajar a comunidade e tentar reverter essa situação. Vejo esta postagem como uma modesta contribuição a esse movimento, espero que possa ajudar as pessoas mais envolvidas a refletir e entender alguns pontos. Vamos torcer para que essas das entidades científicas como a SBPC e ABC, que têm tido uma excelente atuação junto ao Congresso e ao STF, consigam reverter essa situação!




Arte da capa: Ana Clara Diniz

5.391 visualizações2 comentários

Posts recentes

Ver tudo
bottom of page