1. Contexto

A recente publicação de diretrizes pelo CNPq sobre o uso de Inteligência Artificial (IA) na atividade científica representa um avanço relevante na consolidação de uma política nacional de integridade científica em um cenário de transformação tecnológica acelerada.

A incorporação da IA nos processos de produção do conhecimento deixou de ser uma possibilidade futura para tornar-se uma realidade presente e estrutural. Nesse contexto, iniciativas regulatórias são não apenas bem-vindas, mas necessárias.


2. Reconhecimento dos Avanços

O IVEPESP reconhece positivamente os seguintes pontos da política estabelecida:

  • A legitimação do uso de IA na pesquisa científica;
  • A exigência de transparência quanto ao uso de ferramentas de IA;
  • A reafirmação da responsabilidade integral dos pesquisadores sobre os resultados produzidos;
  • A preocupação com a integridade, originalidade e confiabilidade científica.

Esses elementos alinham o Brasil às melhores práticas internacionais no campo da ética em pesquisa.


3. Limitações Identificadas

Apesar dos avanços, a análise técnica do IVEPESP identifica uma limitação estrutural relevante na formulação atual:

A ausência de uma abordagem baseada em níveis de risco e impacto do uso da IA.

A norma vigente adota uma linguagem abrangente que tende a tratar usos distintos de IA sob um mesmo regime regulatório, sem distinguir adequadamente:

  • usos operacionais de baixo impacto;
  • usos assistivos intermediários;
  • usos cognitivos de alto impacto;
  • e usos com autonomia parcial ou total.

Essa abordagem pode gerar:

  • sobrerregulação de práticas de baixo risco (como revisão gramatical);
  • insegurança interpretativa para pesquisadores;
  • burocratização desnecessária da atividade científica;
  • e potencial desincentivo à adoção responsável de tecnologias inovadoras.

4. Referência Internacional

A política editorial da Nature exemplifica uma abordagem mais madura e proporcional, ao estabelecer distinções claras entre diferentes tipos de uso de IA.

Em particular, a Nature explicita que:

o uso de IA para “AI-assisted copy editing” — correções de gramática, estilo e legibilidade — não requer declaração formal.

Essa diferenciação evidencia a importância de separar:

  • intervenções formais (sem impacto no conteúdo científico)
    de
  • intervenções substantivas (que afetam a produção do conhecimento)

5. Proposta do IVEPESP

O IVEPESP propõe ao CNPq a evolução da atual política para um modelo baseado em níveis de risco e impacto epistemológico, estruturado da seguinte forma:

Nível 1 — Uso Operacional (Baixo Risco)

  • Correção gramatical
  • Revisão de estilo
  • Tradução

📌 Proposta: dispensa de declaração obrigatória


Nível 2 — Uso Assistivo (Risco Moderado)

  • Sugestões de estrutura textual
  • Apoio à redação
  • Organização de ideias

📌 Proposta: declaração simplificada


Nível 3 — Uso Cognitivo (Alto Risco)

  • Geração de hipóteses
  • Análise de dados com IA
  • Interpretação de resultados

📌 Proposta:

  • declaração obrigatória detalhada
  • rastreabilidade metodológica

Nível 4 — Uso com Autonomia Parcial (Risco Crítico)

  • Agentes autônomos
  • Sistemas de pesquisa automatizados

📌 Proposta:

  • regulação específica
  • novos modelos de governança científica

6. Fundamentação Conceitual

A proposta do IVEPESP está alinhada com a evolução internacional da governança de IA, que transita de uma visão:

instrumental (IA como ferramenta)

para uma visão:

relacional e sistêmica (IA como participante nos processos de produção de conhecimento)

Essa mudança exige uma regulação que reconheça diferentes graus de agência da IA, evitando tanto a subregulação quanto a sobrerregulação.


7. Recomendações Institucionais

O IVEPESP recomenda:

  1. A revisão da portaria vigente com base em critérios de proporcionalidade regulatória;
  2. A criação de um grupo de trabalho multidisciplinar;
  3. A elaboração de diretrizes complementares por área do conhecimento;
  4. O desenvolvimento de protocolos de boas práticas para pesquisadores.

8. Considerações Finais

A regulação do uso de IA na ciência não deve ser orientada pelo receio tecnológico, mas pela compreensão qualificada de seus impactos.

Uma política eficaz deve:

  • preservar a integridade científica;
  • estimular a inovação responsável;
  • e oferecer segurança jurídica e operacional aos pesquisadores.

O Brasil tem a oportunidade de construir uma referência internacional em governança de IA na ciência — desde que adote uma abordagem baseada em evidências, proporcionalidade e clareza conceitual.


Autores

Helio Dias
Instituto para Valorização da Educação e da Pesquisa no Estado de São Paulo (IVEPESP)
https://ivepesp.org.br

Helio Henrique Villela Dias
Engenheiro de Computação, Cientista de Dados
IVEPESP
https://ivepesp.org.br/membro/helio-henrique-villela-dias/