Inteligência Artificial na Produção Científica: transparência, integridade acadêmica e declarações de uso em universidades brasileiras
- Miguel Dias
- há 12 horas
- 6 min de leitura

Imagem gerada por IA Generativa.
A Inteligência Artificial Generativa (IAG) deixou de ser uma tecnologia periférica para ocupar um espaço central nos processos contemporâneos de produção do conhecimento científico. Ferramentas como ChatGPT, Gemini, Claude, Copilot e Grammarly passaram a integrar rotinas acadêmicas relacionadas à escrita, revisão textual, tradução, organização de ideias, programação, análise de dados e até estruturação preliminar de manuscritos. Em poucos anos, o uso dessas tecnologias deixou de ser episódico para tornar-se parte do cotidiano de estudantes, pesquisadores, orientadores e periódicos científicos.
Entretanto, a expansão acelerada dessas ferramentas trouxe consigo um conjunto igualmente significativo de desafios éticos, metodológicos e institucionais. A facilidade de geração automatizada de textos, imagens e códigos reconfigura debates clássicos sobre autoria, originalidade, responsabilidade intelectual e integridade científica. Em muitos casos, observa-se que parte da comunidade acadêmica ainda utiliza ferramentas de IA sem clareza sobre os limites éticos de sua aplicação, os riscos associados à fabricação de conteúdos, as implicações metodológicas da automatização e, sobretudo, a necessidade de transparência sobre o seu uso.
Nesse cenário, universidades, agências de fomento e periódicos científicos começam a construir diretrizes institucionais destinadas a regulamentar o uso ético e responsável da Inteligência Artificial na pesquisa científica. Mais do que proibir ou estimular indiscriminadamente essas tecnologias, o movimento observado em diferentes instituições brasileiras aponta para a consolidação de uma cultura de transparência algorítmica, na qual o uso da IA deve ser explicitado, delimitado e submetido à supervisão humana.
A recente Política de Integridade na Atividade Científica do CNPq representa um marco importante nesse processo ao estabelecer a obrigatoriedade de declarar o uso de ferramentas de Inteligência Artificial Generativa em qualquer fase da pesquisa científica. A normativa reconhece que a IA já integra os processos científicos contemporâneos, mas reforça que a responsabilidade científica permanece integralmente humana.
Diante desse contexto, este artigo busca refletir sobre os desafios e possibilidades da Inteligência Artificial na produção científica, analisando modelos de declaração de uso de IA adotados por universidades e periódicos brasileiros. Além disso, procura apresentar elementos comuns dessas políticas institucionais e propor um exemplo de declaração que possa servir de referência para estudantes e pesquisadores de diferentes níveis acadêmicos, da graduação ao doutorado.
Inteligência Artificial, autoria e integridade científica
O debate sobre Inteligência Artificial na pesquisa científica não pode ser reduzido a uma visão exclusivamente tecnocêntrica baseada apenas em ganhos de produtividade. Embora as ferramentas de IA ampliem possibilidades de apoio técnico à escrita e à organização do conhecimento, elas também introduzem riscos significativos relacionados à confiabilidade da informação, à produção automatizada de conteúdos e à fragilização de práticas acadêmicas fundamentais.
Entre os principais desafios encontram-se:
geração de informações inexistentes ou imprecisas;
criação de referências falsas;
reprodução de vieses algorítmicos;
automatização acrítica da escrita;
ocultação do uso da IA em trabalhos acadêmicos;
enfraquecimento da autoria intelectual humana.
Nesse contexto, a discussão sobre integridade científica assume centralidade. A questão principal deixa de ser apenas “utilizar ou não utilizar IA” e passa a ser “como utilizar IA de maneira ética, transparente e metodologicamente responsável”.
A nova Política de Integridade na Atividade Científica do CNPq estabelece uma orientação bastante clara ao determinar que pesquisadores devem:
“declarar o uso de ferramentas de Inteligência Artificial Generativa - IAG, de qualquer espécie e em qualquer fase do desenvolvimento da pesquisa”
O documento também reforça que:
é vedada a submissão de conteúdo gerado por IA como se fosse de autoria humana;
os autores permanecem integralmente responsáveis pelo conteúdo final;
não se deve inserir projetos de terceiros em ferramentas de IA para produção de pareceres científicos.
Esses elementos demonstram que o debate contemporâneo não se orienta pela rejeição absoluta da IA, mas pela construção de mecanismos de governança acadêmica capazes de assegurar:
transparência;
responsabilidade autoral;
supervisão humana;
integridade metodológica.
A IA, portanto, passa a ser compreendida como ferramenta de apoio e não como substituta da atividade intelectual humana.
Diretrizes institucionais em universidades e periódicos brasileiros
Nos últimos anos, diferentes universidades e periódicos científicos brasileiros passaram a desenvolver diretrizes específicas para regulamentar o uso da Inteligência Artificial na produção acadêmica. Esse movimento evidencia que o debate sobre IA deixou de ser apenas uma discussão tecnológica e passou a integrar as agendas institucionais relacionadas à integridade científica, ética em pesquisa e responsabilidade autoral.
Entre as instituições e periódicos consultados para esta análise destacam-se:
Universidade de São Paulo (USP), por meio da Escola de Engenharia de Lorena;
Universidade Federal do Rio Grande do Norte (UFRN), através da Revista Informação na Sociedade Contemporânea (RISC);
Universidade Estadual Paulista (UNESP), mediante orientações da Faculdade de Filosofia e Ciências;
Universidade Federal de Minas Gerais (UFMG), com modelo institucional de declaração de uso de IA;
Revista do Instituto GeoGebra Internacional de São Paulo (IGISP/USP), que apresenta diretrizes editoriais específicas para uso de IA generativa em manuscritos científicos.
Embora os documentos apresentem diferenças de formato, profundidade e nível de detalhamento, observa-se a existência de elementos comuns que demonstram a consolidação de uma tendência institucional no contexto acadêmico brasileiro.
O primeiro aspecto comum refere-se à exigência de transparência quanto ao uso da Inteligência Artificial. Todas as instituições analisadas defendem que o uso de ferramentas de IA deve ser explicitamente declarado pelos autores, indicando, em diferentes níveis de detalhamento, quais ferramentas foram utilizadas, em que etapas da pesquisa e com quais finalidades. Essa exigência demonstra uma preocupação crescente com a rastreabilidade metodológica e com a clareza sobre os processos de produção do conhecimento científico.
Outro elemento amplamente compartilhado é a defesa da centralidade da autoria humana. Nenhum dos modelos analisados reconhece ferramentas de Inteligência Artificial como autoras de trabalhos científicos. Pelo contrário, os documentos reforçam que a responsabilidade intelectual, ética e científica permanece integralmente atribuída aos pesquisadores humanos, independentemente do nível de apoio técnico fornecido pela IA.
As diretrizes também convergem quanto à delimitação dos usos considerados aceitáveis da Inteligência Artificial. Em geral, os documentos demonstram maior aceitação para aplicações relacionadas:
à revisão linguística;
à correção gramatical;
à tradução;
à organização textual;
ao apoio técnico em programação ou estruturação preliminar de conteúdos.
Por outro lado, observa-se forte preocupação institucional em relação ao uso da IA para:
produção automática de argumentos científicos;
elaboração de análises interpretativas;
construção de conclusões;
fabricação de dados;
geração acrítica de conteúdos acadêmicos.
Outro ponto de convergência importante encontra-se na defesa da integridade científica como princípio orientador do uso da Inteligência Artificial. Os documentos analisados associam o uso ético da IA à necessidade de:
supervisão humana contínua;
validação crítica das informações produzidas;
prevenção ao plágio;
garantia de originalidade;
responsabilidade sobre possíveis erros, vieses ou imprecisões geradas pelas ferramentas.
Além disso, as diretrizes revelam uma preocupação crescente com a criação de mecanismos institucionais de governança da Inteligência Artificial no ambiente acadêmico. Mais do que simplesmente permitir ou restringir o uso dessas ferramentas, as universidades e periódicos começam a estruturar políticas capazes de orientar práticas responsáveis, transparentes e alinhadas aos princípios contemporâneos da ética científica.
Nesse contexto, percebe-se que o cenário brasileiro caminha para a consolidação de uma cultura de transparência algorítmica na pesquisa científica, na qual o uso da Inteligência Artificial passa a ser compreendido não como substituição da atividade intelectual humana, mas como ferramenta auxiliar que exige controle ético, supervisão crítica e responsabilidade acadêmica permanente.
Exemplo de declaração de uso de IA
A partir dos elementos identificados nos modelos institucionais brasileiros, apresenta-se abaixo um exemplo de declaração que pode ser adaptado por pesquisadores de diferentes áreas e níveis acadêmicos.
Declaração de Uso de Inteligência Artificial
Durante o desenvolvimento deste manuscrito, foram utilizadas ferramentas de Inteligência Artificial Generativa exclusivamente como apoio técnico e instrumental às atividades de escrita acadêmica. As ferramentas empregadas incluíram ChatGPT (OpenAI) e Grammarly, utilizadas para revisão linguística, organização textual e sugestões de aprimoramento da clareza do texto.
Nenhum conteúdo gerado por Inteligência Artificial foi incorporado de forma acrítica ou apresentado como produção intelectual autônoma. Todas as análises, interpretações, argumentos, resultados e conclusões foram desenvolvidos, revisados e validados pelos autores humanos, que assumem integral responsabilidade científica, ética e acadêmica pelo conteúdo final do manuscrito.
O uso das ferramentas ocorreu em conformidade com princípios de integridade científica, transparência metodológica e responsabilidade autoral.
Em síntese...
A expansão da Inteligência Artificial na pesquisa científica representa um dos fenômenos mais transformadores da produção acadêmica contemporânea. Entretanto, seu impacto não deve ser analisado apenas sob a perspectiva tecnológica, mas sobretudo a partir de suas implicações éticas, epistemológicas e institucionais.
As universidades e periódicos brasileiros analisados demonstram que o debate nacional começa a avançar para além da dicotomia simplista entre aceitação irrestrita e rejeição absoluta da IA. O movimento observado aponta para a construção de modelos institucionais baseados em:
transparência;
supervisão humana;
responsabilização científica;
integridade acadêmica.
Mais do que impedir o uso da Inteligência Artificial, essas políticas procuram assegurar que a IA permaneça subordinada à atividade intelectual humana e aos princípios fundamentais da produção científica.
Nesse contexto, a declaração explícita do uso de IA tende a consolidar-se como prática acadêmica cada vez mais necessária. Assim como atualmente se exigem declarações sobre conflitos de interesse, ética em pesquisa ou financiamento, a transparência algorítmica passa a integrar os novos parâmetros da integridade científica contemporânea.
Para estudantes e pesquisadores, o desafio não consiste apenas em aprender a utilizar ferramentas de IA, mas em desenvolver competências críticas, éticas e metodológicas capazes de assegurar que a inovação tecnológica fortaleça a credibilidade da ciência.
Prof. Miguel Dias
Nota:
Este conteúdo utilizou ferramentas de Inteligência Artificial como apoio à organização textual e criação visual, mantendo supervisão humana, revisão crítica e responsabilidade autoral integral.




Comentários