Uso Ético de Inteligência Artificial em Artigos Científicos: políticas das revistas e editoras
- Miguel Dias
- 3 de abr.
- 4 min de leitura

O avanço das ferramentas de Inteligência Artificial (IA), em especial as baseadas em modelos generativos, como o ChatGPT, transformou significativamente os processos de pesquisa e escrita acadêmica. Essa transformação, no entanto, veio acompanhada de preocupações éticas e editoriais.
Cada vez mais, revistas científicas e editoras estão definindo normas claras sobre como, quando e em que medida essas ferramentas podem ser utilizadas.
Convém apresentar uma síntese das principais orientações editoriais vigentes sobre o uso ético da IA em artigos científicos, considerando diretrizes internacionais e nacionais. O objetivo é fornecer um panorama rigoroso e atualizado para que autores, pareceristas e editores possam agir com responsabilidade, transparência e conformidade com as exigências da publicação científica.
Responsabilidades dos autores
As diretrizes mais consistentes entre editoras e periódicos apontam que todo o conteúdo gerado com o apoio de IA deve ser validado por humanos. A responsabilidade científica é sempre dos autores. Isso inclui verificar se os dados são precisos, as fontes são confiáveis e as ideias estão corretamente articuladas. A IA não deve ser citada como coautora, pois não pode assumir responsabilidade ética ou intelectual pelo conteúdo publicado (DIAS, 2024; GANJAVI et al., 2024).
O que deve ser declarado
As revistas científicas exigem crescente transparência sobre o uso de IA. Sempre que uma ferramenta for utilizada no processo de escrita, o autor deve declarar:
qual ferramenta foi utilizada (por exemplo, ChatGPT, Gemini, Copilot);
a versão da ferramenta, com data de uso, quando possível;
a finalidade específica da aplicação (como melhorar a fluidez textual, apoiar buscas bibliográficas ou propor uma estrutura argumentativa);
o local em que essa informação aparece no manuscrito, como nas seções de metodologia, agradecimentos ou notas explicativas.
A ocultação dessa informação é considerada uma falha ética grave, tanto por editores quanto por comitês internacionais, como o Committee on Publication Ethics (COPE), que recomenda total responsabilidade dos autores sobre qualquer conteúdo gerado com o uso de IA (Scielo, 2023; GANJAVI, 2024).
Usos permitidos e não permitidos
Há, nas políticas editoriais, um esforço crescente para distinguir usos legítimos de IA daqueles que ferem a integridade científica. São geralmente permitidos, desde que devidamente declarados, os usos relacionados à melhoria da linguagem, como correções gramaticais e ajustes de estilo. Também são aceitas, com cautela, aplicações que auxiliam na busca e organização de bibliografia ou que gerem imagens baseadas em dados empíricos, desde que haja uma descrição metodológica clara.
Por outro lado, ferramentas básicas de apoio técnico, como verificadores ortográficos (por exemplo, Grammarly), gestores de referências (como Mendeley e Zotero) e formatadores automáticos de citação são considerados instrumentos auxiliares que não exigem declaração formal, por serem amplamente aceitos nas práticas editoriais.
Não são permitidas, entretanto, situações em que a IA é citada como autora, bem como a geração de imagens, gráficos ou trechos de texto não baseados em dados verificáveis. Também é considerado eticamente inaceitável o uso não declarado de IA em qualquer etapa do processo de pesquisa ou redação científica (CAETANO, 2024; SAMPAIO; SABBATINI; LIMONGI, 2024).
Políticas de editoras internacionais
Diversas editoras científicas têm publicado diretrizes específicas sobre o uso de IA em seus periódicos. A Elsevier permite a utilização dessas ferramentas para revisão de linguagem e ajustes simples em imagens. A Springer Nature admite a criação de imagens com base em dados empíricos, desde que verificáveis. A Taylor & Francis autoriza o uso de IA para apoio em buscas e seleção de literatura. Já a SAGE exige declaração clara das ferramentas utilizadas, independentemente da finalidade. A editora Wiley também reforça a necessidade de total transparência, inclusive nos usos mais técnicos da IA.
Apesar das nuances entre cada editora, há consenso em três aspectos centrais: o uso de IA deve ser sempre supervisionado por humanos, deve ser declarado com precisão e não pode substituir a autoria científica.
Em síntese
A integração da IA nos processos científicos não é apenas inevitável, mas desejável — desde que guiada por princípios éticos claros. Os documentos das principais revistas e editoras apontam três compromissos fundamentais: responsabilidade, transparência e integridade. Autores devem manter controle total sobre o conteúdo gerado, registrar de forma clara toda aplicação de IA e assegurar que seu uso esteja a serviço da ciência, e não da substituição do pensamento crítico e da autoria humana.
Cabe a cada autor conhecer as políticas da revista para a qual deseja submeter seu artigo, adaptar seu manuscrito às exigências editoriais e garantir que a inovação tecnológica caminhe em consonância com a ética científica.
Sugestões de Leitura
CAETANO, L. Uso Ético de Inteligência Artificial em Artigos Científicos. Assomada, Santiago (Cabo Verde), 2025.
SAMPAIO, R. C.; SABBATINI, M.; LIMONGI, R. Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: um guia prático para pesquisadores. São Paulo: Editora Intercom, 2024.
Scielo. Guia de uso de ferramentas e recursos de Inteligência Artificial na comunicação de pesquisas na Rede SciELO. 2023. Disponível em: https://wp.scielo.org/wp-content/uploads/Guia-de-uso-de-ferramentas-e-recursos-de-IA-20230914.pdf
GANJAVI, C. et al. Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: bibliometric analysis. BMJ, 2024; 384:e077192. DOI: https://doi.org/10.1136/bmj-2023-077192
Muito bom, espero que possamos usar essas novas ferramentas com dignidade.