Editorial
Editorial – Inteligência artificial e coautoria de trabalhos científicos: discussões sobre utilização de ChatGPT em pesquisa e redação científicas
Editorial – Artificial intelligence and co-authorship of scientific manuscripts: discussions about using ChatGPT in scientific research and writing
Received: 10 September 2023
Revised document received: 30 September 2023
Accepted: 02 October 2023
O avanço das tecnologias ocasiona relevantes e imprevisíveis impactos na vida humana em geral e na pesquisa científica especificamente. Assim, a sua publicação em revistas é impactada diretamente por inovações na forma de se fazer ciência. Em termos recentes, a propagação do uso de ferramentas de inteligência artificial, como ChatGPT, tem gerado discussões pertinentes em relação à sua possível contribuição à pesquisa e à escrita científica e, consequentemente, aos critérios de autoria e coautoria em trabalhos científicos. Por exemplo, se houver a utilização de ChatGPT para produção de parte do texto do artigo, para análise de dados, etc., o mecanismo deve ser listado como coautor do artigo?
Para instigar o debate, apresentamos esse questionamento ao próprio sistema (ChatGPT) e obtivemos uma resposta interessante, embora questionável, para a questão: “A decisão de incluir o ChatGPT como coautor em um artigo científico depende de vários fatores, incluindo o grau de contribuição do modelo para a pesquisa e redação do texto. O ChatGPT é uma ferramenta poderosa para auxiliar na geração de texto e na obtenção de informações, mas seu papel em um projeto de pesquisa pode variar. Aqui estão algumas considerações a serem feitas ao decidir se o ChatGPT deve ser incluído como coautor:
Contudo, a resposta retornada pelo ChatGPT não é compatível com a posição majoritária em termos de orientações internacionais de integridade científica.3 Diante disso, este editorial pretende problematizar e sugerir, considerando o cenário atual, critérios para definição da coautoria em trabalhos científicos e o uso de ferramentas de inteligência artificial.
A utilização de mecanismos de inteligência artificial tem se disseminado no público científico, especialmente a partir da expansão do ChatGPT. A partir de um modelo estatístico e probabilístico, o sistema gera uma resposta ao comando inserido pelo usuário, desenvolvendo uma réplica ao questionamento que, em geral, apresenta encadeamento lógico e plausibilidade. Assim, com base nos comandos e informações providos ao sistema, forma-se um banco de dados que constantemente é atualizado e ampliado para fornecimento de respostas mais precisas.
Sem dúvidas, abre-se uma enorme gama de possibilidades e avanços nas diversas áreas das ciências, nas mais distintas etapas do processo de pesquisa, editoração e divulgação científicas.4 O sistema pode revolucionar o modo de sistematização de dados, de consolidação de revisões bibliográficas, etc. Contudo, os riscos, especialmente no estágio atual do seu desenvolvimento, são relevantes e precisam sem ponderados, ainda mais ao se considerar a função da equipe editorial de periódicos científicos.5
Embora o sistema se aprimore diuturnamente e de um modo extremamente veloz, verifica-se que a resposta ao comando pode resultar comprometida por diversos motivos, como vieses e plágio, tendo em vista as informações que subsidiaram o seu treinamento.6 Além disso, o modo de determinação do comando e até mesmo a ordem de sua inserção podem ocasionar respostas distintas e não diretamente relacionadas ao objeto questionado. Diante disso, já há autores que recomendam alterações nos mecanismos para adotar maiores proteções contra plágio e violações de direitos autorais.7
Na utilização dos sistemas, é fundamental considerar que toda a informação inserida no comando, como artigos e materiais científicos, será considerada na aprendizagem do algoritmo e, assim, poderá ser utilizada por ele em futuras respostas. Isso potencializa o risco de plágio com o passar do tempo. Portanto, autore/as, revisore/as e editore/as precisam adotar postura cautelosa em seu emprego, vedando-se a inserção no sistema de partes do texto em avaliação.
A WAME (Associação Mundial dos Editores em Medicina) esboçou recomendações sobre chatbots e inteligência artificial em manuscritos científicos: “1) Somente humanos podem ser autore/as; 2) Autore/as devem declarar as fontes de seus materiais; 3) Autore/as devem se responsabilizar publicamente por seus trabalhos; 4) Editore/as e revisore/as devem indicar especificamente para autores, e reciprocamente, o uso de chatbots na avaliação de manuscritos e redação de pareceres e correspondências; e, 5) Editore/as precisam de ferramentas digitais apropriadas para lidar com os efeitos de chatbots na publicação”.8
De modo semelhante, o COPE (Comitê de Ética na Publicação) adotou posição no sentido de que ferramentas de IA não cumprem os requisitos mínimos de autoria porque não assumem responsabilidade pelo trabalho submetido e não são capazes de constatar a presença ou ausência de conflitos de interesse ou problemas de direitos autorais e licenças. Também ressaltou que autore/as devem declarar como ferramentas de IA foram utilizadas na pesquisa e são responsáveis pelo trabalho integralmente, inclusive trechos eventualmente por elas produzidos.9
No mesmo sentido, a revista Nature, juntamente aos periódicos da Springer, alterou suas políticas editorias em sentido semelhante, a partir de dois princípios. Primeiramente, sistemas como ChatGPT não podem ser indicados como autores, visto que não são responsabilizáveis pela pesquisa e/ou texto. Além disso, autore/as que utilizem tais mecanismos devem declarar isso na seção de metodologia ou agradecimentos do artigo.10
Com relação à autoria, em editorial anteriormente publicado nesta Revista, assentou-se que, para poder ser considerado autor/a do trabalho, a/o pesquisador/a “deve cumprir requisitos básicos de atuação no sentido de: 1) contribuir efetivamente com a pesquisa (a) em sua concepção ou desenvolvimento, e (b) em sua redação e revisão crítica; 2) aprovar a versão final do artigo e concordar com as ideias sustentadas; e, 3) responsabilizar-se por garantir a integridade da pesquisa e do artigo em sua integralidade”.11 Diante disso, no cenário atual da IA em chatbots, tais ferramentas não são capazes de aprovar a versão final do trabalho e concordar com as ideias sustentadas, tampouco de se responsabilizar pela integridade da pesquisa científica.
Para assegurar a transparência necessária à produção de conhecimento científico aberto, autore/as devem declarar a utilização de chatbots e mecanismos de inteligência artificial na redação de artigos e nas demais fases da pesquisa científica.12 Tal declaração deve constar no item de metodologia do trabalho e/ou nos agradecimentos ao final do artigo. Para garantir a repetibilidade do processo, deve-se indicar o comando exato utilizado, qual ferramenta e a data da pesquisa realizada.
Por fim, pensa-se que as políticas aqui recomendadas para atuação de autore/as também se aplicam, na medida de suas respectivas atribuições, a revisore/as e editore/as. Portanto, todo/as a/os autore/as do processo editorial devem ser transparentes em relação à utilização de chatbots e mecanismos de inteligência artificial, responsabilizando-se pelo conteúdo gerado e informando aos demais o seu emprego.
Diante do exposto, considerando o cenário atual, pensa-se que as revistas científicas devem inserir normas em suas políticas editoriais e de integridade científica para regular questões de coautoria relacionadas ao uso de inteligência artificial, recomendando-se que: 1. mecanismos de inteligência artificial (como ChatGPT) não cumprem os requisitos para coautoria; 2. autore/as devem declarar (na metodologia ou nos agradecimentos) a utilização de mecanismos de inteligência artificial na redação do artigo e/ou nas demais fases da pesquisa científica; 3. autore/as são responsáveis por erros, plágios e outras más-práticas que eventualmente ocorram em suas pesquisas em razão da utilização de mecanismos de inteligência artificial.
Contudo, por óbvio, ressalta-se que este editorial pode ser rapidamente superado em suas conclusões, considerando-se a veloz alteração das premissas relacionadas às possibilidades e às capacidades das ferramentas de inteligência artificial na sociedade e na pesquisa científica.
We used ChatGPT, as pointed in footnotes 2 and 3, to generate an initial answer about co-authorship and artificial intelligence, which is quoted in the introduction of the editorial.
Editor-in-chief: 1 (nJG)
Associated-editor: 1 (CRG)
vinicius.vasconcellos@ueg.br