Inteligência Artificial (IA)

Inteligência Artificial (IA)

A Revista Opinião Jurídica está monitorando o contínuo desenvolvimento da área e irá rever e atualizar esta política adequadamente, inclusive no que se refere às formas e tecnologias utilizadas para verificação de eventuais condutas antiéticas.

Aspectos de autoria

Considera-se para fins de autoria apenas as criações do espírito as quais, por sua vez, atribuem aos autores a responsabilidade pela obra. Os modelos de Inteligência Artificial (IA) que utilizam técnicas de aprendizagem de máquina, denominados de “Large Language Model (LLM)”, tais como ChatGPT, não atendem ao critério de autoria.

Poderão ser realizadas melhorias assistidas por IA em textos gerados por humanos para fins de revisão de erros de gramática, ortografia, pontuação e tom, bem como traduções em língua estrangeira. Essas melhorias assistidas por IA podem incluir alterações de redação e formatação nos textos, mas não podem incluir trabalho editorial generativo e criação autônoma de conteúdo.

Ferramentas de IA também podem oferecer orientação baseada em dados para auxiliar humanos na tomada de decisões.

O uso de LLM deve ser explicitamente apontado em nota de rodapé explicativa atrelada ao título do manuscrito. A seção de metodologia do trabalho também deve descrever como as ferramentas de IA foram empregadas. A transparência dos processos deve garantir robustez técnica e governança rigorosa de dados.

A aplicação responsável da tecnologia requer supervisão, verificações e monitoramento humanos. Em todos os casos, deve haver responsabilidade humana pela versão final do texto e concordância dos autores de que as edições refletem seu trabalho original.

A responsabilização deve garantir que a tecnologia seja justa e não discriminatória e que eventual viés nas fontes de dados e potencial viés no design das ferramentas sejam identificados e corrigidos. Quando não for possível, a transparência sobre as limitações da tecnologia é essencial.

As violações éticas eventualmente verificadas, ainda que em momento futuro por meio de tecnologia de verificação ainda a ser desenvolvida, estão sujeitas a sanções, de acordo com a gravidade da violação, tais como advertências, impedimento de processar e publicar artigos pela Revista Opinião Jurídica, na condição de autores ou coautores, pelo prazo de até 04 (quatro) anos, ou até mesmo, retratações, conforme disposto na política de retratação (vide condições para submissão).

Aspectos da avaliação por pares

A Revista Opinião Jurídica não recomenda a utilização de IA na checagem das informações dos manuscritos em processo de avaliação por considerar que as ferramentas de IA generativas têm limitações consideráveis, podendo não ter conhecimento atualizado ou produzir informações absurdas, tendenciosas ou falsas. Além disso, os manuscritos podem incluir informações confidenciais que não devem ser compartilhadas fora do processo de revisão por pares. Por essas razões, a Revista Opinião Jurídica pede aos revisores que não carreguem manuscritos em ferramentas de IA generativas.

Se qualquer parte da avaliação das alegações feitas no manuscrito foi de alguma forma apoiada por uma ferramenta de IA, pedimos aos revisores que declarem o uso de tais ferramentas de forma transparente no relatório de revisão por pares.