<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1 20151215//EN" "https://jats.nlm.nih.gov/publishing/1.1/JATS-journalpublishing1.dtd">
<article article-type="research-article" dtd-version="1.1" specific-use="sps-1.9" xml:lang="pt"
	xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink">
	<front>
		<journal-meta>
			<journal-id journal-id-type="publisher-id">oj</journal-id>
			<journal-title-group>
				<journal-title>Revista Opinião Jurídica</journal-title>
				<abbrev-journal-title abbrev-type="publisher">R. Opin. Jur.</abbrev-journal-title>
			</journal-title-group>
			<issn pub-type="ppub">1806-0420</issn>
			<issn pub-type="epub">2447-6641</issn>
			<publisher>
				<publisher-name>Centro Universitário Christus</publisher-name>
			</publisher>
		</journal-meta>
		<article-meta>
			<article-id pub-id-type="doi">10.12662/2447-6641oj.v23i44.p1-26.2025</article-id>
			<article-categories>
				<subj-group subj-group-type="heading">
					<subject>Artigo</subject>
				</subj-group>
			</article-categories>
			<title-group>
				<article-title>ENTRE ALUCINAÇÕES E INOVAÇÕES: O DESAFIO DA IMPLEMENTAÇÃO RESPONSÁVEL
					DA IA GENERATIVA NO SISTEMA DE JUSTIÇA</article-title>
				<trans-title-group xml:lang="en">
					<trans-title>BETWEEN HALLUCINATIONS AND INNOVATIONS: THE CHALLENGE OF
						RESPONSIBLE IMPLEMENTATION OF GENERATIVE AI IN THE JUSTICE
						SYSTEM</trans-title>
				</trans-title-group>
				<trans-title-group xml:lang="es">
					<trans-title>ENTRE ALUCINACIONES E INNOVACIONES: EL DESAFÍO DE LA IMPLEMENTACIÓN
						RESPONSABLE DE LA IA GENERATIVA EN EL SISTEMA DE JUSTICIA</trans-title>
				</trans-title-group>
			</title-group>
			<contrib-group>
				<contrib contrib-type="author">
					<contrib-id contrib-id-type="orcid">0000-0001-5610-1693</contrib-id>
					<name>
						<surname>Brunetta</surname>
						<given-names>Cíntia Menezes</given-names>
					</name>
					<role>contribuíram de maneira equivalente para todas as etapas de
						concepção</role>
					<role>estruturação</role>
					<role>redação do presente artigo</role>
					<role>bem como procederam à</role>
					<role>leitura</role>
					<role>aprovação da versão final submetida para publicação</role>
					<xref ref-type="aff" rid="aff1">*</xref>
				</contrib>
				<contrib contrib-type="author">
					<contrib-id contrib-id-type="orcid">0000-0002-9592-0488</contrib-id>
					<name>
						<surname>Ferraz</surname>
						<given-names>Taís Schilling</given-names>
					</name>
					<role>contribuíram de maneira equivalente para todas as etapas de
						concepção</role>
					<role>estruturação</role>
					<role>redação do presente artigo</role>
					<role>bem como procederam à</role>
					<role>leitura</role>
					<role>aprovação da versão final submetida para publicação</role>
					<xref ref-type="aff" rid="aff2">**</xref>
				</contrib>
				<contrib contrib-type="author">
					<contrib-id contrib-id-type="orcid">0009-0007-6614-5025</contrib-id>
					<name>
						<surname>Alencar</surname>
						<given-names>Alisson Carvalho de</given-names>
					</name>
					<role>participou da redação dos trechos relativos aos riscos decorrentes do uso
						da inteligência artificial</role>
					<role>notadamente no que se refere à</role>
					<role>proteção de dados pessoais</role>
					<role>tendo igualmente realizado a leitura crítica integral do manuscrito</role>
					<role>manifestado sua concordância quanto à</role>
					<role>versão final publicada</role>
					<xref ref-type="aff" rid="aff3">***</xref>
				</contrib>
			</contrib-group>
			<aff id="aff1">
				<label>*</label>
				<institution content-type="orgname">Fundação Nacional de Desenvolvimento do Ensino
					Superior Particular</institution>
				<institution content-type="orgdiv1">Faculdade Autônoma de Direito</institution>
				<addr-line>
					<city>Fortaleza</city>
					<state>CE</state>
				</addr-line>
				<country country="BR">BR</country>
				<email>cbrunetta@hotmail.com</email>
				<institution content-type="original">Doutora em Direito pela Faculdade Autônoma de
					Direito (Fadisp). Conselheira do Conselho Nacional do Ministério Público (CNMP).
					Juíza federal do Tribunal Regional Federal da 5 Região. Professora da Graduação
					e dos Programas de Mestrado e Doutorado da Fadisp. Pesquisadora da Fundação
					Nacional de Desenvolvimento do Ensino Superior Particular (Funadesp).
					Coordenadora Adjunta do Mestrado Interinstitucional Fadisp/Ejug. Formadora de
					magistrados e formadora de formadores da Enfam e de outras escolas de
					magistratura e do Ministério Público. Fortaleza - CE - BR</institution>
			</aff>
			<aff id="aff2">
				<label>**</label>
				<institution content-type="orgname">PUCRS</institution>
				<addr-line>
					<city>Brasília</city>
					<state>DF</state>
				</addr-line>
				<country country="BR">BR</country>
				<email>taissferraz@gmail.com</email>
				<institution content-type="original">Doutora em Ciências Criminais e Mestre em
					Direito pela PUCRS. Desembargadora do TRF4. Professora do quadro permanente e
					vice-coordenadora do Programa de amestrado da ENFAM e membro do Centro Nacional
					de Inteligência da JF. Brasília - DF - BR</institution>
			</aff>
			<aff id="aff3">
				<label>***</label>
				<institution content-type="orgname">Universidade de São Paulo</institution>
				<addr-line>
					<city>Cuiabá</city>
					<state>MT</state>
				</addr-line>
				<country country="BR">BR</country>
				<email>alisson.alencar@unialfa.com.br</email>
				<institution content-type="original">Pós-doutorando pela Universidade de São Paulo
					(USP); Doutor em Direito pela Universidade de Salamanca, em convênio com a
					Faculdade Autônoma de Direito (2020); Mestre em Administração Pública pela
					Escola Brasileira de Administração Pública da Fundação Getúlio Vargas (2015).
					Procurador Geral de Contas do Ministério Público de Contas do Estado de Mato
					Grosso. Cuiabá - MT - BR</institution>
			</aff>
			<author-notes>
				<fn fn-type="edited-by">
					<label>Editora responsável:</label>
					<p>Profa. Dra. Fayga Bedê <ext-link ext-link-type="uri"
							xlink:href="https://orcid.org/0000-0001-6444-2631"
							>https://orcid.org/0000-0001-6444-2631</ext-link>
					</p>
				</fn>
			</author-notes>
			<pub-date date-type="pub" publication-format="electronic">
				<day>28</day>
				<month>11</month>
				<year>2025</year>
			</pub-date>
			<pub-date date-type="collection" publication-format="electronic">
				<year>2025</year>
			</pub-date>
			<volume>23</volume>
			<issue>44</issue>
			<fpage>1</fpage>
			<lpage>26</lpage>
			<history>
				<date date-type="received">
					<day>30</day>
					<month>06</month>
					<year>2025</year>
				</date>
				<date date-type="accepted">
					<day>19</day>
					<month>09</month>
					<year>2025</year>
				</date>
			</history>
			<permissions>
				<license license-type="open-access"
					xlink:href="https://creativecommons.org/licenses/by/4.0/" xml:lang="pt">
					<license-p>Este é um artigo publicado em acesso aberto (Open Access) sob a
						licença Creative Commons Attribution, que permite uso, distribuição e
						reprodução em qualquer meio, sem restrições desde que o trabalho original
						seja corretamente citado.</license-p>
				</license>
			</permissions>
			<abstract>
				<title>Resumo</title>
				<sec>
					<title>Contexto:</title>
					<p>As potencialidades da Inteligência Artificial Generativa - IAG no Poder
						Judiciário, a par de produzirem grandes expectativas quanto ao aumento da
						eficiência, têm motivado grandes preocupações, reproduzindo as perplexidades
						que sempre permearam as relações da humanidade com a inovação, notadamente a
						tecnológica.</p>
				</sec>
				<sec>
					<title>Objetivos:</title>
					<p>A investigação que originou este artigo teve dois</p>
				</sec>
				<sec>
					<title>objetivos:</title>
					<p>reunir e sistematizar alguns conceitos e conhecimentos sobre a IAG, suas
						características, sua evolução e seus modelos de linguagem; e avaliar de que
						maneira a IAG pode ser empregada no contexto do Judiciário, com adequado
						gerenciamento de riscos e aproveitamento de potencialidades. A hipótese a
						ser explorada é de que os riscos da Inteligência Artificial Generativa (IAG)
						no sistema de justiça não estão apenas em seu uso inadequado, mas também em
						sua não utilização.</p>
				</sec>
				<sec>
					<title>Método:</title>
					<p>A pesquisa é bibliográfica e documental. Parte-se de um histórico sobre a
						computação e a inteligência artificial - IA, apresentam-se noções gerais
						sobre IA, Machine Learning e IA Generativa, explorando-se, na sequência, os
						riscos do desconhecimento das características e das limitações da IAG.
						Explora-se, então, como está sendo absorvida essa inovação no Poder
						Judiciário, identificando-se seus potenciais benefícios.</p>
				</sec>
				<sec>
					<title>Resultados:</title>
					<p>Os resultados revelam que há riscos de alucinações nas respostas, na
						reprodução de vieses e no manejo inadequado de dados sensíveis, bem como que
						é possível gerenciá-los, mediante adequado conhecimento sobre o
						funcionamento e as limitações da IAG, governança pautada na ética e no
						protagonismo humano. Revelam, também, que, diante do volume de dados e
						informações que transitam e são gerados pelo Poder Judiciário, o uso da IAG
						vem se tornando condição de possibilidade na gestão do conhecimento para uma
						adequada e coerente prestação jurisdicional.</p>
				</sec>
				<sec>
					<title>Conclusões:</title>
					<p>Concluiu-se pela confirmação da hipótese, identificando-se que os riscos da
						IAG no Judiciário residem tanto em não saber utilizá-la como também em não a
						utilizar.</p>
				</sec>
			</abstract>
			<trans-abstract xml:lang="en">
				<title>ABSTRACT</title>
				<sec>
					<title>Context:</title>
					<p>The potential of Generative Artificial Intelligence (GAI) in the Judiciary,
						while generating great expectations regarding increased efficiency, has
						motivated significant concerns, reproducing the perplexities that have
						always permeated humanity's relationship with innovation, notably
						technological innovation.</p>
				</sec>
				<sec>
					<title>Goal:</title>
					<p>The investigation that gave rise to this article had two</p>
				</sec>
				<sec>
					<title>objectives:</title>
					<p>to gather and systematize some concepts and knowledge about GAI, its
						characteristics, evolution, and language models; and to assess how GAI can
						be employed in the context of the Judiciary, with proper risk management and
						harnessing of its potential. The hypothesis to be explored is that the risks
						of Generative Artificial Intelligence (GAI) in the justice system lie not
						only in its misuse but also in its non-use.</p>
				</sec>
				<sec>
					<title>Method:</title>
					<p>The research is bibliographic and documentary. It begins with a historical
						overview of computing and artificial intelligence - AI, presents general
						notions about AI, Machine Learning, and Generative AI, then explores the
						risks of ignoring the characteristics and limitations of GAI. It then
						examines how this innovation is being absorbed by the Judiciary, identifying
						its potential benefits.</p>
				</sec>
				<sec>
					<title>Results:</title>
					<p>The results reveal that there are risks of hallucinations in responses,
						reproduction of biases, and inadequate handling of sensitive data, but also
						that these risks can be managed through proper knowledge of GAI’s
						functioning and limitations, governance guided by ethics, and human
						protagonism. They also show that, given the volume of data and information
						that circulate and are generated by the Judiciary, the use of GAI is
						becoming a condition of possibility in knowledge management for an adequate
						and coherent judicial performance.</p>
				</sec>
				<sec>
					<title>Conclusions:</title>
					<p>The hypothesis was confirmed, identifying that the risks of GAI in the
						Judiciary lie both in not knowing how to use it and in not using it at
						al.</p>
				</sec>
			</trans-abstract>
			<trans-abstract xml:lang="es">
				<title>resumen</title>
				<sec>
					<title>Contextualización:</title>
					<p>Las potencialidades de la Inteligencia Artificial Generativa (IAG) en el
						Poder Judicial, además de producir grandes expectativas en cuanto al aumento
						de la eficiencia, han motivado grandes preocupaciones, reproduciendo las
						perplejidades que siempre han permeado las relaciones de la humanidad con la
						innovación, notablemente la tecnológica.</p>
				</sec>
				<sec>
					<title>Objectivos:</title>
					<p>La investigación que dio origen a este artículo tuvo dos</p>
				</sec>
				<sec>
					<title>objetivos:</title>
					<p>reunir y sistematizar algunos conceptos y conocimientos sobre la IAG, sus
						características, evolución y modelos de lenguaje; y evaluar de qué manera la
						IAG puede ser empleada en el contexto del Poder Judicial, con una adecuada
						gestión de riesgos y aprovechamiento de sus potencialidades. La hipótesis a
						explorar es que los riesgos de la Inteligencia Artificial Generativa (IAG)
						en el sistema de justicia no se encuentran solo en su uso indebido, sino
						también en su no utilización.</p>
				</sec>
				<sec>
					<title>Método:</title>
					<p>La investigación es bibliográfica y documental. Parte de un recorrido
						histórico sobre la computación y la inteligencia artificial - IA, presenta
						nociones generales sobre IA, Machine Learning e IA Generativa, y luego
						explora los riesgos de desconocer las características y limitaciones de la
						IAG. Posteriormente, se analiza cómo esta innovación está siendo absorbida
						por el Poder Judicial, identificando sus potenciales beneficios.</p>
				</sec>
				<sec>
					<title>Resultados:</title>
					<p>Los resultados revelan que existen riesgos de alucinaciones en las
						respuestas, reproducción de sesgos y manejo inadecuado de datos sensibles,
						pero también que es posible gestionarlos mediante un adecuado conocimiento
						sobre el funcionamiento y las limitaciones de la IAG, una gobernanza guiada
						por la ética y el protagonismo humano. Asimismo, muestran que, dado el
						volumen de datos e informaciones que circulan y son generados por el Poder
						Judicial, el uso de la IAG se está convirtiendo en una condición de
						posibilidad en la gestión del conocimiento para una prestación
						jurisdiccional adecuada y coherente.</p>
				</sec>
				<sec>
					<title>Conclusiones:</title>
					<p>Se confirmó la hipótesis, identificándose que los riesgos de la IAG en el
						Poder Judicial residen tanto en no saber utilizarla como en no
						utilizarla.</p>
				</sec>
			</trans-abstract>
			<kwd-group xml:lang="pt">
				<title>Palavras-chave:</title>
				<kwd>Inteligência Artificial Generativa</kwd>
				<kwd>riscos e potencialidades</kwd>
				<kwd>Poder Judiciário</kwd>
				<kwd>protagonismo humano</kwd>
				<kwd>governança.</kwd>
			</kwd-group>
			<kwd-group xml:lang="en">
				<title>Keywords:</title>
				<kwd>Generative Artificial Intelligence</kwd>
				<kwd>risks and potential</kwd>
				<kwd>Judiciary</kwd>
				<kwd>human protagonism</kwd>
				<kwd>governance.</kwd>
			</kwd-group>
			<kwd-group xml:lang="es">
				<title>Palabras clave:</title>
				<kwd>Generative Artificial Intelligence</kwd>
				<kwd>risks and potential</kwd>
				<kwd>Judiciary</kwd>
				<kwd>human protagonism</kwd>
				<kwd>governance.</kwd>
			</kwd-group>
		</article-meta>
	</front>
	<body>
		<sec sec-type="intro">
			<title>1 Introdução</title>
			<p>No episódio VI da saga Star Wars (O Retorno do Jedi), o robô C3-PO, um “droide de
				protocolo&quot; (intérprete de relações-sociais, como ele próprio se qualifica nos
				filmes), trava uma interessante discussão com um dos protagonistas, Han Solo (<xref
					ref-type="bibr" rid="B30">Star Wars, 1983</xref>):</p>
			<disp-quote>
				<p>C-3PO: I do believe they think I am some kind of god.</p>
				<p>Han Solo: Well, why don't you use your divine influence and get us out of
					this?</p>
				<p>C-3PO: I beg you pardon, General Solo, but that just wouldn't be proper.</p>
				<p>Han Solo: Proper?</p>
				<p>C-3PO: It's against my programming to impersonate a deity<sup><xref ref-type="fn"
							rid="fn1">1</xref></sup>.</p>
			</disp-quote>
			<p>A escolha desse diálogo para ilustrar o presente artigo, que abordará os dilemas e
				receios envolvidos na adoção da Inteligência Artificial Generativa - IAG pelo Poder
				Judiciário não se dá por acaso.</p>
			<p>De fato, quando se discute sobre robôs (especialmente humanoides, duas reações
				automáticas são acionadas na mente humana<sup><xref ref-type="fn" rid="fn2"
					>2</xref></sup>), em regra: a primeira, oriunda de um desconhecimento sobre as
				limitações e potenciais da máquina; e a segunda, fruto de uma sensação de
				perplexidade ante as possibilidades de uma substituição sem precedentes da atuação
				humana por sistemas computacionais dotados de poderes quase sobrenaturais que trazem
				um potencial aparentemente ilimitado de intervenção na realidade.</p>
			<p>A metáfora trazida pelo diálogo entre C-3PO e Han Solo revela uma dualidade
				frequentemente observada: a Inteligência Artificial - IA é vista, ora como um
				instrumento de extrema utilidade, ora como uma entidade.</p>
			<p>Em ambos os casos, porém, perde-se de vista um elemento essencial: a responsabilidade
				e o protagonismo indubitavelmente humanos na programação, na operação e no
				monitoramento das tecnologias emergentes.</p>
			<p>Quando se fala em processos decisórios automatizados, essa dualidade sempre se
				evidencia, seja nos filmes, seja na realidade.</p>
			<p>O Poder Judiciário a vem vivenciando muito intensamente, especialmente após o
				surgimento da Inteligência Artificial Generativa, havendo aqueles que defendem
				fortemente sua utilização e muitos que, receando um suposto poder das máquinas, são
				extremamente refratários a ela, defendendo, inclusive, mediante a edição de normas
				restritivas, sua proibição ou uso extremamente limitado.</p>
			<p>Nessa linha, tendo presentes as reações instintivas de temor e atração que permeiam o
				discurso sobre IAG, especialmente no âmbito do Poder Judiciário, pretende-se trazer
				o debate para o campo da racionalidade e dos reais desafios e oportunidades à boa
				governança institucional, de dados e de processos, na busca da eficiência e do
				aprimoramento do Sistema de Justiça. Assim, o presente artigo tem dois
				objetivos:</p>
			<list list-type="simple">
				<list-item>
					<p>a) sistematizar conceitos e conhecimentos importantes para a compreensão dos
						avanços tecnológicos que permeiam o debate sobre o uso da IAG e; </p>
				</list-item>
				<list-item>
					<p>b) investigar de que forma os artefatos e os modelos podem ser empregados,
						com alguma segurança, no mundo do Judiciário e com aproveitamento de suas
						potencialidades.</p>
				</list-item>
			</list>
			<p>A hipótese que permeia a investigação é a de que os riscos da IAG no sistema de
				justiça são duplos: eles surgem tanto da aplicação inadequada dessa tecnologia
				quanto da inércia em não a utilizar.</p>
			<p>O foco das reflexões aqui propostas não é um eventual protagonismo descontrolado das
				máquinas, nem os possíveis erros atribuídos à tecnologia. Tendo presentes os riscos
				de perda de agência pelos tomadores de decisão, de prejuízos ao componente humano
				nos julgamentos e à qualidade da produção, o texto investiga de que forma as ameaças
				se manifestam na prática, avaliando correspondentes alternativas para sua
				neutralização ou redução.</p>
			<p>Explora, também, em que medida os verdadeiros riscos para o Judiciário se situam em
				ignorar as possibilidades de inovação, transformação e aumento da eficiência que a
				IAG pode proporcionar e no desconhecimento ou menosvalia que vem sendo atribuída ao
				protagonismo humano na tomada de responsabilidade com a forma de implementação da
				ferramenta.</p>
			<p>Para isso, com base em pesquisa bibliográfica e documental, será realizado,
				inicialmente, um levantamento conceitual sobre Inteligência Artificial e sua
				evolução histórica, procurando-se abordar, de forma didática, as características da
				IAG e seus modelos de linguagem.</p>
			<p>Posteriormente, serão explorados os principais riscos e receios relacionados ao uso
				dessa tecnologia no Poder Judiciário, incluindo questões, como alucinações de
				respostas (respostas equivocadas e/ou desconectadas da realidade), reprodução de
				vieses preexistentes nos <italic>inputs</italic> utilizados para treinamento, manejo
				inadequado de dados e informações sensíveis e eventual alienação e perda de
				autonomia dos juízes. Também será analisado o papel das instituições reguladoras,
				como o Conselho Nacional de Justiça, e suas iniciativas recentes para regulamentar o
				uso responsável da IA, propondo-se uma reflexão sobre os custos e riscos da não
				utilização desse ferramental, diante do volume de dados e de informações, a tornar
				quase impossível a adequada gestão do conhecimento por meio das tecnologias
				tradicionais. Ao final, propor-se-á estratégia para equilibrar potencialidades e
				riscos no contexto do Poder Judiciário.</p>
		</sec>
		<sec>
			<title>2 Noções básicas de Inteligência Artificial, Machine Learning e IA
				generativa</title>
			<p>A relação do homem com a natureza e o seu desejo de conseguir manipulá-la para a
				criação de seres autômatos surgiram bem antes da invenção do primeiro computador. As
				mais remotas noções de Inteligência Artificial, na verdade, datam da antiguidade, e,
				segundo <xref ref-type="bibr" rid="B35">Wilkins (2019)</xref>, a primeira menção
				efetiva de agentes artificiais com vontade e consciência pode ser rastreada ao mito
				grego relativo ao gigante autômato de bronze Talos, responsável pela proteção de
				Creta contra invasores.</p>
			<p>A fascinação do homem com o artificial parece ter contaminado o próprio filósofo Renè
				Descartes, que, encantado com a visita que fez a um jardim autômato em
				Saint-Germain-en-Laye, Paris, observou que, se um artefato pode ser movido pelo
				curso das águas, um homem poderia ser movido pela mente, enquanto
						substância<sup><xref ref-type="fn" rid="fn3">3</xref></sup> (<xref
					ref-type="bibr" rid="B35">Wilkins, 2019</xref>).</p>
			<p>Embora não tão antigos quanto esses frutos da imaginação humana, os fundamentos
				matemáticos para a Ciência da Computação e, consequentemente, para a Inteligência
				Artificial já existem há mais de dois séculos.</p>
			<p>A álgebra booleana, consistente no mesmo conceito de lógica binária utilizado por
				computadores hoje em dia (0 ou 1, verdadeiro ou falso), foi desenvolvida por George
				Boole ainda em 1854. Antes mesmo de Boole, por volta de 1822, o matemático inglês
				Charles Babbage fez o desenho de um dos primeiros computadores, o “Difference
				Engine”, uma máquina analítica de propósito geral, que, se desenvolvida, teria o
				equivalente a 1 kilobyte de memória; pouco para hoje em dia, mas uma enormidade na
				época (<xref ref-type="bibr" rid="B35">Wilkins, 2019</xref>).</p>
			<p>Os avanços subsequentes dos séculos XIX e XX, desde os computadores voltados a
				tarefas específicas, passando pela Segunda Grande Guerra, até aqueles generalistas
				(universais) que vieram depois, pavimentaram o caminho para a Inteligência
				Artificial encontrada hoje em dia e sonhada por Alan Turing, nas décadas de 1930 e
				1940.</p>
			<p>É, inclusive, creditado a Alan Turing, um matemático, lógico e cientista de
				computação britânico, o primeiro experimento que daria origem à ciência moderna da
				computação. Sua principal contribuição nesse campo foi o artigo “On Computable
				Numbers, with an application to the Entscheidungsproblem” (<xref ref-type="bibr"
					rid="B34">Turing, 1936</xref>), em que descrevia uma máquina teórica que poderia
				resolver qualquer problema tão logo este fosse codificado nas fitas de instrução
					(<italic>paper tape instructions</italic>) apropriadas.</p>
			<p>Na década de 1930, <xref ref-type="bibr" rid="B34">Turing (1936</xref> p. 13) afirmou
				ser possível inventar uma máquina “which can be used to compute any computable
				sequence. If this machine U is supplied with a tape on the beginning of which is
				written the S.D of some computing machine M. Then U will compute the same sequence
				as it”<sup><xref ref-type="fn" rid="fn4">4</xref></sup>. Em outras palavras, um
				computador poderia rodar dentro de outro computador. Essa propriedade ficou
				posteriormente conhecida <italic>como Turing-completeness</italic> (<xref
					ref-type="bibr" rid="B19">Michaelson, 2020</xref>).</p>
			<p>As contribuições de Alan Turing para a ciência computacional não param por aí. Suas
				percepções fundamentais para o desenvolvimento da Inteligência Artificial podem ser
				encontradas em outro de seus artigos “Computing Machinery and Intelligence”, de
				1950; no qual ele prevê um computador poderoso o suficiente para simular a
				inteligência humana. Nesse artigo, ele defende a existência eventual de um
				computador inteligente e afasta diversos argumentos que são aventados quanto a tal
				possibilidade (desde argumentos de ordem teológica, quanto de ordem mais técnica e
				matemática) (<xref ref-type="bibr" rid="B33">Turing, 1950</xref>).</p>
			<p>Também no referido texto, <xref ref-type="bibr" rid="B33">Turing (1950)</xref>
				formula, logo em sua introdução, o famoso “Turing Test” (Teste de Turing), como
				forma de quantificar o quão inteligente é o computador.</p>
			<p>Logo após Turing, no final da década de 1950, e durante toda a década de 1960,
				pesquisadores, como Marvin Minsky, Allen Newell, Herbert Simon e John McCarthy,
				passaram a desenvolver as primeiras experiências com redes neurais artificiais
					(<xref ref-type="bibr" rid="B35">Wilkins, 2019</xref>), e a inteligência
				computacional pareceu algo cada vez mais concreto no universo dos computadores e dos
				algoritmos codificados.</p>
			<p>Atualmente, sistemas experts, especialmente generativos, assombram por sua suposta
				capacidade de superar a inteligência e a criatividade humanas, e perguntas sobre as
				potencialidades da máquina inteligente permeiam as discussões também entre os
				leigos.</p>
			<p>Porém, o que exatamente é a Inteligência Artificial que se discute hoje em dia e é o
				centro deste artigo?</p>
			<p>Quando o foco é Inteligência Artificial- IA, normalmente as pessoas se referem a dois
				tipos: <italic>Artificial General Intelligence - AGI</italic> (Inteligência
				Artificial Geral) e <italic>Narrow AI</italic> (Inteligência Artificial Fraca ou
				Limitada).</p>
			<p>A AGI é, para usar uma expressão do autor <xref ref-type="bibr" rid="B35">Wilkins
					(2019)</xref>, o “santo graal” da pesquisa computacional. Seria uma máquina com
				inteligência comparável à humana, no sentido de que conseguiria cumprir tarefas a
				partir da generalização de técnicas de resolução de problemas, projetadas para
				questões específicas.</p>
			<p>Um computador equipado com Inteligência Artificial Geral compreenderia a linguagem em
				um nível muito fundamental, e suas habilidades ingressariam em campos da elaboração
				inteligente e do conhecimento humanos de forma não imaginada por seu criador (um bom
				exemplo desse tipo de tecnologia seria o HAL 9000, do filme “2001: uma odisseia no
						espaço”<sup><xref ref-type="fn" rid="fn5">5</xref></sup> ou, mais
				recentemente, o Winston<sup><xref ref-type="fn" rid="fn6">6</xref></sup>, do livro
				“A Origem”, de Dan Brown).</p>
			<p>Assim, quando se fala em Inteligência Artificial atualmente em aplicação, seja em
				processos decisórios automatizados, carros autônomos, modelos largos de linguagem -
				LLMs (como ChatGPT e Claude), “assistentes virtuais” (como Alexa e a Siri) ou
				computadores que jogam xadrez (como Deep Blue ou AlphaGo), a referência é o segundo
				tipo específico de IA, a <italic>Narrow AI</italic> (Inteligência Artificial Fraca
				ou Limitada).</p>
			<p>A IA Limitada se divide em diversas categorias, mas o foco inicial aqui será a mais
				conhecida delas, a chamada de <italic>Machine Learning,</italic> ou aprendizado da
				máquina, que é a técnica que está atualmente sendo aplicada dentro do Sistema de
				Justiça não só no Brasil, mas também, nos Estados Unidos (<xref ref-type="bibr"
					rid="B23">O’Neil, 2016</xref>) e na Estônia (<xref ref-type="bibr" rid="B12"
					>E-Estonia, 2020</xref>), para citar alguns exemplos.</p>
			<p><italic>Machine learning</italic> é um processo no qual algoritmos podem “aprender” a
				partir de uma grande quantidade de dados colocados dentro de um sistema, em vez de
				serem <italic>softwares</italic> que simplesmente percorrem um caminho ou caminhos
				predeterminados pelo seu “criador”.</p>
			<p>Os computadores baseados em <italic>Machine Learning</italic> são treinados para
				executar uma tarefa e aprender com essa execução, ultrapassando, ao final, as
				primeiras instruções dadas por seu programador.</p>
			<p>Essa técnica de IA é bastante poderosa, como se pode verificar; porém tem limites e,
				por isso, pertence à gama de Inteligência Artificial Limitada. Por meio do uso de
					<italic>Machine Learning</italic>, os sistemas podem aprender a fazer algo (como
				elaborar projetos de decisões judiciais baseadas em precedentes) muito bem; porém
				não conseguem generalizar esse aprendizado para o alcance de soluções outras, como
				um homem o faria (por exemplo, passar a jogar xadrez a partir de informações
				retiradas da Internet), a não ser que sejam expressamente “(re)orientados” e
				“(re)treinados” para isso. Eles possuem, literalmente, uma inteligência restrita e
				são altamente dependentes de <italic>inputs</italic> humanos deliberados.</p>
			<p>Dados são alimentados no sistema, um algoritmo é selecionado, hiperparâmetros são
				configurados e ajustados, e a máquina se prepara para conduzir análises das
				variáveis insertas. O computador começa a decifrar relações encontradas nos dados
				por meio de um processo de tentativa e erro, tudo isso visando à predição de valores
				futuros (<xref ref-type="bibr" rid="B32">Theobald, 2017</xref>).</p>
			<p>Embora haja uma relação entre programador e máquina, os dois operam em um nível
				diferente da programação tradicional, em que os resultados são predefinidos. Isso
				acontece porque, após a inserção do código pelo homem, a máquina passa a,
				literalmente, “aprimorar” os algoritmos alimentados com novas perspectivas, a partir
				de conexões deliberadas entre os dados fornecidos.</p>
			<p>Um exemplo interessante desse “aprimoramento” é o caso do Alpha Go, programa de
				computador desenvolvido pela Alphabet Inc’s Google Deep Mind e descontinuado em
				2017, que usava a tecnologia de redes neurais. Alimentado apenas com as regras do
				xadrez, Alpha Go literalmente aprendeu o jogo a partir da prática, jogando com
				humanos e outros computadores (<xref ref-type="bibr" rid="B16">Hölldobler; Möhle;
					Tigunova, 2025</xref>).</p>
			<p>Comumente, <italic>Machine Learning</italic> é confundida com automação. Porém,
				enquanto, na primeira, há uma verdadeira (embora limitada) Inteligência Artificial,
				na análise de dados e na tomada de decisão; na segunda, há apenas um algoritmo
				simples que determina que, em um certo ponto, uma tarefa específica será realizada
				pelo sistema e não pelo homem. Trata-se, nesse caso, apenas de uma programação
				inteligente e eficaz.</p>
			<p>No caso do aprendizado da máquina, o sistema formula, a partir dos dados insertos,
				decisões autônomas, emulando o processo decisório humano e elevando a relação entre
				programador e máquina a outro nível de complexidade, se comparado com a programação
				tradicional (<xref ref-type="bibr" rid="B32">Theobald, 2017</xref>).</p>
			<p>Nesse passo, as tarefas envolvidas em <italic>Machine Learning</italic> podem ser
				subdividas em duas classes diferentes: aprendizado supervisionado
					(<italic>supervised learning</italic>) e aprendizado não supervisionado
					(<italic>unsupervised learning</italic>).</p>
			<p>No aprendizado supervisionado, o programador ou pesquisador utiliza dados que já
				foram categorizados e classificados para auxiliar o processo de aprendizado.</p>
			<p>O aprendizado não supervisionado, por outro lado, não usa dados pré-classificados.
				Algoritmos de aprendizado não supervisionado são utilizados para explorar uma
				estrutura de dados (por meio de regressão, classificação, agrupamento, filtragem
				colaborativa ou aprendizagem forçada) e encontrar relações entre eles.</p>
			<p>A vantagem do aprendizado não supervisionado é que ele permite que se descubram
				padrões nos dados que não foram previamente identificados; e é dessa identificação
				que surgem soluções e decisões não visualizadas anteriormente pelo homem.</p>
			<p>Por essas inúmeras possibilidades de tratamento e associação de dados e informações,
					<italic>Machine Learning</italic>, como já se mencionou, é a forma de
				Inteligência Artificial que está sendo utilizada com mais frequência no mundo do
				Direito.</p>
			<p>Nesse contexto, a IA generativa é uma aplicação ainda mais sofisticada do aprendizado
				de máquina, conhecida como aprendizado profundo (<italic>Deep Learning</italic>),
				que se apoia em redes neurais artificiais complexas para identificar padrões em
				grandes volumes de dados e, com base em comandos do usuário gerar, ao final,
				conteúdos inéditos (<xref ref-type="bibr" rid="B2">Banh; Strobel, 2023</xref>).</p>
			<p>O termo &quot;generativa&quot; se refere justamente à sua capacidade de gerar esses
				resultados novos e coerentes, simulando o comportamento criativo humano em
				determinadas tarefas. Exemplos conhecidos dessa tecnologia incluem modelos de
				linguagem de grande escala (LLMs), utilizados em ferramentas, como ChatGPT, Claude,
				Gemini, Deep Seek e geradores de imagens, como o DALL-E. Tais sistemas não apenas
				reconhecem e interpretam padrões como as formas mais básicas de <italic>Machine
					Learning</italic>, mas também criam produtos inéditos (textos, imagens, sons,
				códigos de programação etc) com base nos padrões aprendidos e inputs recebidos
				durante o seu treinamento/aprendizado.</p>
			<p>Apesar de sua sofisticação, a IAG, como forma de IA limitada, não possui compreensão
				profunda dos conteúdos que produz nem capacidade de generalização para além do
				domínio específico em que foi treinada.</p>
			<p>Na verdade, ela opera, fundamentalmente, por meio da constatação da alta
				probabilidade de determinadas sequências textuais ou contextuais serem formadas
				dentro de um determinado assunto ou domínio do conhecimento e da replicação dessas
				sequências no produto que oferta (<xref ref-type="bibr" rid="B20">Mollick,
					2024</xref>); ou seja, mediante meras correlações estatísticas entre os padrões
				textuais ou contextuais identificados nos seus dados de treinamento (<xref
					ref-type="bibr" rid="B20">Mollick, 2024</xref>).</p>
			<p>Assim, os sistemas já citados, embora aparentemente pareçam coerentes e prolixos,
				nada mais fazem do que associar de forma dinâmica palavras que estaticamente
				costumam aparecer juntas. Eles não possuem compromisso com a coerência ou a
				consistência, apenas com as correlações probabilísticas que encontram.</p>
			<p>Em resumo, a IAG pode, por exemplo, redigir uma peça, criar uma narrativa ou
				responder a perguntas de forma detalhada, mas não tem &quot;intenção&quot; ou
				&quot;consciência&quot;. Todo seu desempenho depende de padrões extraídos e
				probabilidades calculadas com base nos <italic>inputs</italic> que recebeu durante o
				seu aprendizado, aliados aos <italic>prompts</italic>/comandos do usuário, e nada
				além disso.</p>
		</sec>
		<sec>
			<title>3 Reflexões atuais sobre o uso da inteligência artificial no Poder
				JudiciáriO</title>
			<p>A crescente incorporação de tecnologias de Inteligência Artificial (IA) no Poder
				Judiciário tem se consolidado como um fator determinante na modernização da
				prestação jurisdicional (<xref ref-type="bibr" rid="B28">Santos, 2025</xref>),
				prometendo ganhos notáveis em eficiência, celeridade e otimização da gestão
				processual (<xref ref-type="bibr" rid="B27">Rodrigues <italic>et al.</italic>,
					2024</xref>). Contudo, a par das grandes expectativas, a implementação de tais
				ferramentas, notadamente as de IA generativa, suscita desafios éticos e jurídicos
				complexos, que demandam uma reflexão aprofundada sobre a compatibilidade entre a
				inovação tecnológica e os princípios fundamentais que regem o Estado Democrático de
				Direito (<xref ref-type="bibr" rid="B14">Gabriel; Porto; Araujo, 2025</xref>).</p>
			<p>Um dos riscos mais debatidos é a chamada “mecanização excessiva das decisões” (<xref
					ref-type="bibr" rid="B28">Santos, 2025</xref>), que consiste na possibilidade
				real de a automação conduzir a julgamentos padronizados, sem a devida análise
				contextualizada e subjetiva que a aplicação do Direito exige (<xref ref-type="bibr"
					rid="B28">Santos, 2025</xref>).</p>
			<p>Como defendem <xref ref-type="bibr" rid="B14">Gabriel, Porto e Araujo (2025)</xref>,
				a atividade jurisdicional envolve elementos que transcendem a mera operação lógica,
				demandando interpretação, sensibilidade e ponderação de valores que, ao menos por
				enquanto, não podem ser adequadamente capturados por algoritmos. A essência do
				Direito, permeada por valorações extraídas da experiência humana, refletiria, para
				esses autores, a diversidade cultural e histórica que compõe o tecido social,
				revelando-se tanto uma arte quanto uma ciência (<xref ref-type="bibr" rid="B14"
					>Gabriel; Porto; Araujo, 2025</xref>). Sobre o assunto, <xref ref-type="bibr"
					rid="B4">Bezerra Neto (2025)</xref> sustenta que “a capacidade de valorar
				subjetivamente, conectando emoções e racionalidade, é o que distingue
				fundamentalmente o juízo humano da análise probabilística realizada por
				inteligências artificiais”.</p>
			<p>Nesse sentido, a decisão final, com toda a sua carga valorativa, deveria permanecer
				como uma prerrogativa exclusivamente humana, consagrando o que se tem chamado de
				&quot;reserva de humanidade&quot; (<xref ref-type="bibr" rid="B14">Gabriel; Porto;
					Araujo, 2025</xref>).</p>
			<p>Intimamente ligada a essa questão está a falta de transparência de muitos sistemas de
				IA, que operam como verdadeiras &quot;caixas-pretas&quot;, cujo funcionamento é de
				difícil compreensão, inclusive para seus desenvolvedores (<xref ref-type="bibr"
					rid="B28">Santos, 2025</xref>).</p>
			<p>Essa opacidade algorítmica iria de encontro a um dos princípios basilares do Direito:
				a necessidade de fundamentação clara e compreensível das decisões judiciais (<xref
					ref-type="bibr" rid="B5">Bonat; Vale; Pereira, 2023</xref>).</p>
			<p>Para que o uso da IA fosse legítimo, seria imperativo que se garantisse a
				explicabilidade dos seus resultados, permitindo que magistrados, as partes e a
				sociedade compreendessem os critérios utilizados pelo sistema (<xref ref-type="bibr"
					rid="B5">Bonat; Vale; Pereira, 2023</xref>). A ausência de transparência não
				apenas minaria a confiança pública, mas também inviabilizaria o controle de
				legitimidade das decisões e o exercício pleno do contraditório. A preocupação com a
				falta de transparência é tão presente que, em pesquisa realizada pelo Conselho
				Nacional de Justiça, a maioria dos servidores e assessores indicou não revelar o uso
				de IAG a seus pares ou superiores hierárquicos, o que dificulta os processos
				internos de revisão e pode levar a imprecisões na prestação do serviço jurisdicional
					(<xref ref-type="bibr" rid="B9">CNJ, 2024</xref>).</p>
			<p>Outro desafio crucial residiria na presença de vieses algorítmicos que têm o
				potencial de comprometer a imparcialidade das decisões e que serão discutidos com
				mais vagar nos tópicos seguintes deste trabalho. Um sistema de IA treinado com base
				em decisões pretéritas pode, em tese, acabar por reproduzir e até amplificar padrões
				discriminatórios relacionados a gênero, raça ou origem social, resultando em
				decisões injustas (<xref ref-type="bibr" rid="B28">Santos, 2025</xref>).</p>
			<p>Diante de tais complexidades, a construção de uma moldura robusta de governança,
				pautada na ética e na supervisão humana, torna-se um pilar fundamental para a
				implementação responsável da IA. A regulamentação do tema no Brasil, como a
				Resolução n. 615/2025 do Conselho Nacional de Justiça, que sucedeu a Resolução
				332/2020 e será brevemente tratada mais adiante, buscou, sobre o assunto,
				estabelecer um equilíbrio, definindo modelos de interação que evitem uma dependência
				irrestrita e acrítica da tecnologia, o chamado &quot;Parasitismo Lex Machinae&quot;
					(<xref ref-type="bibr" rid="B11">Divino, 2025</xref>), que poderia levar a
				julgamentos injustos e marginalizar o ser humano.</p>
		</sec>
		<sec>
			<title>4 IA generativa e riscos de sua não compreensão adequada: alucinações de
				respostas, reprodução de vieses prEexistentes e manejo inadequado de dados e
				informações sensíveis</title>
			<p>A rápida popularização da Inteligência Artificial Generativa no Poder Judiciário como
				a tecnologia emergente do momento tem suscitado discussões prementes não apenas em
				relação às questões jurídicas e éticas, como exposto no tópico anterior, mas também,
				acerca dos riscos e dos desafios inerentes à sua utilização, especialmente pela
				falta de uma devida compreensão de suas limitações técnicas e implicações práticas
				pelo público em geral.</p>
			<p>Como mencionado, como IA limitada, a IAG precisa ser compreendida como restrita ao
				que se propõe - gerar textos, imagens, sons etc. - e não ser vista como uma
				plataforma pensante com intencionalidade para além da criação de conteúdo a partir
				de parâmetros (ainda que imensuráveis) a que tem acesso por meio de diversas fontes
				de dados.</p>
			<sec>
				<title>4.1 ALUCINAÇÕES E VIÉS DE AUTOMAÇÃO</title>
				<p>Um dos aspectos mais críticos do uso não informado da IAG, que tem o potencial de
					comprometer a legitimidade e a segurança dos seus resultados, refere-se ao
					fenômeno das &quot;alucinações” de respostas (<xref ref-type="bibr" rid="B15"
						>Hatem; Simmons; Thorbton, 2023</xref>)<sup><xref ref-type="fn" rid="fn7"
							>7</xref></sup> - termo criado para designar a geração de conteúdo
					incorreto ou inexistente, que apresenta, porém, para o usuário desavisado,
					aparência de veracidade.</p>
				<p>Esse comportamento dos sistemas generativos, com frequência, decorre da
					arquitetura dos próprios modelos de linguagem de grande escala (Large Language
					Models - LLMs), que, como já se apontou, não possuem real compreensão semântica
					ou capacidade de raciocínio, embora emulem com extraordinária similitude essas
					habilidades tão humanas.</p>
				<p>A questão torna-se particularmente sensível em áreas do conhecimento mais
					subjetivas e relacionadas a um raciocínio lógico e indutivo mais apurado, como
					no Direito. A aparente coerência e fluência do texto gerado pode induzir o
					usuário desprevenido ao que se denomina &quot;viés de automação&quot;
						(<italic>automation bias</italic>) ou ao viés da complacência
						(<italic>automation complacency)</italic>. O primeiro, uma tendência à
					confiança excessiva (e, por vezes, “cega”) no resultado apresentado pela máquina
						(<xref ref-type="bibr" rid="B1">Bahner; Hüper; Manzey, 2008</xref>), que se
					presume, não teria razões para mentir. O segundo, uma tendência do usuário, em
					um determinado momento, a tornar-se tão confortável e acomodado com sistemas
					automatizados que passa a deixar de lado sistemas de checagem e conferência
					anteriormente usados (<xref ref-type="bibr" rid="B25">Parasuraman; Manzey,
						2010</xref>).</p>
				<p>Segundo <xref ref-type="bibr" rid="B25">Parasuraman e Manzey (2010)</xref>, a
					complacência e o viés de automação representam diferentes manifestações de
					fenômenos sobrepostos induzidos pela automação, com a atenção desempenhando um
					papel central, resultado de uma interação dinâmica de características pessoais e
					situacionais.</p>
				<p>Tome-se como exemplo um cenário em que magistrados utilizam sistemas de
					inteligência artificial para auxílio na análise de pedidos de liberdade (seja em
					audiências de custódia, seja para avaliação da possibilidade de adoção de
					medidas cautelares). O sistema, alimentado por uma vasta base de dados de
					decisões judiciais pretéritas, apresenta recomendações aparentemente bem
					fundamentadas sobre a concessão ou não do benefício.</p>
				<p>Diante de um caso concreto envolvendo um furto simples, o magistrado, mesmo
					diante de elementos singulares que poderiam justificar a concessão da liberdade
					- como primariedade, vínculos empregatícios estáveis e residência fixa -, mas já
					assoberbado de casos semelhantes, poderá vir a acolher, especialmente diante de
					um comando (<italic>prompt</italic>) de menor complexidade, a envolver poucas
					variáveis, a sugestão automatizada de manutenção da prisão preventiva, baseada
					meramente em correlações estatísticas extraídas do histórico decisório.</p>
				<p>Por fim, além de o ser humano ter o potencial de amplificar as alucinações por
					meio de enviesamentos internos (sejam relacionados à confiança cega na automação
					sejam aqueles advindos da complacência e do conforto cognitivo relacionado), é
					também o usuário final - e não o desenvolvedor ou a ferramenta - o maior
					responsável por alguns dos principais gatilhos que ensejam as alucinações e que
					são oriundos primordialmente de uma falta de conhecimento sobre a IAG e suas
					plataformas.</p>
				<p>Nessa linha, pode-se citar eventual ambiguidade dos comandos, que frequentemente
					resulta em interpretações imprecisas pelo sistema e o força a fazer suposições
					ou preencher lacunas com informações que podem não ser corretas para o contexto
					específico. Por exemplo, solicitações genéricas - e bem comuns no mundo jurídico
					- como &quot;analise o documento&quot; ou “resuma o caso”, não fornecem
					parâmetros suficientes para que o sistema compreenda exatamente qual tipo de
					análise deve ser realizada ou quais informações são relevantes no resumo que foi
					pedido.</p>
				<p>Da mesma forma, a não especificação de forma adequada do escopo temporal ou
					contextual da consulta, com perguntas sem delimitação clara de período ou área
					do conhecimento, o uso inadequado de terminologia técnica ou a mistura de
					conceitos de diversas áreas sem a devida contextualização pode confundir o
					sistema ou levá-lo a combinar informações de diferentes contextos, resultando em
					respostas que, embora pareçam coerentes, não o são.</p>
				<p>Por exemplo, caso se pergunte à IAG &quot;como funciona o processo de
					adoção?&quot;, sem especificação de país ou tempo, ela pode combinar regimes
					legais de diversos países ou misturar procedimentos antigos com práticas atuais,
					criando um conteúdo que, embora pareça completo, pode conter inconsistências ou
					anacronismos.</p>
				<p>Ou se a pergunta for: &quot;explique como funciona o recurso no processo e quais
					são seus efeitos&quot;, o resultado poderia ser um texto que, embora pareça bem
					estruturado e abrangente, na verdade, teria o enorme potencial de apresentar
					inconsistências técnicas graves e misturas inadequadas de diferentes ramos do
					direito processual, potencialmente levando a interpretações errôneas sobre como
					os recursos realmente funcionam em cada contexto específico.</p>
				<p>Além disso, a ausência de protagonismo humano no processo de tomada de decisão é
					um importante risco a ser considerado. O manejo irresponsável e não
					supervisionado da IAG, com a delegação do poder decisório, pode ser, ao mesmo
					tempo, causa e consequência de uma alienação e perda de agência (<italic>loss of
						agency</italic>) dos usuários, o que, em se tratando de juízes, pode levar a
					graves prejuízos aos direitos dos jurisdicionados (<xref ref-type="bibr"
						rid="B21">Münch; Ferraz, 2024</xref>).</p>
				<p>Esse risco é especialmente presente quando se pretende dar tratamento ao excesso
					de litigiosidade e cumprir metas de produtividade, mediante o uso massivo de
					ferramentas tecnológicas, e resulta agravado quando se percebe que grande parte
					das ferramentas de IA já desenvolvidas no Judiciário centra foco exclusivamente
					no aumento da eficiência na solução dos casos judicializados (<xref
						ref-type="bibr" rid="B21">Münch; Ferraz, 2024</xref>).</p>
				<p>O panorama se torna ainda mais complexo quando consideramos a interação entre
					esses diferentes fatores de risco. Por exemplo, a combinação entre alucinações e
					vieses pode resultar na geração de conteúdo não apenas factualmente incorreto,
					mas também discriminatório, enquanto a alienação, a perda de agência e o manejo
					inadequado de dados sensíveis podem ser agravados pela tendência à confiança
					excessiva no sistema.</p>
				<p>A falta de compreensão sobre as limitações e as capacidades reais da IA também
					pode contribuir para as alucinações. Muitos usuários assumem erroneamente que o
					sistema possui conhecimento universal e atualizado sobre todos os assuntos (como
					uma poderosa ferramenta de pesquisa), quando, na realidade, como já se
					mencionou, seu conhecimento é limitado aos dados de treinamento e ao limite
					temporal de acesso à base de dados dinâmica. Isso pode resultar em consultas que
					excedem as capacidades da IAG ou que exigem informações além de seu escopo de
					conhecimento.</p>
				<p>Por fim, a ausência de <italic>feedback</italic> adequado ao sistema sobre
					possíveis erros ou inconsistências impede o aprimoramento contínuo das
					interações. Quando os usuários não reportam ou identificam adequadamente as
					alucinações, perde-se a oportunidade de desenvolver mecanismos mais robustos de
					prevenção e correção desses problemas.</p>
			</sec>
			<sec>
				<title>4.2 AMPLIAÇÃO DOS VIESES</title>
				<p>Outro aspecto crítico no uso de IAG diz respeito à reprodução e à potencial
					ampliação de vieses pré-existentes nos dados utilizados para
					treinamento/aprendizado da máquina (por outros, <xref ref-type="bibr" rid="B8"
						>Buolamwini, 2017</xref> e <xref ref-type="bibr" rid="B28">Santos,
						2025</xref>). Esse fenômeno pode manifestar-se de formas sutis ou
					explícitas, perpetuando discriminações relacionadas a gênero, raça, origem
					social e étnica, orientação sexual ou outras características presentes nos
						<italic>inputs</italic> recebidos.</p>
				<p>A complexidade da questão é aumentada pela natureza dos modelos generativos,
					caracterizados pela incerteza e pela imprevisibilidade na construção dos seus
					resultados, que torna difícil a identificação tempestiva e eficiente destes
					vieses. Ademais, a própria estrutura do processo de treinamento, baseada em
					maximização de probabilidades de combinações textuais, pode levar ao aumento de
					padrões discriminatórios presentes nos dados originais, em um círculo vicioso de
					confirmação e reconfirmação.</p>
				<p>Para ilustrar tal problemática, considere-se o caso dos sistemas de
					reconhecimento facial implementados em contextos de segurança pública. Tais
					sistemas, quando treinados predominantemente com bases de dados compostas por
					faces de determinados grupos étnico-raciais - historicamente, indivíduos
					caucasianos -, apresentam taxas significativamente mais elevadas de falsos
					positivos ao analisar faces de pessoas negras ou asiáticas, diante da
					incapacidade de discernir traços fenotípicos com a mesma acurácia com que
					interpreta os dados com que foi treinada. Em um cenário de utilização desses
					sistemas para identificação de suspeitos em investigações criminais, esta
					disparidade técnica transmuta-se em grave questão de justiça social, podendo
					resultar em abordagens policiais equivocadas e, até mesmo, em prisões injustas,
					reforçando e amplificando padrões discriminatórios já existentes no sistema de
					justiça criminal<sup><xref ref-type="fn" rid="fn8">8</xref></sup>.</p>
			</sec>
			<sec>
				<title>4.3 MANIPULAÇÃO DE DADOS SENSÍVEIS</title>
				<p>A gestão inadequada de dados sensíveis representa outro fator relevante de risco.
					A facilidade de uso e a interface interativa das ferramentas de IAG podem
					induzir à inclusão inadvertida de dados confidenciais ou pessoais nas entradas.
					Esta prática pode resultar em violações da Lei Geral de Proteção de Dados - LGPD
					e de outras legislações correlatas, potencialmente expondo dados sensíveis a
					processamentos não autorizados, com inúmeras possíveis consequências.</p>
				<p>Em nível internacional, merece destaque, recentemente, o caso da
						<italic>startup</italic> chinesa de inteligência artificial DeepSeek, que
					está no centro de uma controvérsia após o vazamento de dados que expôs
					informações sensíveis de usuários. O caso levanta preocupações sobre violações
					de privacidade e possíveis infrações de direitos de propriedade intelectual,
					especialmente diante das acusações feitas pela OpenAI.</p>
				<p>A empresa de cibersegurança Wiz revelou que a DeepSeek deixou exposto um banco de
					dados contendo mais de um milhão de registros, incluindo históricos de conversas
					dos usuários, chaves de API e detalhes internos do sistema. Esses dados estavam
					desprotegidos e acessíveis publicamente, o que representa uma grave falha de
					segurança (<xref ref-type="bibr" rid="B22">Nagli, 2025</xref>).</p>
				<p>Além disso, de acordo com uma análise conduzida pela <italic>Reuters</italic>
						(<xref ref-type="bibr" rid="B38">Yim, 2025</xref>), a DeepSeek coleta
					extensivamente dados pessoais dos usuários e os armazena em servidores na China.
					Segundo a política de privacidade da empresa, informações como entradas de texto
					ou áudio, arquivos enviados e históricos de chat são coletados e podem ser
					compartilhados com autoridades chinesas, em conformidade com as leis locais. O
					Serviço Nacional de Inteligência da Coreia do Sul classificou essa prática como
					&quot;excessiva e preocupante&quot;, destacando os riscos para a segurança
					digital dos usuários.</p>
				<p>Governos de diversos países começaram a reagir ao problema. Itália, Coreia do Sul
					e Taiwan já adotaram medidas para restringir ou investigar o uso do DeepSeek em
					seus territórios (<xref ref-type="bibr" rid="B10">DeepSeek, 2025</xref>).
					Especialistas em segurança alertam que esse incidente reforça a necessidade de
					regulamentações mais rígidas sobre como empresas de inteligência artificial
					tratam os dados de seus usuários (<xref ref-type="bibr" rid="B18">Límon,
						2025</xref>).</p>
				<p>Além das preocupações com privacidade, a OpenAI acusou a DeepSeek de violar
					direitos autorais ao utilizar seus modelos proprietários sem permissão para
					treinar um chatbot concorrente. Segundo um relatório publicado pelo <italic>The
						Conversation</italic> (<xref ref-type="bibr" rid="B31">2025</xref>), a
					OpenAI sustenta que a DeepSeek empregou técnicas de &quot;destilação&quot;, nas
					quais um modelo menor aprende a imitar o comportamento de um modelo maior e mais
					complexo. Esse processo pode permitir que empresas concorrentes desenvolvam
					produtos semelhantes sem investir no desenvolvimento completo de um modelo
					original.</p>
				<p>Essa questão levanta um debate mais amplo sobre os direitos de propriedade
					intelectual na área da inteligência artificial. O <xref ref-type="bibr"
						rid="B36">World Economic Forum (2024)</xref> destacou que, com a crescente
					adoção de modelos de IA de código aberto, muitas empresas estão explorando
					brechas legais para replicar tecnologias desenvolvidas por grandes
						<italic>players</italic> do setor. No entanto, a OpenAI também enfrenta
					questionamentos sobre a legalidade do uso de dados protegidos por direitos
					autorais para treinar seus próprios modelos de IA, o que a coloca em uma posição
					delicada ao acusar outras empresas de condutas semelhantes (<xref
						ref-type="bibr" rid="B31">The Conversation, 2025</xref>).</p>
				<p>Diante do ocorrido, o caso da DeepSeek reforça a necessidade de regulamentações
					mais robustas para proteger a privacidade dos usuários e garantir que os
					direitos de propriedade intelectual sejam respeitados no desenvolvimento de
					tecnologias de inteligência artificial. Empresas e governos precisam trabalhar
					juntos para estabelecer regras claras que promovam inovação sem comprometer a
					segurança digital e a ética no uso de dados.</p>
				<p>Nesse sentido, o desenvolvimento de rigorosos processos de validação,
					monitoramento contínuo e auditorias regulares humanas constitui pilar
					fundamental para garantir que os parâmetros éticos e legais estabelecidos sejam
					efetivamente observados na prática. Estes processos devem ir além de
					verificações técnicas superficiais, incorporando metodologias sofisticadas de
					avaliação de impactos nos direitos fundamentais, análise de vieses
					discriminatórios e verificação da conformidade com princípios
					constitucionais.</p>
				<p>O monitoramento contínuo deve ser estruturado como um sistema de vigilância ativa
					que detecte precocemente desvios, anomalias ou impactos não antecipados. Isso
					inclui o desenvolvimento de indicadores de performance ética, métricas de
					coerência algorítmica e mecanismos de <italic>feedback</italic> dos usuários do
					sistema.</p>
				<p>Por outro lado, a capacitação contínua e adaptativa para garantir o protagonismo
					humano, acompanhando a evolução tecnológica e incorporando lições aprendidas da
					experiência prática, representa elemento crucial para evitar tanto os vieses
					quanto as causas humanas de alucinações nas respostas da IAG. Essa capacitação
					deve abordar não apenas aspectos técnicos sobre o funcionamento dos sistemas de
					IA, mas também desenvolver competências importantes para avaliação da qualidade,
					adequação e limitações dos <italic>outputs</italic> gerados.</p>
			</sec>
		</sec>
		<sec>
			<title>5 Poder Judiciário brasileiro e IA generativa</title>
			<p>Segundo o Relatório de Pesquisa “O uso da Inteligência Artificial Generativa no Poder
				Judiciário Brasileiro” (<xref ref-type="bibr" rid="B9">CNJ, 2024</xref>), produzido
				pelo Conselho Nacional de Justiça, o uso de ferramentas de Inteligência Artificial
				Generativa (IAG) tem se expandido nas atividades judiciais e administrativas dos
				tribunais brasileiros, sendo geralmente voltado para a geração de textos,
				aperfeiçoamento textual, tradução e resumo de documentos, além de criação de tabelas
				e sistematização de informações.</p>
			<p>O ChatGPT aparece como a ferramenta mais utilizada, seguido por outras como Copilot,
				Gemini e Bing AI.</p>
			<p>Embora o uso dessas ferramentas esteja claramente em uma curva crescente, o relatório
				apontou que ele vem acompanhado de preocupações também crescentes. Nessa linha, as
				principais dificuldades relatadas pelos usuários estão na falta de familiaridade com
				as ferramentas (51,9%), na falta de confiança nos resultados gerados (48,9%) e nas
				preocupações quanto à licitude do uso (cerca de 15%).</p>
			<p>Ainda mais, ainda que metade dos magistrados (49,4%) e servidores (49,5%) do Poder
				Judiciário já tenha tido experiência com ferramentas de Inteligência Artificial
				Generativa (IAG), elas foram utilizadas, em regra, em plataformas abertas
				disponíveis na internet e sem o conhecimento ou chancela institucional, o que pode
				dificultar processos internos de revisão e supervisão do conteúdo gerado e controle
				dos dados e informações sensíveis compartilhados.</p>
			<p>Em resposta a esses achados, como já mencionado, o Conselho Nacional de Justiça
				publicou recentemente, em março de 2025, a Resolução nº 615/2025 (<xref
					ref-type="bibr" rid="B6">Brasil, 2025</xref>). Esse normativo, que revoga a
				anterior Resolução nº 332/2020, estabelece diretrizes específicas e abrangentes para
				o desenvolvimento, utilização e governança de soluções de IA, com especial atenção à
				inteligência artificial generativa.</p>
			<p>Um dos aspectos mais relevantes da Resolução 615/2025 é a adoção de uma abordagem
				baseada em riscos, classificando as aplicações de IA em categorias de alto risco,
				baixo risco ou risco excessivo (vedado). As soluções de alto risco - como aquelas
				destinadas à &quot;aferição da adequação dos meios de prova e sua valoração&quot; ou
				&quot;formulação de juízos conclusivos sobre a aplicação da norma jurídica&quot; -
				estão sujeitas a requisitos mais rigorosos, incluindo avaliação de impacto
				algorítmico e supervisão contínua.</p>
			<p>Por outro lado, aplicações de baixo risco, como &quot;execução de atos processuais
				ordinatórios&quot; ou &quot;produção de textos de apoio para facilitar a confecção
				de atos judiciais&quot;, possuem requisitos de governança mais simplificados, embora
				ainda exijam supervisão humana adequada.</p>
			<p>Por fim, dentre outros aspectos, a resolução dedica capítulo específico ao uso de
				modelos de linguagem de larga escala (LLMs) e sistemas de IAG, estabelecendo
				diretrizes tanto para uso corporativo quanto individual. Magistrados e servidores,
				assim, podem utilizar ferramentas comerciais de IAG, desde que observadas condições
				como capacitação adequada, uso auxiliar (vedada a tomada autônoma de decisões),
				proteção de dados sensíveis e conformidade com a LGPD.</p>
			<p>Quando os tribunais contratam soluções de IAG, a resolução exige que as empresas
				fornecedoras se comprometam com o respeito à legislação brasileira, incluindo a
				vedação do uso de dados do Poder Judiciário para treinamento não autorizado e a
				implementação de mecanismos de <italic>privacy by design</italic> (privacidade desde
				a concepção) <italic>e privacy by default</italic> (privacidade por
						padrão)<sup><xref ref-type="fn" rid="fn9">9</xref></sup>.</p>
			<p>Entre os desafios à frente, no uso da IAG, no Poder Judiciário, está a necessária
				percepção de que seus artefatos e suas funcionalidades poderão contribuir para que
				se alcancem resultados muito além do aumento facilitado da produtividade e da
				celeridade nas unidades judiciárias. Trata-se de um caminho que se abre à expansão
				da capacidade de tomar decisões, diante de suas infinitas possibilidades de
				cruzamento de informações e de geração de <italic>insights</italic>.</p>
			<p>Atualmente, porém, parece que é apenas a busca pela eficiência, traduzida em fazer
				mais com menos recursos, que está fomentando a utilização da IAG. O movimento
				eficientista do Judiciário, fortemente influenciado pelas metas de produtividade,
				parece ter como único ou principal propósito, domar o absurdo volume de processos,
				quando o propósito da existência de um sistema de justiça é muito maior e mais
				profundo.</p>
			<p>É interessante perceber a espiral de sucesso que tende a surgir, quando se
				implementam inovações, que também gera uma espécie de efeito alucinatório entre os
				usuários. No caso, a euforia que decorre do aumento quase que instantâneo e antes
				impensável nos índices de produtividade, tende a encobrir os possíveis paraefeitos
				da solução implantada, sobre a própria litigiosidade, revelada nos índices de
				judicialização e recorribilidade.</p>
			<p>O alívio dos sintomas de um problema complexo faz pensar que ele foi resolvido, já
				que o comportamento geral melhora antes de piorar. O <italic>feedback</italic>, a
				informação que volta para o sistema, tende a chegar com defasagem (<xref
					ref-type="bibr" rid="B29">Senge, 2013</xref>), o que dificulta, no curto prazo,
				perceber os sinais de que as causas do problema não foram alcançadas, quiçá estejam
				sendo retroalimentadas. Esse efeito alucinatório faz com que, diante do aumento de
				processos e recursos, se continue a investir em aumento de produção, já que, em
				razão da defasagem do feedback, não se associa o problema de hoje às soluções ontem
				adotadas e a verdade é que a litigiosidade tem empurrado de volta (<xref
					ref-type="bibr" rid="B13">Ferraz, 2023</xref>). A esse cenário, soma-se o
				chamado paradoxo da eficiência ou efeito bumerangue (<xref ref-type="bibr" rid="B17"
					>Jevons, 1865</xref>), que descortina o fato de que o uso eficiente de um
				produto ou serviço contribui para aumentar o referido consumo.</p>
		</sec>
		<sec>
			<title>6 Benefícios que podem surgir pelo uso da IA Generativa no Poder
				Judiciário</title>
			<p>Apesar dos riscos e dos desafios inerentes ao uso da Inteligência Artificial
				generativa no contexto do Poder Judiciário, é essencial reconhecer que sua
				implementação responsável pode trazer benefícios significativos para o Sistema de
				Justiça brasileiro. Quando adequadamente compreendida, governada e supervisionada
				por operadores qualificados, a IAG pode tornar-se uma ferramenta valiosa para o
				aprimoramento da prestação jurisdicional.</p>
			<p>Um dos seus benefícios mais imediatos reside na redução do tempo necessário para a
				análise de informações complexas ou muito volumosas. Em um cenário no qual
				magistrados e servidores frequentemente lidam com processos que envolvem milhares de
				informações e documentos, a capacidade da IA de sintetizar, organizar e destacar
				informações relevantes pode representar um ganho substancial de eficiência.</p>
			<p>Essa otimização na gestão do conhecimento que transita ou é gerado no Poder
				Judiciário não deve ser compreendida apenas como aumento quantitativo da
				produtividade, mas como possibilidade de direcionamento da energia e do tempo
				humanos para atividades de maior valor agregado, como a análise crítica aprofundada
				da prova e de questões jurídicas complexas, a fundamentação de decisões e o
				atendimento mais humanizado aos jurisdicionados.</p>
			<p>Por outro lado, a IAG oferece a possibilidade de reduzir inconsistências oriundas de
				vieses humanos ou desigualdades no tratamento de processos semelhantes. Por meio do
				aprendizado contínuo e análise de grandes volumes de decisões judiciais, a IA pode
				auxiliar na identificação de padrões decisórios, possibilitando a uniformização de
				entendimentos e a redução de decisões contraditórias em casos análogos.</p>
			<p>Esse benefício é particularmente relevante em um sistema judicial que busca maior
				previsibilidade e segurança jurídica. Ao identificar divergências interpretativas em
				casos similares, a IA tem o potencial de alertar magistrados sobre possíveis
				inconsistências, contribuindo para uma jurisprudência mais coerente e para a redução
				da litigiosidade decorrente de tratamentos desiguais.</p>
			<p>Nessa mesma linha, existe a possibilidade de desenvolvimento de uma política de
				alinhamento ético na própria arquitetura dos sistemas de IAG, criando camadas de
				proteção que não só assegurem a conformidade das saídas com o ordenamento jurídico
				vigente, extirpando eventuais vieses discriminatórios, como também garantam a
				rastreabilidade das decisões e de suas fundamentações.</p>
			<p>Diferentemente de sistemas puramente automatizados, essa modalidade de IAG pode ser
				programada para incorporar salvaguardas éticas desde sua concepção, incluindo
				verificações automáticas de conformidade constitucional, alertas sobre potenciais
				discriminações e mecanismos de auditoria que permitam o rastreamento completo do
				processo decisório.</p>
			<p>Por fim, a implementação responsável da IAG no Judiciário pode funcionar como
				catalisador para processos mais amplos de modernização e inovação no Sistema de
				Justiça. A necessidade de desenvolver protocolos de uso ético, sistemas de
				supervisão e mecanismos de controle de qualidade para a IA pode impulsionar
				melhorias gerais nos processos de trabalho, na gestão de dados e na cultura
				organizacional dos tribunais.</p>
			<p>A experiência acumulada com o uso supervisionado da IAG também pode gerar
					<italic>insights</italic> valiosos sobre como outras tecnologias emergentes
				podem ser incorporadas de forma responsável ao trabalho judicial, estabelecendo
				precedentes e metodologias para futuras inovações.</p>
			<p>Paradoxalmente, um dos principais benefícios da IAG no contexto judicial pode ser o
				fortalecimento do protagonismo humano no processo decisório. Ao automatizar tarefas
				mais mecânicas e repetitivas, a IA libera os operadores do direito para se
				concentrarem naquilo que é genuinamente humano na atividade jurisdicional: a
				interpretação criativa do direito, a análise contextual dos casos, a ponderação de
				valores em conflito e a construção de soluções justas para situações únicas.</p>
			<p>A premissa deve ser a de que a tecnologia deve assistir, e não dominar, a justiça
					(<xref ref-type="bibr" rid="B3">Beng, 2023</xref>), funcionando como um
				instrumento de apoio que otimiza o desempenho humano e permite que os operadores do
				Direito se concentrem nas tarefas que exigem pensamento crítico e análise
				aprofundada (<xref ref-type="bibr" rid="B26">Peixoto; Bonat, 2023</xref>).</p>
		</sec>
		<sec sec-type="conclusions">
			<title>7 Conclusão</title>
			<p>Este artigo pretendeu reunir e sistematizar alguns conceitos e características da IA
				Generativa, de forma a favorecer sua melhor compreensão em termos de
				potencialidades, limitações e riscos. Teve também o objetivo de investigar em que
				medida, com adequado gerenciamento de riscos, essa inovação pode ser aproveitada
				para aperfeiçoar a atuação de magistrados e servidores e a atuação eficiente e
				efetiva do Poder Judiciário.</p>
			<p>A pesquisa revelou que a hipótese inicialmente levantada é verdadeira. Os riscos da
				IAG no sistema de justiça, como uma via de mão dupla, residem em não saber
				aplicá-la, mas, também, paradoxalmente, em não fazer uso dela.</p>
			<p>A implementação bem-sucedida da Inteligência Artificial Generativa no Poder
				Judiciário exige uma abordagem que transcenda a mera adoção tecnológica, demandando
				a construção de uma moldura robusta de governança pautada na ética e na supervisão
				humana. O desafio central reside em maximizar os benefícios transformadores da IAG,
				notadamente na gestão adequada do conhecimento disponível na instituição, enquanto
				se mitiga efetivamente seus riscos inerentes, preservando a integridade, a
				legitimidade e a confiabilidade do Sistema de Justiça.</p>
			<p>Por fim, sem dúvidas, a resposta aos dilemas envolvendo Inteligência Artificial
				Generativa e Sistema de Justiça devem perpassar uma reflexão madura sobre inovação
				responsável e adequado protagonismo humano na inserção das novas tecnologias na
				atividade fim. Atribuir à máquina um poder que nunca foi seu, o de ditar a forma
				como as atividades devem ser feitas, talvez seja o primeiro erro do ser humano em
				sua interação com as novas tecnologias.</p>
		</sec>
	</body>
	<back>
		<fn-group>
			<fn fn-type="other">
				<p>1 Introdução. 2 Noções básicas de Inteligência Artificial, Machine Learning e IA
					Generativa. 3 Reflexões atuais sobre o uso da Inteligência Artificial no Poder
					Judiciário. 4 IA Generativa e riscos de sua não compreensão adequada:
					alucinações de respostas, reprodução de vieses pré-existentes e manejo
					inadequado de dados e informações sensíveis. 4.1 Alucinações e viés de
					automação. 4.2 Ampliação dos vieses. 4.3 Manipulação de dados sensíveis. 5 Poder
					Judiciário Brasileiro e IA Generativa.6 Benefícios que podem surgir pelo uso da
					IA Generativa no poder judiciário. 7 conclusão. Referências.</p>
			</fn>
			<fn fn-type="other" id="fn1">
				<label>1</label>
				<p>Em tradução livre: “C-3PO: Acredito que eles pensam que eu sou algum tipo de
					deus; Han Solo: Bem, então por que você não usa sua influência divina e nos tira
					dessa enrascada?; C-3PO: Peço desculpas, General Solo, mas isso simplesmente não
					seria apropriado; Han Solo: Apropriado?; C-3PO: É contra minha programação
					personificar uma divindade”.</p>
			</fn>
			<fn fn-type="other" id="fn2">
				<label>2</label>
				<p>“Humanoides”, nesse caso, fazendo referência não à aparência física dos sistemas,
					mas à experiência do seu usuário/interlocutor.</p>
			</fn>
			<fn fn-type="other" id="fn3">
				<label>3</label>
				<p>Outras referências sobre Descartes e seres autômatos em geral podem ser
					encontradas no excelente artigo da professora de história da Universidade de
					Stanford Jessica Riskin, no endereço eletrônico: <ext-link ext-link-type="uri"
						xlink:href="https://arcade.stanford.edu/rofl/machines-garden"
						>https://arcade.stanford.edu/rofl/machines-garden</ext-link>
				</p>
			</fn>
			<fn fn-type="other" id="fn4">
				<label>4</label>
				<p>Em tradução livre: “é possível inventar uma única máquina que pode ser usada para
					computar qualquer sequência computável. Se esta máquina U for alimentada com uma
					fita no começo da qual está escrito um número satisfatório de alguma máquina
					computacional M, então U computará a mesma sequencia que M”.</p>
			</fn>
			<fn fn-type="other" id="fn5">
				<label>5</label>
				<p>Tentando não dar <italic>spoiler</italic> de uma excelente obra cinematográfica,
					HAL é um computador instalado a bordo da nave espacial Discovery e responsável
					por todo o seu funcionamento. Ele, representado no filme por diversas câmeras
					espalhadas pela nave, é capaz de falar espontaneamente, realizar reconhecimento
					facial, fazer leitura labial, apreciar manifestações artísticas, interpretar e
					expressar emoções, raciocinar e jogar xadrez. Ao longo da saga narrada na
					trilogia (2001: uma odisseia no espaço, 2010: uma odisseia no espaço 2 e 3001: a
					odisseia final), HAL demonstra pensar além da sua programação, apresenta
					arrependimento, medo e também propósito de se sacrificar em prol de outros, a
					despeito de receber ordem de não o fazer.</p>
			</fn>
			<fn fn-type="other" id="fn6">
				<label>6</label>
				<p>Winston é um sistema de Inteligência Artificial também, como HAL, não humanoide,
					que demonstra conhecimento da linguagem em seu nível mais básico e capacidade de
					fazer associações que vão bem além de um sistema expert. Winston “aprende”
					espontaneamente a partir de buscas autônomas na Internet, utiliza improvisações
					constantes, encontra soluções para além da sua programação e é um dos grandes
					protagonistas da obra, chegando a ser confundido com um humano diversas vezes.
				</p>
			</fn>
			<fn fn-type="other" id="fn7">
				<label>7</label>
				<p>Optou-se pela utilização já bastante difundida do termo “alucinações” para
					descrever esse específico fenômeno no funcionamento da IAG. No entanto, é
					importante consignar que a palavra tem sido combatida por alguns profissionais
					que trabalham no cuidado da saúde mental, conforme esclarecem, por diversos
					outros.</p>
			</fn>
			<fn fn-type="other" id="fn8">
				<label>8</label>
				<p>Registre-se, a propósito, que o Comitê para a Eliminação da Discriminação Racial
					da Organização das Nações Unidas - ONU (<xref ref-type="bibr" rid="B24"
						>2020</xref>), em sua Recomendação Geral n. 36, de 24 de novembro de 2020
					observou que o aumento do uso pelas forças policiais de algoritmos, inteligência
					artificial, reconhecimento facial e de outras tecnologias aumenta os riscos de
					aprofundamento do racismo, da discriminação racial e da xenofobia.</p>
			</fn>
			<fn fn-type="other" id="fn9">
				<label>9</label>
				<p><italic>Privacy by design</italic> significa que a proteção de dados deve ser
					incorporada desde o início do desenvolvimento de qualquer sistema ou serviço,
					não como uma adaptação posterior, enquanto <italic>Privacy by default</italic>
					estabelece que as configurações mais restritivas de privacidade devem ser
					aplicadas automaticamente, coletando apenas dados essenciais pelo menor tempo
					necessário (<xref ref-type="bibr" rid="B7">Brasil, 2024</xref>, p. 11-13). Em
					ambos os casos, a privacidade deixa de ser opcional para se tornar um direito
					fundamental integrado ao design tecnológico desde a concepção.</p>
			</fn>
		</fn-group>
		<ref-list>
			<title>Referências</title>
			<ref id="B1">
				<mixed-citation>BAHNER, J. Elin; HÜPER, Anke-Dorothea; MANZEY, Dietrich. Misuse of
					automated decision aids: Complacency, automation bias and the impact of training
					experience. <bold>International Journal of Human-Computer Studies</bold>,
					London, v. 66, n. 9, p. 688-699, 2008.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>BAHNER</surname>
							<given-names>J. Elin</given-names>
						</name>
						<name>
							<surname>HÜPER</surname>
							<given-names>Anke-Dorothea</given-names>
						</name>
						<name>
							<surname>MANZEY</surname>
							<given-names>Dietrich</given-names>
						</name>
					</person-group>
					<article-title>Misuse of automated decision aids: Complacency, automation bias
						and the impact of training experience</article-title>
					<source>International Journal of Human-Computer Studies, London</source>
					<volume>66</volume>
					<issue>9</issue>
					<fpage>688</fpage>
					<lpage>699</lpage>
					<year>2008</year>
				</element-citation>
			</ref>
			<ref id="B2">
				<mixed-citation>BANH, Leonardo; STROBEL, Gero. Generative artificial intelligence.
						<bold>Electronic Markets, Springer, IIM University of St. Gallen</bold>,
						[<italic>s. l</italic>.], v. 33, n. 1, p. 1-17, 2023.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>BANH</surname>
							<given-names>Leonardo</given-names>
						</name>
						<name>
							<surname>STROBEL</surname>
							<given-names>Gero.</given-names>
						</name>
					</person-group>
					<article-title>Generative artificial intelligence</article-title>
					<source>Electronic Markets, Springer, IIM University of St. Gallen</source>
					<publisher-loc>s. l</publisher-loc>
					<volume>33</volume>
					<issue>1</issue>
					<fpage>1</fpage>
					<lpage>17</lpage>
					<year>2023</year>
				</element-citation>
			</ref>
			<ref id="B3">
				<mixed-citation>BENG, James Lau Oon. Generative Artificial Intelligence: Legal
					Profession Disrupted?. <bold>International In-House Counsel Journal</bold>,
						[<italic>s. l</italic>.], v. 16, n. 65, p. 8757-8764, Autumn
					2023.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>BENG</surname>
							<given-names>James Lau Oon.</given-names>
						</name>
					</person-group>
					<article-title>Generative Artificial Intelligence: Legal Profession
						Disrupted?</article-title>
					<source>International In-House Counsel Journal</source>
					<publisher-loc>s. l</publisher-loc>
					<volume>16</volume>
					<issue>65</issue>
					<fpage>8757</fpage>
					<lpage>8764</lpage>
					<season>Autumn</season>
					<year>2023</year>
				</element-citation>
			</ref>
			<ref id="B4">
				<mixed-citation>BEZERRA NETO, Bianor Arruda. Valoração da prova: o papel do juiz
					humano na era da inteligência artificial. <bold>Conjur</bold>, 8 mar. 2025.
					Disponível em <ext-link ext-link-type="uri"
						xlink:href="https://www.conjur.com.br/2025-mar-08/valoracao-da-prova-o-papel-do-juiz-humano-na-era-da-inteligencia-artificial/"
						>https://www.conjur.com.br/2025-mar-08/valoracao-da-prova-o-papel-do-juiz-humano-na-era-da-inteligencia-artificial/</ext-link>.
					Acesso em: 5 set. 2025.</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>BEZERRA</surname>
							<given-names>Bianor Arruda</given-names>
							<suffix>NETO</suffix>
						</name>
					</person-group>
					<article-title>Valoração da prova: o papel do juiz humano na era da inteligência
						artificial</article-title>
					<source>Conjur</source>
					<day>8</day>
					<season>mar</season>
					<year>2025</year>
					<comment>Disponível em <ext-link ext-link-type="uri"
							xlink:href="https://www.conjur.com.br/2025-mar-08/valoracao-da-prova-o-papel-do-juiz-humano-na-era-da-inteligencia-artificial/"
							>https://www.conjur.com.br/2025-mar-08/valoracao-da-prova-o-papel-do-juiz-humano-na-era-da-inteligencia-artificial/</ext-link>
					</comment>
					<date-in-citation>Acesso em: 5 set. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B5">
				<mixed-citation>BONAT, Débora; VALE, Luís Manoel Borges do; PEREIRA, João Sergio dos
					Santos Soares. Inteligência artificial generativa e a fundamentação da decisão
					judicial. <bold>Revista de Processo</bold>, [<italic>s. l</italic>.], v. 346, p.
					349-370, dez. 2023.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>BONAT</surname>
							<given-names>Débora</given-names>
						</name>
						<name>
							<surname>VALE</surname>
							<given-names>Luís Manoel Borges do</given-names>
						</name>
						<name>
							<surname>PEREIRA</surname>
							<given-names>João Sergio dos Santos Soares.</given-names>
						</name>
					</person-group>
					<article-title>Inteligência artificial generativa e a fundamentação da decisão
						judicial</article-title>
					<source>Revista de Processo</source>
					<publisher-loc>s. l</publisher-loc>
					<volume>346</volume>
					<fpage>349</fpage>
					<lpage>370</lpage>
					<season>dez</season>
					<year>2023</year>
				</element-citation>
			</ref>
			<ref id="B6">
				<mixed-citation>BRASIL. Conselho Nacional de Justiça. Resolução n.º 615, de 11 de
					março de 2025. Estabelece diretrizes para o desenvolvimento, utilização e
					governança de soluções desenvolvidas com recursos de inteligência artificial no
					Poder Judiciário. <bold>Portal CNJ</bold>, 11 mar. 2025. Disponível em:
						<ext-link ext-link-type="uri"
						xlink:href="https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf"
						>https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf</ext-link>.
					Acesso em: 20 mar. 2025.</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<collab>BRASIL</collab>
					</person-group>
					<article-title>Conselho Nacional de Justiça. Resolução n.º 615, de 11 de março
						de 2025. Estabelece diretrizes para o desenvolvimento, utilização e
						governança de soluções desenvolvidas com recursos de inteligência artificial
						no Poder Judiciário</article-title>
					<source>Portal CNJ</source>
					<day>11</day>
					<season>mar</season>
					<year>2025</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf"
							>https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf</ext-link>
					</comment>
					<date-in-citation>Acesso em: 20 mar. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B7">
				<mixed-citation>BRASIL. Ministério da Gestão e da Inovação em Serviços Públicos.
					Secretaria de Governo Digital. <bold>Guia sobre Privacidade desde a Concepção e
						por Padrão</bold>. Versão 1.0. Brasília, DF: MGI, 2024. Disponível em:
						<ext-link ext-link-type="uri"
						xlink:href="https://www.gov.br/governodigital/pt-br/privacidade-e-seguranca/ppsi/guia_privacidade_concepcao.pdf"
						>https://www.gov.br/governodigital/pt-br/privacidade-e-seguranca/ppsi/guia_privacidade_concepcao.pdf</ext-link>.
					Acesso em: 7 set. 2025.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<collab>BRASIL</collab>
					</person-group>
					<chapter-title>Ministério da Gestão e da Inovação em Serviços Públicos.
						Secretaria de Governo Digital</chapter-title>
					<source>Guia sobre Privacidade desde a Concepção e por Padrão</source>
					<comment>Versão 1.0</comment>
					<publisher-loc>Brasília, DF</publisher-loc>
					<publisher-name>MGI</publisher-name>
					<year>2024</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://www.gov.br/governodigital/pt-br/privacidade-e-seguranca/ppsi/guia_privacidade_concepcao.pdf"
							>https://www.gov.br/governodigital/pt-br/privacidade-e-seguranca/ppsi/guia_privacidade_concepcao.pdf</ext-link>
					</comment>
					<date-in-citation>Acesso em: 7 set. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B8">
				<mixed-citation>BUOLAMWINI, Joy A. <bold>Gender shades:</bold> intersectional
					phenotypic and demographic evaluation of face datasets and gender classifiers.
					Submitted to the Program in Media Arts and Sciences, School of Architecture and
					Planning, in partial fulfillment of the requirements of the degree of Master of
					Science at the Massachusetts Institute of Technology, September
					2017.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>BUOLAMWINI</surname>
							<given-names>Joy A.</given-names>
						</name>
					</person-group>
					<article-title>Gender shades: intersectional phenotypic and demographic
						evaluation of face datasets and gender classifiers</article-title>
					<source>Submitted to the Program in Media Arts and Sciences, School of
						Architecture and Planning, in partial fulfillment of the requirements of the
						degree of Master of Science at the Massachusetts Institute of
						Technology</source>
					<season>September</season>
					<year>2017</year>
				</element-citation>
			</ref>
			<ref id="B9">
				<mixed-citation>CONSELHO NACIONAL DE JUSTIÇA - CNJ. <bold>O uso da Inteligência
						Artificial generativa no Poder Judiciário brasileiro:</bold> relatório de
					pesquisa. Brasília: CNJ, 2024.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<collab>CONSELHO NACIONAL DE JUSTIÇA - CNJ</collab>
					</person-group>
					<source>O uso da Inteligência Artificial generativa no Poder Judiciário
						brasileiro: relatório de pesquisa</source>
					<publisher-loc>Brasília</publisher-loc>
					<publisher-name>CNJ</publisher-name>
					<year>2024</year>
				</element-citation>
			</ref>
			<ref id="B10">
				<mixed-citation>DEEPSEEK: por que governos de países como Itália e Coreia do Sul
					barraram IA chinesa? <bold>O Globo - Economia</bold>, 8 fev. 2025. Disponível
					em: <ext-link ext-link-type="uri"
						xlink:href="https://oglobo.globo.com/economia/noticia/2025/02/08/deepseek-por-que-governos-de-paises-como-italia-e-coreia-do-sul-barraram-ia-chinesa.ghtml?utm_source=chatgpt.com"
						>https://oglobo.globo.com/economia/noticia/2025/02/08/deepseek-por-que-governos-de-paises-como-italia-e-coreia-do-sul-barraram-ia-chinesa.ghtml?utm_source=chatgpt.com</ext-link>.
					Acesso em: 10 fev. 2025.</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<collab>DEEPSEEK</collab>
					</person-group>
					<article-title>por que governos de países como Itália e Coreia do Sul barraram
						IA chinesa?</article-title>
					<source>O Globo - Economia</source>
					<day>8</day>
					<season>fev</season>
					<year>2025</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://oglobo.globo.com/economia/noticia/2025/02/08/deepseek-por-que-governos-de-paises-como-italia-e-coreia-do-sul-barraram-ia-chinesa.ghtml?utm_source=chatgpt.com"
							>https://oglobo.globo.com/economia/noticia/2025/02/08/deepseek-por-que-governos-de-paises-como-italia-e-coreia-do-sul-barraram-ia-chinesa.ghtml?utm_source=chatgpt.com</ext-link>
					</comment>
					<date-in-citation>Acesso em: 10 fev. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B11">
				<mixed-citation>DIVINO, Sthéfano Bruno Santos. Simbiose tecnológica e do uso da
					Inteligência Artificial no Poder Judiciário: é preciso optar entre eficiência e
					segurança jurídica? <bold>Boletim Revista dos Tribunais Online</bold>,
						[<italic>s. l</italic>.], v. 63, maio 2025.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>DIVINO</surname>
							<given-names>Sthéfano Bruno Santos.</given-names>
						</name>
					</person-group>
					<article-title>Simbiose tecnológica e do uso da Inteligência Artificial no Poder
						Judiciário: é preciso optar entre eficiência e segurança
						jurídica?</article-title>
					<source>Boletim Revista dos Tribunais Online</source>
					<publisher-loc>s. l</publisher-loc>
					<volume>63</volume>
					<season>maio</season>
					<year>2025</year>
				</element-citation>
			</ref>
			<ref id="B12">
				<mixed-citation>E-ESTONIA. <bold>Artificial intelligence as the new reality of
						e-justice</bold>. e-Estonia, 27 abr. 2020. Disponível em: <ext-link
						ext-link-type="uri"
						xlink:href="https://e-estonia.com/artificial-intelligence-as-the-new-reality-of-e-justice/"
						>https://e-estonia.com/artificial-intelligence-as-the-new-reality-of-e-justice/</ext-link>.
					Acesso em: 5 set. 2025.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<collab>E-ESTONIA</collab>
					</person-group>
					<source>Artificial intelligence as the new reality of e-justice</source>
					<publisher-name>e-Estonia</publisher-name>
					<day>27</day>
					<season>abr</season>
					<year>2020</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://e-estonia.com/artificial-intelligence-as-the-new-reality-of-e-justice/"
							>https://e-estonia.com/artificial-intelligence-as-the-new-reality-of-e-justice/</ext-link>
					</comment>
					<date-in-citation>Acesso em: 5 set. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B13">
				<mixed-citation>FERRAZ, Taís S. A litigiosidade como fenômeno complexo: quanto mais
					se empurra, mais o sistema empurra de volta. <bold>Revista Jurídica da
						Presidência</bold>, Brasília, DF, v. 25, n. 135, p. 163-191, jan./abr. 2023.
					Disponível em: <ext-link ext-link-type="uri"
						xlink:href="https://revistajuridica.presidencia.gov.br/index.php/saj/article/view/2847"
						>https://revistajuridica.presidencia.gov.br/index.php/saj/article/view/2847</ext-link>.
					Acesso em: 10 fev. 2025.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>FERRAZ</surname>
							<given-names>Taís S.</given-names>
						</name>
					</person-group>
					<article-title>A litigiosidade como fenômeno complexo: quanto mais se empurra,
						mais o sistema empurra de volta</article-title>
					<source>Revista Jurídica da Presidência</source>
					<publisher-loc>Brasília, DF</publisher-loc>
					<volume>25</volume>
					<issue>135</issue>
					<fpage>163</fpage>
					<lpage>191</lpage>
					<season>jan./abr</season>
					<year>2023</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://revistajuridica.presidencia.gov.br/index.php/saj/article/view/2847"
							>https://revistajuridica.presidencia.gov.br/index.php/saj/article/view/2847</ext-link>
					</comment>
					<date-in-citation>Acesso em: 10 fev. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B14">
				<mixed-citation>GABRIEL, Anderson de Paiva; PORTO, Fabio Ribeiro; ARAÚJO, Valter
					Shuenquener de. Justiça 4.0 e a Inteligência Artificial: pragmática eficiência.
						<bold>Revista de Análise Econômica do Direito</bold>, [<italic>s.
					l</italic>.], v. 9, 2025.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>GABRIEL</surname>
							<given-names>Anderson de Paiva</given-names>
						</name>
						<name>
							<surname>PORTO</surname>
							<given-names>Fabio Ribeiro</given-names>
						</name>
						<name>
							<surname>ARAÚJO</surname>
							<given-names>Valter Shuenquener de.</given-names>
						</name>
					</person-group>
					<article-title>Justiça 4.0 e a Inteligência Artificial: pragmática
						eficiência</article-title>
					<source>Revista de Análise Econômica do Direito</source>
					<publisher-loc>s. l</publisher-loc>
					<volume>9</volume>
					<year>2025</year>
				</element-citation>
			</ref>
			<ref id="B15">
				<mixed-citation>HATEM, Rami; SIMMONS, Brianna; THORBTON, Joseph E. A call to address
					AI “hallucinations” and how healthcare professionals can mitigate their risks.
						<bold>Cureus</bold>, [<italic>s. l</italic>.], v. 15, n. 9, p. e44720,
					2023.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>HATEM</surname>
							<given-names>Rami</given-names>
						</name>
						<name>
							<surname>SIMMONS</surname>
							<given-names>Brianna</given-names>
						</name>
						<name>
							<surname>THORBTON</surname>
							<given-names>Joseph E.</given-names>
						</name>
					</person-group>
					<article-title>A call to address AI “hallucinations” and how healthcare
						professionals can mitigate their risks</article-title>
					<source>Cureus</source>
					<publisher-loc>s. l</publisher-loc>
					<volume>15</volume>
					<issue>9</issue>
					<fpage>e44720</fpage>
					<year>2023</year>
				</element-citation>
			</ref>
			<ref id="B16">
				<mixed-citation>HÖLLDOBLER, Steffen; MÖHLE, Sibylle; TIGUNOVA, Anna. <bold>Lessons
						Learned from AlphaGo</bold>. Disponível em <ext-link ext-link-type="uri"
						xlink:href="https://ceur-ws.org/Vol-1837/paper14.pdf"
						>https://ceur-ws.org/Vol-1837/paper14.pdf</ext-link>. Acesso em: 5 set.
					2025.</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>HÖLLDOBLER</surname>
							<given-names>Steffen</given-names>
						</name>
						<name>
							<surname>MÖHLE</surname>
							<given-names>Sibylle</given-names>
						</name>
						<name>
							<surname>TIGUNOVA</surname>
							<given-names>Anna.</given-names>
						</name>
					</person-group>
					<source>Lessons Learned from AlphaGo</source>
					<comment>Disponível em <ext-link ext-link-type="uri"
							xlink:href="https://ceur-ws.org/Vol-1837/paper14.pdf"
							>https://ceur-ws.org/Vol-1837/paper14.pdf</ext-link>
					</comment>
					<date-in-citation>Acesso em: 5 set. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B17">
				<mixed-citation>JEVONS, William S. <bold>The coal question; an inquiry concerning
						the progress of the nation, and the probable exhaustion of our
						coal-mines</bold>. London: Macmillan and Co., 1865.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>JEVONS</surname>
							<given-names>William S.</given-names>
						</name>
					</person-group>
					<source>The coal question; an inquiry concerning the progress of the nation, and
						the probable exhaustion of our coal-mines</source>
					<publisher-loc>London</publisher-loc>
					<publisher-name>Macmillan and Co</publisher-name>
					<year>1865</year>
				</element-citation>
			</ref>
			<ref id="B18">
				<mixed-citation>LIMÓN, Raúl. DeepSeek reports campaign of ‘large-scale malicious
					attacks’ after becoming most downloaded app. <bold>El País</bold>, 28 jan. 2025.
					Disponível em: <ext-link ext-link-type="uri"
						xlink:href="https://english.elpais.com/technology/2025-01-28/deepseek-reports-campaign-of-large-scale-malicious-attacks-after-becoming-most-downloaded-app.html"
						>https://english.elpais.com/technology/2025-01-28/deepseek-reports-campaign-of-large-scale-malicious-attacks-after-becoming-most-downloaded-app.html</ext-link>.
					Acesso em: 10 fev. 2025.</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>LIMÓN</surname>
							<given-names>Raúl.</given-names>
						</name>
					</person-group>
					<article-title>DeepSeek reports campaign of ‘large-scale malicious attacks’
						after becoming most downloaded app</article-title>
					<source>El País</source>
					<day>28</day>
					<season>jan</season>
					<year>2025</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://english.elpais.com/technology/2025-01-28/deepseek-reports-campaign-of-large-scale-malicious-attacks-after-becoming-most-downloaded-app.html"
							>https://english.elpais.com/technology/2025-01-28/deepseek-reports-campaign-of-large-scale-malicious-attacks-after-becoming-most-downloaded-app.html</ext-link>
					</comment>
					<date-in-citation>Acesso em: 10 fev. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B19">
				<mixed-citation>MICHAELSON, Greg. Programming Paradigms, Turing Completeness and
					Computational Thinking. <bold>The Art, Science, and Engineering of
						Programming</bold>, [<italic>s. l</italic>.], v. 4, n. 3, 2020. Disponível
					em: <ext-link ext-link-type="uri" xlink:href="https://arxiv.org/pdf/2002.06178"
						>https://arxiv.org/pdf/2002.06178</ext-link>. Acesso em: 5 set.
					2025.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>MICHAELSON</surname>
							<given-names>Greg.</given-names>
						</name>
					</person-group>
					<article-title>Programming Paradigms, Turing Completeness and Computational
						Thinking</article-title>
					<source>The Art, Science, and Engineering of Programming</source>
					<publisher-loc>s. l</publisher-loc>
					<volume>4</volume>
					<issue>3</issue>
					<year>2020</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://arxiv.org/pdf/2002.06178"
							>https://arxiv.org/pdf/2002.06178</ext-link>
					</comment>
					<date-in-citation>Acesso em: 5 set. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B20">
				<mixed-citation>MOLLICK, Ethan. <bold>Co-Intelligence:</bold> living and working
					with AI. New York: Penguim, 2024.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>MOLLICK</surname>
							<given-names>Ethan.</given-names>
						</name>
					</person-group>
					<source>Co-Intelligence: living and working with AI</source>
					<publisher-loc>New York</publisher-loc>
					<publisher-name>Penguim</publisher-name>
					<year>2024</year>
				</element-citation>
			</ref>
			<ref id="B21">
				<mixed-citation>MÜNCH, Luciane, A. C.; FERRAZ, Taís S. Exploring defuturing to
					design Artificial-Intelligence artifacts: a systemic-design approach to tackle
					litigiousness in the brazilian judiciary. <bold>Laws</bold>, Switzerland, v. 13,
					n. 1, 2024. Disponível em: <ext-link ext-link-type="uri"
						xlink:href="https://www.mdpi.com/2075-471X/13/1/4"
						>https://www.mdpi.com/2075-471X/13/1/4</ext-link>. Acesso em: 10 fev.
					2025.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>MÜNCH, Luciane</surname>
							<given-names>A. C.</given-names>
						</name>
						<name>
							<surname>FERRAZ</surname>
							<given-names>Taís S.</given-names>
						</name>
					</person-group>
					<article-title>Exploring defuturing to design Artificial-Intelligence artifacts:
						a systemic-design approach to tackle litigiousness in the brazilian
						judiciary</article-title>
					<source>Laws, Switzerland</source>
					<volume>13</volume>
					<issue>1</issue>
					<year>2024</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://www.mdpi.com/2075-471X/13/1/4"
							>https://www.mdpi.com/2075-471X/13/1/4</ext-link>
					</comment>
					<date-in-citation>Acesso em: 10 fev. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B22">
				<mixed-citation>NAGLI, Gal. Wiz Research uncovers exposed DeepSeek database leaking
					sensitive information, including chat history. <bold>Wiz</bold>, 29 jan. 2025.
					Disponível em: <ext-link ext-link-type="uri"
						xlink:href="https://www.wiz.io/blog/wiz-research-uncovers-exposed-deepseek-database-leak"
						>https://www.wiz.io/blog/wiz-research-uncovers-exposed-deepseek-database-leak</ext-link>.
					Acesso em: 10 fev. 2025.</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>NAGLI</surname>
							<given-names>Gal.</given-names>
						</name>
					</person-group>
					<article-title>Wiz Research uncovers exposed DeepSeek database leaking sensitive
						information, including chat history</article-title>
					<source>Wiz</source>
					<day>29</day>
					<season>jan</season>
					<year>2025</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://www.wiz.io/blog/wiz-research-uncovers-exposed-deepseek-database-leak"
							>https://www.wiz.io/blog/wiz-research-uncovers-exposed-deepseek-database-leak</ext-link>
					</comment>
					<date-in-citation>Acesso em: 10 fev. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B23">
				<mixed-citation>O’NEIL, Cathy. <bold>Weapons of Math Destruction:</bold> How Big
					Data Increases Inequality and Threatens Democracy. New York: Crown,
					2016.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>O’NEIL</surname>
							<given-names>Cathy.</given-names>
						</name>
					</person-group>
					<source>Weapons of Math Destruction: How Big Data Increases Inequality and
						Threatens Democracy</source>
					<publisher-loc>New York</publisher-loc>
					<publisher-name>Crown</publisher-name>
					<year>2016</year>
				</element-citation>
			</ref>
			<ref id="B24">
				<mixed-citation>ORGANIZAÇÃO DAS NAÇÕES UNIDAS. Comitê para a Eliminação da
					Discriminação racial da Organização das Nações Unidas. <bold>Recomendação n.º
						26, de 24 de novembro de 2020</bold>. Disponível em: <ext-link
						ext-link-type="uri"
						xlink:href="https://acnudh.org/wp-content/uploads/2020/12/CERD_C_GC_36_PORT_REV.pdf"
						>https://acnudh.org/wp-content/uploads/2020/12/CERD_C_GC_36_PORT_REV.pdf</ext-link>.
					Acesso em: 10 fev. 2025.</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<collab>ORGANIZAÇÃO DAS NAÇÕES UNIDAS</collab>
					</person-group>
					<article-title>Comitê para a Eliminação da Discriminação racial da Organização
						das Nações Unidas</article-title>
					<source>Recomendação n.º 26, de 24 de novembro de 2020</source>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://acnudh.org/wp-content/uploads/2020/12/CERD_C_GC_36_PORT_REV.pdf"
							>https://acnudh.org/wp-content/uploads/2020/12/CERD_C_GC_36_PORT_REV.pdf</ext-link>
					</comment>
					<date-in-citation>Acesso em: 10 fev. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B25">
				<mixed-citation>PARASURAMAN, Raja; MANZEY, Dietrich. Complacency and bias in human
					use of automation: an attentional integration. <bold>Human Factors: The Journal
						of the Human Factors and Ergonomics Society</bold>, [<italic>s.
					l</italic>.], v. 52, n. 3, p. 381-410, 2010.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>PARASURAMAN</surname>
							<given-names>Raja</given-names>
						</name>
						<name>
							<surname>MANZEY</surname>
							<given-names>Dietrich.</given-names>
						</name>
					</person-group>
					<article-title>Complacency and bias in human use of automation: an attentional
						integration</article-title>
					<source>Human Factors: The Journal of the Human Factors and Ergonomics
						Society</source>
					<publisher-loc>s. l</publisher-loc>
					<volume>52</volume>
					<issue>3</issue>
					<fpage>381</fpage>
					<lpage>410</lpage>
					<year>2010</year>
				</element-citation>
			</ref>
			<ref id="B26">
				<mixed-citation>PEIXOTO, Fabiano Hartmann; BONAT, Debora. GPTs e Direito: impactos
					prováveis das IAs generativas nas atividades jurídicas brasileiras. Sequência:
						<bold>Estudos Jurídicos e Políticos</bold>, Florianópolis, v. 44, n. 93,
					2023.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>PEIXOTO</surname>
							<given-names>Fabiano Hartmann</given-names>
						</name>
						<name>
							<surname>BONAT</surname>
							<given-names>Debora.</given-names>
						</name>
					</person-group>
					<article-title>GPTs e Direito: impactos prováveis das IAs generativas nas
						atividades jurídicas brasileiras</article-title>
					<source>Sequência: Estudos Jurídicos e Políticos</source>
					<publisher-loc>Florianópolis</publisher-loc>
					<volume>44</volume>
					<issue>93</issue>
					<year>2023</year>
				</element-citation>
			</ref>
			<ref id="B27">
				<mixed-citation>RODRIGUES, Leonel Cezar <italic>et al</italic>. Inteligência
					artificial, ética e celeridade no direito. Revista do CEJUR/TJSC:
						<bold>Prestação Jurisdicional</bold>, Florianópolis, v. 12, p. 1-19,
					2024.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>RODRIGUES</surname>
							<given-names>Leonel Cezar</given-names>
						</name>
						<etal/>
					</person-group>
					<article-title>Inteligência artificial, ética e celeridade no
						direito</article-title>
					<source>Revista do CEJUR/TJSC: Prestação Jurisdicional</source>
					<publisher-loc>Florianópolis</publisher-loc>
					<volume>12</volume>
					<fpage>1</fpage>
					<lpage>19</lpage>
					<year>2024</year>
				</element-citation>
			</ref>
			<ref id="B28">
				<mixed-citation>SANTOS, Adriano Cardoso dos. O uso da inteligência artificial pela
					suprema corte brasileira: desafios e potencialidades. <bold>Revista Foco</bold>,
						[<italic>s. l</italic>.], v. 18, n. 4, p. 1-23, 2025.</mixed-citation>
				<element-citation publication-type="journal">
					<person-group person-group-type="author">
						<name>
							<surname>SANTOS</surname>
							<given-names>Adriano Cardoso dos.</given-names>
						</name>
					</person-group>
					<article-title>O uso da inteligência artificial pela suprema corte brasileira:
						desafios e potencialidades</article-title>
					<source>Revista Foco</source>
					<publisher-loc>s. l</publisher-loc>
					<volume>18</volume>
					<issue>4</issue>
					<fpage>1</fpage>
					<lpage>23</lpage>
					<year>2025</year>
				</element-citation>
			</ref>
			<ref id="B29">
				<mixed-citation>SENGE, Peter. <bold>A quinta disciplina:</bold> a arte e a prática
					da organização que aprende. Tradução Gabriel Zide Neto. Rio de janeiro: Best
					Seller, 2013.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>SENGE</surname>
							<given-names>Peter.</given-names>
						</name>
					</person-group>
					<source>A quinta disciplina: a arte e a prática da organização que
						aprende</source>
					<person-group person-group-type="translator">
						<name>
							<surname>Zide</surname>
							<given-names>Gabriel</given-names>
							<suffix>Neto</suffix>
						</name>
					</person-group>
					<publisher-loc>Rio de janeiro</publisher-loc>
					<publisher-name>Best Seller</publisher-name>
					<year>2013</year>
				</element-citation>
			</ref>
			<ref id="B30">
				<mixed-citation>STAR WARS: Episódio VI - O retorno do Jedi. Direção: Richard
					Marquand. Produção: George Lucas. Los Angeles: Lucasfilm, 1983.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<collab>STAR WARS: Episódio VI - O retorno do Jedi</collab>
					</person-group>
					<source>Direção: Richard Marquand. Produção: George Lucas</source>
					<publisher-loc>Los Angeles</publisher-loc>
					<publisher-name>Lucasfilm</publisher-name>
					<year>1983</year>
				</element-citation>
			</ref>
			<ref id="B31">
				<mixed-citation>THE CONVERSATION. OpenAI says DeepSeek inappropriately copied
					ChatGPT - but it’s facing copyright claims too. <bold>The Conversation</bold>, 4
					fev. 2025. Disponível em: <ext-link ext-link-type="uri"
						xlink:href="https://theconversation.com/openai-says-deepseek-inappropriately-copied-chatgpt-but-its-facing-copyright-claims-too-248863"
						>https://theconversation.com/openai-says-deepseek-inappropriately-copied-chatgpt-but-its-facing-copyright-claims-too-248863</ext-link>.
					Acesso em: 10 fev. 2025.</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>THE</surname>
							<given-names>CONVERSATION.</given-names>
						</name>
					</person-group>
					<article-title>OpenAI says DeepSeek inappropriately copied ChatGPT - but it’s
						facing copyright claims too</article-title>
					<source>The Conversation</source>
					<day>4</day>
					<season>fev</season>
					<year>2025</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://theconversation.com/openai-says-deepseek-inappropriately-copied-chatgpt-but-its-facing-copyright-claims-too-248863"
							>https://theconversation.com/openai-says-deepseek-inappropriately-copied-chatgpt-but-its-facing-copyright-claims-too-248863</ext-link>
					</comment>
					<date-in-citation>Acesso em: 10 fev. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B32">
				<mixed-citation>THEOBALD, Oliver. <bold>Machine learning for absolute
						beginners:</bold> a plain english Introduction. 3th ed. New York: Jeremy
					Pederson and Red, 2017.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>THEOBALD</surname>
							<given-names>Oliver.</given-names>
						</name>
					</person-group>
					<source>Machine learning for absolute beginners: a plain english
						Introduction</source>
					<edition>3th</edition>
					<publisher-loc>New York</publisher-loc>
					<publisher-name>Jeremy Pederson and Red</publisher-name>
					<year>2017</year>
				</element-citation>
			</ref>
			<ref id="B33">
				<mixed-citation>TURING, Alan. <bold>Computing Machinery and Intelligence</bold>.
					1950. Disponível em: <ext-link ext-link-type="uri"
						xlink:href="https://www.csee.umbc.edu/courses/471/papers/turing.pdf"
						>https://www.csee.umbc.edu/courses/471/papers/turing.pdf</ext-link>. Acesso
					em: 19 jun. 2019.</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>TURING</surname>
							<given-names>Alan.</given-names>
						</name>
					</person-group>
					<source>Computing Machinery and Intelligence</source>
					<year>1950</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://www.csee.umbc.edu/courses/471/papers/turing.pdf"
							>https://www.csee.umbc.edu/courses/471/papers/turing.pdf</ext-link>
					</comment>
					<date-in-citation>Acesso em: 19 jun. 2019</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B34">
				<mixed-citation>TURING, Alan. <bold>On Computable Numbers, with an application to
						the Entscheidungsproblem</bold>. 1936. Disponível em: <ext-link
						ext-link-type="uri"
						xlink:href="http://www.cs.virginia.edu/~robins/Turing_Paper_1936.pdf"
						>http://www.cs.virginia.edu/~robins/Turing_Paper_1936.pdf</ext-link>. Acesso
					em: 19 jun. 2019.</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>TURING</surname>
							<given-names>Alan.</given-names>
						</name>
					</person-group>
					<source>On Computable Numbers, with an application to the
						Entscheidungsproblem</source>
					<year>1936</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="http://www.cs.virginia.edu/~robins/Turing_Paper_1936.pdf"
							>http://www.cs.virginia.edu/~robins/Turing_Paper_1936.pdf</ext-link>
					</comment>
					<date-in-citation>Acesso em: 19 jun. 2019</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B35">
				<mixed-citation>WILKINS, Neil. <bold>Artificial Intelligence:</bold> what you need
					to know about machine learning, robotics, deep learning, recommender systems,
					Internet of Things, neural networks, reinforcement learning and our future. New
					York: Independently Published, 2019.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<name>
							<surname>WILKINS</surname>
							<given-names>Neil.</given-names>
						</name>
					</person-group>
					<source>Artificial Intelligence: what you need to know about machine learning,
						robotics, deep learning, recommender systems, Internet of Things, neural
						networks, reinforcement learning and our future</source>
					<publisher-loc>New York</publisher-loc>
					<publisher-name>Independently Published</publisher-name>
					<year>2019</year>
				</element-citation>
			</ref>
			<ref id="B36">
				<mixed-citation>WORLD ECONOMIC FORUM. ChatWTO: An Analysis of Generative Artificial
					Intelligence and International Trade. <bold>White Paper</bold>. Geneva: World
					Economic Forum, 2024.</mixed-citation>
				<element-citation publication-type="book">
					<person-group person-group-type="author">
						<collab>WORLD ECONOMIC FORUM</collab>
					</person-group>
					<chapter-title>ChatWTO: An Analysis of Generative Artificial Intelligence and
						International Trade</chapter-title>
					<source>White Paper</source>
					<publisher-loc>Geneva</publisher-loc>
					<publisher-name>World Economic Forum</publisher-name>
					<year>2024</year>
				</element-citation>
			</ref>
			<ref id="B37">
				<mixed-citation>WORLD ECONOMIC FORUM. What is open-source AI and how could DeepSeek
					change the industry? <bold>Weforum - Emerging Technologies</bold>, 5 Feb. 2025.
					Disponível em: <ext-link ext-link-type="uri"
						xlink:href="https://www.weforum.org/stories/2025/02/open-source-ai-innovation-deepseek/"
						>https://www.weforum.org/stories/2025/02/open-source-ai-innovation-deepseek/</ext-link>.
					Acesso em: 10 fev. 2025.</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<collab>WORLD ECONOMIC FORUM</collab>
					</person-group>
					<article-title>What is open-source AI and how could DeepSeek change the
						industry?</article-title>
					<source>Weforum - Emerging Technologies</source>
					<day>5</day>
					<season>Feb.</season>
					<year>2025</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://www.weforum.org/stories/2025/02/open-source-ai-innovation-deepseek/"
							>https://www.weforum.org/stories/2025/02/open-source-ai-innovation-deepseek/</ext-link>
					</comment>
					<date-in-citation>Acesso em: 10 fev. 2025</date-in-citation>
				</element-citation>
			</ref>
			<ref id="B38">
				<mixed-citation>YIM, Hyunsu. South Korea spy agency says DeepSeek ‘excessively’
					collects personal data. <bold>Reuters</bold>, 10 Feb. 2025. Disponível em:
						<ext-link ext-link-type="uri"
						xlink:href="https://www.reuters.com/technology/artificial-intelligence/south-korea-spy-agency-says-deepseek-excessively-collects-personal-data-2025-02-10/?utm_source=chatgpt.com"
						>https://www.reuters.com/technology/artificial-intelligence/south-korea-spy-agency-says-deepseek-excessively-collects-personal-data-2025-02-10/?utm_source=chatgpt.com</ext-link>.
					Acesso em: 10 fev. 2025.</mixed-citation>
				<element-citation publication-type="webpage">
					<person-group person-group-type="author">
						<name>
							<surname>YIM</surname>
							<given-names>Hyunsu.</given-names>
						</name>
					</person-group>
					<article-title>South Korea spy agency says DeepSeek ‘excessively’ collects
						personal data</article-title>
					<source>Reuters</source>
					<day>10</day>
					<season>Feb.</season>
					<year>2025</year>
					<comment>Disponível em: <ext-link ext-link-type="uri"
							xlink:href="https://www.reuters.com/technology/artificial-intelligence/south-korea-spy-agency-says-deepseek-excessively-collects-personal-data-2025-02-10/?utm_source=chatgpt.com"
							>https://www.reuters.com/technology/artificial-intelligence/south-korea-spy-agency-says-deepseek-excessively-collects-personal-data-2025-02-10/?utm_source=chatgpt.com</ext-link>
					</comment>
					<date-in-citation>Acesso em: 10 fev. 2025</date-in-citation>
				</element-citation>
			</ref>
		</ref-list>
	</back>
</article>
