A POSSIBILIDADE DE JULGAMENTO POR INTELIGÊNCIAS ARTIFICIAIS E A AMEAÇA A PRINCÍPIOS CONSTITUCIONAIS BRASILEIROS
Rafaela Pereira Barros[1]
1. INTRODUÇÃO[2]
A humanidade atravessou, durante a sua história, diversas revoluções que foram determinantes para o seu desenvolvimento e que culminaram no panorama atual. É possível destacar transformações de caráter sociopolítico como a Revolução Francesa, Revolução Industrial ou a Guerra de Secessão nos Estados Unidos, bem como as inovações tecnológicas das quais o corpo social não vive mais sem, como a criação do carro, avião, telescópio, smartphone, entre outros.
Fato é que, hodiernamente, a sociedade está diante de uma ascensão tecnológica gigantesca e se a geração que viveu a Revolução Industrial não percebeu a transição em que estavam porque a mudança ocorreu lentamente, hoje, é mais que evidente a revolução que a tecnologia está causando na sociedade haja vista a rapidez com que surgem novos sistemas informáticos.
Importa frisar que uma peça essencial neste contexto revolucionário é a presença das inteligências artificiais (IA). Presente no nosso cotidiano de uma forma por vezes imperceptível, a professora Amy Weeb (2020, p. 1) observa que
Ela é a espinha dorsal silenciosa de nossos sistemas financeiros, fornecimento da rede elétrica e cadeia de suprimento de varejo. […] Ela é a infraestrutura invisível que nos direciona no trânsito, identifica o significado correto em nossas palavras equivocadas e condiciona o que devemos comprar, observar, ouvir e ler. Ela é a tecnologia sobre a qual o nosso futuro está sendo alicerçado, porque permeia todos os aspectos de nossas vidas.
O advento da IA trouxe consigo um debate acalorado acerca de sua existência: “alguns superestimam radicalmente a aplicabilidade da IA, ao passo que outros defendem que ela se tornará uma arma invencível” (Weeb, 2020, p. 2). Nesse sentido, ante a presença incontestável da IA na rotina das pessoas, traz-se a atenção para a discussão deste tema no âmbito jurídico forense.
O presente trabalho propõe-se a analisar a possibilidade de julgamento por inteligências artificiais e suas implicações no sistema jurídico brasileiro, visto que sua incorporação desmedida pode representar uma ameaça a princípios constitucionais do ordenamento jurídico vigente.
Imperioso destacar que ainda que seja pensamento comum a ideia de que esses sistemas sejam imparciais, ao programarem as IAs os desenvolvedores transferem ao algoritmo, ainda que de forma desproposital, o seu pensar humano, podendo haver enviesamento da máquina ou ferramenta. A partir disso, tem-se o surgimento de “vieses algorítmicos, que ocorrem quando as máquinas se comportam de modo que refletem os valores humanos implícitos envolvidos na programação” (Nunes; Marques, 2018, p.6).
Dessa forma, o problema de pesquisa do presente estudo envolve a questão dos vieses algorítmicos e como eles podem representar uma ameaça a princípios constitucionais processuais, de modo que se deve questionar se haverá, a partir da assimilação dos instrumentos ou ferramentas de IA pela atividade judicial, risco à imparcialidade e/ou justiça nas decisões prolatadas.
Assim, o objetivo principal do presente estudo é analisar o risco à imparcialidade e/ou justiça das decisões judiciais quando elaboradas por IA, de forma que através do marco teórico do princípio da segurança jurídica, associado às expressões “juscibernética” e “jurimetria”, pretende-se demonstrar que um bom planejamento jurídico é determinante para atribuir maior segurança jurídica na regulamentação e implementação da IA no âmbito do Poder Judiciário brasileiro.
É preciso analisar os impactos que a execução dessa tecnologia terá no sistema de produção de julgamentos, mas, sobretudo, se preparar para a sua utilização. A implementação da IA no direito brasileiro é um fenômeno atual e acelerado e, por isso, precisa ser bem examinado e estruturado a fim de que seja adequadamente incorporado pelos juristas, particularmente pelos operadores do direito no âmbito da atividade jurisdicional do Estado.
Desta forma, a pesquisa se desenvolverá em três etapas, sendo o trabalho eminentemente teórico. Inicialmente, a partir de uma pesquisa bibliográfica, pretende-se conceituar os termos “juscibernética” e “jurimetria” para estudar a relevância da integração das disciplinas de ciência da computação, estatística e direito na incorporação da IA no sistema de automatização de decisões judiciais.
Em apartada síntese, juscibernética refere-se a qualquer utilização de instrumentos computacionais aplicados ao direito a fim de automatizar procedimentos jurídicos (Pimentel, 2003). Trata-se, portanto, de um diálogo entre a tecnologia da informação e o direito. Por outro lado, jurimetria é a análise quantitativa do comportamento jurídico (apud Loevinger, 1963, p. 8). Logo, refere-se à interação entre a estatística e o direito.
Após, mediante abordagem interdisciplinar entre direito e ciência da computação, pretende-se explicar o conceito e o processo de criação de inteligências artificias, através de uma linguagem trivial para de fato aproximar o mundo tecnológico do mundo jurídico e vice-versa. Neste tópico, delimitar-se-á o porquê de a sua elaboração enviesada representar uma ameaça ao ordenamento jurídico nacional.
Por fim, a partir de um exame das regulamentações normativas já existentes acerca da IA no Brasil, pretende-se observar a inclinação do Poder Judiciário a respeito das decisões judiciais serem completamente automatizadas. A partir dessa análise, será exposto a utilidade de se integrar a juscibernética e a jurimetria como mecanismos capazes de orientar e fornecer bases sólidas para realização de sentenças por IA na atividade jurisdicional do Estado de forma que se consiga alinhar o uso dessa tecnologia aos objetivos do Estado Democrático de Direito.
2. Princípio da segurança jurídica, juscibernética e jurimetria
Uma das críticas mais frequentes à implementação de IA em contextos profissionais, sobretudo no campo do direito, é a alegação de que esses sistemas computacionais são destituídos da subjetividade e capacidade axiológica intrínseca e peculiar ao ser humano. Dessa premissa, poder-se-ia concluir que a sentença por meio de IA é inviável.
Corroborando esse entendimento, possível se destacar a contribuição à matéria do poeta Dante Alighieri, autor de a Divina Comédia, ao afirmar que “O direito é uma proporção real e pessoal, de homem para homem, que, conservada, conserva a sociedade; corrompida, corrompe-a”. Logo, o direito é feito do homem para o homem, caracterizando-se como ato personalíssimo da identidade humana e, ausente essa proporcionalidade, ter-se-ia a ruptura da sociedade.
Ocorre que, de forma paradoxal, é justamente essa característica humana, tão necessária ao direito, que dificulta a implementação da IA no sistema de pronunciamento de decisões judiciais. Explico.
Por mais que seja pensamento comum a ideia de que esses sistemas são imparciais, ao programarem as IAs os desenvolvedores transferem ao algoritmo, ainda que de forma desproposital, o seu pensar humano, podendo haver enviesamento da máquina ou ferramenta. A partir disso, tem-se o surgimento de “vieses algorítmicos, que ocorrem quando as máquinas se comportam de modos que refletem os valores humanos implícitos envolvidos na programação” (Nunes e Marques, 2018, p.6).
Em razão disso, é de extrema relevância reconhecer que qualquer parcialidade nos julgamentos decorrente desse enviesamento pode comprometer alguns princípios do Estado Democrático de Direito, notadamente o princípio da segurança jurídica.
Não há dúvidas de que todos os ramos do direito são regidos por princípios que norteiam suas diretrizes e a prática de seus operadores. Com substancial importância para o ordenamento jurídico, Celso Antônio Bandeira de Mello (2006) destaca que os princípios servem de alicerce para o sistema por tratar-se de uma disposição fundamental que se irradia sobre as normas a fim de estabelecer parâmetros para sua compreensão e interpretação. Assim, os princípios compõem a racionalização do sistema normativo, dando-lhe logicidade coerente.
De mesmo modo, a prestação da tutela jurisdicional pelo Poder Judiciário é norteada por princípios constitucionais. Consoante o Ministro Luís Roberto Barroso, no gerenciamento do exercício da jurisdição os princípios estão visceralmente associados à própria ideia de Estado de Direito. Isso porque, eles “asseguram a submissão de todos a uma ordem jurídica preexistente, em igualdade de condições, a ser implementada por um poder independente e imparcial, protegendo-se a cidadania contra arbitrariedades” (Barroso, 2024, p. 2).
Nesse sentido, frisa-se que a implementação de IA na atividade jurisdicional representa uma ameaça ao próprio Estado Democrático de Direito, vez que levanta questões importantes sobre a preservação do princípio constitucional fundamental da segurança jurídica.
Conforme preconizado pelo ministro Luís Roberto Barroso (2024, p. 228), a segurança jurídica constitui um elemento importante para a paz social, propiciando previsibilidade dos comportamentos humanos, estabilidade das relações jurídicas e garantia do cumprimento das normas. Dessa forma, “todo esse arcabouço é indispensável para a proteção da confiança dos administrados e jurisdicionados em geral” (Barroso, 2024, p. 228).
A segurança jurídica influi diretamente no exercício dos direitos fundamentais pelos cidadãos, sendo importante em diferentes contextos da vida social. Em vista disso, Gomes Canotilho (2018, p. 237) sugere que esse princípio revela um caráter multidimensional, irradiando-se por todo ordenamento jurídico, formando o que o constitucionalista denomina de “subprincípios”, que são percebidos desde a irretroatividade da norma tributária até a anualidade das regras eleitorais, por exemplo.
Para Gomes Canotilho, a segurança jurídica possui três dimensões (2018, p. 237). De início, a primeira dimensão refere-se à estabilidade das relações jurídicas. O regramento de normas nacionais agregou instrumentos jurídicos que produzem estabilidade a fim de que as medidas adotadas pelo Estado não sejam, salvo raras exceções, modificadas, a exemplo da coisa julgada e do direito adquirido. A segunda dimensão diz respeito à previsibilidade da atuação estatal. Com esse elemento os particulares podem fazer planos em suas vidas e saberem quais são as consequências de seus atos, tendo em vista que a segunda dimensão fornece elementos que impedem o Estado a agir de forma casuística ou arbitrária. Por fim, a terceira dimensão envolve a redução de riscos. Os atos do Estados devem ser congruentes com a promoção de um ambiente em que os jurisdicionados não sejam submetidos a riscos desnecessários.
De forma semelhante, Rafael Oliveira (2018, p. 163) denota que o princípio da segurança jurídica pode ser assimilado a partir de um aspecto objetivo e outro subjetivo. O primeiro aspecto diz respeito à certeza do direito, o que significa que o ordenamento jurídico deve ser estável, respeitando-se o direito adquirido, o ato jurídico perfeito e a coisa julgada. Relativamente ao aspecto subjetivo, tem-se que os particulares devem ter protegida a sua confiança em relação às promessas estatais.
Em contextos de direito existe uma expectativa em relação ao comportamento estatal. Portanto, no que diz respeito à segurança jurídica no âmbito da função judicial, a compreensão de como as decisões serão proferidas, as garantias processuais atribuídas às partes e as diretrizes que orientam os magistrados na prolação de sentenças, são indispensáveis para afastarem a insegurança e tornam a utilização de IA no processo decisório um desafio.
À vista disso, o princípio da segurança jurídica assume uma significância ainda maior quando se põe em perspectiva a execução de sentenças por IA. Isso porque, a introdução de tecnologias disruptivas no Judiciário pode gerar incerteza e dubiedade acerca da imparcialidade e/ou justiça das decisões proferidas.
Nada obstante, o embasamento argumentativo deste trabalho está relacionado não apenas ao princípio da segurança jurídica, mas também às expressões “juscibernética” e “jurimetria”, que são derivações práticas da aplicação desse princípio no cenário de implementação de IA no Judiciário brasileiro. Ao ser estabelecida uma ponte entre o princípio da segurança jurídica com os conceitos de juscibernética e jurimetria torna-se crível a viabilidade do julgamento por meio de softwares geridos por IA.
Em síntese, juscibernética é o termo utilizado para denominar a utilização de sistemas computacionais na prática jurídica. Lado outro, a jurimetria é o uso de métodos estatísticos e quantitativos para estudar aos dados jurídicos. Nesse sentido, considerando o que foi exposto acerca da segurança jurídica, visando assegurar a estabilidade das relações jurídicas, previsibilidade dos comportamentos humanos e garantia do cumprimento das normas, é importante traçar uma correlação entre Juscibernética, Jurimetria e, a ideia de segurança jurídica, nos seguintes termos:
(1) Com relação à estabilidade, por meio da juscibernética é possível aplicar-se uniformemente algoritmos a fim de contribuir para decisões judiciais mais consistentes e, por meio da jurimetria, pode-se identificar decisões contraditórias e promover a correção e uniformização do sistema de julgamentos;
(2) No que se refere à previsibilidade, por meio da juscibernética é possível integrar sistemas de IA para fornecer análises acerca das previsões judiciais e, por meio da análise jurimétrica é possível aumentar-se a transparência do sistema judicial;
(3) No tocante à garantia do cumprimento das normas, por meio da juscibernética, a IA pode automatizar tarefas para analisar o cumprimento das normas no ordenamento jurídico e, por meio da jurimetria, a partir da aplicação de métodos quantitativos também é possível verificar se as normas estão sendo devidamente cumpridas.
Por todo o exposto, salienta-se que a juscibernética e a jurimetria têm uma correlação axiomática com o princípio da segurança jurídica. Os elementos que envolvem esses conceitos podem contribuir para a estabilidade e previsibilidade das decisões judiciais ao proporcionar bases mais sólidas e fundamentadas para a atuação da IA. Com essa associação é factível evitar que vieses algorítmicos comprometam a integridade do sistema jurídico.
2.1 Juscibernética: Ciência da Computação aplicada ao Direito
De modo preliminar, é relevante ressaltar a escassez de conteúdo acerca da temática “juscibernética” na literatura nacional. Enquanto Alexandre Freire Pimentel (2003) e Rômulo Soares Valentini (2017), destacados como principais autores brasileiros sobre o tema, abordam em suas obras o surgimento do termo, os doutrinadores Miguel Reale e Paulo Nader fornecem uma referência genérica ao termo, concentrando-se na ideia de que a associação da cibernética com o direito é benéfica, ponderados os danos que essa confluência pode acarretar.
A juscibernética se refere a qualquer aplicação de instrumentos computacionais ao Direito com o propósito de automatizar procedimentos jurídicos (Pimentel, 2003). Trata-se, portanto, de um diálogo entre a tecnologia da informação e o direito.
Conforme descrito por José Santos e Alejandro Arrabal (Santos et al., 2022, p. 19) o termo “juscibernética” foi cunhado por Mario Giuseppe Losano, jurista italiano, com o objetivo de unir o campo do direito com a emergente área da informática na década de 60. Isso ocorreu concomitantemente à disseminação da teoria cibernética de Norbert Wiener. Losano buscava uma abordagem que incorporasse os avanços da cibernética na prática jurídica, reconhecendo a importância da computação na análise e aplicação do direito.
[…] algumas proposições da Giuritecnica coincidem e se confundem com outras da Jurimetrics, pois bem, foi objetivando reunir todas as vertentes teóricas e empíricas do direito artificial, que Mario Losano criou a expressão Juscibernética, para designar toda e qualquer aplicação presente ou futura da cibernética ao direito, incluindo-se o uso dos computadores eletrônicos, o tratamento e transporte da informação jurídica, com o emprego dos métodos cibernéticos, que, com realçado caráter unificador, permite abarcar numa única seara todas as denominações e métodos utilizados até então, mas que apenas dignavam aspectos parciais da projeção cibernética no universo jurídico (Pimentel, 2003, p. 141).
A juscibernética, portanto, é um termo do campo interdisciplinar que envolve o direito, ciência da computação e tecnologia da informação. Desse modo, qualquer interação entre sistemas computacionais e o direito pode ser classificada e referenciada como juscibernética. Nesse contexto, destaca-se desde o PJe, uma plataforma digital desenvolvida pelo CNJ, até o Projeto Victor, uma ferramenta de IA desenvolvida pelo STF em parceria com a UnB, como exemplos de juscibernética na prática atual do ordenamento jurídico nacional.
Assim, dada a rápida evolução tecnológica e seu impacto significativo no sistema jurídico, a juscibernética se notabiliza como uma questão relevante, sobretudo pela importância de se compreender e de se adaptar o sistema jurídico diante das transformações tecnológicas e sociais. Além disso, a partir de uma interação juridicamente precisa entre as ciências tecnológicas e o direito, proporciona-se maior segurança jurídica à implementação das IAs no sistema de automatização das decisões judiciais.
2.2 Jurimetria: Estatística aplicada ao Direito
O advogado Marcelo Guedes Nunes (2016), em sua obra dedicada à jurimetria, denota que este termo se trata de um neologismo criado pelo advogado americano Lee Leovinger. Ainda nas palavras de Nunes, no Brasil, a jurimetria foi trazida pelo italiano Losano, responsável também pela criação do termo juscibernética, como já apontado anteriormente.
Para Nunes, jurimetria é “a disciplina do conhecimento que utiliza a metodologia estatística para investigar o funcionamento de uma ordem jurídica” (Nunes, 2016, p. 115). Nesse sentido, tem-se que a jurimetria é uma ciência que aplica métodos estatísticos e quantitativos ao estudo do comportamento jurídico, permitindo uma análise detalhada das decisões judiciais e das tendências do sistema jurídico.
De modo diverso à juscibernética que não foi amplamente difundida no Brasil, observa-se um crescente interesse no tema da jurimetria em âmbito nacional. Inicialmente, destaca-se a atuação do Conselho Nacional de Justiça (CNJ). Designado constitucionalmente a fiscalizar e controlar a atividade administrativa do Judiciário brasileiro, o CNJ acompanha os indicadores de produtividade, do tempo de tramitação dos processos e das demandas mais recorrentes do Judiciário (Barboza, 2019).
Este acompanhamento realizado pelo CNJ é uma amostra da aplicação da jurimetria. A partir da coleta de dados forenses, o Departamento de Pesquisas Judiciárias elabora os relatórios “Justiça em Números”, que constituem a principal fonte das estatísticas oficiais do Judiciário Brasileiro (Couto e Oliveira, 2016).
Para mais, cita-se, ainda, a Associação Brasileira de Jurimetria (ABJ), uma instituição sem fins lucrativos, que desempenha um papel fundamental em incentivar a jurimetria como ferramenta de tomada de decisão e melhora da prestação jurisdicional brasileira. Vale destacar que a ABJ posiciona a jurimetria como um ramo do conhecimento jurídico.
Evidencia-se, desse modo, a relevância da conexão entre estatística e direito. Esta disciplina é substancial para a implementação de IA no Judiciário e oferece as bases para o desenvolvimento de algoritmos que irão auxiliar na tomada de decisões. Ao incorporar métodos estatísticos, os algoritmos podem ser treinados para reconhecer e replicar padrões de decisão consistentes, minimizando o risco de decisões arbitrárias ou injustas.
Dessa forma, a jurimetria serve de fomento à segurança jurídica por fornecer um levantamento de subsídios empíricos acerca das decisões judiciais, contribuindo para a previsibilidade e consistência do sistema jurídico.
3. Inteligência Artificial
3.1 Conceitos preliminares
Embora a tecnologia de IA tenha evoluído significativamente na última década, suas origens remontam a centenas de anos (Weeb, 2020, p. 11). Um marco importante ocorreu em 1943, quando cientistas começaram a tentar replicar a estrutura do cérebro humano em redes neurais[3]. Redes neurais são modelos matemáticos que imitam nosso sistema nervoso por meio de estruturas de raciocínio artificiais[4] (Gabriel Fróes e Vanessa Weber). Compreender essas redes e os objetivos dos cientistas na década de 40 é fundamental para entender o que a IA se tornou atualmente.
Em que pese Amy Weeb (2020) ter pontuado em sua obra que descrever a IA em termos práticos não seja uma tarefa fácil, a futurista americana define que “em sua forma mais elementar, a inteligência artificial é um sistema que toma decisões autônomas”. De forma semelhante, o professor de ciência de dados, Allan Segocia Spadini (2023), define IA como “um ramo da ciência da computação que se concentra no desenvolvimento de sistemas e algoritmos capazes de realizar tarefas que normalmente exigem inteligência humana”.
A IA pode executar tarefas repetitivas ou simular inteligência humana através de sistemas complexos que realizam milhões de cálculos por segundo, ou por sistemas específicos destinados a uma única tarefa por vez (Weeb, 2020, p. 11). Dispositivos e softwares que emulam o comportamento e pensamento humano funcionam mediante a análise de grandes volumes de dados e identificação de padrões, utilizando métodos como machine learning (aprendizado de máquina), deep learning (aprendizagem profunda) e processamento de linguagem natural (PLN). Esse processo, geralmente conduzido por algoritmos pré-programados, permite ao software tomar decisões e realizar tarefas de maneira autônoma.
Para compreender como a IA pode ser utilizada no sistema judiciário, é essencial conhecer seu processo de criação. O desenvolvimento de uma IA envolve várias fases, incluindo a coleta e análise de dados, o desenvolvimento de algoritmos de aprendizado e a validação e teste dos sistemas. Inicialmente, os dados são reunidos de várias fontes e utilizados para treinar os algoritmos, que aprendem a reconhecer padrões e tomar decisões com base nesses dados. Posteriormente, os sistemas são testados e validados para assegurar sua precisão e confiabilidade (Spadini, 2023).
Conforme dito anteriormente, quando se fala de inteligência artificial, significa que está sendo feita uma referência a sistemas que podem tomar decisões autônomas e machine learning é um dos métodos usados para treinar esses sistemas, permitindo que eles aprendam e melhorem suas decisões com base em dados e experiências. Dessa forma, passa-se a um exemplo para melhor compreensão de uma IA criada e treinada por meio do machine learning.
Imagine uma criança que naturalmente nasce sem saber o que é um cachorro. Um dia, ela está passeando no parque com seu pai. Eles veem um cachorro, e o pai aponta e diz: “Isso é um cachorro”. Neste momento, a criança recebe um input (a imagem e a palavra “cachorro”). Mas, na primeira vez, ela não sabe o que isso realmente significa.
Depois de mais alguns passeios, eles veem outro cachorro. O pai novamente diz: “Isso é um cachorro.” Com o tempo, a criança começa a associar a palavra “cachorro” com o animal que vê. Este processo de repetição e reforço é semelhante ao treinamento de um algoritmo de machine learning.
Agora, imagine que a criança vê um gato pela primeira vez. Ela pode apontar e dizer: “cachorro”. Isso ocorre porque, com base nos dados limitados que ela tem (os cachorros que ela viu antes), ela ainda não aprendeu a distinguir entre diferentes animais. O pai então corrige: “Não, isso é um gato”. Este retorno ajuda a ajustar a compreensão da criança, melhorando sua capacidade de identificar diferentes animais no futuro.
Em termos de machine learning, input são os dados que o sistema recebe (no exemplo, as imagens dos cachorros e gatos e as palavras associadas); output é a resposta ou decisão que o sistema faz com base nos dados de input (no exemplo, a criança dizendo “cachorro” ou “gato”); treinamento é o processo de mostrar muitos exemplos (input) ao sistema e fornecer feedback (output correto) para que ele aprenda a fazer associações corretas.
Em machine learning, os algoritmos funcionam de maneira semelhante. Eles são alimentados com muitos exemplos de dados e são “treinados” para reconhecer padrões nesses dados. Com o tempo e com bastante feedback, o algoritmo melhora sua capacidade de identificar corretamente o que é um cachorro, um gato e outros objetos, por exemplo.
No âmbito jurídico, a IA pode ser programada para analisar precedentes judiciais, identificar padrões de decisão e até sugerir sentenças baseadas em casos semelhantes. No entanto, não obstante os avanços tecnológicos e o potencial positivo que a IA tem, esse mecanismo informático possui, de igual modo, um lado obscuro no sentido de gerar problemas. Aqui, destaca-se precipuamente que a programação de IA não é livre de vieses, pois os algoritmos refletem os valores e perspectivas de seus desenvolvedores, o que pode afetar a imparcialidade das decisões e, consequentemente, a segurança jurídica do ordenamento vigente (Nunes e Marques, 2018).
3.2 A questão da ameaça aos princípios constitucionais processuais
Conforme já apontado no presente estudo, a maior óbice para a realização de decisões e sentenças por sistemas de IA são os chamados vieses algorítmicos. A atribuição do pensar humano aos algoritmos desenvolvidos no âmbito do Judiciário representa uma ameaça a diversos princípios do Estado Democrático de Direito, em especial um dos seus pilares fundamentais que é o princípio da segurança jurídica, marco teórico do presente estudo.
De início, valoroso exemplificar em termos práticos uma elaboração de algoritmo enviesado para melhor percepção do assunto. Assim, passa-se a um exemplo relacionado à seleção de candidatos para uma vaga de emprego.
Imagine que uma empresa decide usar um algoritmo de machine learning para ajudar a selecionar candidatos para uma vaga de emprego. Eles alimentam o algoritmo com dados de currículos de funcionários anteriores que foram bem-sucedidos na empresa. Os dados incluem informações como a universidade frequentada, o curso de graduação, a experiência de trabalho, habilidades específicas, entre outras características.
No entanto, a empresa tem um histórico de contratar principalmente homens de uma determinada universidade e com um curso específico. À vista disso, os dados de treinamento refletem esse viés. A seguir, ilustra-se isso com um exemplo ficto:
Dados de Treinamento: 80% dos funcionários bem-sucedidos são homens que frequentaram a Universidade A e estudaram engenharia.
Algoritmo Treinado: Aprende a associar maior sucesso com homens da Universidade A com formação em engenharia.
Novos Candidatos: Uma mulher que frequentou a Universidade B e estudou matemática pode ser descartada, enquanto um homem da Universidade A com formação em engenharia é favorecido, mesmo que a mulher tenha qualificações superiores.
Com efeito, o Doutor Dierle Nunes publicou um artigo a respeito dos ricos de se atribuir às máquinas a função decisória. O professor explica que, na criação dos modelos informáticos, os programadores têm que selecionar informações e efetuar escolhas que fazem com que “sempre haja pontos cegos nos algoritmos, os quais refletem os objetivos, prioridades e concepções de seu criador, de modo que os modelos são, a todo tempo, permeados pela subjetividade do sujeito que os desenvolve” (Nunes e Marques, 2018).
Para mais, Dierle Nunes (2018) justifica que o próprio ser humano é dotado de vieses cognitivos e, nesse sentido:
[…] em face de os vieses se apresentarem como uma característica intrínseca do pensar humano, pode-se concluir, de igual modo, que um algoritmo criado por seres humanos enviesados provavelmente padecerá do mesmo “mal”, não de forma proposital, mas em decorrência das informações fornecidas ao sistema. Dessa maneira, surgem os chamados vieses algorítmicos, que ocorrem quando as máquinas se comportam de modos que refletem os valores humanos implícitos envolvidos na programação (Nunes e Marques, 2018).
A depender do objetivo do algoritmo, a existência de lacunas ou vieses pode ser insignificante. No entanto, principalmente em questões complexas do Judiciário, essas influências subjetivas do programador podem promover resultados negativos para a análise pretendida em um primeiro momento, em flagrante violação à segurança jurídica.
De maneira semelhante a Dierle Nunes, Rômulo Soares Valentini (2017, p. 47) entende que, por vezes, as inexatidões constatadas no procedimento de tomada de decisão pelas máquinas não decorrem das operações do algoritmo em si, mas sim de falhas cognitivas transferidas no momento da programação. O autor destaca que em muitas das vezes essas falhas cognitivas são “incoerentes, motivadas por emoções ou preconceitos enraizados no processo cognitivo do ser humano, que o afasta de uma decisão imparcial e racional perante os fatos” (Valentini, 2017, p. 47).
Importante destacar que vieses não são percepções imperiosamente negativas. Todavia, eles podem tornar-se danosos à medida que refletirem estereótipos e preconceitos humanos, gerando erros e discriminações relacionadas à raça, gênero e religião. Ou, ainda, se os vieses fixarem processos hermenêuticos tendenciosos à mesma resolução sempre, independentemente de ser positiva, isso também causa prejuízo, vez que a imparcialidade do juiz é um valor fundamental para o funcionamento da justiça.
Chama-se atenção, portanto, sobre a qualidade dos dados que são fornecidos ao sistema quando do momento da programação do software. Dados enviesados fazem com que a máquina desempenhe suas atribuições de maneira enviesada. Em razão disso, pode-se sujar o Poder Judiciário de forma a replicar em suas decisões as desigualdades sociais, preconceitos e outras mazelas da sociedade.
No mais, seguindo o silogismo de que todos os seres humanos possuem vieses cognitivos, poder-se-ia afirmar então que os magistrados, ainda que inadvertidamente, também transferem às decisões suas razões enviesadas. No entanto, mister destacar que as decisões humanas são impugnáveis e devem sempre ser acompanhadas de sua motivação e fundamentação. Por outro lado, os algoritmos não são dotados de transparência e são, inclusive, “obscuros para a maior parte da população e algumas vezes até para seus programadores (Nunes e Marques, 2018).
Com relação à opacidade dos algoritmos, a falta de transparência faz com que seu funcionamento seja desconhecido aos cidadãos comuns, de forma que somente conseguem interpretar o procedimento de tomada de decisão da IA os matemáticos e cientistas computacionais. Ocorre que, no tratamento jurídico, a exiguidade de accountability macula o devido processo legal e traz insegurança jurídica aos conflitos que foram levados para resolução no âmbito do processo judicial.
Por todo o exposto, para evitar esse tipo de viés e opacidade dos algoritmos e garantir a segurança jurídica, fulcral diversificar os dados de treinamento, atentar-se para a qualidade deles e incorporar práticas de revisão e auditoria constantes dos mecanismos de inteligência artificial. Percebe-se que por meio da Juscibernética e da Jurimetria atinge-se esses objetivos de forma mais assertiva e robusta, em razão das vantagens trazidas à sistemática da IA no Judiciário a partir da associação das disciplinas da ciência da computação e da estatística com o direito.
4. Solução a partir da juscibernética e jurimetria
4.1 Iniciativas em matéria de regulamentação do uso de IA no Brasil
É notório que a evolução tecnológica da IA anda a passos largos e constantes e, ainda que cheia de riscos e incertezas, “não é possível desinventar a bomba, motivo pelo qual, na interação entre o homem e a máquina, resta ao ser humano o dever de encontrar meios para lidar com as novas alternativas e possibilidades oferecidas pelas novas técnicas” (Valentini, 2017, p. 26). À vista disso, a hipótese do presente estudo envolve tratar da viabilização de que decisões judiciais possam ser proferidas por essas inteligências.
Nesse sentido, considerando que o problema de pesquisa envolve a possibilidade de existir sentenças judiciais que ao serem proferidas por IA possam gerar insegurança jurídica, necessário atentar para quais ferramentas podem ser úteis à implementação segura desses sistemas informáticos junto ao Poder Judiciário. Dessa forma, para viabilizar que IA produza julgamentos no Brasil, é fundamental estabelecer um marco regulatório robusto que aborde o planejamento do sistema de programação e instalação da IA jurídica.
Conforme levantamento anual realizado pelo CNJ, 62 (sessenta e dois) órgãos do Poder Judiciário têm algum projeto de IA, número que representa um crescimento de 17% (dezessete por cento) em relação aos 53 (cinquenta e três) tribunais que contavam com alguma iniciativa em 2022. A pesquisa realizada identificou que estão em produção ou já foram desenvolvidos a extraordinária quantidade de 140 (cento e quarenta) projetos de IA para uso na atividade jurisdicional brasileira (CNJ, 2024). Esses números indicam a inclinação do Poder Judiciário em adquirir sistemas geridos por IA para aprimoramento e otimização de suas funções.
Nesse sentido, compulsando detidamente as disposições acerca de regulamentação da IA no Brasil, percebe-se que já estão em tramitação no legislativo diversas propostas para sua normatização. Contudo, cumpre destacar que o Brasil é carente de regra específica sobre esse tema, de forma que o único aparato normativo atualmente vigente se trata da Resolução nº 332/20 do CNJ.
Com isso, propõe-se um breve exame dos projetos de lei e da resolução do CNJ no que se refere especificamente à posição desses institutos normativos acerca da automatização dos julgamentos.
De início, foi registrado que as propostas de regulamentação de IA no Brasil abrangem sua implementação de forma ampla, envolvendo temas como uso de “deepfake”[5], direitos autorais e plágio, sanções para crimes realizados por meio de IA, sua aplicação nos sistemas da administração dos entes federativos, entre outras aplicações.
Dessa forma, a partir da análise a ser realizada sobre os textos regulamentadores não se pretende esgotar a matéria, mas sim direcionar o foco para as disposições normativas que estabelecem diretrizes para o procedimento de realização de decisões por meio de IA.
No que se refere à Resolução nº 332/20 do CNJ, seu texto conta com 10 (dez) capítulos e 31 (trinta e um) artigos e determina no preâmbulo que:
[…] as decisões judiciais apoiadas pela Inteligência Artificial devem preservar a igualdade, a não discriminação, a pluralidade, a solidariedade e o julgamento justo, com a viabilização de meios destinados a eliminar ou minimizar a opressão, a marginalização do ser humano e os erros de julgamento decorrentes de preconceitos (CNJ, 2020).
Dessa forma, nota-se uma predisposição na resolução vigente a admitir o apoio de IA na elaboração de decisões. Infere-se, portanto, que a automatização integral dos julgamentos não é uma possibilidade tão distante de se concretizar.
Mais adiante, o texto da resolução prevê novamente a possiblidade de utilização de IA como ferramenta para auxiliar na elaboração de decisão judicial e regulamenta no parágrafo único do art. 19 que “os sistemas computacionais com atuação indicada no caput deste artigo deverão permitir a supervisão do magistrado competente” (Resolução nº 332/20, CNJ). A resolução, portanto, permite a assistência da IA na construção de decisões, sem, no entanto, retirar do juiz sua autonomia e responsabilidade sobre o resultado oferecido pelo mecanismo informático.
Frisa-se que a revisão, pelo magistrado, das sentenças proferidas integralmente por IA, é uma questão fundamental para o ponto defendido no presente trabalho. Reputa-se possível que as decisões sejam elaboradas plenamente por IA, mas defende-se que a permanência, autoridade e supervisão dos juízes sobre o julgamento não podem ser dispensados. A IA deverá ser útil como ferramenta a dinamizar e conferir mais celeridade na atuação jurisdicional e não como substituta dos juízes.
Vale destacar, ainda, que pela resolução apreende-se que a automatização completa de julgamentos não foi rechaçada de plano pelo legislador, pelo menos no âmbito cível. Por outro lado, quando se trata de matéria penal, a resolução excluiu taxativamente a possibilidade de sentenças serem proferidas por IA, conforme determina em seu art. 23: “A utilização de modelos de inteligência artificial em matéria penal não deve ser estimulada, sobretudo com relação à sugestão de modelos de decisões preditivas”.
No mais, a citar o terceiro capítulo da resolução que trata da “não discriminação”, é notória a tentativa do legislador em tentar retificar os problemas relacionados aos vieses algorítmicos, notadamente no §2º do art. 7, nos seguintes termos: “verificado viés discriminatório de qualquer natureza ou incompatibilidade do modelo de inteligência artificial com os princípios previstos nesta resolução, deverão ser adotadas medidas corretivas” (Resolução nº 332/20, CNJ).
Com relação aos projetos de lei, conforme matéria jornalística do portal CNN Brasil[6], 46 (quarenta e seis) rascunhos de lei acerca da regulamentação da IA estão em tramitação no Congresso Nacional, sendo 34 (trinta e quatro) projetos na Câmara e 12 (doze) no Senado. No entanto, destaca-se o PL nº 2.338/23 para nossa análise em razão de ser o projeto com processo legislativo mais avançado.
Mesmo que a IA proporcione diversos benefícios, igualmente ela apresenta riscos e violações. É partir desse pressuposto que o marco legal discutido em todos os projetos de lei em trâmite propõe desenvolver um ambiente de atuação das IAs em que elas não comprometam os direitos fundamentais da população, além de fixar parâmetros e princípios legais em todos os contextos de interação entre máquina e humano. Contudo, considerando que o avanço tecnológico é profundamente veloz e o poder legislativo lento, a tarefa de legislar a respeito da IA torna-se excessivamente árdua.
De iniciativa do Senador Rodrigo Pacheco (PSD/MG), o PL nº 2.338/23 trata-se de um substitutivo de três projetos que tramitavam conjuntamente no Senado Federal, quais sejam, PL 5.051/2019, PL 21/2020 e PL 872/2021. O substitutivo será apresentado no início do mês de julho de 2024. O colegiado criado a fim de subsidiar as propostas relacionadas ao uso de IA no Brasil – a Comissão Temporária sobre Inteligência Artificial (CTIA) – aguarda o relatório do Senador Eduardo Gomes (PL/TO).
Conforme noticiado pela TV Senado em sessão deliberativa ocorrida, o senador Eduardo Gomes divulgou que já foram realizadas 150 (cento e cinquenta) audiências sobre o tema e que mais de 2.500 sugestões de diversas instituições foram recebidas e consideradas no texto do PL. Depreende-se, dessa forma, que a população está ciente da necessidade de um marco legal e igualmente empenhada em contribuir para um bom planejamento.
Na sessão realizada, o senador relator expôs a dificuldade em regular o tema, mas pontuou que em matéria de inteligência artificial “o menor risco é correr risco, porque se você não corre ricos, você compra riscos dos outros”. Por fim, o senador ressaltou que para regulamentar o tema a participação das agências reguladoras de cada área será de enorme relevância.
Contando com 9 (nove) capítulos e 45 (quarenta e cinco) artigos, o projeto de lei nº 2.338/23 estabelece no seu primeiro artigo as “normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil” (PL nº 2.338/23). Como objetivo do projeto de lei tem-se a proteção dos direitos fundamentais e garantia da “implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico (PL nº 2.338/23).
Há de se destacar dois pontos no PL nº 2.338/23. Primeiramente, o projeto propõe uma regulação baseada em riscos. No art. 13 é determinado que os fornecedores de sistema de IA devem passar sua criação por uma classificação de grau de riscos. Isso vai ao encontro da fala do Senador Eduardo Gomes de que o menor risco é tomar ricos. Essa estipulação é benéfica à implementação e desenvolvimento de IA no Brasil, visto que é impossível tentar regulamentar a IA para que ela seja perfeita e não apresente perigos.
Outro ponto interessante é que o projeto dedica um capítulo específico para indivíduos afetados por mecanismos de IA determinando que seja garantido acesso ao processo da decisão tomada pelo sistema e que seja ofertada a possibilidade de se contestar a decisão e solicitar intervenção humana. Nesse capítulo o projeto disciplina, ainda, qual o procedimento a ser realizado para correção de vieses.
Ocorre que, a partir da nossa análise do PL nº 2.338/23, não foi encontrado normatização sobre as diretrizes de realização de decisões judiciais automatizadas, o que é encontrado, ainda que de forma tímida na Resolução nº 332/20 do CNJ. O PL trata da regulamentação da IA como um todo, no entanto, é necessário que um capítulo seja dedicado à implementação de IA no âmbito da atividade jurisdicional do estado, estabelecendo critérios específicos a respeito da programação dos algoritmos com essa finalidade.
O que se infere dos dispositivos mencionados, seja a resolução do CNJ ou os projetos de lei em trâmite, é que as questões técnicas de programação da IA foram descartadas da normatização. No entanto, por se tratar de questão afeta à tecnologia, para mitigar o risco de enviesamento dos algoritmos que forem produzir decisões judiciais, mister o texto regulamentador dispor sobre como deve ser feita a coleta e tratamento dos dados jurídicos.
É possível deduzir-se dos projetos de lei a tentativa do legislador em, talvez, atender a problemática citada. No entanto, entende-se que o ideal seria a implementação de um tópico no referido PL sobre Jurimetria aliado à ideia de Juscibernética pois isso atribuiria maior segurança jurídica na regulamentação das IAs no âmbito do Poder Judiciário brasileiro.
5. Juscibernética e jurimetria como solução
Inicialmente, no que diz respeito à juscibernética, sua aplicação não é tão técnica e prática como a da jurimetria pode ser. Ela se mostra essencial para implementação de IA no sistema de julgamentos por ser de extrema importância a integração da tecnologia da informação com o direito. No entanto, essa integração somente pode ser feita a partir de profissionais que possuam conhecimentos de ambas as áreas.
Dessa forma, é essencial promover a capacitação dos operadores do direito para que eles possam utilizar e supervisionar os sistemas de IA de forma eficaz. O que se propõe não é que todos os funcionários do Judiciário adquiriram conhecimentos técnicos de programação e sistemas computacionais. Mas, aqueles diretamente ligados à função de julgar, como os magistrados, seus assistentes e assessores devem ser minimamente instruídos com conhecimentos científicos de programação para manejarem o software de decisão de forma adequada. Assim será viável, inclusive, que os servidores entendam o procedimento heurístico dos algoritmos depois da sentença.
Essa capacitação pode ser oferecida pelos próprios tribunais, de forma que não seja requisito para ingresso no Poder Judiciário formação acadêmica em ciências tecnológicas. Porém, através do oferecimento de cursos de qualificação, os tribunais podem capacitar os seus funcionários que exercerão as funções em gabinete.
De forma congruente ao já disposto na Resolução nº 332/20 do CNJ (art. 19, parágrafo único), é necessário que se mantenha o juiz envolvido cognitivamente com a cadeia de produção que gera a sentença judicial. Para que se preserve a segurança jurídica e a efetividade da decisão, o magistrado precisa atuar com poder de deliberação real e não meramente simbólico de forma a promover a incolumidade da sentença proferida por IA. Por isso, justifica-se a necessidade de capacitação dos juízes e seus assistentes com conhecimentos de tecnologia.
No mais, a integração de disciplinas como a juscibernética e a jurimetria no currículo dos cursos de direito pode contribuir para formar juristas com bases mais apropriadas para os desafios da era digital, seja na função de julgar ou como advogados que precisarão saber interpretar as sentenças de IA.
Com relação à jurimetria, a partir da exposição deste trabalho, concluiu-se pela necessidade de um capítulo no marco legal que delimite as especificações técnicas para programação de IA no âmbito judicial. Para que seja possível implementar sistemas de IA no processo de elaboração de sentenças é necessária uma regulamentação das múltiplas etapas técnicas que envolvem a programação. Nesse sentido, a jurimetria, que é a aplicação de métodos quantitativos para análise de decisões judiciais, pode melhorar, em grande monta, a eficiência, precisão e segurança jurídica dos sistemas.
Entende-se que a regulamentação das etapas de programação envolve conceitos complexos, todavia, passa-se à análise de alguns passos. Veja-se:
Inicialmente, é necessário estabelecer os objetivos específicos da IA em desenvolvimento. As finalidades podem ser automatização da análise das lides levadas ao judiciário, elaboração das sentenças e melhora na consistência e equidade das decisões. Para a coleta dos dados é necessário a obtenção de grandes volumes de sentenças judiciais anteriores e que tenham sido muito bem fundamentadas, além de ser importante que as sentenças sejam de diferentes jurisdições. Para além das sentenças obtidas, é necessário a coleta de metadados relevantes a exemplo do tipo de caso, natureza da decisão e contexto jurídico. A qualidade desses dados coletados influenciará, diretamente, na questão dos vieses algoritmos. Portanto, os legisladores têm que tomar especial atenção na regulamentação da coleta desses dados.
O próximo passo é a regulamentação da análise dos dados a partir da jurimetria. A aplicação de métodos estatísticos poderá identificar padrões, correlações e tendências nas decisões judiais, de forma que, a partir do machine learning ou do deep learning, os modelos de IA poderão ser desenvolvidos com segurança e precisão.
Em sequência, o legislador pode estabelecer os parâmetros para treinamento do modelo, estipulando em quais conjuntos de treinamento os dados devem ser divididos, quais as etapas para validação, quais os ambientes de teste e qual a métrica de avaliação de performance. Para isso, a legislação pode estipular o uso unificado da Sinapses, uma plataforma nacional que já é utilizada pelo Poder Judiciário. A plataforma Sinapses é “responsável por gerenciar o treinamento supervisionado, controle de versionamento, distribuição e auditoria dos modelos de inteligência artificial”, além de “estabelecer os parâmetros de sua implementação e funcionamento” (CNJ, 2024).
Por fim, como o marco legal ainda não foi completamente definido, com base nas soluções apresentadas a partir da juscibernética e jurimetria, acredita-se ser possível criar um cenário de segurança jurídica que estará alinhado às ideias do Estado Democrático de Direito.
6. Considerações finais
Por todo o exposto no presente trabalho, alcança-se o entendimento de que a implementação de IA no sistema de julgamento do judiciário brasileiro apresenta tanto oportunidades quanto desafios. Destaca-se que se por um lado a IA pode cooperar para a celeridade e a eficiência da atividade jurisdicional, por outro, é de grandioso valor assegurar que a sua utilização não irá comprometer princípios constitucionais, especificamente, a segurança jurídica.
Mediante um planejamento jurídico meticuloso e de uma regulamentação robusta e bem elaborada, é possível alinhar o uso da IA aos objetivos do Estado Democrático de Direito, de forma a promover uma justiça mais acessível, eficiente e imparcial. A integração dos conceitos de juscibernética e jurimetria pode desempenhar uma função fundamental nesse processo, disponibilizando as bases teórica e metodológicas necessárias para uma implementação segura e eficaz da IA no Poder Judiciário brasileiro.
Em síntese, a revolução tecnológica representada pela IA pode transformar profundamente o mecanismo de decisões judiciais, porém é elementar que essa mudança seja conduzida de maneira responsável e ética, respeitando os direitos e garantias fundamentais dos cidadãos. Dessa forma será plausível assegurar que a tecnologia irá contribuir para o fortalecimento do Estado Democrático de Direito e para a promoção de uma justiça equitativa.
REFERÊNCIAS
AMOROZO, Marcos. Congresso tem pelo menos 46 projetos de lei para regulamentar do uso de inteligência artificial. CNN Brasil, 2024. Disponível em: https://www.cnnbrasil.com.br/politica/congresso-tem-pelo-menos-46-projetos-de-lei-para-regulamentar-do-uso-de-inteligencia-artificial/. Acesso em 16 jun. 2024.
BARBOZA, Ingrid Eduardo Macedo. A Jurimetria Aplicada na Criação de Soluções de Inteligência Artificial, Desenvolvidas Pelo CNJ, em busca do aprimoramento do Poder Judiciário. Diálogo Jurídico, v. 18, n. 2, p. 9–23, 17 dez. 2019. Disponível em: http://revistaffb.educacao.ws/index.php/dialogo-juridico/article/view/57/57. Acesso em: 02 jun. 2024.
BARROSO, Luís Roberto. Curso de direito constitucional contemporâneo. 12. ed. São Paulo: SaraivaJur, 2024. E-book. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9788553621132/. Acesso em: 08 jun. 2024.
BRASIL. CONSELHO NACIONAL DE JUSTIÇA (CNJ). Plataforma sinapses/inteligência artificial. Brasília, 2024. Disponível em: https://www.cnj.jus.br/sistemas/plataforma-sinapses/. Acesso em: 08 jun. 2024.
BRASIL. Constituição da República Federativa do Brasil. Brasília, DF: Senado Federal, 2024. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 18 jun. 2024.
BRASIL. Projeto de Lei n° 2338 de 2023 [Senado Federal]. Dispõe sobre o uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 23 jun. 2024.
BRASIL. Resolução nº 332 de 21 de agosto de 2020. Dispõe sobre a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário e dá outras providências. Publicada no DOU em 21 de agosto de 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em 23 jun. 2024.
CANOTILHO, José Joaquim Gomes., et al. Comentários à Constituição do Brasil. 2. ed. São Paulo: SaraivaJur, 2018. [E-book]. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9788553602377/. Acesso em: 18 jun. 2024.
CONSELHO NACIONAL DE JUSTIÇA (CNJ). Programa Justiça 4.0 divulga resultados de pesquisa sobre IA no Judiciário brasileiro. Brasília: CNJ, 2024. Disponível em: https://rb.gy/984y2p. Acesso em 02 jun. 2024.
COUTO, Mônica Bonetti; OLIVEIRA, Simone Pereira. Gestão da Justiça e do Conhecimento: A Contribuição da Jurimetria para a Administração da Justiça. Revista Jurídica – Unicuritiba, v. 2, n. 43, p. 771–801, 2016. Disponível em: https://revista.unicuritiba.edu.br/index.php/RevJur/article/view/1869. Acesso em: 02 jun. 2024.
DUARTE, Fernanda Amaral; NUNES, Dierle José Coelho. Jurimetria e tecnologia: diálogos essenciais com o direito processual. Revista de Processo, v. 45, n. 299, p. 405-448, São Paulo jan. 2020. Disponível em: https://bd.tjdft.jus.br/jspui/handle/tjdft/45720. Acesso em: 08 jun. 2024.
MARQUES, Ana Luiza Pinto Coelho; NUNES, Dierle José Coelho. Inteligência artificial e direito processual: vieses algorítmicos e os riscos de atribuição de função decisória às máquinas. Revista de Processo, v. 43, n. 285. São Paulo, nov. 2018. Disponível em: https://bd.tjdft.jus.br/jspui/handle/tjdft/43025. Acesso em: 08 jun. 2024.
MELLO, Celso Antônio Bandeira. Curso de Direito Administrativo. 20. ed. São Paulo: Malheiros, 2006.
NADER, Paulo. Introdução Ao Estudo do Direito. 46. ed. Rio de Janeiro: Forense, 2024. E-book. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9788530994570/. Acesso em: 08 jun. 2024.
NUNES, Marcelo Guedes. Jurimetria: como a estatística pode reinventar o direito. São Paulo: Editora Revista dos Tribunais LTDA, 2016.
OLIVEIRA, Rafael Carvalho Rezende. Princípios do Direito Administrativo. 2. ed. Rio de Janeiro: Forense; São Paulo: Método, 2013. [E-book]. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/978-85-309-4939-6/. Acesso em: 18 jun. 2024.
PIMENTEL, Alexandre Freire. Principiologia juscibernética. Processo telemático: uma nova teoria geral do processo e do direito processual civil. 2003. Tese (Doutorado). Programa de Pós-Graduação em Direito, Universidade Federal de Pernambuco, Recife, 2003. Disponível em: https://repositorio.ufpe.br/handle/123456789/3969. Acesso em: 08 jun. 2024.
REALE, Miguel. Lições Preliminares de Direito, 27. ed. São Paulo: Saraiva, 2022. E-book. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9788502136847/. Acesso em: 08 jun. 2024
SANTOS, José Carlos Francisco. et al. Juscibernética: A Liberdade e o Controle Algorítmico na Sociedade da Informação. Curitiba: Editora BAGAI, 2022.
SPADINI, Allan Segovia. O que é Inteligência Artificial? Como funciona uma IA, quais os tipos e exemplos. Brasil: Alura, 2023. Disponível em: https://www.alura.com.br/artigos/inteligencia-artificial-ia. Acesso em: 02 jun. 2024.
VALENTINI, Rômulo Soares. Julgamento por computadores? as novas possibilidades da juscibernética no século XXI e suas implicações para o futuro do Direito e do trabalho dos juristas. 2018. Tese (doutorado). Universidade Federal de Minas Gerais. Disponível em: https://repositorio.ufmg.br/handle/1843/BUOS-B5DPSA. Acesso em: 08 jun. 2024.
WEBB, Amy. Os Nove Titãs da IA. Rio de Janeiro: Editora Alta Books, 2020. [E-book]. Disponível em: https://integrada.minhabiblioteca.com.br/#/books/9788550810744/. Acesso em: 08 jun. 2024.
[1] Graduanda em Direito pela Universidade Presidente Antônio Carlos.
[2] Texto escrito sob a orientação do Prof. Dr. Ciro di Benatti Galvão.
[3] Cf. Bruno Picinini, vídeo: Inteligência Artificial Explicada em apenas 11 minutos – o que é inteligência artificial? Disponível em: https://www.youtube.com/watch?v=HNBtdyMjxKU
[4] Cf. Canal do YouTube “Código Fonte TV”, vídeo: Inteligência Artificial (A Tecnologia que Está Mudando o Mundo). Disponível em: https://www.youtube.com/watch?v=D0O-Lk_Dnkw .
[5] Recursos que alteram rostos e vozes de pessoas para criação de imagens e áudios falsos.
[6] Cf. reportagem de Marcos Amoroso, junto à CNN Brasil, disponível em: https://www.cnnbrasil.com.br/politica/congresso-tem-pelo-menos-46-projetos-de-lei-para-regulamentar-do-uso-de-inteligencia-artificial/