Por GABRIEL CARNAVAL ROSA*
O perigo de se substituir a antiga ilusão da neutralidade do juiz pela nova crença na imparcialidade dos algoritmos em um cenário que prioriza a gestão de estoques numéricos em detrimento da qualidade argumentativa do Direito
Diagnóstico sobre automatização de processos
Levar ao trânsito em julgado os mais de 80 milhões de processos em curso no país[i] com o auxílio da inteligência artificial soa, à primeira vista, como uma solução quase redentora aos pecados do Judiciário brasileiro. Tal solução, à luz da Constituição Federal, concretizaria o tal direito fundamental de cada brasileiro à duração razoável do processo e à celeridade do trâmite judicial (art. 5º, LXXVIII). Ninguém quer que seu processo dure mais de seis meses, quem dirá seis anos.
É sempre bom referenciar os mestres Kazuo Watanabe e Humberto Theodoro, que insistiram, em suas obras, que a deficiência organizacional do Judiciário é um dos fatores que comprometem a efetividade do direito e ao acesso à ordem jurídica. Processo tardio, em muitos casos, equivale a processo inútil.
Mas não deixamos nos enganar, como bem observou Daniela Gabbay,[ii] dialogando com a formulação de Marc Galanter, o imenso volume de litigiosidade de uma sociedade não decorre, necessariamente, de uma cultura de “vou te processar!”, mas da atuação reiterada de grandes litigantes internos do país. Quer dizer, o volume de ações judiciais, muitas vezes, é produto da repetição estratégica (muito bem definida por advogados experientes) de condutas por atores economicamente e politicamente estruturados, e não de um impulso cultural do homo brasilis.
Entre nós, esses agentes são os próprios detentores dos meios de produção, Estado incluído, que figuram como protagonistas da engrenagem judicial. Bancos, planos de saúde, empresas de massa, entes públicos, são eles que, pela larga escala de suas operações e pela padronização de suas práticas, acabam por gerar conflitos igualmente padronizados.
Dessa padronização das ações judiciais emerge, quase inevitavelmente, a tentação de uma solução igualmente padronizada. É o pensamento humano rápido operando. Aquilo que Daniel Kahneman denominou de Sistema 1: a resposta intuitiva, imediata, simplificadora. Se a maior parte dos casos se repete, conclui-se sem grande esforço, então é possível padronizar; e, se é possível padronizar, por que não automatizar?
A inferência parece lógica. E justamente por parecer lógica é que seduz. O problema é que esse encadeamento (repetição, padronização, automação) produz inquietação profunda na teoria do Direito. Ainda que muitos manuais tenham difundido a fórmula anestesiadora “fato + norma = decisão”, a prática jurídica revela algo bem mais complexo.
Indagações sobre decisão judicial
Poucos temas são tão aparentemente simples, e, ao mesmo tempo, tão filosoficamente complexos, quanto a pergunta: que fazem os juízes quando decidem?
Ao não jurista, contudo, nada disso costuma soar problemático. “Juízes decidem o que é justo, oras”, diria com naturalidade. E, em certo sentido, é verdade. Mas essa formulação esconde uma outra pergunta: com base em quê se decide o que é justo?
Foi justamente essa questão que animou um dos debates mais sofisticados da teoria do direito no século XX: o confronto entre o H.L.A. Hart e seu sucessor em Oxford, Ronald Dworkin. Estaria o juiz autorizado a exercer discricionariedade forte nos chamados hard cases, criando direito onde a regra é indeterminada? Ou haveria sempre uma resposta correta, a ser descoberta à luz de princípios jurídicos que já integram o sistema?
Esse embate tornou-se quase um microcosmo da filosofia do direito contemporânea. Ainda assim, permaneceu relativamente fechado em seus próprios termos. Pouco dialogou com a tradição hermenêutica mais ampla inaugurada por Friedrich Schleiermacher e desenvolvida, no século XX, por Hans-Georg Gadamer. A ausência desse diálogo custou caro à interpretação jurídica, empobrecendo a reflexão sobre o que significa compreender, e, por consequência, aplicar o direito.
Apesar disso, do debate Hart-Dworkin irradiaram-se teorias que influenciaram decisivamente o discurso jurisprudencial brasileiro, especialmente no Supremo Tribunal Federal. Em especial, a recepção da teoria da ponderação de Robert Alexy e da chamada jurisprudência dos valores consolidou, entre nós, uma prática argumentativa marcada pela invocação frequente de princípios. Inclusive, com lucidez, Carlos Ari Sundfeld já denominou esse fenômeno de a “farra dos princípios”.[iii]
O STF passou, então, a citar Robert Alexy e, ocasionalmente, Ronald Dworkin. Contudo, raramente o fez de modo sistemático ou conceitualmente rigoroso. O resultado, não poucas vezes, produziu algo que se poderia chamar de uma espécie de criatura híbrida, uma monstruosidade Dworkin-Alexy desprovida de coerência filosófica e teórica. Se houvesse leitura atenta até de poucas obras de Alexy, perceberiam os ministros que ele jamais propôs um modelo universal de ponderação aplicável indistintamente a qualquer ordem constitucional, especialmente fora do contexto alemão que fundamenta sua teoria da ponderação.[iv]
Não seria um ledo equívoco já começar a se perguntar se não seria este um momento oportuno para exigirmos, de fato, justificativas teóricas consistentes – evidências científicas, por assim dizer – daqueles que exercem o poder de aplicar o Direito. Ora, se já há o risco de uma decisão brotar apenas da “consciência” do juiz – do “decido X e não Y porque assim penso” –, então talvez estejamos apenas mudando o rótulo do problema quando jogamos a questão da decisão para uma Inteligência Artificial.
Direito e Inteligência Artificial é uma intercessão descompromissada?
Devemos ter em mente que modelos de machine learning são, em essência, grandes modelos estatísticos.[v] Não pensam, não compreendem, não interpretam. Correlacionam padrões a partir de um grande banco de dados tratado e gerenciado por humanos e não humanos.
Com o avanço dos modelos de linguagem de larga escala, o poder de processamento tornou-se impressionante. A fluidez textual pode criar a impressão de raciocínio autônomo. Mas, estruturalmente, a sofisticação não altera a natureza fundamental do modelo.[vi]
Enquanto isso, o Poder Judiciário brasileiro já opera com ferramentas de Inteligência artificial desenvolvidas, inclusive, com apoio de universidades públicas[vii]. O sistema Victor, no STF, o Sócrates, no STJ, e a Alice, no TCU, são exemplos conhecidos. Contudo, ainda funcionam predominantemente como instrumentos auxiliares – ferramentas de triagem, classificação e organização processual – e não exatamente como decisores autônomos. Quer dizer, é essa distinção que autores como Robert Buckland[viii] já ressaltaram ao tratar da relação entre inteligência artificial, juízes e julgamento. A tecnologia pode e deve apoiar o trabalho da juridicidade, mas não substitui o juízo humano.
O risco que queremos demonstrar emerge quando a lógica estatística começa a moldar silenciosamente o próprio conceito de decisão do ser humano julgador. Submeter o julgador à lógica de metas e indicadores já era perigoso na época da Resolução nº 76/2009, do Conselho Nacional de Justiça, onde o juiz deixa de ser delegado da pólis para exercer um dever ético de julgamento responsável e passa a operar como gestor de estoque processual.[ix] Instala-se o paradigma da produtividade. Nesse paradigma, a decisão tende a ser avaliada menos por sua qualidade argumentativa e mais por sua eficiência numérica.
Porém, no plano institucional, o CNJ editou a Portaria nº 271/2020, incorporando diretrizes da Estratégia Brasileira de Inteligência Artificial e alinhando-se às recomendações da OCDE. O próprio art. 2º, parágrafo único, inciso III, reconhece como projetos de Inteligência artificial aqueles destinados a “prover soluções de apoio à decisão dos magistrados ou à elaboração de minutas de atos judiciais em geral”. Trata-se, portanto, de reconhecimento positivado e explícito de que tais sistemas integram o ambiente decisório no Brasil.
Ainda assim, permanece intocada uma questão central: o ato de julgar, segundo a própria lei posta, é atribuição privativa do magistrado humano (art. 203, do CPC). A arquitetura normativa parte da premissa de que a jurisdição é exercício humano de responsabilidade institucional.
Se a Inteligência artificial atua como ferramenta auxiliar, preserva-se a centralidade do juiz como responsável pela decisão. Contudo, se sua atuação se torna determinante sem transparência adequada, corre-se o risco de deslocar, silenciosamente, o lócus da decisão. E quando a decisão deixa de ser plenamente atribuível a um sujeito responsável, a própria ideia de jurisdição, novamente, como função ética delegada pela pólis, começa a se fragilizar.
A resposta elaborada pela melhor doutrina tem sido a aposta na transparência e na justificação pública frente aos sistemas de Inteligência artificial.[x] Transparência como exigência epistêmica e democrática. Significaria tornar inteligível o processo decisório, inclusive quando mediado por sistemas algorítmicos. Permitir que as partes compreendam não apenas o resultado, mas o caminho argumentativo que conduziu a ele.
Em termos práticos, se a Inteligência artificial participa da elaboração de minutas, sugestões, trechos decisórios, triagens processuais, tais circunstâncias devem ser expressamente indicada no corpo do ato processual. O que não se pode admitir é a invisibilidade algorítmica no interior do ato jurisdicional.
Mas mesmo com todas as medidas de mitigação de riscos – transparência, explicabilidade, auditoria, compliance e governança de dados – permanece a questão essencial: quem decide por último?
Se o magistrado apenas homologa sugestões algorítmicas sem controle crítico efetivo, a decisão continua sendo dele apenas nominalmente. A assinatura pode ser humana, mas o núcleo racional pode ter sido deslocado. A responsabilidade permanece formalmente atribuída ao juiz, mas a determinação concreta do sentido pode estar condicionada por padrões estatísticos que ele próprio não domina integralmente.
Nunca é demais indagar: quem pagará a conta?
Nossa preocupação é que o direito brasileiro tende a dialogar com ferramentas de Inteligência artificial sem antes resolver suas próprias fragilidades teóricas. Não temos uma matriz teórica, filosófica e prática consolidada nos tribunais brasileiros. O ensino jurídico continua descompromissado com a própria filosofia que lhe daria sustentação crítica.
Distanciamo-nos da chamada virada hermenêutica, do giro ontológico proposto por Martin Heidegger, com sua noção de diferença ontológica, e da hermenêutica filosófica de Hans-Georg Gadamer, para quem a linguagem não é instrumento neutro, mas o próprio meio no qual se dá a compreensão.
A hermenêutica filosófica demonstra que todo ato de compreensão é atravessado por pré-compreensões. O intérprete não se aproxima do texto como uma folha em branco, mas já está situado em um mundo de significados, expectativas, linguagem, valores e categorias que moldam sua percepção. Não há ponto zero da interpretação. Toda leitura é situada.
O direito, numa visão mais radicalizada, seria, por definição, apenas uma atualização do sentido normativo.[xi] Cada decisão reabre o texto e o reinsere no fluxo da história.
O chamado sensus communis também merece ser elencado. Em Hans-Georg Gadamer,[xii] ele representa aquele horizonte compartilhado de significados sedimentados na tradição, aquilo que torna possível que uma comunidade jurídica reconheça argumentos como plausíveis ou inaceitáveis. É dizer que o juiz decide dentro de um mundo comum de referências históricas, culturais e institucionais. Sua decisão é inteligível porque participa desse tecido simbólico coletivo.
O problema é que o jurista médio raramente enxerga essa condição. Ainda operamos sob o paradigma da filosofia da consciência: a ideia de que o sujeito cognoscente, isolado, pode apreender o objeto jurídico de maneira neutra, quase como quem observa algo externo a si. A decisão continua sendo apresentada como produto de uma vontade racional que aplica normas previamente dadas a fatos previamente descritos.
É verdade que uma parte desse processo, a identificação de padrões no Judiciário, a comparação de precedentes, a sistematização de entendimentos reiterados, pode ser automatizada com relativa facilidade, desde que haja investimento, dados estruturados e capacidade computacional que, como é de praxe das contratações públicas brasileiras, com certeza será internalizado a um grupo econômico estrangeiro.
Passamos, então, a enfrentar questões de soberania digital, governança de dados e dependência tecnológica. Quando o processamento das informações judiciais, ainda que anonimizado, ocorre em data centers administrados por corporações globais, insere-se o Poder Judiciário em cadeias transnacionais de infraestrutura sobre as quais ele não exerce controle integral. O problema deixaria, então, de ser apenas jurídico e tornar-se-ia geopolítico.
Fato é que se não enfrentarmos essa escolha de maneira franca, corremos o risco de substituir a antiga ilusão da neutralidade do juiz pela nova ilusão da neutralidade do algoritmo. E, nesse movimento, talvez percamos aquilo que ainda sustenta a legitimidade da jurisdição: a possibilidade de justificar, publicamente e com responsabilidade, por que se decidiu como se decidiu.
*Gabriel Carnaval Rosa é mestrando em Filosofia do direito na Faculdade de Direito da USP.
Notas
[i] Ver em: https://www.cnj.jus.br/pesquisas-judiciarias/justica-em-numeros/.
[ii] GABBAY, Daniela Monteiro et al. Why the’Haves’ Come Out Ahead in Brazil? Revisiting Speculations Concerning Repeat Players and One-Shooters in the Brazilian Litigation Setting (January 15, 2016). FGV Direito SP Research Paper Series, n. 141, 2016.
[iii] SUNDFELD, Carlos Ari. Princípio é preguiça?. Direito administrativo para céticos, v. 2, p. 205-229, 2011.
[iv] A respeito desse ponto, recomenda-se a leitura da valiosíssima pesquisa de doutorado de Lorena Duarte (2014), sobre a inadequação da recepção da teoria da ponderação de Alexy pelo direito brasileiro. Disponível em: https://www.repositorio.jesuita.org.br/handle/UNISINOS/4829.
[v] LEHR, David; OHM, Paul. Playing with the data: what legal scholars should learn about machine learning. UCDL Rev., v. 51, p. 653, 2017.
[vi] Recomenda-se a leitura do artigo: CYPHERT, Amy B. A human being wrote this law review article: GPT-3 and the practice of law. UC Davis L. Rev., v. 55, p. 401, 2021.
[vii] Ver: http://dria.unb.br/teste-top/projeto-victor-stf-unb.
[viii] BUCKLAND, Robert. AI, Judges and Judgment: setting the scene. 2023. Entre outros: LIN, Jiahuei et al. Engineering AI Judge Systems. arXiv preprint arXiv:2411.17793, 2024; MANOLI, Aikaterina; PAUKETAT, Janet VT; ANTHIS, Jacy Reese. The AI double standard: Humans judge all AIs for the actions of one. Proceedings of the ACM on Human-Computer Interaction, v. 9, n. 2, p. 1-24, 2025.
[ix] Mas não sejamos ingênuos na crítica. Milhões de processos tramitam simultaneamente, prazos se acumulam, decisões são proferidas em escala industrial. O sistema precisa, de fato, de uma válvula de escape. Processualistas apostaram na ampliação dos meios adequados de resolução de conflitos, na mediação, na arbitragem, na cultura do acordo. Outros sustentaram que o problema residiria na valorização da magistratura: mais estrutura, melhores salários, mais assessores, mais tecnologia de apoio. Porém, enquanto as práticas reiteradas de litigância predatória não forem enfrentadas com mecanismos eficazes de desestímulo, inclusive econômicos, o Judiciário continuará funcionando como engrenagem absorvedora de condutas repetitivas.
[x] Ver: DE ALBUQUERQUE MARANHÃO, Juliano Souza; JUNQUILHO, Tainá Aguiar; TASSO, Fernando Antonio. Transparência sobre o emprego de Inteligência Artificial no Judiciário: um modelo de governança. Suprema: Revista de Estudos Constitucionais, v. 3, n. 2, p. 145-187, 2023; CAVALCANTE, Antonio Pimentel; PATRIOTA, Marta Virginia Moreira Bezerra. Decisões judiciais brasileiras (não) humanas. Revista de Direito Constitucional & Econômico, v. 6, n. 1, p. 180-196, 2024; BARROS, Heloísa Mesquita Fávaro. Inteligência artificial, argumentação e ação comunicativa: Potencialidades e desafios com a crescente judicialização. 2024. Dissertação de Mestrado. Universidade do Oeste de Santa Catarina (Brasil).
[xi] SOLON, Ari Marcelo. Hermenêutica jurídica radical. Marcial Pons, p. 104, 2017.
[xii] GADAMER, Hans-Georg. Verdade e Método: traços fundamentais de uma hermenêutica filosófica. Petrópolis: Vozes, 2000.






















