O mito da decisão automática no direito

Imagem: Simone Hutsch
image_pdf

Por GABRIEL CARNAVAL ROSA*

O perigo de se substituir a antiga ilusão da neutralidade do juiz pela nova crença na imparcialidade dos algoritmos em um cenário que prioriza a gestão de estoques numéricos em detrimento da qualidade argumentativa do Direito

Diagnóstico sobre automatização de processos

Levar ao trânsito em julgado os mais de 80 milhões de processos em curso no país[i] com o auxílio da inteligência artificial soa, à primeira vista, como uma solução quase redentora aos pecados do Judiciário brasileiro. Tal solução, à luz da Constituição Federal, concretizaria o tal direito fundamental de cada brasileiro à duração razoável do processo e à celeridade do trâmite judicial (art. 5º, LXXVIII). Ninguém quer que seu processo dure mais de seis meses, quem dirá seis anos.

É sempre bom referenciar os mestres Kazuo Watanabe e Humberto Theodoro, que insistiram, em suas obras, que a deficiência organizacional do Judiciário é um dos fatores que comprometem a efetividade do direito e ao acesso à ordem jurídica. Processo tardio, em muitos casos, equivale a processo inútil.

Mas não deixamos nos enganar, como bem observou Daniela Gabbay,[ii] dialogando com a formulação de Marc Galanter, o imenso volume de litigiosidade de uma sociedade não decorre, necessariamente, de uma cultura de “vou te processar!”, mas da atuação reiterada de grandes litigantes internos do país. Quer dizer, o volume de ações judiciais, muitas vezes, é produto da repetição estratégica (muito bem definida por advogados experientes) de condutas por atores economicamente e politicamente estruturados, e não de um impulso cultural do homo brasilis.

Entre nós, esses agentes são os próprios detentores dos meios de produção, Estado incluído, que figuram como protagonistas da engrenagem judicial. Bancos, planos de saúde, empresas de massa, entes públicos, são eles que, pela larga escala de suas operações e pela padronização de suas práticas, acabam por gerar conflitos igualmente padronizados.

Dessa padronização das ações judiciais emerge, quase inevitavelmente, a tentação de uma solução igualmente padronizada. É o pensamento humano rápido operando. Aquilo que Daniel Kahneman denominou de Sistema 1: a resposta intuitiva, imediata, simplificadora. Se a maior parte dos casos se repete, conclui-se sem grande esforço, então é possível padronizar; e, se é possível padronizar, por que não automatizar?

A inferência parece lógica. E justamente por parecer lógica é que seduz. O problema é que esse encadeamento (repetição, padronização, automação) produz inquietação profunda na teoria do Direito. Ainda que muitos manuais tenham difundido a fórmula anestesiadora “fato + norma = decisão”, a prática jurídica revela algo bem mais complexo.

Indagações sobre decisão judicial

Poucos temas são tão aparentemente simples, e, ao mesmo tempo, tão filosoficamente complexos, quanto a pergunta: que fazem os juízes quando decidem?

Ao não jurista, contudo, nada disso costuma soar problemático. “Juízes decidem o que é justo, oras”, diria com naturalidade. E, em certo sentido, é verdade. Mas essa formulação esconde uma outra pergunta: com base em quê se decide o que é justo?

Foi justamente essa questão que animou um dos debates mais sofisticados da teoria do direito no século XX: o confronto entre o H.L.A. Hart e seu sucessor em Oxford, Ronald Dworkin. Estaria o juiz autorizado a exercer discricionariedade forte nos chamados hard cases, criando direito onde a regra é indeterminada? Ou haveria sempre uma resposta correta, a ser descoberta à luz de princípios jurídicos que já integram o sistema?

Esse embate tornou-se quase um microcosmo da filosofia do direito contemporânea. Ainda assim, permaneceu relativamente fechado em seus próprios termos. Pouco dialogou com a tradição hermenêutica mais ampla inaugurada por Friedrich Schleiermacher e desenvolvida, no século XX, por Hans-Georg Gadamer. A ausência desse diálogo custou caro à interpretação jurídica, empobrecendo a reflexão sobre o que significa compreender, e, por consequência, aplicar o direito.

Apesar disso, do debate Hart-Dworkin irradiaram-se teorias que influenciaram decisivamente o discurso jurisprudencial brasileiro, especialmente no Supremo Tribunal Federal. Em especial, a recepção da teoria da ponderação de Robert Alexy e da chamada jurisprudência dos valores consolidou, entre nós, uma prática argumentativa marcada pela invocação frequente de princípios. Inclusive, com lucidez, Carlos Ari Sundfeld já denominou esse fenômeno de a “farra dos princípios”.[iii]

O STF passou, então, a citar Robert Alexy e, ocasionalmente, Ronald Dworkin. Contudo, raramente o fez de modo sistemático ou conceitualmente rigoroso. O resultado, não poucas vezes, produziu algo que se poderia chamar de uma espécie de criatura híbrida, uma monstruosidade Dworkin-Alexy desprovida de coerência filosófica e teórica. Se houvesse leitura atenta até de poucas obras de Alexy, perceberiam os ministros que ele jamais propôs um modelo universal de ponderação aplicável indistintamente a qualquer ordem constitucional, especialmente fora do contexto alemão que fundamenta sua teoria da ponderação.[iv]

Não seria um ledo equívoco já começar a se perguntar se não seria este um momento oportuno para exigirmos, de fato, justificativas teóricas consistentes – evidências científicas, por assim dizer – daqueles que exercem o poder de aplicar o Direito. Ora, se já há o risco de uma decisão brotar apenas da “consciência” do juiz – do “decido X e não Y porque assim penso” –, então talvez estejamos apenas mudando o rótulo do problema quando jogamos a questão da decisão para uma Inteligência Artificial.

Direito e Inteligência Artificial é uma intercessão descompromissada?

Devemos ter em mente que modelos de machine learning são, em essência, grandes modelos estatísticos.[v] Não pensam, não compreendem, não interpretam. Correlacionam padrões a partir de um grande banco de dados tratado e gerenciado por humanos e não humanos.

Com o avanço dos modelos de linguagem de larga escala, o poder de processamento tornou-se impressionante. A fluidez textual pode criar a impressão de raciocínio autônomo. Mas, estruturalmente, a sofisticação não altera a natureza fundamental do modelo.[vi]

Enquanto isso, o Poder Judiciário brasileiro já opera com ferramentas de Inteligência artificial desenvolvidas, inclusive, com apoio de universidades públicas[vii]. O sistema Victor, no STF, o Sócrates, no STJ, e a Alice, no TCU, são exemplos conhecidos. Contudo, ainda funcionam predominantemente como instrumentos auxiliares – ferramentas de triagem, classificação e organização processual – e não exatamente como decisores autônomos. Quer dizer, é essa distinção que autores como Robert Buckland[viii] já ressaltaram ao tratar da relação entre inteligência artificial, juízes e julgamento. A tecnologia pode e deve apoiar o trabalho da juridicidade, mas não substitui o juízo humano.

O risco que queremos demonstrar emerge quando a lógica estatística começa a moldar silenciosamente o próprio conceito de decisão do ser humano julgador. Submeter o julgador à lógica de metas e indicadores já era perigoso na época da Resolução nº 76/2009, do Conselho Nacional de Justiça, onde o juiz deixa de ser delegado da pólis para exercer um dever ético de julgamento responsável e passa a operar como gestor de estoque processual.[ix] Instala-se o paradigma da produtividade. Nesse paradigma, a decisão tende a ser avaliada menos por sua qualidade argumentativa e mais por sua eficiência numérica.

Porém, no plano institucional, o CNJ editou a Portaria nº 271/2020, incorporando diretrizes da Estratégia Brasileira de Inteligência Artificial e alinhando-se às recomendações da OCDE. O próprio art. 2º, parágrafo único, inciso III, reconhece como projetos de Inteligência artificial aqueles destinados a “prover soluções de apoio à decisão dos magistrados ou à elaboração de minutas de atos judiciais em geral”. Trata-se, portanto, de reconhecimento positivado e explícito de que tais sistemas integram o ambiente decisório no Brasil.

Ainda assim, permanece intocada uma questão central: o ato de julgar, segundo a própria lei posta, é atribuição privativa do magistrado humano (art. 203, do CPC). A arquitetura normativa parte da premissa de que a jurisdição é exercício humano de responsabilidade institucional.

Se a Inteligência artificial atua como ferramenta auxiliar, preserva-se a centralidade do juiz como responsável pela decisão. Contudo, se sua atuação se torna determinante sem transparência adequada, corre-se o risco de deslocar, silenciosamente, o lócus da decisão. E quando a decisão deixa de ser plenamente atribuível a um sujeito responsável, a própria ideia de jurisdição, novamente, como função ética delegada pela pólis, começa a se fragilizar.

A resposta elaborada pela melhor doutrina tem sido a aposta na transparência e na justificação pública frente aos sistemas de Inteligência artificial.[x] Transparência como exigência epistêmica e democrática. Significaria tornar inteligível o processo decisório, inclusive quando mediado por sistemas algorítmicos. Permitir que as partes compreendam não apenas o resultado, mas o caminho argumentativo que conduziu a ele.

Em termos práticos, se a Inteligência artificial participa da elaboração de minutas, sugestões, trechos decisórios, triagens processuais, tais circunstâncias devem ser expressamente indicada no corpo do ato processual. O que não se pode admitir é a invisibilidade algorítmica no interior do ato jurisdicional.

Mas mesmo com todas as medidas de mitigação de riscos – transparência, explicabilidade, auditoria, compliance e governança de dados – permanece a questão essencial: quem decide por último?

Se o magistrado apenas homologa sugestões algorítmicas sem controle crítico efetivo, a decisão continua sendo dele apenas nominalmente. A assinatura pode ser humana, mas o núcleo racional pode ter sido deslocado. A responsabilidade permanece formalmente atribuída ao juiz, mas a determinação concreta do sentido pode estar condicionada por padrões estatísticos que ele próprio não domina integralmente.

Nunca é demais indagar: quem pagará a conta?

Nossa preocupação é que o direito brasileiro tende a dialogar com ferramentas de Inteligência artificial sem antes resolver suas próprias fragilidades teóricas. Não temos uma matriz teórica, filosófica e prática consolidada nos tribunais brasileiros. O ensino jurídico continua descompromissado com a própria filosofia que lhe daria sustentação crítica.

Distanciamo-nos da chamada virada hermenêutica, do giro ontológico proposto por Martin Heidegger, com sua noção de diferença ontológica, e da hermenêutica filosófica de Hans-Georg Gadamer, para quem a linguagem não é instrumento neutro, mas o próprio meio no qual se dá a compreensão.

A hermenêutica filosófica demonstra que todo ato de compreensão é atravessado por pré-compreensões. O intérprete não se aproxima do texto como uma folha em branco, mas já está situado em um mundo de significados, expectativas, linguagem, valores e categorias que moldam sua percepção. Não há ponto zero da interpretação. Toda leitura é situada.

O direito, numa visão mais radicalizada, seria, por definição, apenas uma atualização do sentido normativo.[xi] Cada decisão reabre o texto e o reinsere no fluxo da história.

O chamado sensus communis também merece ser elencado. Em Hans-Georg Gadamer,[xii] ele representa aquele horizonte compartilhado de significados sedimentados na tradição, aquilo que torna possível que uma comunidade jurídica reconheça argumentos como plausíveis ou inaceitáveis. É dizer que o juiz decide dentro de um mundo comum de referências históricas, culturais e institucionais. Sua decisão é inteligível porque participa desse tecido simbólico coletivo.

O problema é que o jurista médio raramente enxerga essa condição. Ainda operamos sob o paradigma da filosofia da consciência: a ideia de que o sujeito cognoscente, isolado, pode apreender o objeto jurídico de maneira neutra, quase como quem observa algo externo a si. A decisão continua sendo apresentada como produto de uma vontade racional que aplica normas previamente dadas a fatos previamente descritos.

É verdade que uma parte desse processo, a identificação de padrões no Judiciário, a comparação de precedentes, a sistematização de entendimentos reiterados, pode ser automatizada com relativa facilidade, desde que haja investimento, dados estruturados e capacidade computacional que, como é de praxe das contratações públicas brasileiras, com certeza será internalizado a um grupo econômico estrangeiro.

Passamos, então, a enfrentar questões de soberania digital, governança de dados e dependência tecnológica. Quando o processamento das informações judiciais, ainda que anonimizado, ocorre em data centers administrados por corporações globais, insere-se o Poder Judiciário em cadeias transnacionais de infraestrutura sobre as quais ele não exerce controle integral. O problema deixaria, então, de ser apenas jurídico e tornar-se-ia geopolítico.

Fato é que se não enfrentarmos essa escolha de maneira franca, corremos o risco de substituir a antiga ilusão da neutralidade do juiz pela nova ilusão da neutralidade do algoritmo. E, nesse movimento, talvez percamos aquilo que ainda sustenta a legitimidade da jurisdição: a possibilidade de justificar, publicamente e com responsabilidade, por que se decidiu como se decidiu.

*Gabriel Carnaval Rosa é mestrando em Filosofia do direito na Faculdade de Direito da USP.

Notas


[i] Ver em: https://www.cnj.jus.br/pesquisas-judiciarias/justica-em-numeros/.

[ii] GABBAY, Daniela Monteiro et al. Why the’Haves’ Come Out Ahead in Brazil? Revisiting Speculations Concerning Repeat Players and One-Shooters in the Brazilian Litigation Setting (January 15, 2016). FGV Direito SP Research Paper Series, n. 141, 2016.

[iii] SUNDFELD, Carlos Ari. Princípio é preguiça?. Direito administrativo para céticos, v. 2, p. 205-229, 2011.

[iv] A respeito desse ponto, recomenda-se a leitura da valiosíssima pesquisa de doutorado de Lorena Duarte (2014), sobre a inadequação da recepção da teoria da ponderação de Alexy pelo direito brasileiro. Disponível em: https://www.repositorio.jesuita.org.br/handle/UNISINOS/4829.

[v] LEHR, David; OHM, Paul. Playing with the data: what legal scholars should learn about machine learning. UCDL Rev., v. 51, p. 653, 2017.

[vi] Recomenda-se a leitura do artigo: CYPHERT, Amy B. A human being wrote this law review article: GPT-3 and the practice of law. UC Davis L. Rev., v. 55, p. 401, 2021.

[vii] Ver: http://dria.unb.br/teste-top/projeto-victor-stf-unb.

[viii] BUCKLAND, Robert. AI, Judges and Judgment: setting the scene. 2023. Entre outros: LIN, Jiahuei et al. Engineering AI Judge Systems. arXiv preprint arXiv:2411.17793, 2024; MANOLI, Aikaterina; PAUKETAT, Janet VT; ANTHIS, Jacy Reese. The AI double standard: Humans judge all AIs for the actions of one. Proceedings of the ACM on Human-Computer Interaction, v. 9, n. 2, p. 1-24, 2025.

[ix] Mas não sejamos ingênuos na crítica. Milhões de processos tramitam simultaneamente, prazos se acumulam, decisões são proferidas em escala industrial. O sistema precisa, de fato, de uma válvula de escape. Processualistas apostaram na ampliação dos meios adequados de resolução de conflitos, na mediação, na arbitragem, na cultura do acordo. Outros sustentaram que o problema residiria na valorização da magistratura: mais estrutura, melhores salários, mais assessores, mais tecnologia de apoio. Porém, enquanto as práticas reiteradas de litigância predatória não forem enfrentadas com mecanismos eficazes de desestímulo, inclusive econômicos, o Judiciário continuará funcionando como engrenagem absorvedora de condutas repetitivas.

[x] Ver: DE ALBUQUERQUE MARANHÃO, Juliano Souza; JUNQUILHO, Tainá Aguiar; TASSO, Fernando Antonio. Transparência sobre o emprego de Inteligência Artificial no Judiciário: um modelo de governança. Suprema: Revista de Estudos Constitucionais, v. 3, n. 2, p. 145-187, 2023; CAVALCANTE, Antonio Pimentel; PATRIOTA, Marta Virginia Moreira Bezerra. Decisões judiciais brasileiras (não) humanas. Revista de Direito Constitucional & Econômico, v. 6, n. 1, p. 180-196, 2024; BARROS, Heloísa Mesquita Fávaro. Inteligência artificial, argumentação e ação comunicativa: Potencialidades e desafios com a crescente judicialização. 2024. Dissertação de Mestrado. Universidade do Oeste de Santa Catarina (Brasil).

[xi] SOLON, Ari Marcelo. Hermenêutica jurídica radical. Marcial Pons, p. 104, 2017.

[xii] GADAMER, Hans-Georg. Verdade e Método: traços fundamentais de uma hermenêutica filosófica. Petrópolis: Vozes, 2000.

Veja todos artigos de

MAIS LIDOS NOS ÚLTIMOS 7 DIAS

1
O STF está validando a fraude trabalhista
03 Mar 2026 Por DURVAL SIQUEIRA SOBRAL: Ao legitimar a pejotização, o sistema jurídico reconfigura o trabalho como negócio e não como relação social
2
Guerra na Ucrânia – um duelo sem vencedores
04 Mar 2026 Por EURICO DE LIMA FIGUEIREDO: O conflito que deveria ser relâmpago virou atrito eterno, onde vidas são o preço que nenhuma planilha consegue calcular
3
O cinema revela Jeffrey Epstein
05 Mar 2026 Por EUGÊNIO BUCCI: Para entender Epstein, a lição dos filmes que expõem a orgia dos poderosos
4
O escritor e o intelectual
28 Feb 2026 Por LUCIANA MOLINA: Na escrita acadêmica, já vi quem compartilhasse da ideia de que deve existir uniformidade no tamanho dos parágrafos. O sentido passa a ser construído por coerção externa. Essa homogeneização artificial substitui melodia por monotonia
5
O novo imperialismo de Donald Trump
03 Mar 2026 Por CARLOS EDUARDO MARTINS: O Hemisfério Ocidental substitui o Oriente Médio na condição de espaço vital estadunidense, mas o projeto de poder mundial de Trump não delimita zonas de influência: é o de construir um império global que impeça o surgimento de qualquer força regional
6
Lévi-Strauss
06 Mar 2026 Por AFRÂNIO CATANI: Comentário sobre a biografia do antropólogo realizada por Emmanuelle Loyer
7
Quem tem medo das mestiçagens?
05 Mar 2026 Por ALIPIO DESOUSA FILHO: Reconhecer as mestiçagens é encarar a história e recusar as ficções de pureza que sustentam o racismo
8
A campanha militar dos EUA
03 Mar 2026 Por ANDREW KORYBKO: A campanha contra o Irã não é sobre Teerã, mas sobre Pequim: o petróleo iraniano é a moeda de troca para conter a China
9
Tempos de exceção
04 Mar 2026 Por OLGARIA MATOS: Na lógica da segurança que governa a desordem, a alienação não é mais apenas do trabalho, mas da própria condição de existir no tempo — e só a reabertura do futuro como promessa, não como ameaça, que se pode interromper a regressão para o reino das emoções primárias
10
A hegemonia da lógica da financeirização
04 Mar 2026 Por PAULO GHIRALDELLI: Sem compreender a simbiose entre plataformização e financeirização, toda análise do capitalismo contemporâneo permanece cega para a alma dos trabalhadores e vazia de transformação possível
11
Erro de cálculo?
07 Mar 2026 Por PAULO NOGUEIRA BATISTA JR.: A resistência do Irã e a coesão interna do país só aumentaram com a decisão realmente estúpida, tomada por Estados Unidos e Israel, de assassinar o aiatolá Ali Khamenei
12
Universidade pública e coragem institucional
05 Mar 2026 Por RODRIGO OTÁVIO MORETTI: A universidade pública sustenta direitos no tempo longo. Defendê-la é um gesto de responsabilidade democrática
13
Cenários para o fim da terceira guerra do Golfo
06 Mar 2026 Por ANDREW KORYBKO: Entre a rendição estratégica e a balcanização, o futuro incerto do Irã no tabuleiro do Golfo
14
Marx, a técnica e o fetichismo tecnológico
07 Mar 2026 Por ANTONIO VALVERDE: Artigo da coletânea recém-lançada “Figuras do marxismo”.
15
Europa: 50 países em busca de um continente
06 Mar 2026 Por FLAVIO AGUIAR: Do Concerto Europeu ao silêncio obsequioso, a longa agonia de um continente
Veja todos artigos de

PESQUISAR

Pesquisar

TEMAS

NOVAS PUBLICAÇÕES