Início Célio Carçalto A Arquitetura Normativa da IA no Judiciário: Análise Dogmática da Resolução CNJ 615 sob a Égide da LGPD e da LPI
Célio CarçaltoTodos os artigos

A Arquitetura Normativa da IA no Judiciário: Análise Dogmática da Resolução CNJ 615 sob a Égide da LGPD e da LPI

Compartilhe
Compartilhe

A Resolução 615 do Conselho Nacional de Justiça, promulgada em março de 2025, transcende a mera regulação tecnológica para se afirmar como um marco do constitucionalismo digital contemporâneo.

Seu propósito não reside na interdição da inovação, mas na sua criteriosa estruturação, estabelecendo um modelo garantista onde a inegável eficiência da automação de processos decisórios possa conviver harmonicamente com a salvaguarda dos direitos fundamentais.

A tarefa imposta aos juristas é hercúlea: conciliar o pragmatismo tecnológico com a dogmática jurídica, a celeridade com a segurança. O Direito, ao regular a inteligência artificial, reafirma que a esfera tecnológica não é um vácuo axiológico; pelo contrário, é um locus de poder onde circulam e se tensionam direitos subjetivos que demandam proteção robusta.

O primeiro e mais intransigente pilar da Resolução é a supervisão humana efetiva e permanente. A norma parte de uma premissa constitucional basilar: a legitimidade do poder estatal para decidir sobre a vida, a liberdade e o patrimônio dos cidadãos é indelegável a entes não-humanos. A função jurisdicional, em sua essência, envolve cognição, interpretação e valoração, capacidades que, até o presente, são exclusivas da consciência humana.

A Resolução 615 reconhece que os sistemas de IA operam nos tribunais não como meros assistentes, mas como agentes que produzem, analisam e sugerem decisões que afetam diretamente a esfera jurídica dos cidadãos. Portanto, a intervenção humana não é uma opção, mas um requisito de validade do ato. Não se questiona a capacidade técnica da máquina, mas sim a sua legitimidade para exercer um poder que emana do povo.

Neste diapasão, a articulação com o artigo 20 da Lei Geral de Proteção de Dados (LGPD) é de uma coerência sistêmica exemplar. Ambas as normas convergem para a proteção de um direito fundamental da era digital: o direito de não ser submetido a uma decisão baseada unicamente em tratamento automatizado.

Exige-se que, na cadeia decisória, exista sempre um momento de análise crítica, onde o magistrado ou servidor possa intervir, questionar e, se necessário, reverter a deliberação algorítmica. Um sistema que, por exemplo, automatiza a análise de admissibilidade recursal pode ser tecnicamente impecável, mas sua implementação sem um ponto de validação humana seria normativamente insustentável. O custo administrativo dessa supervisão é o preço que se paga pela manutenção do devido processo legal e pela legitimidade do próprio Poder Judiciário.

O segundo sustentáculo da Resolução diz respeito à transparência e auditabilidade, e é aqui que emerge o mais intrincado dilema dogmático. A norma exige que os sistemas operem de modo cognoscível, permitindo a fiscalização de seus critérios, dados de treinamento e mecanismos de controle.

A auditoria não é um luxo, mas uma necessidade imposta pelos princípios constitucionais da publicidade e da motivação das decisões. Contudo, essa exigência colide frontalmente com a Lei de Propriedade Industrial (Lei 9.279/1996), que protege o segredo de negócio e o código-fonte como ativos intelectuais vitais para a vantagem competitiva das empresas desenvolvedoras.

A solução para este aparente impasse não reside em negar a tensão, mas em resolvê-la com precisão conceitual. A doutrina jurídica tem avançado na distinção material entre o segredo técnico e a lógica decisória. Não se exige a devassa do código-fonte ou a revelação da arquitetura matemática do modelo de IA. O que se demanda é a explicabilidade de seus parâmetros operacionais em linguagem clara e acessível.

Um sistema pode ser auditado sem que sua propriedade intelectual seja violada; para isso, basta que sejam conhecidas as variáveis que o alimentam, os pesos atribuídos a cada uma, as fontes de dados consultadas e as regras lógicas que o guiam. O resultado da aplicação do algoritmo é público, mas seu núcleo técnico-comercial permanece protegido. Essa abordagem pragmática oferece um caminho de coexistência viável entre o interesse público na transparência e o interesse privado na inovação.

O terceiro pilar, em plena harmonia normativa com a LGPD, consiste na mitigação de vieses e na não-discriminação. A LGPD proíbe o tratamento de dados para fins discriminatórios, ilícitos ou abusivos; a Resolução 615 operacionaliza esse comando ao exigir o monitoramento contínuo de desvios e vieses. É um reconhecimento de que a neutralidade algorítmica é um mito. Os sistemas de IA aprendem a partir de dados históricos que, frequentemente, estão “envenenados” por preconceitos humanos socialmente sedimentados.

Um algoritmo treinado com dados de um sistema de justiça que, historicamente, penalizou certos grupos de forma mais severa, inevitavelmente replicará e amplificará essa injustiça. A auditoria permanente imposta pela Resolução visa exatamente identificar e corrigir essas deformações invisíveis, garantindo que a eficiência não seja alcançada ao custo do princípio da isonomia.

Por fim, a eficácia da Resolução depende de soluções institucionais e contratuais. Os tribunais, ao adquirirem ou desenvolverem sistemas de IA, devem rechaçar a falsa dicotomia entre conformidade regulatória e proteção de propriedade intelectual.

É imperativo um desenho contratual inteligente, com cláusulas que exijam relatórios de auditoria independentes e acesso a metadados operacionais. Adicionalmente, a Autoridade Nacional de Proteção de Dados (ANPD) precisa ser instrumentalizada para realizar fiscalizações robustas, superando as barreiras de sigilo quando houver suspeita de violações. A Resolução 615 é, portanto, um avanço regulatório de suma importância, estabelecendo o piso dogmático para a governança da IA.

Contudo, a construção de uma justiça digital efetivamente justa e transparente dependerá de um diálogo permanente e colaborativo entre tribunais, desenvolvedores, reguladores e a sociedade civil, transformando a norma em uma prática institucional viva e vigilante.

Compartilhe
Autoria
Célio Oliveira Carçalto

Advogado (Faculdade Santa Teresa) e também graduado em Processamento de Dados (Universidade do Estado do Amazonas) com sólida atuação na fronteira entre o Direito e a Engenharia de Sistemas. Atualmente, serve como Analista de Tecnologia da Informação na Procuradoria Geral do Estado do Amazonas (PGE/AM), onde também faz parte do Núcleo de Inteligência Artificial, aplicando seu conhecimento multidisciplinar na gestão estratégica de dados e sistemas. Sua formação abrange especializações em Direito Constitucional Aplicado, Direito Público, Agentes Públicos e LGPD (Legale Educacional), complementadas por estudos aprofundados em Engenharia de Software (Faculdade Batista de Minas Gerais), Sistemas e Agentes Inteligentes (Universidade Federal de Goiás) e Ciência de Dados (Faculdade XP Educação). Membro nas Comissões de Inteligência Artificial e de Meio Ambiente da OAB/AM.

Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

© Copyright 2025 AmazonJus.
CNPJ 62.035.771/0001-71
Rua Rio Javari, 361
Nossa Senhora das Graças
Manaus, Amazonas. CEP: 69053-110

Copyright 2025 AmazonJus. Todos os direitos reservados.