
Nos últimos anos, a inteligência artificial (IA) passou a fazer parte do sistema de justiça brasileiro, auxiliando na análise de processos, na organização de informações e até na sugestão de decisões. No entanto, quando essas decisões são tomadas por sistemas pouco explicáveis, o risco de erros e injustiças aumenta consideravelmente. Pesquisas recentes apontam que a transparência nos algoritmos é condição essencial para preservar a confiança pública e evitar que a justiça se torne uma “caixa-preta” inacessível ao cidadão comum (DUTRA, 2024).
Nesse sentido, estudos como o da Revista REASE destacam que a supervisão humana não pode ser apenas formal, mas sim substancial: é preciso entender como o sistema chegou a determinada conclusão, de forma clara e auditável. Isso permite identificar e corrigir falhas, além de impedir que preconceitos ou desigualdades já existentes sejam reproduzidos ou ampliados pelas máquinas (MORENO et al., 2024).
Além disso, a literatura alerta para riscos adicionais. A falta de explicabilidade e de regras claras pode violar a privacidade das partes e gerar discriminação algorítmica. Conforme analisam Tavares et al. (2025), a regulação deve priorizar a ética, a prestação de contas e a explicação acessível das decisões de IA. Esse cuidado é fundamental, especialmente quando a tecnologia atua em áreas sensíveis como o julgamento de pessoas, a aplicação de multas ou a definição de benefícios.
Exemplos de uso responsável já existem, como o projeto “Vitória” do Supremo Tribunal Federal, que agiliza a triagem de processos, mas sempre sob acompanhamento humano. O problema surge quando a supervisão é insuficiente ou inexistente. Para evitar isso, especialistas defendem a criação de normas específicas que obriguem a transparência, estabeleçam padrões mínimos de revisão e permitam a participação da sociedade civil na fiscalização (BARBOSA et al., 2023).
Conclui-se que a IA pode trazer ganhos reais de eficiência ao Judiciário, desde que sua implementação respeite três pilares básicos: explicabilidade, supervisão humana qualificada e regulamentação robusta. Sem isso, corremos o risco de substituir a análise crítica por decisões automáticas sem legitimidade. Justiça e transparência não podem ser opcionais: devem ser requisitos obrigatórios para qualquer tecnologia que interfira no destino de pessoas e na aplicação da lei.
Referências
(Acesso em: 09 ago. 2025)
BARBOSA, Daniel F. N.; et al. Inteligência artificial no Judiciário brasileiro: rumo a uma Justiça mais eficiente e acessível. Revista Ibero-Americana de Humanidades, Ciências e Educação – REASE, nov. 2023. Disponível em: https://periodicorease.pro.br/rease/article/download/12540/5867/23718.
DUTRA, Leonardo Argenta. Transparência em algoritmos de inteligência artificial no sistema jurídico: desafios, limitações e perspectivas futuras. In: Anais do 7º Congresso Internacional de Direito e Contemporaneidade: mídias e direitos da sociedade em rede, Santa Maria, UFSM, out. 2024. Disponível em: https://www.ufsm.br/app/uploads/sites/563/2024/12/2.5.pdf.
MORENO, Pedro H. A.; et al. A inserção da inteligência artificial (IA) nas decisões judiciais. Revista Ibero-Americana de Humanidades, Ciências e Educação – REASE, out. 2024. Disponível em: https://periodicorease.pro.br/rease/article/download/15865/8638/36584.
TAVARES, Íkaro Serrão; et al. Os desafios éticos e de privacidade na utilização da inteligência artificial no judiciário brasileiro. Revista Ibero-Americana de Humanidades, Ciências e Educação – REASE, 2025. Disponível em: https://periodicorease.pro.br/rease/article/download/18610/10880/47695.
