Skip links

Inteligência Artificial no Processo Penal

Você conhece o Victor, o Sócrates, a Léia, a Clara, o Radar e o Jerimum ??? Vou apresentar a vocês os robôs que estão substituindo o ser humano em julgamentos de processos no Brasil.

Não é ficção científica. A Inteligência Artificial chegou aqui no Brasil nos Tribunais Estaduais e chegou também nos Tribunais Superiores e quando falamos de inteligência artificial como substituta de julgadores não há como não extrapolar a seara tecnológica e adentrarmos o campo da ética.

Em Setembro de 2019, o Presidente do STF, Ministro Dias Tófolli, em uma conferência realizada em Londres que reuniu profissionais do direito, estudantes e acadêmicos do brasil e do reino unido sobre novas tendências do Direito, apresentou o “PJe”, nosso Processo Judicial Eletrônico e “VICTOR”, um programa julgador que já está implementado no STF, mesmo que de forma experimental.

Segundo Dias Tofolli, “o programa VICTOR, que está em fase de estágio supervisionado, promete trazer maior eficiência na análise de processos, com economia de tempo e de recursos humanos”, Tofolli disse ainda que “as tarefas que os servidores do tribunal levam, em média, 44 minutos, o VICTOR fará em menos de 5 segundos”.

O nome VICTOR é homenagem a Victor Nunes Leal, que foi Ministro do STF de 1960 a 1969, e foi também o principal responsável pela sistematização da jurisprudência do STF em Súmulas, o que facilitou a aplicação dos precedentes judiciais aos recursos, basicamente é o que pretendem com VICTOR.

Existe ainda, outra plataforma no Supremo que vem sendo desenvolvida, em parceria com a universidade de Brasília, ainda sem nome, mas será uma ferramenta de inteligência artificial destinada a identificar os recursos extraordinários vinculados a temas de repercussão geral, não apenas no STF, mas com potencial de atuação em todo o poder judiciário.

E como fica a Inteligência Artificial e sua aplicação no Processo Penal? Afinal, uma coisa é a Advocacia e o Ministério público utilizarem a inteligência artificial como habilidade estratégica baseada em algoritmos jurisprudenciais e doutrinários e outra coisa é um ser humano privado de direitos fundamentais, como no caso de réus presos que estão com suas liberdades cerceadas terem o seu caso concreto analisado por um robô.

O CNJ acaba de criar o laboratório de inovação para o processo judicial eletrônico – PJe (inova pje), um ambiente para a pesquisa, a produção e a incorporação de inovações tecnológicas à plataforma responsável pela gestão do PJe.

E no STJ não é diferente, com a atual gestão do Presidente do Superior Tribunal de Justiça, o Ministro João Otávio Noronha foi desenvolvido o “SÓCRATES” que utiliza técnicas de inteligência artificial para — a partir do exame automatizado do recurso e do acórdão recorrido — fornecer informações relevantes aos relatores, por exemplo, se determinado caso se encaixa na categoria de demandas repetidas, as referências legislativas, a listagem de processos semelhantes e até sugestões de decisão.

Nos Estados do Acre, Alagoas, Amazonas, Ceará e Mato Grosso do Sul, temos o Robô “LÉIA”, ou seja, num país em que a Justiça leva em média quatro anos para decidir um caso e há mais de 78 milhões de processos à espera de uma sentença, juízes estão recorrendo à tecnologia na tentativa de limpar escaninhos. No caso do robô LÉIA, ele tem a capacidade de ler milhões de páginas em segundos para identificar casos com jurisprudência no STF, mas e como ficam as novas teses jurídicas ?

O Tribunal de Justiça de Minas Gerais também conta com auxílio de robô. A leitura de processos, identificação do que é requerido e qual o entendimento a ser aplicado no caso. O robô “RADAR”, como é chamado, consegue identificar a qual tribunal pertence determinado entendimento, se é do Superior Tribunal de Justiça (STJ), do Supremo ou do próprio TJ-MG.

No Rio Grande do Norte os robôs “CLARA” e “JERIMUM” estão em fase de teste e serão responsáveis por ler documentos, recomendar tarefas e sugerir decisões.

Em Rondônia também há um núcleo de desenvolvimento de Inteligência Artificial. Criado em 2018, a expectativa é que o robô “SINAPSE” reduza em até 60% o tempo gasto com as tramitações no Estado

Já em São Paulo foi firmado acordo de cooperação entra a USP – Universidade de São Paulo e o Tribunal Bandeirante para firmar um convênio para incrementar no Tribunal Paulista o uso de inteligência artificial.

De varas de primeira instância ao Supremo Tribunal Federal (STF), cada vez mais magistrados usam softwares de inteligência artificial, em que robôs virtuais desempenham tarefas antes executadas por humanos, ou seja, estamos sendo julgados por robôs.

E como vemos, o uso da inteligência artificial na Justiça ganhou no segundo semestre de 2019, quando o Conselho Nacional de Justiça (CNJ), órgão que dá diretrizes ao trabalho de juízes, publicou uma portaria elencando a adoção desse modelo como uma das prioridades para desafogar a fila de processos país afora.

A Inteligência Artificial como ferramenta é incrível, principalmente quando aplicada na automação de documentos jurídicos, gerenciamento de prazos e pesquisas jurídicas

Mas o Direito Penal pode ser manipulado por algoritmos?? Entendo que não. Não há como excluir a sensibilidade humana de um julgamento, principalmente nos casos criminais, em que há uma série de circunstâncias que só seres humanos conseguem definir.

A liberdade para o ser humano é um bem absoluto e um robô jamais conseguirá distinguir o que é verdade e o que é mentira, a exemplo, como num depoimento de uma testemunha ou no interrogatório de um réu no processo penal.

Evidente que a Inteligência Artificial traz uma infinidade de informações, mas não podemos esquecer que informação não é conhecimento. Ou seja, mais tecnologia, mais informação, menos conhecimento, menos saber, menos sabedoria.

O Futuro é agora, vivemos no atual cenário pandêmico em que o mundo derruba barreiras tecnológicas e caminha definitivamente para a virtualização em todos os aspectos da vida.

Mas é importante que façamos uma reflexão, de que adianta a celeridade trazida pela Inteligência Artificial melhorar se o operador, no caso, o robô que está buscando não consegue refletir sobre o buscado? E mais, como um robô pode entender o conceito de princípios ?

O direito penal é ciência humana e a aplicação de um princípio deve ser ponderada através da perspectiva de um ser humano julgador e não de um robô.

Ao sermos julgados por um robô, podemos ser vítimas de mitigação de direitos e valores que um robô não poderá analisar pela sua própria natureza desprovida de sentimentos e percepções inerentes à condição humana.

Considerando a delicada cooperação entre peritos em processo penal e engenheiros do conhecimento na construção dos algoritmos que irão ensinar a máquina nas pesquisas preditivas, qual dos dois caminhos seria o adequado?

A disparidade de premissas interpretativas no processo penal coloca em risco possíveis construções silogísticas que possam partir de silogismos?

O uso de inteligência artificial na análise preditiva de decisões processuais penais viola ou assegura garantias constitucionais?

Levando em conta essas questões, notadamente quanto aos riscos de prevalências de preconceitos que possam estruturar equivocadamente as pesquisas preditivas e seus resultados.

Uma outra questão extremamente importante é em relação aos critérios de escolha do perito escolhido para servir de ponte em relação ao conhecimento específico do processo penal e a a incapacidade de tradução dos aspectos relevantes do direito e do processo penal pelo engenheiro do conhecimento. Não é preciso muito esforço para identificar na doutrina de processo penal de hoje em dia uma pluralidade bastante significativa de discursos e fundamentos antagônicos, teses e antíteses.

O Direito Penal foi criado para controlar os seres humanos e suas relações. Basicamente, surgiu pelos humanos e para os humanos. A máquina não é humana e jamais será, então, sustento que não há como aplicar inteligência artificial no Direito Penal.

Assim, enquanto o computador responde de forma sintática, a mente humana responde de forma semântica e essa resposta semântica é permeada de intencionalidade.

E no caso dos robôs julgadores, são os algoritmos que dão vida à máquina. Eles se caracterizam por um conjunto de instruções matemáticas ou ainda, uma sequência de tarefas que informam ao computador o que ele deve fazer para alcançar um determinado resultado esperado em um tempo limitado.

Mas como é possível que um robô julgue subjetivamente se um robô requer instruções precisas e não ambíguas ? Um robô não tem sensibilidade e também não se comove com as realidades sociais.

Entendo que o sistema de inteligência artificial até pode atuar, mas como uma ferramenta de auxílio, como um mero instrumento, nunca em substituição de um ser humano julgador.

Qual o risco de se ter uma construção dos algoritmos a partir de um silogismo, ainda mais quando não ficarem preestabelecidas, de forma clara, qual das diferentes correntes dogmáticas do processo penal foi adotada?

E na remota hipótese de que a Inteligência Artificial e esses robôs julgadores funcionem, será que a parte relacionada diretamente com o processo penal admitiria ser julgada e eventualmente condenada sem a menor presença humana?

O certo, por ora, é que mesmo que uma máquina seja considerada “inteligente”, é fundamental compreender qual o alcance dessa inteligência até para saber em quais setores e com qual grau de eficiência ela poderia ser empregada em decisões relacionadas a matéria penal.

O Processo Criminal não é mecânico, ao contrário, o processo penal exige humanidade e jamais poderá ser analisado por uma perspectiva de massa. Por mais que estejamos avançados em termos de tecnologia robótica, nenhum algoritmo pode emitir uma decisão se determinada interpretação se ajusta ou não se ajusta de forma satisfatória num caso concreto e nesse sentido, arremato sustentando ser impossível a criação de um emulador de emoções humanas que julgue o processo penal com todas as suas peculiaridades, portanto, um robô não pode e não deve nos julgar em razão da sua própria natureza desprovida de sentimentos e percepções inerentes à condição humana.

X