Escolar Documentos
Profissional Documentos
Cultura Documentos
Dierle Nunes
Doutor em Direito Processual pela PUCMinas/Università degli Studi di Roma “La
Sapienza”. Mestre em Direito Processual pela PUCMinas. Professor permanente do PPGD
da PUCMinas. Professor adjunto na PUCMinas e na UFMG. Secretário Adjunto do Instituto
Brasileiro de Direito Processual. Membro fundador do ABDPC. Membro da International
Association of Procedural Law, do Instituto Panamericano de Derecho Procesal e da
Associação Brasileira de Direito Processual – ABDPRO. Diretor Executivo do Instituto de
Direito Processual – IDPro. Membro da Comissão de Juristas que assessorou no novo
Código de Processo Civil na Câmara dos Deputados. Diretor do Instituto de Direito e
Inteligência Artificial – IDEIA. Advogado. dierle@cron.adv.br.
access to justice, so that we can start thinking about ways to overcome this question, by
means of machine learning and algorithmic accountability.
Keywords: Artificial intelligence (AI) – Civil Procedural Law – Due Process of Law –
Algorithm Bias – Cognitive bias
Sumário:
1 Considerações iniciais
O uso de sistemas de inteligência artificial (IA) é crescente nos mais diversos ramos, em
razão do aumento da eficiência e da precisão dos serviços por eles proporcionado. No
Direito, vislumbra-se também esse fenômeno, com a utilização das soluções das
lawtechs, por exemplo, para otimização de serviços, principalmente no que concerne à
litigância de massa.
Nos Estados Unidos, sistemas de inteligência artificial, como o Ross e o Watson, são
utilizados por escritórios advocatícios para realizar pesquisas jurídicas, analisar
1
documentos, redigir contratos e prever resultados. As vantagens do uso de tal
tecnologia, que proporciona maior rapidez, precisão e qualidade na realização de
trabalhos maçantes e repetitivos, têm feito com que cada vez mais escritórios invistam
em sua utilização.
De acordo com uma pesquisa realizada pela CBRE, cerca de 48% dos escritórios
advocatícios de Londres já utilizam sistemas de inteligência artificial e 41% pretendem
implantá-los. Segundo a pesquisa, a IA é utilizada, principalmente, para gerar e revisar
2
documentos e para a eletronic discovery, mas também tem aplicação relevante na
realização de pesquisas jurídicas e na due diligence – investigação prévia de companhias
3
antes da realização de negócios.
Definir inteligência artificial não é fácil. O campo é tão vasto que não pode ficar restrito a
uma área específica de pesquisa; é um programa multidisciplinar. Se sua ambição era
imitar os processos cognitivos do ser humano, seus objetivos atuais são desenvolver
autômatos que resolvam alguns problemas muito melhor que os humanos, por todos os
meios disponíveis. Assim, a IA chega à encruzilhada de várias disciplinas: ciência da
computação, matemática (lógica, otimização, análise, probabilidades, álgebra linear),
ciência cognitiva sem mencionar o conhecimento especializado dos campos aos quais
queremos aplicá-la. E os algoritmos que o sustentam baseiam-se em abordagens
igualmente variadas: análise semântica, representação simbólica, aprendizagem
estatística ou exploratória, redes neurais e assim por diante. O recente boom da
inteligência artificial se deve a avanços significativos no aprendizado de máquinas. As
técnicas de aprendizado são uma revolução das abordagens históricas da IA: em vez de
programar as regras (geralmente muito mais complexas do que se poderia imaginar)
que governam uma tarefa, agora é possível deixar a máquina descobrir eles mesmos.
Dessa forma, neste trabalho, busca-se averiguar alguns riscos trazidos pela utilização da
IA com função decisória no âmbito do Direito, a partir da análise doutrinária e de
sistemas já implantados.
Esses blindspots podem ser irrelevantes para os resultados pretendidos pelos modelos.
Por outro lado, podem ser ignoradas informações importantes para correta análise da
situação, influenciando negativamente nas respostas dadas pelo sistema. Como alerta
Cathy O’Neil,
Algumas vezes esses pontos cegos não importam. Quando perguntamos ao Google Maps
por direções, ele modela o mundo como uma série de estradas, túneis e pontes. Ele
ignora os prédios, porque não são relevantes para sua tarefa. [...] outros (pontos cegos)
são muito mais problemáticos. O modelo aplicado nas escolas de Washington,
retornando para aquele exemplo, avalia os professores em grande parte com base nas
notas de estudantes nos testes, mas ignora o quanto os professores engajam os
estudantes, trabalham com habilidades específicas, lidam com a gestão da sala de aula
ou ajudam seus alunos com problemas pessoais e familiares. O modelo é muito simples,
sacrificando sua exatidão e diferentes percepções em prol da eficiência. No entanto, do
ponto de vista dos administradores ele fornece uma ferramenta efetiva para investigar
centenas de professores aparentemente com um baixo desempenho, mesmo que se
15
corra o risco de interpretar incorretamente alguns deles.
Além do mais, existe o problema de erros nos dados massivos em face de sua baixa
confiabilidade quando extraídos da Internet (além de conterem lacunas em função de
17
interrupções e perdas). Assim sendo, importante considerar que nem sempre o volume
dos dados inseridos nos sistemas de IA refletirá em uma melhor decisão, visto que sua
qualidade é fator ainda mais relevante.
Nota-se, assim, que, na própria constituição dos sistemas de IA se fazem escolhas que
refletem também as opiniões e prioridades dos criadores, as quais influenciam
diretamente as respostas do sistema. Não se pode ignorar, assim, a impossibilidade de
isenção completa, até mesmo ao se falar de inteligência artificial e de sistemas que,
muitas vezes, são tratados como universais e “desenviesados”, porquanto o ponto de
partida é sempre uma atividade humana de seleção de informações e dados, os quais
refletem, também, o contexto social de quem os produziu. E tal preocupação se liga
diretamente ao estudo dos vieses cognitivos (cognitive biases).
E todo esse quadro, vem passando ao largo de muitas das iniciativas narradas no
princípio do presente ensaio no campo do Direito ao se usar algoritmos de IA para
“auxiliar” o trabalho de tribunais e de profissionais jurídicos em geral. Os imperativos de
eficiência do neoliberalismo processual e o próprio desconhecimento da virada
tecnológica no direito vêm induzindo um encantamento com as potenciais simplificações
de atividades jurídicas sem que se gere ao mesmo tempo a fixação de critérios de
respeito a pressupostos jurídicos essenciais, como aqueles inerentes ao devido processo
constitucional, que possam controlar o uso inadequado dessas novas ferramentas na
atuação jurídica.
Página 7
Inteligência artificial e direito processual: vieses
algorítmicos e os riscos de atribuição de função decisória
às máquinas
12. Realça o princípio da transparência, nomeadamente o facto de que deve ser sempre
possível fundamentar qualquer decisão tomada com recurso a inteligência artificial que
possa ter um impacto substancial sobre a vida de uma ou mais pessoas; considera que
deve ser sempre possível reduzir a computação realizada por sistemas de IA a uma
forma compreensível para os seres humanos; considera que os robôs avançados
deveriam ser dotados de uma “caixa preta” com dados sobre todas as operações
realizadas pela máquina, incluindo os passos da lógica que conduziu à formulação das
31
suas decisões.
A questão dos vieses já vem sendo discutida no âmbito do Direito há algum tempo,
especialmente em relação às decisões judiciais. Como já pontuado, os vieses cognitivos
são características inerentes ao ser humano, vez que nosso cérebro possui recursos
cognitivos limitados e, por isso, cria “atalhos” para a tomada de decisões, de modo a
32
utilizá-los de maneira mais eficiente. Contudo, quando afetam a tomada de decisões
por parte dos juízes, tais vieses são extremamente danosos, pois fatores que não
deveriam interferir no julgamento são levados em consideração, ainda que de forma
33
inconsciente.
Há, ainda, diversos outros vieses que influenciam nosso modo de pensar e decidir, como
o viés social – pelo qual formamos impressões sobre as pessoas com base no grupo
social em que se inserem –, o “efeito de ancoragem” (anchoring effect), que implica
dificuldade de se afastar de uma primeira impressão ou de um primeiro dado que nos é
35
fornecido, o viés de conformidade, segundo o qual as pessoas de um grupo tendem a
evitar o dissenso e aderir à opinião da maioria.
36
Apesar de já existirem diversos estudos sobre os vieses cognitivos, há muitas
dificuldades ao lidar com o tema, porquanto muitos dos julgadores ainda se consideram
37 38
imparciais e não desenvolvem técnicas capazes de superar o enviesamento – as
39
técnicas de “desenviesamento” ou debiasing. O mesmo fenômeno pode ser verificado
nas ferramentas de IA que, conforme previamente exposto, são consideradas por muitos
como isentas.
Há, contudo, um agravante: as decisões tomadas por humano são impugnáveis, pois é
possível delimitar os fatores que ensejaram determinada resposta e o próprio decisor
deve ofertar o iter que o induziu a tal resposta (arts. 93, IX, CF/1988 (LGL\1988\3) e
489 do CPC (LGL\2015\1656)). Por outro lado, os algoritmos utilizados nas ferramentas
de inteligência artificial são obscuros para a maior parte da população – algumas vezes
40
até para seus programadores – o que os torna, de certa forma, inatacáveis. Em função
disso, a atribuição de função decisória aos sistemas de inteligência artificial torna-se
especialmente problemática no âmbito do Direito.
Não se nega que a utilização de máquinas pode trazer diversos benefícios à prática
jurídica. Conforme exposto no início deste trabalho, a implementação de sistemas de IA
para realização de pesquisas, classificação e organização de informações, vinculação de
casos a precedentes e elaboração de contratos tem se mostrado efetiva na prática por
proporcionar maior celeridade e precisão. Todavia, atribuir-lhes a função de tomar
decisões, atuando de forma equivalente a um juíz, pode significar a ampliação ainda
maior de desigualdades que permeiam nosso sistema Judiciário, respaldando-o,
ademais, com um decisionismo tecnológico.
Isso porque, por mais enviesadas que sejam as decisões proferidas por juízes, sempre
se tem certo grau de acesso aos motivos (mesmo errados, subjetivos ou enviesados)
que os levaram a adotar determinada posição, pois, ainda que decidam consciente ou
inconscientemente por razões implícitas, suas decisões devem ser fundamentadas.
Assim, em todos os casos, os afetados podem impugná-las e discuti-las.
Por sua vez, os resultados alcançados por sistemas de inteligência artificial, conforme
abordado anteriormente, são indiscutíveis por aqueles que desconhecem o algoritmo e
seu funcionamento, como é o caso de advogados, juízes e membros do Ministério
Público. Atento a essa questão, o instituto de pesquisa AI Now, da Universidade de Nova
York, fez a seguinte recomendação em seu relatório apresentado no ano de 2017:
Apesar de tais alertas, a Suprema Corte de Wisconsin discutiu, no caso State v. Loomis,
a utilização do sistema COMPAS – algoritmo para análise de risco dos acusados –, tendo
entendido que o uso de tal sistema não violava o direito do acusado ao devido processo,
apesar da metodologia utilizada para o cálculo do índice ser indecifrável para os juízes e
43
para o réu.
[...] como toda tecnologia, seu crescimento pode se tornar exponencial e já foram
colocadas em discussão diversas ideias para a ampliação de suas habilidades. O objetivo
inicial é aumentar a velocidade de tramitação dos processos por meio da utilização da
45
tecnologia para auxiliar o trabalho do Supremo Tribunal.
Nesse sentido, importante considerar o alerta feito por Harry Surden, professor de
Direito da Universidade do Colorado:
Sistemas tecnológicos que utilizam inteligência artificial são cada vez mais utilizados na
aplicação do direito. Estes sistemas podem conter valores sutilmente embutidos no seu
design tecnológico. Essa observação se torna particularmente importante no contexto do
direito, tendo em vista a relevância das questões em jogo, incluindo a perda de
liberdade, propriedade ou direitos. Sistemas tecnológicos legais que empregam
inteligência artificial demandam cuidados e conhecimentos especiais em seu
desenvolvimento, uma vez que o uso da inteligência artificial pode levantar problemas
específicos em relação aos valores embutidos, os quais podem ser relevantes, mas
46
difíceis de observar.
E algo deve ser percebido: tal como no passado da revolução industrial, as novas
tecnologias como as IAs não predeterminam um único resultado benéfico ou maléfico. É
necessário que o Direito e seus estudiosos (e aplicadores) enfrentem o desafio de utilizar
todas essas tecnologias disruptivas mediante a fixação de pressupostos que almejem a
Página 10
Inteligência artificial e direito processual: vieses
algorítmicos e os riscos de atribuição de função decisória
às máquinas
4 Conclusão
Tal fenômeno decorre tanto do desconhecimento dos profissionais do direito acerca das
potencialidades das tecnologias de IA quanto do modelo neoliberal de processo e a busca
incessante por maior rapidez e simplificação dos procedimentos, com vistas a aumentar
a eficiência do sistema, sob a ótica da produtividade, em detrimento de critérios
qualitativos.
Nesse contexto, essencial perceber que, assim como somente foi possível traçar soluções
para os vieses cognitivos dos julgadores humanos a partir do reconhecimento, por parte
da doutrina e dos decisores, de que não somos naturalmente imparciais, é preciso
reconhecer e ampliar os estudos acerca dos vieses algorítmicos, para que se possa
pensar em mecanismos para contorná-los. O desenvolvimento de programas de
aprendizagem de máquina e de transparência algorítmica são exemplos de ferramentas
que podem auxiliar nesse objetivo, evitando que ocorra a perpetuação das desigualdades
sociais, erros e outras mazelas de nossa sociedade, por meio da ilusão da completa
imparcialidade da matemática.
5 Referências
BOYD, Danah. CRAWFORD, Kate. Six Provocations for Big Data. A Decade in Internet
Time: Symposium on the Dynamics of the Internet and Society, 2011. Disponível em:
[https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1926431]. Acesso em:
01.08.2018.
CAMPOLO, A.; SANFILIPPO, M.; WHITTAKER, M.; CRAWFORD, K. AI NOW 2017 Report,
AI Now Institute. New York (2017). Disponível em:
[https://ainowinstitute.org/AI_Now_2017_Report.pdf]. Acesso em: 23.06.2018.
Página 11
Inteligência artificial e direito processual: vieses
algorítmicos e os riscos de atribuição de função decisória
às máquinas
DOYLE, Nicholas J. Confirmation Bias and the Due Process of Inter Partes Review. IDEA:
The Journal of the Franklin Pierce Center for Intellectual Property, v. 57, p. 29-70, 2016.
HARVARD LAW REVIEW. State v. Loomis: Wisconsin Supreme Court Requires Warning
Before Use of Algorithmic Risk Assessments in Sentencing. Disponível em:
[https://harvardlawreview.org/2017/03/state-v-loomis/]. Acesso em: 23.06.2018.
KATZ, D.M.; BOMMARITO, M.J. II; BLACKMAN J. (2017). A general approach for
predicting the behavior of the Supreme Court of the United States. PLoS ONE 12(4):
e0174698. Disponível em: [https://doi.org/10.1371/journal.pone.0174698]. Acesso em:
09.05.2018.
NUNES, Dierle José Coelho. O princípio do contraditório. Revista Síntese de Direito Civil e
Processual Civil, Porto Alegre, n. 29, maio-jun. 2004.
NUNES, Dierle; VIANA, Aurélio. Deslocar função estritamente decisória para máquinas é
muito perigoso. Conjur, 2018. Disponível em:
[https://www.conjur.com.br/2018-jan-22/opiniao-deslocar-funcao-decisoria-maquinas-perigoso#sdfootn
Acesso em: 14.05.2018.
O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and
threatens democracy. New York: Crown Publishers, 2016.
PEER, Eyal; GAMLIEL, Eyal. Heuristics and Biases in Judicial Decisions. Court Review, v.
49, p. 114-118. Disponível em:
[http://aja.ncsc.dni.us/publications/courtrv/cr49-2/CR49-2Peer.pdf]. Acesso em:
28.05.2018.
Disponível em:
[https://www.jota.info/justica/judiciario-desenvolve-tecnologia-de-voto-assistido-por-maquinas-080120
Acesso em: 09.05.2018.
THE GUARDIAN. Google says sorry for racist auto-tag in photo app. Disponível em:
[https://www.theguardian.com/technology/2015/jul/01/google-sorry-racist-auto-tag-photo-app].
Acesso em: 06.06.2018.
THE GUARDIAN. Tay, Microsoft's AI chatbot, gets a crash course in racism from Twitter.
Disponível em:
[https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course
Acesso em: 06.06.2018.
THE GUARDIAN. The tyranny of algorithms is part of our lives: soon they could rate
everything we do. Disponível em:
[https://www.theguardian.com/commentisfree/2018/mar/05/algorithms-rate-credit-scores-finances-dat
. Acesso em: 06.06.2018.
THE SEATTLE TIMES. How LinkedIn’s search engine may reflect a gender bias. Disponível
em:
[https://www.seattletimes.com/business/microsoft/how-linkedins-search-engine-may-reflect-a-bias].
Acesso em: 06.06.2018.
THE TELEGRAPH. Facebook shuts down robots after they invent their own language.
Disponível em:
[https://www.telegraph.co.uk/technology/2017/08/01/facebook-shuts-robots-invent-language].
Acesso em: 02.06.2018.
THEODORO JÚNIOR, Humberto; NUNES, Dierle José Coelho. Uma dimensão que urge
reconhecer ao contraditório no direito brasileiro: sua aplicação como garantia de
influência, de não surpresa e de aproveitamento da atividade processual. Revista de
Processo, n. 168, p. 107-141, 2009, p. 109.
VIEIRA, Oscar Vieira. Justiça, ainda que tardia. Disponivel em: [https://goo.gl/2DrLRh].
Acesso em: 20.07.2018.
VILLANI, Cédric. Donner uns sens à li’intelligence artificielle: pour une stratégie
Página 13
Inteligência artificial e direito processual: vieses
algorítmicos e os riscos de atribuição de função decisória
às máquinas
3 Segundo a pesquisa: “Nearly half (48%) of London law firms are already utilising
Artificial Intelligence (AI) and a further 41% have imminent plans to do so, according to
a survey of over 100 law firms from CBRE, the world's leading real estate advisor. Of the
firms already employing AI, 63% of firms are using it for legal document generation and
review, and the same proportion for e-discovery. Due diligence (47%) and research
(42%) were also common applications, along with compliance and administrative legal
support (each 32%)” Disponível em:
[http://news.cbre.co.uk/london-law-firms-embrace-artificial-intelligence/]. Acesso em:
02.05.2018.
5 Disponível em:
[http://www.valor.com.br/legislacao/5259801/escritorios-ja-usam-robos-que-ajudam-
na-escolha-de-estrategias-nos-tribunais]. Acesso em: 07.05.2018.
11 VILLANI, Cédric. Donner uns sens à li’intelligence artificielle: pour une stratégie
nationale et européenne. 2018. Disponível em: [https://www.aiforhumanity.fr].
15 Tradução livre. No original: “Sometimes these blind spots don’t matter. When we ask
Google Maps for directions, it models the world as a series of roads, tunnels, and
bridges. It ignores the buildings, because they aren’t relevant to the task. [...] others
are far more problematic. The value-added model in Washington, D.C., schools, to
return to that example, evaluates teachers largely on the basis of students’ test scores,
while ignoring how much the teachers engage the students, work on specific skills, deal
with classroom management, or help students with personal and family problems. It’s
overly simple, sacrificing accuracy and insight for efficiency. Yet from the administrators’
perspective it provides an effective tool to ferret out hundreds of apparently
underperforming teachers, even at the risk of misreading some of them” (O’NEIL, Cathy.
Op., cit., p. 28).
17 Sobre a questão dos problemas dos dados obtidos via internet: “Large data sets from
Internet sources are often unreliable, prone to outages and losses, and these errors and
gaps are magnified when multiple data sets are used together. Social scientists have a
long history of asking critical questions about the collection of data and trying to account
for any biases in their data (Cain & Finch, 1981; Clifford & Marcus, 1986). This requires
understanding the properties and limits of a dataset, regardless of its size. A dataset
may have many millions of pieces of data, but this does not mean it is random or
representative. To make statistical claims about a dataset, we need to know where data
is coming from; it is similarly important to know and account for the weaknesses in that
Página 15
Inteligência artificial e direito processual: vieses
algorítmicos e os riscos de atribuição de função decisória
às máquinas
data” (BOYD, Danah; CRAWFORD, Kate. Six Provocations for Big Data. A Decade in
Internet Time: Symposium on the Dynamics of the Internet and Society, 2011.
Disponível em: [https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1926431].
Acesso em: 01.08.2018.
20 Como bem explica a autora: “A key component of this suffering is the pernicious
feedback loop. As we’ve seen, sentencing models that profile a person by his or her
circumstances help to create the environment that justifies their assumptions. This
destructive loop goes round and round, and in the process the model becomes more and
more unfair” (O’NEIL, Cathy. Op., cit., p. 14).
21 Nesse sentido: “[...] the algorithm is more likely to misclassify a black defendant as
higher risk than a white defendant. Black defendants who do not recidivate were nearly
twice as likely to be classified by COMPAS as higher risk compared to their white
counterparts (45 percent vs. 23 percent). However, black defendants who scored higher
did recidivate slightly more often than white defendants (63 percent vs. 59 percent). The
test tended to make the opposite mistake with whites, meaning that it was more likely to
wrongly predict that white people would not commit additional crimes if released
compared to black defendants. COMPAS under-classified white reoffenders as low risk
70.5 percent more often than black reoffenders (48 percent vs. 28 percent). The
likelihood ratio for white defendants was slightly higher 2.23 than for black defendants
1.61 (How We Analyzed the COMPAS Recidivism Algorithm. Disponível em:
[https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm].
Acesso em: 14.05.2018.
24 “Esse caso, ainda que possa ser considerado uma aberração jurídica, oferece uma
amostra do impacto perverso que a profunda e persistente desigualdade causa sobre o
reconhecimento das pessoas como sujeitos de direitos. Embora o princípio da dignidade
determine que todos devam ser tratados com igual respeito e consideração, a miséria e
a marginalização parecem tornar largas parcelas de nossa sociedade moralmente
invisíveis no dia a dia, perdendo, na realidade, sua condição de sujeitos de direitos”
(VIEIRA, Oscar Vieira. Justiça, ainda que tardia. Disponível em: [https://goo.gl/2DrLRh].
Acesso em: 20.07.2018).
25 The Guardian. The tyranny of algorithms is part of our lives: soon they could rate
everything we do. Disponível em:
[https://www.theguardian.com/commentisfree/2018/mar/05/algorithms-rate-credit-scores-
finances-data] . Acesso em: 06.06.2018.
26 A propósito: “Differences in credit scores among racial or ethnic groups and age
cohorts are particularly notable because they are larger than for other populations. For
example, the mean normalized TransRisk Score for Asians is 54.8; for non-Hispanic
whites, 54.0; for Hispanics, 38.2; and for blacks, 25.6 [...]” (Disponível em:
[https://www.transunion.com/resources/transunion/doc/compliance-and-legislative-updates/CreditScore
Acesso em: 06.06.2018.
Página 16
Inteligência artificial e direito processual: vieses
algorítmicos e os riscos de atribuição de função decisória
às máquinas
27 The Guardian. Google says sorry for racist auto-tag in photo app. Disponível em:
[https://www.theguardian.com/technology/2015/jul/01/google-sorry-racist-auto-tag-photo-app].
Acesso em: 06.06.2018.
28 The Seattle Times. How LinkedIn’s search engine may reflect a gender bias.
Disponível em:
[https://www.seattletimes.com/business/microsoft/how-linkedins-search-engine-may-reflect-a-bias].
Acesso em: 06.06.2018.
29 O robô chegou a twittar que: “bush did 9/11 and Hitler would have done a better job
than the monkey we have now. donald trump is the only hope we've got”. The Guardian.
Tay, Microsoft's AI chatbot, gets a crash course in racism from Twitter. Disponível em:
[https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course
. Acesso em: 06.06.2018.
33 PEER, Eyal; GAMLIEL, Eyal. Heuristics and Biases in Judicial Decisions. Court Review,
v. 49. p. 114-118. Disponível em:
[http://aja.ncsc.dni.us/publications/courtrv/cr49-2/CR49-2Peer.pdf]. Acesso em:
28.05.2018.
34 PEER, Eyal; GAMLIEL, Eyal. Op., cit., p. 114-115. NUNES, Dierle, LUD, Natanael;
PEDRON, Flávio. Desconfiando da (im)parcialidade dos sujeitos processuais: Um estudo
sobre os vieses cognitivos, a mitigação de seus efeitos e o debiasing. Cit.
Página 17
Inteligência artificial e direito processual: vieses
algorítmicos e os riscos de atribuição de função decisória
às máquinas
37 Sobre o tema: “One study found that 97% of US judges believe they are above the
average in their ability to ‘avoid racial prejudice in decision making’, a statistically
unlikely state of affairs which probably reflects judges overestimating their abilities with
respect to those of their peers. Another study of white American judges found that they
displayed the same automatic, ‘implicit’, negative associations with race as found in the
general population” (STAFFORD, Tom. Op., cit.). No mesmo sentido, veja-se: “Several
studies have suggested that ‘judges might be biased in favor of evidence that confirms
their prior hypotheses and might disregard evidence that does not correspond with their
previous assumptions.’ How can this be if judges are supposed to be impartial? Research
suggests that it is because they still perceive themselves to be scrutinizing the evidence
and, thus, impartial” (DOYLE, Nicholas J. Confirmation Bias and the Due Process of Inter
Partes Review, IDEA: The Journal of the Franklin Pierce Center for Intellectual Property,
v. 57 (2016), p. 39.
41 Para uma análise crítica dos precedentes no Brasil: Cf. VIANA, Aurélio; NUNES,
Dierle. Precedentes: a mutação do ônus argumentativo. Rio de Janeiro: GEN Forense,
2018.
42 Tradução livre. No original, “1. Core public agencies, such as those responsible for
criminal justice, healthcare, welfare, and education (e.g “high stakes” domains) should
no longer use “black box” AI and algorithmic systems. This includes the unreviewed or
unvalidated use of pre-trained models, AI systems licensed from third party vendors,
and algorithmic processes created in-house. The use of such systems by public agencies
raises serious due process concerns, and at a minimum they should be available for
public auditing, testing, and review, and subject to accountability standards” (CAMPOLO,
A.; SANFILIPPO, M.; WHITTAKER, M.; CRAWFORD, K. AI NOW 2017 Report. AI Now
Institute, New York (2017). Disponível em:
[https://ainowinstitute.org/AI_Now_2017_Report.pdf]. Acesso em: 23.06.2018.
43 Sobre o caso que originou o julgamento em questão, destaque-se que “In preparation
for sentencing, a Wisconsin Department of Corrections officer produced a PSI that
included a COMPAS risk assessment. [...] As the methodology behind COMPAS is a trade
secret, only the estimates of recidivism risk are reported to the court. At Loomis’s
sentencing hearing, the trial court referred to the COMPAS assessment in its sentencing
Página 18
Inteligência artificial e direito processual: vieses
algorítmicos e os riscos de atribuição de função decisória
às máquinas
determination and, based in part on this assessment, sentenced Loomis to six years of
imprisonment and five years of extended supervision. Loomis filed a motion for
post-conviction relief in the trial court, arguing that the court’s reliance on COMPAS
violated his due process rights. Because COMPAS reports provide data relevant only to
particular groups and because the methodology used to make the reports is a trade
secret, Loomis asserted that the court’s use of the COMPAS assessment infringed on
both his right to an individualized sentence and his right to be sentenced on accurate
information” (Harvard Law Review. State v. Loomis: Wisconsin Supreme Court Requires
Warning Before Use of Algorithmic Risk Assessments in Sentencing. Disponível em:
[https://harvardlawreview.org/2017/03/state-v-loomis/]. Acesso em: 23.06.2018.
46 Tradução livre. No original: “Technological systems that use artificial intelligence are
increasingly being used in the application of law. Such systems can contain values subtly
embedded in their technological design. This observation becomes particularly important
in the context of law, given the significant issues at stake, including loss of liberty,
property, or rights. Legal technological systems that employ artificial intelligence require
special care and awareness in development, as the use of artificial intelligence can raise
specific issues of embedded values that may be impactful but hard to observe”
(SURDEN, Harry. Values Embedded in Legal Artificial Intelligence. U of Colorado Law
Legal Studies Research Paper n. 17-17. Disponível em:
[https://ssrn.com/abstract=2932333]. Acesso em: 01.08.2018.
Página 19
Judiciário ganha agilidade com
uso de inteligência artificial
Fonte: http://www.cnj.jus.br/noticias/cnj/88698-judiciario-ganha-agilidade-com-uso-de-
inteligencia-artificial
Investimentos em tecnologia e em soluções de Inteligência Artificial (IA) são alguns dos caminhos
definidos pelo judiciário brasileiro para responder ao crescimento exponencial das demandas da
sociedade por justiça. As diversas iniciativas desenvolvidas e implementadas pelos tribunais do
país são sistematizadas pelo Conselho Nacional de Justiça (CNJ) para compartilhamento com
todo o sistema do Poder Judiciário. A ação atende às diretrizes estabelecidas da Portaria n.
25/2019, que instituiu o Laboratório de Inovação do Processo Judicial em meio Eletrônico – Inova
PJe e o Centro de Inteligência Artificial Aplicada ao PJe.
Ao mesmo tempo em que ocorre a reformulação da arquitetura do PJe com a versão 2.1 – que
permite agregar novas tecnologias e soluções à plataforma – o Inova PJe trabalha na
implementação do Sinapse, ferramenta produzida pelo Tribunal de Justiça de Rondônia (TJRO)
para classificar tipos de movimentação do processo judicial. Como o Sinapse, diversas outras
iniciativas são desenvolvidas nos tribunais, como Poti no Rio Grande do Norte, Radar em Minas
Gerais, Elis em Pernambuco e Victor no Supremo Tribunal Federal (STF).
Enquanto alguns desses instrumentos operam de maneira experimental, outros já se encontram
em plena atividade e contribuem para agilizar o andamento de processos e a eliminar ações
repetitivas no sistema judicial. As diversas ferramentas de IA, concebidas para reduzir o retrabalho,
melhorar o processo e acelerar a tramitação das ações processuais, são desenvolvidas por
equipes próprias dos tribunais. E os programas criados em um determinado tribunal estarão à
disposição para compartilhamento, sem custos, com os demais tribunais do país, possibilitando
que cada unidade seja dotada de tecnologia de ponta.
É o caso do Sinapse, desenvolvido pelo Tribunal de Justiça de Rondônia (TJRO), que se encontra
em fase de ajustes no CNJ para integrar o módulo do PJe Criminal. Por meio de um convênio de
colaboração técnica, funcionários do tribunal trabalham em Brasília para adequar o Sinapse à
plataforma do PJe e, assim, torná-lo disponível para utilização de todo o sistema judicial. O
Sinapse é uma plataforma dotada de IA que otimiza a realização de tarefas repetitivas e, ao mesmo
tempo, garante maior segurança jurídica e maior respaldo para se minutar um processo.
Em alguns casos, como no Tribunal de Justiça do Rio Grande do Norte (TJRN), foi estabelecida
parceria com a Universidade Federal do Rio Grande do Norte (UFRN) para desenvolvimento de
diferentes sistemas. O judiciário local já conta com uma família inteira de robôs: Poti, Clara e
Jerimum. O primeiro está em plena atividade e executa tarefas de bloqueio, desbloqueio de contas
e emissão de certidões relacionadas ao BACENJUD. Em fase de conclusão, Jerimum foi criado
para classificar e rotular processos, enquanto Clara lê documentos, sugere tarefas e recomenda
decisões, como a extinção de uma execução porque o tributo já foi pago. Para casos assim, ela
vai inserir no sistema uma decisão padrão, que será confirmada ou não por um servidor.
Em Pernambuco, o Tribunal de Justiça criou a Comissão para Aplicação de Soluções em
Inteligência Artificial (CIA) que desenvolveu um sistema para analisar os processos de execução
fiscal do município do Recife. Batizado de Elis, a ferramenta classifica os processos ajuizados no
PJe em relação a divergências cadastrais, competências diversas e eventuais prescrições. Na
sequência, por meio de técnicas de automação, Elis insere minutas no sistema e até mesmo
assina despachos, se determinado pelo magistrado.
A importância da ferramenta é demonstrada nos levantamentos do TJPE, em que 53% de todas
as ações pendentes de julgamento são relativas à execução fiscal. São cerca de 375 mil processos
relativos ao tema, com a expectativa de ajuizamento de mais 80 mil feitos no decorrer do ano. A
triagem e movimentação desse volume de processos por servidores consumiria 18 meses. A
mesma tarefa, com maior eficiência, é realizada por Elis em apenas 15 dias.
Para aprimorar a prestação jurisdicional em Minas Gerais, a equipe do Tribunal de Justiça mineiro
desenvolveu a plataforma Radar, que já conta com 5,5 milhões de processos, com exceção dos
feitos que correm em segredo de justiça. O Radar permite ao magistrado verificar casos repetitivos
no acervo das comarcas, agrupá-los e julgá-los conjuntamente a partir de uma decisão
normatizada. Ele também permite pesquisas por palavras-chave, data de distribuição, órgão
julgador, magistrado, parte, advogado e outras demandas que o juiz necessitar. O Radar também
pode ser aplicado aos processos administrativos do Sistema Eletrônico de Informações (SEI) do
TJMG.
Já o Supremo Tribunal Federal (STF) conta com Victor, que usa IA para elevar a eficiência e a
velocidade da avaliação judicial que chegam à Corte. Desenvolvido em parceria com a
Universidade de Brasília (UnB), Victor – nome dado em homenagem ao ministro Victor Nunes Leal
– converte imagens em textos no processo digital, localiza documentos (peça processual, decisão
etc.) no acervo do Tribunal, separa e classifica peças processuais mais utilizadas nas atividades
do STF e, ainda, identifica temas de repercussão geral de maior incidência na Corte.
Criatividade nos tribunais
A demanda crescente aliada à necessidade de oferecer respostas adequadas ao cidadão que
busca prestação jurisdicional fizeram com que o Poder Judiciário brasileiro concentrasse
investimentos e atenção no desenvolvimento de plataformas capazes de automatizar ações
repetitivas. Na avaliação do presidente do Tribunal de Justiça de Rondônia (TJRO), Walter
Waltenburg Silva Junior, “vivemos uma nova revolução; a modernização vem acontecendo em
todos os setores e o uso da Inteligência Artificial (IA) vai possibilitar que as pessoas sejam
liberadas para execução de trabalhos intelectuais”.
De acordo com Silva Junior, no novo modelo que está em implantação, a área meio dos processos
será automatizada e os servidores que faziam esse trabalho irão assessorar o magistrado. “Por
sua vez, o magistrado terá um volume de trabalho ampliado, pois irá receber os processos numa
velocidade maior, no mínimo 50% mais rápido”, explica. Segundo ele caberá ao funcionário
conferir a correção dos despachos, por exemplo, já que a IA possui uma margem de erro que gira
em torno 9%.
“A dor do judiciário é a lentidão. É insuportável com o cidadão e é um desastre para o gestor, que
vive com o sentimento de não cumprimento do dever”, ressalta. Ele diz que, por isso, considera
como positivo todo movimento para adoção de sistemas que facilitem o trabalho. O
desembargador, que preside um tribunal pioneiro em termos de inovação, destaca que todo
magistrado quer o judiciário ágil e que isso só será alcançado com a adoção de instrumentos
automatizados, que executem as tarefas repetitivas.
O vice-presidente do Tribunal de Justiça de Minas Gerais (TJMG), desembargador Afrânio Vilela,
afirma que sempre ficava intrigado com a falta de uma ferramenta para repetir julgamentos de
casos iguais. “As plataformas que estão sendo adotadas permitem que as ações de primeiro grau
e os casos conexos sejam encaminhados automaticamente para o juiz prevento na primeira
distribuição. O Código de Processo Civil manda julgar tudo conjuntamente”, explica.
Ele destaca que o TJMG possui o Ágil, um robô que, por meio do título da ação, examina as varas
do Estado e gabinetes de desembargadores para identificar desvios de distribuição, e também o
Radar que, em tempo real, agrupa processos, cria conjuntos e possibilita que o magistrado defina
o padrão de decisão considerando as mesmas causas e mesmos pedidos. “Identificado o padrão,
a decisão é aplicada pelo desembargador, que sinaliza que está correto e tudo é replicado em
segundos”, explica.
Vilela relata que foi feito um teste na 8ª Câmara Cível do TJMG com 280 recursos na 1ª Seção e
mais de 600 na 2ª Seção. “O Radar parte do padrão que considera os mesmos pedidos e seleciona
decisões do STJ que que tratou de teses repetitivas. Ele usa a tese como padrão, vai na base de
dados e separa as peças processuais. Em seguida, aplica a tese conforme os feitos foram
agrupados. Os que não se encaixam no agrupamento seguem para julgamento individual”, explica.
Ele explica que é preciso fornecer informações para o programa para que ele possa identificar os
padrões. “No campo do direito, a alta tecnologia está se aproximando da Inteligência Artificial, que
estará completa quando conseguir montar um padrão”, observa. Vilela descarta a possibilidade de
ocorrência de erros e enfatiza que, após o julgamento de um feito, cabem os embargos de
declaração, que podem alterar o julgamento.
No Tribunal de Justiça de Pernambuco (TJPE), a demanda de juízes da Vara de Executivos Fiscais
do Município do Recife era a responsável pelo principal gargalo da instituição. O número de
processos de cobrança de tributos municipais chegou a 700 mil ações, ocupando quatro juízes,
inúmeros servidores e uma enorme área física externa ao fórum. Ao avaliar o quadro, o TJPE
conclui que o despacho inicial – quando se determina a citação do executado para proceder
pagamento – era o maior problema, com cerca de 80 mil processos aguardando a análise inicial.
De acordo com o desembargador Silvio Neves Baptista Filho, quando o robô Elis entrou em ação,
em pouco tempo, a pasta que continha as iniciais dos processos foi zerada e o principal gargalo
passou a ser o setor de expedição de mandatos, trabalho que é executado em conjunto com a
Prefeitura de Recife. “Ferramentas como Elis visam tornar a gestão mais eficiente, automatizando
o trabalho em varas com milhares de processos. No caso do TJPE, os processos de execução
fiscal representavam 50% do total. Por maior que seja o esforço humano, é impossível analisar e
entregar todos os processos”, afirma.
Baptista Filho considera que a adoção da IA proporcionou ganhos para todos as partes envolvidas
nos processos de execução fiscal de Recife. “Ganhou o cidadão que pode tomar as providências
para regularizar a situação. Ganhou o poder público que aumentou a arrecadação e, também,
ganhou o Judiciário, que diminuiu taxa de congestionamento”, destaca. Para o desembargador, é
impossível para o judiciário responder ao volume crescente de processos, por maior que seja o
esforço humano. “Além de agilidade, a IA proporciona qualidade de vida para o servidor e tempo
para o magistrado efetuar o julgamento”, afirma.
Inovação e economia
Prosseguindo com as ações de automatização para execução de atividades repetitivas, o TJMG
desenvolveu e colocou em funcionamento o serviço de taquigrafia digital. O sistema capta áudio
e vídeo dos participantes das audiências e converte voz em texto. O arquivo gerado vai para a
Central de Taquigrafia que gerencia os documentos e os encaminha para anexação ao processo.
O desembargador Afrânio Vilela, do TJMG, explica que o sistema de taquigrafia digital utiliza
tecnologia da informação e, ao mesmo tempo, preserva os empregos. “Ocorreu uma
transformação das funções: as taquígrafas passaram a ser gerentes operacionais do
procedimento. A Tecnologia diminui o trabalho braçal, mas exige cognição humana para gerenciar
o desenvolvimento”, destaca.
Segundo ele, além de redução no tempo de tramitação do processo, a inovação representa uma
grande economia para a instituição. O tribunal mineiro reduziu em R$ 800 mil o gasto com capas
de processos, folhas de papel e grampos. “Deixamos de gastar duas mil resmas de papel com 500
folhas cada. Em termos ambientais, isso significada menos três mil árvores derrubadas e dezenas
de milhões de litros de água, economizados na produção de papel”, ressalta.
Jeferson Melo
Agência CNJ de Notícias
24/05/2019 ConJur - Distopia: os algoritmos e o fim dos advogados: kill all the lawyers!
SENSO INCOMUM
https://www.conjur.com.br/2019-mai-23/senos-incomum-distopia-algoritmos-fim-advogados-kill-all-the-lawyers?imprimir=1 1/5
24/05/2019 ConJur - Distopia: os algoritmos e o fim dos advogados: kill all the lawyers!
O ano é 2069 D.C, ou seja, daqui a cinquenta anos — e uma conversa entre avô e
neto tem início a partir da seguinte interpelação:
Segundo o avô, por meio do primeiro poder, a União permitiu a criação de infinitos
cursos de Direito no país inteiro, formando dezenas de milhares de profissionais a
https://www.conjur.com.br/2019-mai-23/senos-incomum-distopia-algoritmos-fim-advogados-kill-all-the-lawyers?imprimir=1 2/5
24/05/2019 ConJur - Distopia: os algoritmos e o fim dos advogados: kill all the lawyers!
Com o segundo poder, a União criou leis que permitiam que as pessoas movessem
processos judiciais sem a presença de um advogado, favorecendo a defesa de
poderosos grupos econômicos e do Estado contra o cidadão leigo e ignorante. Por
estarem acostumadas a ouvir piadas sobre como os advogados extorquiam seus
clientes, as pessoas aplaudiram a iniciativa.
Devo lembrar, também, que um dos fatores que incrementou o caos foi o ensino
jurídico e a literatura prêt-à-porter usada pelos alunos e professores. Era a
tempestade perfeita para uma terra jurídica-arrasada. Os algoritmos só
completaram o serviço.
Sigo. O primeiro poder, então, absorveu o segundo, com a criação das "medidas
definitivas", novo nome dado às "medidas provisórias". Só quem poderia fazer
alguma coisa eram os advogados, mas já era tarde demais. Estes estavam muito
ocupados tentando sobreviver, dirigindo táxis e vendendo cosméticos. Muitos
https://www.conjur.com.br/2019-mai-23/senos-incomum-distopia-algoritmos-fim-advogados-kill-all-the-lawyers?imprimir=1 3/5
24/05/2019 ConJur - Distopia: os algoritmos e o fim dos advogados: kill all the lawyers!
Sem advogados, como fazer funcionar a democracia, meu neto? Raimundo Faoro,
um antigo advogado, dizia que não há democracia sem advogados. E Shakespeare
imortalizou o medo que ditadores têm de advogados, na figura de Dick, o
açougueiro, em Henry VI (Kill all de lawyers, sugeriu Dick ao golpista Jack!).
Bom, o resultado está aí, meu neto. Tinha um personagem em um livro (você não
sabe o que é, mas existia uma coisa chamada livro) de Eça de Queiroz (Eça com ç),
Primo Basílio, chamado Conselheiro Acácio, que dizia: as consequências vêm
sempre depois.
https://www.conjur.com.br/2019-mai-23/senos-incomum-distopia-algoritmos-fim-advogados-kill-all-the-lawyers?imprimir=1 4/5
24/05/2019 ConJur - Distopia: os algoritmos e o fim dos advogados: kill all the lawyers!
https://www.conjur.com.br/2019-mai-23/senos-incomum-distopia-algoritmos-fim-advogados-kill-all-the-lawyers?imprimir=1 5/5