Você está na página 1de 13

A INTELIGÊNCIA ARTIFICIAL E A TOMADA DE DECISÕES JUDICIAIS:

LIMITES E POSSIBILIDADE

Pedro Teixeira Gueiros 1

Jorge Luis da Costa Silva 2

Resumo: Este artigo tem o objetivo de analisar o emprego de sistemas de inteligência artificial no processo de tomada de decisões judiciais no âmbito do direito processual. Nesse viés, à luz da doutrina nacional e estrangeira que tem desenvolvido sobre o tema, examina-se, de um lado, os limites para o uso dessa tecnologia, tendo em vista as garantias processuais constitucionais, e, de outro lado, as possibilidades do seu emprego nas relações processuais, levando em consideração suas potenciais contribuições. Conclui-se, ao final, que a cognição no processo não é atividade que pode ser desempenhada exclusivamente por sistemas de inteligência artificial, mas seu emprego adequado amplia as condições de o Poder Judiciário responder às demandas judiciais com eficiência e em prazo razoável.

Palavras-chave: Direito Processual. Inteligência artificial. Decisões judiciais.

1 Graduando em Direito pelo Ibmec-RJ. Estagiário no Tribunal Regional Federal da 2ª Região. E-mail:

pedrogueiros@uol.com.br

2 Mestrando em Direito Processual Civil pela Universidade do Estado do Rio de Janeiro (UERJ). Graduado pela UERJ. Assessor de Desembargador no Tribunal Regional Federal da 2ª Região. Email:

jldacostasilva@gmail.com

1. INTRODUÇÃO Pensar a sociedade contemporânea atualmente envolve refletir sobre os avanços tecnológicos. Desde o século XVIII, com a Primeira Revolução Industrial, assiste-se a uma corrida humana na busca pelo aumento da produtividade baseado em aparatos tecnológicos. Nesse sentido, a primeira metade do século XX foi palco do desenvolvimento da metalurgia, da siderurgia, além da indústria química setores que cresceram na esteira do contexto pós- guerra.

Em razão dessas transformações, produtos agrícolas, que historicamente foram os principais produtos de exportação, dividiram seu lugar na balança comercial com os produtos industriais. Nesse viés, a vida no campo migrou para a cidade, formou os grandes conglomerados urbanos, o que, em certa medida, proporcionou melhoria nas condições de vida, fazendo com que os “90 milhões em ação”, que vibraram com a conquista do tricampeonato de futebol mundial pelo Brasil em 1970, transformassem-se em mais de 200 milhões, atualmente, segundo dados do Instituto Brasileiro de Geografia e Estatística 3 . Aliás, foi exatamente na década de 1970 que a escalada tecnológica atingiu novo degrau, configurando o que alguns denominam de Terceira Revolução Industrial. De lá para cá, a computadorização, a biotecnologia, a microeletrônica e a informática viraram os pilares em que se baseia a sociedade contemporânea. Como não poderia deixar de ser, o sistema jurídico não passou imune por todas essas transformações. Do advento do computador, até a criação de impressoras, o exercício profissional na esfera jurídica sofreu alterações significativas. As primeiras estipulações de direito processual que reconheceram o uso das tecnologias informáticas do final do século XX foi aquela da Lei nº 8.245/1991, a Lei de Locações de Imóveis Urbanos. O artigo 58, inciso IV, da Lei nº 8.245/1991 já permitia a citação, a intimação ou a notificação por telex ou fac-símile. A condição imposta, no entanto, era que a citada fosse pessoa jurídica ou empresário individual.

Posteriormente, a Lei n 9.099/1995, a Lei dos Juizados Especiais, veio a permitir que a intimação fosse feita na forma prevista para a citação ou por qualquer outro meio idôneo de comunicação(art. 19, caput), o que significa dizer, não apenas o correio ou a intimação pessoal por oficial de justiça. Quatro anos depois, a Lei nº 9.800/1999 inovou ao permitir “a utilização de sistema de transmissão de dados e imagens tipo fac-símile ou outro similar, para a prática de atos

3 Disponível aqui: <https://www.ibge.gov.br/apps/populacao/projecao//index.html>. Acesso em abr./2019.

processuais que dependam de petição escrita(art. 1º, caput), porém manteve a obrigatoriedade da entrega dos “originais” em cinco dias (art. 2º). Já a Lei nº 10.259/2001, a Lei dos Juizados Especiais Federais, ampliou ainda mais as vias de diálogo entre direito e tecnologia. Nesse sentido, Demócrito Ramos Reinaldo Filho (2007), destaca três pontos relevantes a respeito da referida lei: (i) tornou prescindível a apresentação de cópia física dos originais eletrônicos das petições, e ampliou a via informática de comunicação para todos os atos processuais art. 8º, parágrafo 2º; (ii) estipulou que o julgamento de pedidos fundados em divergência entre Turmas, na hipótese de residirem os juízes em cidades diferentes, seria realizado pela via eletrônica art. 14, parágrafo 3º; (iii) determinou não só o desenvolvimento de programas de informática para permitirem as inovações na instrução do processo, mas também a promoção de cursos de aperfeiçoamento pessoal para magistrados e servidores art. 24. Esses esforços legislativos formam a antessala da Lei nº 11.416/2006, que dispõe sobre

a informatização do processo judicial. Já em seu art. 1º (“O uso de meio eletrônico na tramitação de processos judiciais, comunicação de atos e transmissão de peças processuais será admitido nos termos desta Lei”) fica nítida a abertura do Direito brasileiro para as inovações tecnológicas. A lei, como foi aprovada, fornece uma ampla estrutura normativa para

a informatização completa do processo judicial, do início ao fim, nas esferas cível, penal e

trabalhista. À vista desse breve panorama, verifica-se que a relação entre Direito e Tecnologia não

é fenômeno recente. Todavia, há um elemento novo nessa relação que motiva novas reflexões

e constitui o objeto de estudo do presente artigo: a inteligência artificial. Trata-se de fenômeno relevante, porque aponta para uma tendência: “com o desenvolvimento tecnológico, o emprego de inteligência artificial vem expandindo-se velozmente, e essa técnica tem sido cada vez mais utilizada para substituir e auxiliar na tomada de decisões privadas e públicas” (FERRARI; BECKER; WOLKART, 2018). Nesse contexto, o presente estudo se propõe a analisar se os sistemas de inteligência artificial podem, em alguma medida, orientar o processo de tomada de decisões judiciais no âmbito do direito processual. Para tanto, passa-se a analisar essa problemática a partir de duas perspectivas: de um lado, examina-se os limites do uso de sistemas de inteligência artificial na tomada de decisões judiciais; de outro lado, aponta-se as possibilidades do uso dos referidos sistemas, considerando as potencialidades identificadas pela doutrina que tem se desenvolvido sobre o tema.

2.

LIMITES DO USO DE SISTEMAS DE INTELIGÊNCIA ARTIFICIAL NA

TOMADA DE DECISÕES JUDICIAIS Em análise preambular, identificamos três aspectos sensíveis 4 no uso de sistemas de inteligência artificial para orientar a tomada de decisões judiciais, quais sejam: (i) reprodução de padrões discriminatórios; (ii) valoração de provas; e (iii) determinação do quantum devido em casos de danos morais.

2.1. REPRODUÇÃO DE PADRÕES DISCRIMINATÓRIOS

Em termos de direito comparado, o uso de algoritmos pelo sistema judiciário estadunidense, em diversas jurisdições, é relativamente comum, apesar de controvertido. Daí porque analisar as experiências daquele país é relevante, na medida em que fornece uma noção de como seu uso pode impactar na aplicação do direito, sobretudo na seara criminal 5 . Nos Estados Unidos, foi desenvolvido o Correctional Offender Management Profiling for Alternative Sanctions 6 , ferramenta que auxilia magistrados na dosimetria da pena, que é capaz de sugerir uma pena, analisando, ainda, a possibilidade de reincidência do acusado. Para tanto, são levados em consideração fatores como, por exemplo, se o acusado já fez uso de entorpecentes, possui apoio familiar e com qual idade cometeu o primeiro crime (MIMS, 2019). Em 2016, um estudo promovido pela organização ProPublica, concluiu que acusados negros tinham 77% (setenta e sete por cento) mais chances de serem considerados reincidentes do que os acusados brancos, ainda que sob as mesmas circunstâncias (PROPUBLICA, 2019). De fato, os algoritmos não são neutros, haja vista que que os sistemas de inteligência artificial dependem da formulação de modelos, que trazem, em si, vieses subjetivos do sujeito que os desenvolve:

Inicialmente, importante consignar que os mecanismos de inteligência artificial dependem de modelos, os quais consistem em representações abstratas de determinado processo, sendo, em sua própria natureza, simplificações de nosso mundo real e complexo. Ao criar um modelo, os programadores devem selecionar as informações que serão fornecidas ao sistema de IA e que serão utilizadas para prever soluções e/ou resultados futuros. Essas escolhas, portanto, fazem com que sempre haja pontos cegos nos algoritmos, os quais refletem os objetivos, prioridades e concepções de seu criador, de modo que os modelos são, a todo tempo, permeados pela subjetividade do sujeito que os desenvolve (NUNES; MARQUES, 2018).

4 Evidentemente, esses apontamentos não excluem outros problemas envolvidos na tomada de decisões judiciais por sistemas de inteligência artificial. Nesse sentido, há quem identifique como dificuldades o emprego de data sets viciados, a opacidade dos algoritmos não programados e a discriminação que pode ser gerada por algoritmos de machine learning. (FERRARI; BECKER; WOLKART, 2018).

5 O tema foi objeto de artigo produzido por Claudia da Costa Bonard de Carvalho, confira-se: “No caso, os EUA já utilizam a AI na atividade policial e judiciária, sendo que, através de cruzamento de dados coletados sobre determinadas pessoas, já se adotam políticas de policiamento específicas em alguns locais, para desarticulação de gangues, e analisa-se a possibilidade de concessão de benefícios de execução penal” (CARVALHO, 2019).

6 Outros algoritmos similares são o Public Safety Assessment-Court e o Risk Scoring Algorithm.

Na mesma linha, Cathy O’Neil, autora do livro Weapons of Math Destruction, ponderou que os sistemas que funcionam por algoritmos são, por essência, discriminadores:

There’s no such thing as a non-biased discriminating tool, determining who deserves this job, who deserves this treatment. The algorithm is inherently discriminating, so the question is what bias do you want it to have? 7 .

Nesse diapasão, em um ambiente em que inteligências artificiais revelam-se mais presentes e promissoras em relação às decisões judiciais, através de algoritmos cada vez mais complexos 8 , torna-se essencial atentar aos limites que possam comprometer não apenas o aspecto processual das decisões, mas a própria aplicação do direito material, haja vista que a reprodução de padrões discriminatórios atenta contra um dos objetivos fundamentais da República Federativa do Brasil (art. 3º, IV, da CRFB/1988) e a própria razão da Justiça.

2.2. VALORAÇÃO DE PROVAS

Para orientar um ordenamento jurídico em direção a uma concepção racional da decisão judicial, a partir da devida reconstrução dos fatos da controvérsia, é de fundamental importância uma correta valoração das provas (BUSTAMANTE, 2013). De um ponto de vista conceitual, pode-se dizer que a valoração das provas é “a atividade de percepção por parte do juiz dos resultados da atividade probatória que se realiza em um processo” (FENOLL, 2010, p. 34). De modo similar, Cândido Rangel Dinamarco e Bruno Vasconcelos Carrilho Lopes sustenta que a valoração da prova consiste no juízo da capacidade de demonstração dos fatos realizado pelo juiz com referência a todos os meios de prova concretamente efetivados no processo e a cada uma das fontes de prova trazidas a este(DINAMARCO; LOPES, 2017, p. 183). De modo geral, existem três sistemas de valoração das provas: (i) o sistema legal de provas ou sistema da prova tarifada; (ii) o sistema da íntima convicção; e (iii) o sistema do livre convencimento motivado ou persuasão racional. O primeiro é um sistema hierarquizado, no qual o valor de cada prova é predefinido, não existindo, portanto, uma valoração individualizada, de acordo com cada caso concreto. Pelo

7 Disponivel em: <https://www.wsj.com/articles/our-software-is-biased-like-we-are-can-new-laws-change-that- 11553313609?fbclid=IwAR31Zh8R2FpKLZ8ZwTd8seibzpUHvtGbetyOogzVfqsEMdF8OwaVosEI-k>. Acesso em: mar./2019.

8 Nesse sentido: “No âmbito de algoritmos complexos encontram-se, por exemplo, os debates sobre Inteligência Artificial - IA, aprendizado de máquina (Machine Learning), aprendizado profundo (deeplearning) e as redes neurais artificiais (Artificial Neural Networks). Sendo que a própria Internet das Coisas (Internet-of-Things - IoT), tem relação intrínseca com a Inteligência Artificial” (CANUT; MEDEIROS, 2018, p. 246).

fato de cada prova já possuir seu valor definido em lei de forma prévia, o juiz não possui liberdade para valorar as provas de acordo com as especificidades do caso concreto. Em razão disso, afirma-se que “o juiz, nas provas legais, era um matemático, pois apenas verificava qual o peso deste ou daquele meio de prova, ou como a Lei mandava provar este ou aquele fato. Seguia, friamente, o que a Lei mandava para aferir os fatos, objetos de prova(RANGEL, 2015, p. 519). O segundo sistema é o oposto disto, pois o magistrado modo que não precisa fundamentar sua decisão, tampouco está adstrito a um critério predefinido de provas. Há uma clara inversão: enquanto no sistema da prova tarifada toda a responsabilidade fora atribuída ao legislador, que estipula previamente o valor de cada prova, no sistema da íntima convicção essa responsabilidade fora transferida para o magistrado, que decide livremente como valorará o suporte probatório trazido à sua apreciação. O clássico exemplo desse sistema é o Tribunal do Júri, competente para julgar crimes dolosos contra a vida (art. 5º, XXXVIII, “d”, CRFB/1988), cujos jurados julgam com plena liberdade, de acordo com a sua íntima convicção, não precisando, portanto, fundamentar a decisão em nenhum dispositivo de lei. O terceiro sistema, por sua vez, é um sistema equilibrado, uma vez que as provas não são valoradas previamente pelo legislador, como ocorre no sistema da prova tarifada, e o julgador não decide com ampla e excessiva discricionariedade, como ocorre no júri. O Brasil adota predominantemente o sistema do livre convencimento motivado 9 , conforme se extrai do art. 155 10 do Código de Processo Penal e do art. 371 do Código de Processo Civil 11 . Sendo assim, considerando que a atividade de valoração das provas é etapa fundamental no exercício da cognição judicial, pergunta-se: seria possível transferir tal encargo aos sistemas de inteligências artificiais? A resposta é, a toda evidência, negativa, haja vista que exige o exercício da percepção humana, associada à capacidade argumentativa de fundamentação.

2.3. DETERMINAÇÃO DO QUANTUM DEVIDO EM CASOS DE DANOS MORAIS

Ao tratar das características necessárias aos futuros magistrados, Herkenhoff elenca o seguinte: coragem, bom senso e lógica. Se além dessas três qualidades o juiz souber um pouco

9 Não se ignora resquícios dos demais sistemas, como o já mencionado Tribunal do Júri. 10 Art. 155, CPP. O juiz formará sua convicção pela livre apreciação da prova produzida em contraditório judicial, não podendo fundamentar sua decisão exclusivamente nos elementos informativos colhidos na investigação, ressalvadas as provas cautelares, não repetíveis e antecipadas. 11 Art. 371, CPC. O juiz apreciará a prova constante dos autos, independentemente do sujeito que a tiver promovido, e indicará na decisão as razões da formação de seu convencimento.

de direito, ajuda bastante(2005, p.148). Em verdade, em diversas circunstâncias, o magistrado se vê diante de situações sensíveis e é chamado a decidi-las. Há, nesse contexto, ao menos duas situações que se relevam incompatíveis, pelo menos a princípio, com o uso de sistemas de inteligência artificias: fixação do quantum devido a título de indenização por danos morais e análise do preenchimento do requisito do periculum in mora para concessão do pedido de antecipação dos efeitos da tutela. Depois de reconhecida a ocorrência do dano moral, segue-se a tarefa extremamente difícil para o julgador de quantificar o suficiente para compensar a vítima, sobretudo diante da ausência de critérios objetivos e específicos para o arbitramento de valores. Um meio de definir o montante das indenizações por danos morais que vem sendo adotado no Superior Tribunal de Justiça (STJ) é o método bifásico. Nesse modelo, um valor básico para a reparação é analisado considerando o interesse jurídico lesado e um grupo de precedentes. Depois, verificam-se as circunstâncias do caso para fixar em definitivo a indenização. Em setembro de 2011, ao julgar o Recurso Especial 1.152.541, a Terceira Turma detalhou o conceito do método bifásico para a definição do montante a ser pago a título de indenização por danos morais. Na ocasião, o ministro Paulo de Tarso Sanseverino, relator, destacou o funcionamento do sistema

Na primeira etapa, deve-se estabelecer um valor básico para a indenização, considerando o interesse jurídico lesado, com base em grupo de precedentes jurisprudenciais que apreciaram casos semelhantes. Na segunda etapa, devem ser consideradas as circunstâncias do caso, para fixação definitiva do valor da indenização, atendendo à determinação legal de arbitramento equitativo pelo juiz.

Como se vê, a fixação do quantum devido a título de indenização por danos morais é atividade que depende do bom senso a que se referiu Herkenhoff. Sem prejuízo disso, parece- nos que é possível a matematização desses critérios a partir de modelos com variáveis pré- definidas, conforme abordaremos no tópico 3.3. A segunda situação consiste na averiguação da presença do periculum in mora para concessão da tutela de urgência: afinal, é possível parametrizar a urgência, de modo que sistemas de inteligência artificial possam identificá-la? Considerando que as situações que envolvem esses pedidos envolvem, frequentemente, questões relativas à saúde, não nos parece adequado, ainda que eventualmente possível, atribuir tal tarefa às máquinas.

3.

POSSIBILIDADES DA INTELIGÊNCIA ARTIFICIAL NA TOMADA DE

DECISÕES JUDICIAIS Se, por um lado, o uso dos sistemas de inteligência artificial inspira cautela por parte dos atores do Direito, por outro lado, sua utilização pode ser uma importante aliada dos órgãos jurisdicionais. Nesse sentido, destaca-se três aspectos indicam potencialidades da IA no processo de tomada de decisões judiciais, quais sejam: (i) reprodução de padrões decisórios; (ii) cooperação entre humano e máquina; e (iii) matematização da subjetividade.

3.1. REPRODUÇÃO DE PADRÕES DECISÓRIOS

No âmbito internacional, o uso de algoritmos voltados à produção de decisões judiciais revela-se mais avançada, fazendo o uso das inteligências artificiais fortes 12 , isto é, aquelas que possuem raciocínios lógicos e próprios, similares aos de uma consciência humana, capazes de automatizar as decisões judiciais por completo. Em um pequeno país báltico, o surgimento de um juiz-robô é o primeiro grande projeto internacional de automatização completa de uma decisão judicial. O Ministério da Justiça da Estônia está financiando o projeto que permite que um algoritmo julgue e sentencie pequenas causas, cuja disputa não seja superior a € 7.000,00 (sete mil euros) 13 . O intuito é liberar os juízes do país para se dedicarem a casos mais complexos. No Brasil, cerca de 80 (oitenta) milhões de processos tramitam perante os 91 (noventa e um) tribunais do Poder Judiciário brasileiro (BRASIL, 2018). Nesse contexto, o Código de Processo Civil de 2015 desenvolveu diversas ferramentas que visam alcançar a celeridade frente ao fenômeno da judicialização em massa, podendo ser mencionados os recursos especial e extraordinário repetitivos e o incidente de resolução de demandas repetitivas 14 . Sem prejuízo desses mecanismos processuais, tem-se recorrido aos mecanismos tecnológicos para ampliar a eficiência da máquina judiciária. Do mencionado universo de tribunais, 13 (treze) já contam com algum auxílio de sistemas de inteligência artificial (BAETA, 2019), inclusive, o Supremo Tribunal Federal (“STF”), com o sistema Victor, que é responsável pela automatização da admissibilidade de recursos extraordinários, através da análise de existência de repercussão geral. De acordo com o Presidente do Supremo, Ministro Dias

12 FANG, Jiachao. SU, Hanning. Xiao, Yuchong. Will artificial intelligence surpass human intelligence? Disponível em: <http://www.programmersought.com/article/2939180785/>. Acesso em: 05/04/2019.

13 NILER, Eric. Can AI be a fair judge in Court? Estonia thinks so. Disponivel em:

<https://www.wired.com/story/can-ai-be-fair-judge-court-estonia-thinks-so/>. Acesso em: 05/04/2019.

14 Art. 928, CPC. Para os fins deste Código, considera-se julgamento de casos repetitivos a decisão proferida em:

I - incidente de resolução de demandas repetitivas; II - recursos especial e extraordinário repetitivos. Parágrafo único. O julgamento de casos repetitivos tem por objeto questão de direito material ou processual.

Toffoli, “o trabalho que custaria ao servidor de um tribunal entre 40 minutos e uma hora para fazer, o software [Victor] faz em cinco segundos15 . Além do exame de admissibilidade dos recursos especial e extraordinário, a iniciativa revela outra potencialidade no uso dos sistemas de inteligência artificial: reproduzir padrões decisórios fixados em precedentes com efeitos vinculativos. Nesse sentido, seria possível o uso de sistemas de IA para o julgamento de processos em bloco para aplicação de tese jurídica firmada em julgamento de casos repetitivos. Sem prejuízo disso, deve-se ressaltar que o art. 332 do Código de Processo Civil autoriza a improcedência liminar do pedido que contrariar enunciado de súmula do Supremo Tribunal Federal ou do Superior Tribunal de Justiça; acórdão proferido pelo Supremo Tribunal Federal ou pelo Superior Tribunal de Justiça em julgamento de recursos repetitivos; entendimento firmado em incidente de resolução de demandas repetitivas ou de assunção de competência; ou enunciado de súmula de tribunal de justiça sobre direito local. Sendo assim, seria possível cogitar que, nessas hipóteses, tal exame fosse atribuído a um sistema de inteligência artificial, apenas para identificar a incidência da tese fixada no caso concreto e, de plano, julgar liminarmente improcedente o pedido. Nesses casos, a decisão do leading case continuaria a ser uma função exercida por magistrados, fixando as teses que serão revestidas de efeito vinculativo, ao passo que incumbiria às máquinas o trabalho de acusar e identificar a presença de tais teses fixadas, aplicando-lhes quando necessário. Poderia ser essa a solução definitiva ao alcance da celeridade processual? Note-se, contudo, que, nesses casos, a prévia atuação da inteligência humana é fundamental e insubstituível pela atividade algorítmica. Significa dizer que, mesmo nos estágios mais avançados da tecnologia, será necessário ter pelo menos um corpo superior composto de seres humanos com o propósito de ditar a primeira jurisprudência quando a regra violada não o possui, para unificar a jurisprudência ou para fazê-la evoluir, quando necessário, para adaptá-lo aos valores sociais predominantes. Na esteira desse raciocínio, passa-se a tratar da cooperação entre humano e máquina.

15 Supremo Tribunal Federal. Inteligência artificial: Trabalho judicial de 40 minutos pode ser feito em 5 segundos. Disponível em: <http://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=393522>. Acesso em: 05/04/2019.

3.2.

COOPERAÇÃO ENTRE HUMANO E MÁQUINA

Para Jordi Nueva Fenoll, autor do livro Inteligencia Artificial y proceso judicial, em termos de matéria processual, deve haver uma clara distinção entre o que é meramente tramitação e busca e dados, daquilo que envolve propriamente uma atividade mental. Nesse aspecto, Fenoll (2018, p. 32) salienta que:

Como ya se dijo, el razonamiento jurídico es persuasivo, porque tiene que dar una respuesta democrática a la sociedad que la misma pueda comprender, homologar e interiorizar. Esa persuasión podría llegar a mecanizarse paulatinamente conforme vayan perfeccionándose las posibilidades de la inteligencia, pero no debe automatizarse por completo. de lo contrario , asistiremos a un anquilosamiento de la jurisprudência y probablemente de todo el ordenamiento jurídico , que es todo lo contrario de lo que debería permitir la inteligencia artificial, que precisamente debería estar orientada a vencer el tremendo peso regresivo que suele tener entre los juristas la tradición.

Destarte, não se contesta a impossibilidade de ingerência nos avanços das inteligências artificiais, sobretudo às IAs fortes. No entanto, o conflito aparente em torno da substituição robótica no exercício da função jurisdicional pode soar um tanto ilusório, porquanto a produção do direito material é inerente à atividade humana, cuja percepção e modificação alinha-se conforme a evolução e as demandas da sociedade. Nesse sentido, a Comissão Europeia elaborou recentemente um guia ético para

inteligências artificiais, cuja fase piloto propõe os seguintes parâmetros objetivos: (i)

garantia
garantia

da supervisão e controle humano (os sistemas não devem limitar a autonomia humana);

(ii) robustez e segurança (os algoritmos têm de ser capaz de lidar com erros); (iii) privacidade

e controle de dados (os utilizadores devem manter o controle dos seus dados e poder revogar o

acesso); (iv) responsabilização (capacidade de reconhecer erros e corrigi-los); (v) transparência,

diversidade, não-discriminação e justiça; e (vi) promoção do bem-estar ambiental e societal

16

.

Infere-se, portanto, que no âmbito jurisdicional, poderia destinar às máquinas as tarefas passíveis de automatização (como mencionado no item anterior) ou mero esforço mecânico, enquanto aquelas que demandem aplicação jurídica, pautada no exercício cognitivo, intelectual e empático - próprio da mentalidade humana seria restrita aos juízes.

16 PEQUENINO, Karla. Comissão Europeia lança guia ético para a inteligência artificial. Disponível em:

<https://www.publico.pt/2019/04/09/tecnologia/noticia/comissao-europeia-lanca-guia-etico-inteligencia-

artificial-1868540?fbclid=IwAR02sClPVKa-Am5rMSsGoKKildIPIirIbYTkbTZ4pXYIA6r0cV_MGKMPmjU>.

Acesso em: 16/04/2019.

3.3.

MATEMATIZAÇÃO DA SUBJETIVIDADE

Dentre os mais diversos receios, sobretudo filosóficos, quanto aos impactos das inteligências artificiais na vida humana, o questionamento quanto à capacidade da máquina em desenvolver empatia é um dos mais relevantes 17 - 18 . Ora, os sistemas de inteligências artificiais fazem uso de algoritmos, que nada mais são do que um conjunto lógico de passos usados na resolução de problemas e, consequentemente, na tomada de decisões 19 . Ocorre que existem situações levadas à apreciação do Poder Judiciário que demandam dos magistrados certo grau de sensibilidade, como nos casos de arbitramento de danos morais e a concessão de tutelas de urgência, já mencionados anteriormente. Ventila-se a solução de que os algoritmos poderiam ser alimentados detalhadamente

com aquilo que os tribunais entendem, levando em conta aspectos pormenorizados existentes na lide. A título de exemplo, em um caso de arbitramento de danos morais por acidente em serviço, poderiam ser levados em considerações como variáveis do algoritmo os seguintes dados: (i) valor que empresas de mesmo porte costumam arcar em situações análogas; (ii) grau de dependência econômica financeira dos familiares da vítima; (iii) capacidade econômica da vítima; (iv) impacto do dano na carreira profissional da vítima; etc. Não se está, com isso, propondo a tarifação da indenização por dano extrapatrimonial. Pelo contrário, considerando as mais minuciosas variantes, as demandas não seriam padronizadas, ao contrário, apresentar-se-iam únicas, levando em conta cada caso concreto, de acordo com as suas vicissitudes.

4. CONSIDERAÇÕES FINAIS

De acordo com Kazuo Watanabe (1999, p. 59), o conceito de cognição possui um caráter eminentemente lógico, segundo o qual a atividade de conhecimento do juiz parte de uma premissa maior, baseada nas abstrações das categorias jurídicas, para uma premissa menor, consistente nas questões de fato deduzidas no processo, tendo em vista atingir uma conclusão

17 Veja-se: TODD, Robb. Haverá empatia em um mundo habitado pela inteligência artificial? Disponível em:

<https://internacional.estadao.com.br/noticias/nytiw,havera-empatia-em-um-mundo-habitado-pela-inteligencia-

artificial,70002490950>. Acesso em: 06/04/2019.

18 Confira-se, ainda: Siempre que se piensa críticamente en la inteligencia artificial se afirma que nos es humana, pese a que es tan humana como cualquier otra creación del homo sapiens. Pero al margen de ello, lo que se suele querer significar con esa afirmación es que la máquina no tiene sentimentos(FENOLL, 2018, p.

136).

19 ELIAS, Paulo Sá. Algoritmos e inteligência artificial exigem atenção do Direito. Disponível em:

<https://www.conjur.com.br/2017-nov-20/paulo-sa-elias-inteligencia-artificial-requer-atencao-direito>. Acesso em: 06/04/2019.

última, que é o próprio pronunciamento final do magistrado. Nesse sentido, o autor define

cognição como um ato de inteligência, nos seguintes termos:

A cognição é prevalentemente um ato de inteligência, consistente em considerar, analisar e valorar as alegações e as provas produzidas pelas partes, vale dizer, as questões de fato e as de direito que são deduzidas no processo e cujo resultado é o alicerce, o fundamento do judicium, do julgamento do objeto litigioso do processo (WATANABE, 1999, p. 58-59).

À luz desse conceito cognição judicial como ato de inteligência , o presente artigo

buscou demonstrar que somente a inteligência humana é capaz de satisfazer o objetivo da

função jurisdicional: a pacificação de conflitos. Nesse viés, apesar de a inteligência artificial se

apresentar como uma importante aliada na concretização das promessas constitucionais de

eficiência e celeridade do Poder Judiciário, tais mecanismos não são nem serão capazes de

substituir o magistrado no exercício das suas funções.

Ainda assim, o crescimento e a expansão dessas tecnologias chamam a atenção para a

necessidade de regulamentar seu emprego nas relações processuais, de modo a estabelecer com

maior precisão seus limites e suas possibilidades.

5. REFERÊNCIAS BIBLIOGRÁFICAS

BAETA, Zínia. Tribunais investem em robôs para reduzir volume de ações. Disponível em:

<https://www.valor.com.br/legislacao/6164599/tribunais-investem-em-robos-para-reduzir-

volume-de-ações>. Acesso em: abr./2019.

BRASIL, Conselho Nacional de Justiça. Justiça em Números 2018: ano-base 2017. Brasília:

CNJ, 2018.

BUSTAMANTE, Evanilda Nascimento de Godoi. A valoração racional das provas no processo judicial: uma aproximação ao tema. In: XXII Encontro Nacional do CONPEDI/UNINOVE, São Paulo: CONPEDI, 2013. p. 407-428. Disponível em:

<http://www.publicadireito.com.br/artigos/?cod=531d29a813ef9471>. Acesso em: abr./2019.

CANUT, Leticia; MEDEIROS, Heloísa Gomes. O princípio da publicidade e da fundamentação das decisões judiciais frente a utilização de algoritmos no desempenho da atividade jurisdicional e dos atos processuais. In: CELLA, José Renato Gaziero; VOFF, Salete Oro; OLIVEIRA, Júlia Francieli Neves de (Coord.). Direito, governança e novas tecnologias II. Florianópolis: CONPEDI, 2018.

CARVALHO, Claudia da Costa Bonard de. A inteligência artificial na Justiça dos EUA e o Direito Penal brasileiro. Disponível em: <https://www.conjur.com.br/2018-jun-10/claudia- bonard-inteligencia-artificial-direito-penal-brasileiro>. Acesso em: abr./2019.

FENOLL. Jordin Nieva. Inteligencia artificial y proceso judicial. Madrid: Marcial Pons,

2018.

La valoración de la prueba. Madri: Marcial Pons, 2010.

FERRARI, Isabela; BECKER, Daniel; WOLKART, Erik. Arbitrium ex machina: Panorama, riscos e a necessidade de regulação das decisões informadas por algoritmos, Revista dos Tribunais, São Paulo, vol. 995/2018, 2018.

HERKENHOFF, João Batista. Como aplicar o Direito: à luz de uma perspectiva axiológica, fenomenológica e sociológico política. Rio de Janeiro: Forense, 2005.

MIMS, Christopher. Our Software Is Biased Like We Are. Can New Laws Change That? Disponível em: <https://www.wsj.com/articles/our-software-is-biased-like-we-are-can-new- laws-change-that-11553313609>. Acesso em: 05/04/2019.

NUNES, Dierle; MARQUES, Ana Luiza Pinto Coelho. Inteligência artificial e direito processual: vieses algorítmicos e os riscos de atribuição de função decisória às máquinas, Revista de Processo, São Paulo, v. 285, pp. 421-447, nov./2018.

PROPUBLICA. Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks. Disponível em:

https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em mar./2019.

RANGEL, Paulo. Direito processual penal. 23 ed. São Paulo: Atlas. 2015.

REINALDO FILHO, Demócrito Ramos. A informatização do processo judicial - da lei do fax à Lei n. 11.419/2206: uma breve retrospectiva legislativa. Revista Magister de Direito Civil e Processual Civil, Porto Alegre, v. 3, n. 16, p. 78-85, jan./fev. 2007.

WATANABE, Kazuo. Da cognição no processo civil. 2. ed. São Paulo: Central de Publicações Jurídicas, 1999.