Você está na página 1de 11

DIREITO E INTELIGÊNCIA ARTIFICIAL

European Court of Human Rights. We also identified some proposals for a trus-
tworthy AI, namely those regarding the observance of the principle of explica-
bility in artificial neural networks.

keywords: Artificial Intelligence, judicial ruling, European Convention of


Human Rights, principle of explicability, artificial neural networks, black box.

A Inteligência Artificial como auxiliar das decisões judiciais* sumário: 1. Contexto. 2. A IA Moderna. 3. As experiências europeias.
3.1. Sistemas implementados e projectados. 3.2. O que está a ser feito na União
Artificial Intelligence as an auxiliary in the judicial ruling Europeia. 4. Desafios éticos e jurídicos. 4.1. A jurisprudência do TEDH e suas
directrizes (guidelines). 4.2. O acórdão Sigurdur Einarsson e.o.c. Islândia 4.3. A opa-
cidade das caixas negras. 5. Conclusão
Elisa Alfaia Sampaio**
Paulo Jorge Gomes**
1. Contexto
Vivemos uma híper-história descrita por Luciano Floridi como “o estádio
resumo: Assinalamos que a utilização de agentes de Inteligência Artificial do desenvolvimento humano em que as relações tecnológicas de terceira ordem se tornam
(IA) como auxiliares nas decisões judiciais deve ter presente o contexto social e condição necessária para o desenvolvimento, a inovação e o bem-estar” 1.
tecnológico do séc. XXI e as experiências já implementadas no ambiente judiciá- Numa primeira ordem, as necessidades humanas são intermediadas pela
rio, sobretudo na Europa. Neste pressuposto, enumeramos alguns desafios éticos tecnologia na relação com a natureza2. Numa segunda ordem, a componente
e jurídicos, tendo em conta a jurisprudência do Tribunal Europeu dos Direitos humana é intermediada por tecnologias na sua relação com outras tecnolo-
Humanos. Também identificamos algumas propostas para uma IA de confiança, gias3. Nas relações de terceira ordem as tecnologias actuam como utilizadores,
nomeadamente quanto ao cumprimento do princípio da explicabilidade na uti- mediados por tecnologias que interagem com outras tecnologias4.
lização de redes neuronais artificiais. Estima-se que até ao uso generalizado de computadores a Humanidade
tenha acumulado aproximadamente 12 exabytes de dados ao longo de toda a
palavras-chave: Inteligência Artificial, decisão judicial, Convenção Euro- sua história5. No séc. XXI, entre 2006 e 2011 apenas, os dados disponíveis
peia dos Direitos Humanos, princípio da explicabilidade, redes neuronais arti- aumentaram para mais de 1600 exabytes. Actualmente, vivemos na Era do
ficiais, caixa negra. zettabyte6. A International Data Corporation previu para 2025 um aumento

abstract: We point out out that the use of Artificial Intelligence (AI) agents
as auxiliaries in judicial decisions must take into account the social and techno- 1
Luciano Floridi, The Fourth Revolution: how the infosphere is reshaping human reality, Oxford,
logical context of the 21st century and the experiences already implemented in Orxford University Press, 2014, pp. 25 e ss.
2
Por exemplo, alimentação → arma/enxada → caça/cultivo; protecção/conforto → abrigo/casa →
the judicial environment, especially in Europe. With this assumption, we men- meteorologia; saúde → medicamento → aumento da esperança média de vida.
tion some ethical and legal challenges, bearing in mind the jurisprudence of the 3
Por exemplo, mão humana → chave de fendas/comando remoto → parafuso/TV; trabalho → motor
→ máquina; deslocação → estrada → veículo.
*
Os autores não seguem a ortografia do Acordo Ortográfico de 1990. O tema deste texto foi 4
Por exemplo, computador → digitalização → Internet; sensor → Internet → robôs automáticos/
parcialmente desenvolvido por Elisa Alfaia Sampaio, João J. Seixas, Paulo Jorge Gomes, Internet of Things; Big data → algoritmo → Inteligência Artificial.
“Artificial Intelligence and the Judicial Rulling”, Themis Annual Journal, vol. 1, issue 1, October 5
Colocando em perspectiva, 1 exabyte corresponde a um vídeo com 50 000 anos de duração e
2019, pp. 234 e ss. qualidade de um DVD.
**
Juízes de Direito – jurisdição administrativa e fiscal. 6
1 zettabyte corresponde a 1000 exabytes.

203 204
A INTELIGÊNCIA ARTIFICIAL COMO AUXILIAR DAS DECISÕES JUDICIAIS DIREITO E INTELIGÊNCIA ARTIFICIAL

do volume total de dados até 175 zettabytes7, com tendência para aumentar, Partindo dessa definição, devemos distinguir a IA tradicional da IA
pois a utilização de dados gera mais dados, crescendo de modo exponencial8. moderna. A IA tradicional, desenvolvida a partir da década de 70 do séc.
Neste contexto, a nossa auto-compreensão parece encontrar-se num novo XX, assenta no conhecimento codificado, pré-programado, especialista, ins-
estádio. Com Copérnico, deixámos de ser o centro imóvel do Universo; com pirada em sistemas lógicos, sobretudo dedutiva, mas sem capacidade para
Darwin, percebemos que não estamos assim tão afastados do reino animal; resolver situações inesperadas. Foi o caso do computador Deep Blue, que em
com Freud, a nossa consciência deixou de ser cartesianamente transparente; e 1997 desafiou Kasparov no xadrez, e é o que existe actualmente, por exem-
hoje compreendemos que somos organismos informacionais, que recebemos plo, nos processadores de texto ou nos programas de cálculos que utilizamos
e transmitimos dados, que fazemos parte de uma infoesfera, de um Big Data. nos nossos computadores.
O aumento significativo da capacidade computacional e a drástica dimi- A IA moderna, surgida no dealbar do séc. XXI, é diferente. Suportada
nuição dos custos da memória e armazenamento dos computadores foram os no Big Data, aprende soluções a partir de princípios, pode generalizar novas
ingredientes perfeitos para no séc. XXI surgir o fenómeno do Big Data. Este tarefas e resolver problemas inesperados, baseia-se em raciocínios indutivos
oceano de dados tem de ser recolhido, conservado, gerido e analisado. Por e abdutivos, em suma, inspira-se no cérebro humano e é validada pelas neu-
outras palavras, os dados, para serem big, carecem de modelos através dos rociências. É o caso do supercomputador AlphaGo, da Google Deep Mind,
quais os algoritmos extraem inferências para formular padrões, tendências e que em 2016 venceu (4-1) o campeão mundial Lee Sedol no jogo Go, ou ainda
correlações. Daqui nasceu a moderna Inteligência Artificial (IA). dos algoritmos utilizados em motores de busca ou em redes sociais.
O que torna a IA moderna como um sublime tecnológico10 tem a ver com
2. A IA moderna o modo da sua aprendizagem. Há diferentes formas de aprendizagem (super-
Há muitas definições de IA. Para o nosso propósito, adoptamos a definição visionada, não supervisionada, por reforço) isoladas ou combinadas, mas a
avançada pelo Grupo de Peritos de Alto Nível sobre a Inteligência Artificial que tem levantado mais questões éticas e jurídicas são as denominadas redes
(GPAN-IA): neuronais artificiais (artificial neural networks).
Estas redes mimetizam as redes neuronais biológicas, por serem constitu-
“[a IA] refere-se aos sistemas concebidos por seres humanos que ao receberem um objec-
ídas por nódulos ou unidades, designados neurónios artificiais, que disparam
tivo complexo actuam no mundo físico ou digital percepcionando o seu ambiente, interpre-
um sinal quando é ultrapassada uma função limite. A saída de cada neurónio
tando dados recolhidos, estruturados ou não estruturados, raciocinando sobre o conhecimento
é calculada por uma função não linear da soma das suas entradas: cada sinal
resultante desses dados e decidindo qual a melhor acção (ou acções) a adoptar (de acordo com
tem um peso associado, que determina a força e o sinal de conexão à medida
parâmetros pré-definidos). Os sistemas de IA também podem ser concebidos para aprende-
que a aprendizagem prossegue. O sinal é depois transmitido para outras uni-
rem a adaptar o seu comportamento mediante uma análise do modo como o ambiente foi
dades ou nódulos, que processam e se conectam a outros neurónios, formando
afectado pelas suas acções anteriores”9.
a rede neuronal artificial. Usualmente existem várias camadas (layers) escon-
didas entre as camadas de entrada (input) e as camadas de saída (output)11.
7
IDC White Paper, The Digitization of the World From Edge to Core, 2018, disponível em https://
www.seagate.com/files/www-content/our-story/trends/files/idc-seagate-dataage-whitepaper.pdf
(última consulta, 10-10-2022).
8
IDC White Paper, The Digitization of the World From Edge to Core, 2018, disponível em https:// 10
O sublime natural, teorizado por Kant e Edmund Burke, exprime admiração, medo, fascínio,
www.seagate.com/files/www-content/our-story/trends/files/idc-seagate-dataage-whitepaper. a sensação de insignificância da humanidade perante a Natureza. O sublime tecnológico inspira
pdf (última consulta, 10-10-2022). A analogia de Callum Chace, The Artificial Intelligence and os mesmos sentimentos, mas por realizações humanas que se equiparam ou mesmo superam os
the Two Singularities, Boca Raton, London, New York, CRC Press, 2018, p. 45, ajuda a compreender poderes da Natureza: as dimensões dos edifícios, os meios de transporte, os programas espaciais, e
o crescimento exponencial: se ao darmos um passo avançarmos 1 metro em 30 passos teremos agora a inteligência artificial, cf. Hermínio Martins, Experimentum Humanum, Lisboa, Relógio
avançado 30 metros. Mas se avançarmos 30 passos exponenciais, dobrando o comprimento em D’Água, 2011. pp. 152 e 166.
cada um dos passos, ao 29º passo teremos chegado à Lua e ao 30º regressaremos à Terra. 11
Stuart J. Russell & Peter Norvig, Artificial Intelligence: A Modern Approach, 3rd ed., Pearson
9
High-Level Expert Group on AI, A Definition of AI: Main Capabilities and Disciplines, 2019. Education Limited, England, 2016, pp. 727 e ss.

205 206
ntradas: cada sinal tem um peso associado, que determina a força e o sinal de conexão à medida
ue a aprendizagem prossegue. O sinal é depois transmitido para outras unidades ou nódulos, que
ocessam e se conectam a outros neurónios, formando a rede neuronal artificial. Usualmente
xistem várias camadas (layers) escondidas entre as camadas de entrada (input) e as camadas de
A INTELIGÊNCIA ARTIFICIAL COMO AUXILIAR DAS DECISÕES JUDICIAIS DIREITO E INTELIGÊNCIA ARTIFICIAL
aída (output)11
11.

Modelo matemático de um neurónio artificial12


Modelo matemático de um neurónio artificial12
12
Em bom rigor, estes requisitos aplicam-se a qualquer relação fiduciária,
sobretudo quando se trata de alguém com o poder de influenciar as nos-
sas vidas. Mesmo com boas intenções e tecnicamente bem preparado, o juiz
pode causar danos não intencionais. Pense-se nas situações de exaustão15 ou
de burnout ou nos vieses cognitivos na apreciação da prova originados pela
incorrecta utilização de heurísticas, já amplamente estudados pela psicolo-
gia comportamental e da decisão16.

consulta, 11-10-2022). Na proposta (draft) divulgada a 18 de Dezembro de 2018, e que na generalidade


Modelo de uma rede neuronal artificial1313 se manteve na versão final, o conceito de “IA de confiança” foi assumidamente influenciado pelo
Modelo de uma rede neuronal artificial 13
texto de Luciano Floridi, et. al., “AI4People–An Ethical Framework for a Good AI Society:
Opportunities, Risks, Principles, and Recommendations”, Minds and Machines, Springer, 2018.
15
Veja-se o caso relatado por Daniel Khaneman, Thinking, Fast and Slow, trad. port. Pedro Vidal,
Pensar, Depressa e Devagar, Lisboa, Temas e Debates – Círculo de Leitores, 4ª ed., reimpressão, 2021,
p.61: “uma demonstração perturbante dos efeitos do depauperamento no juízo foi recentemente relatada em
Proceedings of the National Academy of Sciences. Os desavisados participantes no estudo foram oito juízes
de liberdade condicional em Israel. Passaram dias inteiros a examinar pedidos de liberdade condicional. (…)
(O tempo exacto de cada decisão é registado e as durações dos três intervalos para os juízes comerem durante o
dia – intervalo da manhã, do almoço e do lanche – são também registados). Os autores do estudo compararam
a proporção de pedidos aprovados com o tempo decorrido desde o último intervalo. A proporção sobe em flecha
após cada refeição. (…) A melhor justificação possível para os dados fornece más notícias: cansados e com fome,
os juízes tendem a acomodar-se à posição mais fácil da negação dos pedidos de liberdade condicional. Tanto a
fadiga como a fome desempenharão provavelmente um papel.”
16
Sobre as heurísticas e enviesamentos cognitivos, veja-se Amos Tversky/Daniel Kahneman,
“Juízo sob incerteza: heurísticas e enviesamentos”, apêndice A in Daniel Khaneman, Thinking,
Fast and Slow, cit., pp. 551 e ss. Sobre estes vieses na perspectiva da valoração da prova pelos tribunais,
cf. Jordi Nieva Fedoll, La valoración de la prueba, Madrid, Marcial Pons, 2010; Idem, Inteligencia
Chegamos
hegamos à pergunta queà nos
pergunta
move:que nos move:
deverá deverá
o juiz o juiz
utilizar utilizar algoritmos,
algoritmos, designadamente redes
artificial y processo judicial, Madrid, Marcial Pons, 2018; Luís Filipe Pires de Sousa, Prova
designadamente
euronais artificiais, redesàneuronais
como auxiliar artificiais,
sua decisão? A nossa como auxiliar
resposta à suamas
é sim, decisão?
com o necessário Testemunhal, Coimbra, Almedina, 2013.
stinguo.
A nossa resposta é sim, mas com o necessário distinguo. As heurísticas são procedimentos mentais simples através dos quais se procuram respostas fáceis
O agente de IA deve ser de confiança. A União Europeia, através do GPAN-IA, para perguntas difíceis, como que atalhos de raciocínio. São úteis, mas podem originar erros graves
indicou os pressupostos para o conceito e sistemáticos, pois actuam de modo inconsciente quanto ao processamento de informação, a
agente de IA deve ser de confiança. A União “IA de confiança”:
Europeia, atravésdevedo ser legal, indicou os
GPAN-IA,
que não são alheios processos emotivos (cf. Enrico Altavilla, Psicologia Judiciária – o processo
garantindo o respeito de toda a legislação e regulamentação aplicáveis; deve
essupostos para o conceito “IA de confiança”: deve ser legal, garantindo o respeito de toda a psicológico e a verdade judicial, vol. I, 2ª ed., trad. Fernando Miranda, Coimbra, Almedina, 2007,
ser ética, garantindo a observância de princípios e valores éticos; e deve ser pp. 138 e ss.; Luís Filipe Pires de Sousa, ob. cit., pp. 154 e ss.; M aria Anabela Bento
gislação e regulamentação aplicáveis; deve ser ética, garantindo a observância de princípios e
sólida, tanto do ponto de vista técnico como do ponto de vista social, uma Marinho dos Reis, A Memória do Testemunho e a Influência das Emoções na Recolha e Preservação
vez que, mesmo com boas intenções, os sistemas de IA podem causar danos da Prova, dissertação de Doutoramento em Ciências e Tecnologias da Saúde, Especialidade em
Desenvolvimento Humano e Social, Universidade de Lisboa, Faculdade de Medicina, 2014, pp.
não intencionais14.
108 e ss.; Michele Taruffo, La Prueba, trad. Laura Manríquez/Ferrer Beltrán, Madrid, Marcial
Pons, 2008, pp. 137 e 138). As heurísticas mais comuns são as da (i) representatividade, em que algo
12
Imagem retirada de Stuart J. Russell & Peter Norvig, ob. cit., p. 728. é considerado como verificado apenas com base em casos representativos da classe em situações
13
Imagem obtida em https://www.researchgate.net/figure/Artificial-neural-network-of-multiple- normais, ou se se quiser de outro modo, quando se retira a probabilidade de algo a partir da
STUART J. RUSSELL & PETER NORVIG, Artificial Intelligence: A Modern Approach, 3rd ed., Pearson Education Limited,
layers-and-outputs-31_fig2_331097835 (última consulta, 10-10-2022).
ngland, 2016, pp.727 e ss.
similaridade a outras classes – o que pode originar a falácia ou viés da conjunção, isto é, um
14
High-Level Expert Group on AI, Ethics Guidelines for Trustworthy AI, 2019, disponível em acontecimento específico ou mais pormenorizado não pode ser mais provável do que um evento
https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
Imagem retirada de STUART J. RUSSELL & PETER NORVIG, ob. cit., p. 728. (última menos específico ou mais generalizado, subvalorizando-se deste modo a informação estatística;
Imagem retirada de STUART J. RUSSELL & PETER NORVIG, ob. cit., p. 728.

Imagem obtida em https://www.researchgate.net/figure/Artificial-neural-network-of-multiple-layers-and-outputs-


207 208
1_fig2_331097835 (última consulta, 10.10.2022).

162
A INTELIGÊNCIA ARTIFICIAL COMO AUXILIAR DAS DECISÕES JUDICIAIS DIREITO E INTELIGÊNCIA ARTIFICIAL

3. As experiências europeias como a Doctrine, a LexisNexis e a Dalloz, que são simples motores de pesquisa
3.1. Sistemas implementados e projectados de decisões judiciais e textos jurídicos. Mais interessantes são as ferramentas
Existem diversas classificações possíveis de métodos e técnicas de raciocínio de software Prédictice e Case Law Analytics, ambas ferramentas de análise cujo
da IA. Para precisar de que modo tais categorias técnicas podem ser consi- propósito é prever o resultado de um específico processo judicial19, também
deradas ferramentas jurídicas de IA poderiam abordar-se exemplos como os denominadas ferramentas de análise de tendência.
motores de pesquisa avançada de jurisprudência, a resolução de litígios em Em 2017, realizou-se em França uma experiência para testar um software de
linha (ou on-line, com a sigla RLL), as ferramentas de apoio à elaboração de justiça preditivo (o software Prédictice), aplicando-o a vários recursos nos dois
documentos legais, as ferramentas de análise (preditiva ou escalas), a cate- tribunais de recurso em Rennes e Douai. Os resultados não foram os expec-
gorização de documentos (e.g. contratos) ou os chatbots que disponibilizam táveis. O objectivo da experiência era o de procurar reduzir a variabilidade
informação ou apoio jurídico. Merecem, também, referência alguns projec- excessiva das decisões judiciais em nome da igualdade dos cidadãos perante
tos académicos que utilizam métodos de raciocínio para prever decisões judi- a lei. Embora a experiência não tenha trazido qualquer observação de valor
ciais, como adiante veremos. quanto ao papel da IA na tomada de decisão, o estudo concluiu, porém, que
No Reino Unido, é possível encontrar a Luminance, uma ferramenta de o software se confundiu entre as ocorrências lexicais e as causalidades que
análise de texto baseada na tecnologia de aprendizagem automática (reco- tinham sido decisivas para os juízes nas decisões utilizadas como dados de
nhecimento de padrões, como assinalado pela empresa17), que analisa docu- treino, tendo conduzido a resultados absurdos20.
mentos e aprende com a interacção entre advogados e com os documentos; Na Áustria, a IA tem sido utilizada como ferramenta para estruturar infor-
ou o HART (Harm Assessment Risk Tool), algoritmo que prevê o nível de risco mação com vista à análise e ao tratamento rápido e eficiente de documen-
de os suspeitos cometerem novos crimes num determinado período18 através tos em contexto judicial21: a ferramenta de IA analisa o correio entrado sem
de um algoritmo de “floresta aleatória” combinando certos valores, a maior qualquer contacto manual por parte dos funcionários do tribunal, extraindo
parte dos quais focado nos antecedentes criminais do suspeito, bem como a metadados, identificando e reconhecendo procedimentos de arquivo e cate-
sua idade, género e área geográfica. Em França, existem algumas ferramentas, gorização de documentos. Funciona, também, como ferramenta de gestão
de documentos digitais (o que é especialmente importante para a gestão
(ii) a heurística da disponibilidade ou acessibilidade, que consiste em julgar a frequência de de documentos não estruturados), como ferramenta de análise para inves-
uma classe ou probabilidade de um evento com base na facilidade com que os casos ocorrem à tigação de dados (analisando e classificando metadados de qualquer tipo
mente, ou seja, eventos facilmente recuperáveis e imagináveis, ou mais impactantes, tendem a ser de dados e reconhecendo fluxos de comunicação e relações) e como ferra-
sobrestimados, enquanto os eventos difíceis de recuperar ou de imaginar, ou menos impactantes, menta de anonimização automática de decisões judiciais (dados pessoais
tendem a ser subestimados (e.g. geralmente é maior o receio de ter um acidente de avião do que
um acidente de carro, embora este último seja mais provável do que o primeiro); (iii) a heurística
das partes).
da ancoragem e ajuste, que consiste nas pessoas formularem uma ideia inicial a partir de alguns
indícios, sendo muito difícil mudarem posteriormente de opinião, apesar de receberem novos
dados que na verdade modificam a percepção inicial – as pessoas reinterpretam os dados novos 19
Ver os sítios na Internet https://predictice.com/ e https://www.caselawanalytics.com/ [última
para continuar a defender a opinião inicial e não ter que a modificar, originando o viés ou falácia consulta em 19-10-2022].
da confirmação, isto é, procura-se testar a hipótese ajustando os dados compatíveis que confirmem 20
Xávier Rosin & Vasileios Lampos, In-depth study on the use of AI in judicial systems, notably AI
a crença, ignorando os dados incompatíveis, de sinal contrário; (iv) a heurística do afeiçoamento, applications processing judicial decisions and data, in European Ethical Charter on the Use of Artificial
ou efeito aura, amplamente explorado pela indústria da publicidade, na medida em que os seres Intelligence in Judicial Systems and their environment, Estrasburgo, CEPEJ – Commission
humanos deixam-se condicionar por variáveis emocionais introduzidas pela linguagem (incluindo Européene pour l’Efficacité de la Justice, 2018, p. 42, disponível em https://rm.coe.int/ethical-
a sua ordem de apresentação) ou pela aparência, independentemente do conteúdo. charter-en-for-publication-4-december-2018/16808f699c [última consulta em 19-10-2022].
17
Sítio na Internet da empresa em https://www.luminance.com/ [última consulta em 19-10-2022]. 21
Apresentação de Georg Stawa, How is Austria approaching AI integration into judicial policies?,
18
Como descreve a Universidade de Cambridge (https://www.cam.ac.uk/research/features/ Presidente da the CEPEJ e Chefe do Departamento de Estratégia, Consultoria Organizacional
helping-police-make-custody-decisions-using-artificial-intelligence – última consulta em 19-10- e Gestão da Informação, Ministério Federal da Constituição, Reformas, Desregulamentação e
2022), este algoritmo ajuda a polícia a decidir, após deter alguém, se deve libertá-la sob fiança ou Justiça (2018), disponível em https://rm.coe.int/how-is-austria-approaching-ai-integration-into-
mantê-la em detenção até ser presente ao tribunal. judicial-policies-/16808e4d81 [última consulta em 19-10-2022].

209 210
A INTELIGÊNCIA ARTIFICIAL COMO AUXILIAR DAS DECISÕES JUDICIAIS DIREITO E INTELIGÊNCIA ARTIFICIAL

O University College of London também realizou uma experiência22 para A Letónia tem também uma solução de RLL para pedidos até 2100€. É um
prever decisões judiciais do Tribunal Europeu dos Direitos Humanos (TEDH), procedimento quase inteiramente escrito, apresentado on-line pelo reque-
utilizando apenas informação textual extraída de trechos relevantes de acórdãos rente, e só se aplica a acções de pequeno montante para cobrança de montantes
do TEDH. Os dados que serviram para treino da IA consistiam em elementos pecuniários ou alimentos, sendo que o pedido inicial tem de cumprir regras
textuais extraídos de determinados casos e o resultado era a própria decisão específicas referentes a estes processos (um determinado formulário-modelo
dos juízes. A ferramenta de IA previu o resultado com 79% de exactidão. Os ou, por exemplo, o demandante tem de indicar se requer uma audiência para
autores concluíram que “a informação respeitante ao enquadramento factual do caso análise da questão). Tal como na RLL britânica, a decisão é proferida por um
tal como formulado pelo Tribunal nas subsecções relevantes dos seus acórdãos constitui a juiz e não por qualquer tipo de ferramenta de IA25.
parte mais importante obtendo em média um desempenho preditivo mais forte do resul- Também a Comissão Europeia disponibiliza uma plataforma de RLL para
tado da decisão do Tribunal”, e que “a correlação bastante robusta entre o resultado dos ajudar a resolver litígios de consumo com origem em compras em linha sem
casos e o texto correspondente a padrões factuais contido nas subsecções relevantes é coe- necessidade de recorrer a um tribunal. Pode ser utilizada para qualquer litígio
rente com outro trabalho empírico levado a cabo no que respeita à tomada de decisão em contratual emergente da aquisição de bens ou serviços em linha em que comer-
casos difíceis e dá arrimo a intuições básicas pautadas pelo realismo jurídico”. ciante e consumidor estejam ambos sediados na União Europeia, na Noruega, na
Outro campo profícuo no que tange à aplicação de soluções de IA é o das Islândia ou no Liechtenstein. Esta RLL rege-se pelo disposto no Regulamento
acções judiciais de baixo valor. Muitos países europeus instituíram já, ou ten- (UE) nº 524/2013, do Parlamento Europeu e do Conselho, de 21 de Maio de
cionam instituir, algum tipo de serviço de RLL (em inglês Online Dispute Reso- 2013. Trata-se de uma resolução alternativa de litígios e a plataforma limita-se
lution, ODR), entre eles, os Países Baixos, o Reino Unido, a Letónia e a Estónia. a facilitar a comunicação entre as partes e um órgão de resolução de litígios,
Particularmente relevante é o exemplo da Estónia, que tenciona criar um sis- sem necessidade de recurso ao tribunal. Uma das maiores vantagens desta RLL
tema inteiramente independente de intervenção humana que profira deci- reside em disponibilizar traduções automáticas entre todas as línguas da UE,
sões em acções de pequeno montante (até 7000€)23. Em teoria, as duas partes bem como informação e apoio ao longo de todo o procedimento26.
fariam upload dos documentos e outra informação relevante, e a plataforma A extinta RLL dos Países Baixos era a mais antiga na Europa de que temos
de RLL proferiria a decisão, que poderia ser objecto de recurso para um juiz. conhecimento. O e-Court era uma iniciativa privada de resolução alternativa de
No Reino Unido também existem plataformas de RLL para acções de baixo litígios lançada em 2010 e, tal como o modelo pretendido pela Estónia, tratava-
valor, mas não são realmente uma solução de IA dado que é um juiz humano -se de uma IA de emissão de decisões inteiramente automática para litígios de
a decidir o litígio. A principal diferença entre este método e o método tradi- baixo valor. O credor apresentava a informação necessária (documentos) e a
cional de decisão é o facto de todos os contactos entre o utilizador e o tribu- decisão era proferida sem qualquer intervenção humana. Não obstante, para
nal se efectuarem através de uma plataforma em linha. Outra diferença face à dar início a um processo de execução, os utilizadores do e-Court tinham ainda
abordagem tradicional consiste na existência de uma espécie de mediadores de obter um título executivo emitido por mão humana: as decisões proferidas
em linha. Nas palavras do Professor Richard Susskind, “indivíduos que olharão em linha de modo automatizado eram enviadas a um tribunal público, onde os
para os pedidos e promoverão a negociação entre as partes, possivelmente actuando como funcionários de justiça recalculariam manualmente os montantes atribuídos27.
mediadores após algum tipo de orientação”24.
25
Para maior análise, ver https://e-justice.europa.eu/content_small_claims-42-lv-en.do?member=1
22
Nikolaos Aletras, Dimitrios Tsarapatsanis, Daniel Preoţiuc-Pietro, Vasileios [última consulta em 19-10-2022].
Lampos, Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing 26
O endereço electrónico da plataforma de RLL: https://ec.europa.eu/consumers/odr/
perspective, 2016, disponível em https://peerj.com/articles/cs-93/ [última consulta em 19-10-2022]. main/?event=main.home2.show [última consulta em 19-10-2022].
23
Para mais pormenores, ver o artigo disponível em https://www.wired.com/story/can-ai-be-fair- 27
Para mais pormenores, ver H.W.R. (Henriëtte) Nak ad-Weststr ate, H.J. ( Jaap) van
judge-court-estonia-thinks-so/ [última consulta em 19-10-2022]. den Herik, A.W. (Ton) Jongbloed e Abdel-Badeeh M. Salem, The Rise of the Robotic Judge
24
Para uma explicação sintética e clara da RLL do Reino Unido, ver a explicação do Professor in Modern Court Proceedings, conference paper on the 7th International Conference on Information
Richard Susskind em https://www.judiciary.uk/guidance-and-resources/what-is-odr-for-low- Technology (2015), pp. 59-67, acessível em https://www.researchgate.net/publication/300720949_
value-civil-claims-audio-version-2/ [última consulta em 19-10-2022]. The_Rise_of_the_Robotic_Judge_in_Modern_Court_Proceedings [última consulta em 19-10-2022].

211 212
A INTELIGÊNCIA ARTIFICIAL COMO AUXILIAR DAS DECISÕES JUDICIAIS DIREITO E INTELIGÊNCIA ARTIFICIAL

Também merece menção o Rechtwijzer, outra solução de RLL produzida na prática de actos de expediente no processo, propondo aquele grupo de
pelos Países Baixos: tinha por objectivo reduzir a conflitualidade no processo trabalho alargar a competência da secretaria judicial na prática de actos de
de divórcio ao reduzir a sua natureza contenciosa. O processo começava com expediente, libertando os magistrados para a apreciação do mérito dos litígios.
uma fase de diagnóstico, seguida de uma fase de recolha de informação junto Do ponto de vista da modernização digital, afigura-se-nos que, havendo uma
da parte que dava início ao processo e, por fim, a outra parte era convidada a delegação de mais competências na secretaria judicial para a prática de actos
juntar-se e a participar no processo de recolha de informação. A plataforma processuais relevantes, o momento é oportuno para se automatizar alguns
funcionava como um canal de comunicação entre as partes para que pro- dos actos praticados até então pela secretaria. Criar-se-ia espaço e oportuni-
curassem alcançar acordos sobre as questões em disputa. Apesar de se tra- dade para libertar os funcionários judiciais para o exercício de tarefas mais
tar de uma solução assente na negociação das partes, estas eram também importantes e dignificantes da sua função e conhecimentos.
informadas das normas jurídicas relativas aos acordos negociados (partilha Outro dos problemas identificados pelo referido grupo de trabalho são as
de bens, alimentos, etc.). No final do processo em linha, estes acordos eram bagatelas jurídicas, propondo-se naquele relatório a simplificação do regime
revistos por um terceiro imparcial (um advogado). O projecto Rechtwijzer processual em acções de valor até 5000€. Tendo presente as experiências
terminou em 2017 e não parece existir uma explicação oficial para o seu tér- da Estónia e dos Países Baixos, com sistemas automatizados de resolução de
mino28, mas, à época, os seus criadores encontravam-se a trabalhar com o litígios de baixo valor numa plataforma totalmente em linha, o momento é
Raad voor Rechtsbijstand29 para criar uma nova plataforma com um novo tipo oportuno para ponderar alternativas à mera simplificação processual. É nossa
de ofertas. Essa nova plataforma existe aos dias de hoje30, funcionando como convicção, aliás, que, face à pendência que ainda se verifica na jurisdição admi-
uma plataforma de aconselhamento jurídico para variados temas (especial- nistrativa e fiscal33/34, a mera simplificação processual não é necessariamente
mente de índole social, laboral e familiar), assumindo-se como uma parceria sinónimo de uma mais rápida resolução do litígio.
com o Raad voor Rechtsbijstand e de coordenação e cooperação com diversas
entidades31. 3.2. O que está a ser feito na União Europeia
Em Portugal, foi elaborado muito recentemente32 um relatório pelo grupo Para além do que já foi posto em prática, em Abril de 2018 os Estados-Mem-
de trabalho criado para delinear uma estratégia para resolver a pendência dos bros da UE assinaram uma declaração sobre a Cooperação em Matéria de
tribunais da jurisdição administrativa e fiscal, onde um dos eixos estratégi-
cos definido foi, precisamente, o da transformação digital. No âmbito daquele 33
Vejam-se os dados do último relatório anual publicado pelo Conselho Superior dos Tribunais
relatório, um dos problemas identificados é o tempo que o magistrado perde Administrativos e Fiscais atinente ao ano de 2020, [disponível em http://www.cstaf.pt/documentos/
Relatorio%20CSTAF%202020.pdf, última consulta em 19-10-2022] onde se refere (p. 7) “em
31/12/2020 a taxa de congestão processual continuava a situar-se acima dos 200% e as pendências continuavam
28
Para mais pormenores, ver o texto disponível em https://law-tech-a2j.org/odr/rechtwijzer-why- muito elevadas, com 20.532 processos no contencioso administrativo e 39.912 processos no contencioso
online-supported-dispute-resolution-is-hard-to-implement/ [última consulta em 19-10-2022]. tributário, num total de 60.444 processos pendentes”.
29
Uma entidade independente de fins públicos, que tem uma missão, transponível para o nosso 34
Em sequência, refere a Presidente do CSTAF, na nota introdutória àquele relatório: “Afigura-
ordenamento jurídico, aproximada à da Ordem dos Advogados e à da Ordem dos Solicitadores e se-nos, pois, que a resolução, tão rápida e eficaz quanto possível, das pesadas cargas processuais e do volume
Agentes de Execução. de pendências acumuladas até 31/12/2020, só pode ser ultrapassada, em tempo útil, mediante medidas
30
No link https://rechtwijzer.nl/ [última consulta em 17-10-2022]. excepcionais, em particular através de adequada assessoria jurídica e técnica aos juízes, há muito prevista na
31
Na definição da própria plataforma, as respostas são anónimas e não serão arquivadas. O lei, o que permitiria superar o desafio de alcançar um sistema de justiça administrativa e fiscal com a qualidade e
utilizador preencherá um questionário que demora entre 10 e 20 minutos a preencher, de que a celeridade que o século XXI exige.” Não podíamos estar mais de acordo com a proposta. Poderá ser este
poderá fazer download no seu próprio computador e enviar por e-mail. A plataforma não assegura o momento para se introduzir mecanismos de assessoria com base em IA como apoio ao exercício da
um tempo de resposta, uma vez que dependerá da maior ou menor complexidade do caso concreto função judicial? É uma solução que tem vindo a ser publicamente apontada pela actual Ministra da
[https://rechtwijzer.nl/eerste-hulp-oplossingen/ – última consulta em 17-10-2022, com tradução Justiça para melhoria do funcionamento dos nossos tribunais (https://cnnportugal.iol.pt/catarina-
automática para português do Google Chrome]. sarmento-e-castro/ano-judicial/ministra-da-justica-quer-ter-a-inteligencia-artificial-a-ajudar-os-
32
Datado de 17 de Março de 2022 e disponível em https://justica.gov.pt/Portals/0/Ficheiros/ tribunais/20220420/626033d10cf26256cd1f96fc e https://www.cmjornal.pt/politica/detalhe/
Organismos/J UST ICA/Relator iosI _ I IGr upoTrabalhodosTA F17mar22.pd f ?ver=Z N- ministra-da-justica-defende-inteligencia-artificial-e-mais-recursos-para-justica-administrativa-
fTt3P419LYdowdOrvKw%3D%3D [última consulta em 19-10-2022]. e-fiscal, última consulta em 11-10-2022).

213 214
A INTELIGÊNCIA ARTIFICIAL COMO AUXILIAR DAS DECISÕES JUDICIAIS DIREITO E INTELIGÊNCIA ARTIFICIAL

Inteligência Artificial35, na qual os países acordaram em construir uma UE mentação de ferramentas e serviços de IA são compatíveis com os direitos
voltada para o progresso e o investimento em matéria de IA, assim como para fundamentais; (2) não discriminação: especificamente, impedir o surgimento
o progresso no sentido da criação de um Mercado Único Digital. ou a intensificação de qualquer discriminação entre pessoas ou grupos de pes-
Nesse mesmo mês, a Comissão Europeia emitiu uma comunicação sobre soas; (3) princípio da qualidade e segurança: no que respeita ao tratamento
Inteligência Artificial para a Europa36. Nessa comunicação, a Comissão afirma de decisões e dados judiciais, utilizar fontes certificadas e dados intangíveis
que a UE “deve adoptar uma abordagem coordenada, a fim de tirar o máximo partido com modelos elaborados de modo multidisciplinar e num ambiente tecnoló-
das oportunidades oferecidas pela IA e fazer face aos novos desafios que esta acarreta”37, gico seguro; (4) princípio da transparência, imparcialidade e equidade: tornar
apoiando explicitamente a investigação em IA, nomeadamente quanto à “admi- os métodos de tratamento de dados acessíveis e compreensíveis e autorizar
nistração pública (nomeadamente a justiça)”38. Mais tarde, nesse ano, a Comissão auditorias externas; e (5) princípio “sob controlo do utilizador”: prevenir uma
para a Eficácia da Justiça na Europa, do Conselho da Europa (Council of Europe abordagem prescritiva e assegurar que os utilizadores sejam actores informa-
European Commission for the efficiency of justice – CEPEJ) lançou a Carta Euro- dos e com controlo sobre as escolhas feitas. Estes cinco princípios abordam
peia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais e seu ambiente39. algumas das principais questões éticas suscitadas pela utilização de ferra-
Apesar do caminho trilhado pela UE ao longo dos últimos anos, existe mentas de IA num sistema judicial e seu ambiente, bem como os princípios
ainda um longo percurso no que respeita à utilização da tecnologia de IA nas e obstáculos jurídicos que rodeiam esta área no âmbito da UE.
decisões judiciais no âmbito da UE. Em Portugal, foi publicada a Carta Portuguesa de Direitos Humanos na
Era Digital pela mão da Lei nº 27/2021, de 17 de Maio. Destacamos o artigo
4. Desafios éticos e legais 9º daquela Carta, que consagra os principais princípios e direitos no uso da
Tendo presente que a implementação da IA não é algo para um futuro dis- inteligência artificial e de robôs. A norma contida no nº 1 daquele artigo des-
tante, mas para o nosso tempo, a CEPEJ adoptou formalmente cinco prin- taca, à semelhança da Carta Europeia, o respeito pelos direitos fundamentais,
cípios fundamentais relativos à utilização da IA nos sistemas judiciais e seu garantindo-se “um justo equilíbrio entre os princípios da explicabilidade, da segu-
ambiente. Estes princípios visam assegurar o respeito pela Convenção Euro- rança, da transparência e da responsabilidade, que atenda às circunstâncias de cada
peia dos Direitos Humanos (CEDH) e pela Convenção relativa à Protecção caso concreto e estabeleça processos destinados a evitar quaisquer preconceitos e formas
dos Dados Pessoais (CPDP), ao enquadrarem as políticas públicas nessa área de discriminação”. Consagra-se, ainda, uma forma do princípio user under con-
e assegurarem que o processamento da IA respeita princípios como a trans- trol quando se prevê no nº 2 daquele artigo que as “decisões com impacto signi-
parência, a imparcialidade e a igualdade, com certificação através de uma avalia- ficativo na esfera dos destinatários que sejam tomadas mediante o uso de algoritmos
ção levada a cabo por peritos externos e independentes. devem ser comunicadas aos interessados”. O nº 3 do artigo 9º da Carta Portuguesa
Estes princípios, porém, não devem ser definidos de forma rígida. A CEPEJ de Direitos Humanos na Era Digital, por sua vez, estabelece que são aplicá-
pretende sujeitá-los a monitorização e supervisão, com um objectivo de con- veis à criação e uso de robôs, especificamente, os princípios da beneficência,
tínua melhoria das práticas. Por ora, os cinco princípios são os seguintes: (1) da não-maleficência, do respeito pela autonomia humana e pela justiça, bem
respeito pelos direitos fundamentais: assegurar que a concepção e a imple- como os princípios e valores consagrados no artigo 2º do Tratado da União
Europeia, designadamente a não discriminação e a tolerância40.
35
Disponível em https://ec.europa.eu/jrc/communities/en/node/1286/document/eu-declaration-
cooperation-artificial-intelligence [última consulta em 19-10-2022].
36
Disponível em https://ec.europa.eu/digital-single-market/en/news/communication-artificial- 40
Princípios, de resto, que não são uma total novidade. Os grandes princípios da bioética tiveram
intelligence-europe [última consulta em 19-10-2022]. como precursor o Relatório Belmont, de 1979, redigido pela Comissão Nacional para a Protecção
37
Supra nota 36, p. 3. de Sujeitos Humanos de Pesquisa Biomédica e Comportamental dos Estados Unidos, onde se
38
Supra nota 36, p. 8. identificam os princípios éticos básicos e directrizes que abordam questões éticas decorrentes
39
CEPEJ, European Ethical Charter on the use of Artificial Intelligence in judicial systems and their da condução de pesquisas com seres humanos. O relatório completo pode ser encontrado, no
environment (2018), disponível em https://rm.coe.int/ethical-charter-en-for-publication-4- seu original, em https://www.hhs.gov/ohrp/regulations-and-policy/belmont-report/index.html
december-2018/16808f699c [última consulta em 19-10-2022]. [última consulta em 19-10-2022].

215 216
A INTELIGÊNCIA ARTIFICIAL COMO AUXILIAR DAS DECISÕES JUDICIAIS DIREITO E INTELIGÊNCIA ARTIFICIAL

4.1. A jurisprudência do TEDH e suas directrizes (guidelines) numa abordagem subjectiva, permitindo determinar a convicção do julgador
Um dos maiores desafios criados pela utilização da IA nos sistemas judiciais em tal ocasião, e também de acordo com uma abordagem objectiva, de forma
e seu ambiente é o do respeito pelos direitos fundamentais e princípios con- a assegurar que o mesmo oferece garantias suficientes para excluir qualquer
sagrados, sejam os da Constituição da República Portuguesa, sejam os da dúvida legítima a esse respeito46. E, assim sendo, o Tribunal concordou com
CEDH. Como se afirma na Carta de Ética e na Carta Portuguesa, tais solu- o requerente quanto ao facto de a falha do Estado em identificar todos os
ções têm de respeitar direitos individuais como o “direito a um processo equita- membros do órgão administrativo que haviam deliberado era de molde a pôr
tivo (em especial o direito ao juiz natural estabelecido pela lei, o direito a um tribunal em causa a sua imparcialidade, o que implica que a imparcialidade é também
independente e imparcial e à igualdade de armas em processo judicial) e, onde não tenha assegurada pela identificação dos juízes que venham a proferir a decisão. Este
sido adoptada diligência bastante para proteger dados comunicados em dados abertos, é um factor de relevância inegável se um caso for julgado por uma IA.
o direito ao respeito pela vida privada e familiar”41. Em Golder c. Reino Unido, o TEDH reconheceu o direito de acesso a um
O respeito pelos direitos fundamentais implica, desde logo, o respeito pelo tribunal, mas afirmou também que este não é absoluto, admitindo algumas
direito a um processo equitativo (artigo 6º da CEDH). A densificação daquele limitações implícitas 47/48. A jurisprudência firmada em Deweer c. Bélgica49 tor-
direito tem sido feita ao longo do tempo pelo TEDH, estabelecendo impor- nou claro que o direito a um tribunal é visto como um elemento do direito a
tantes directrizes para todos os Estados subscritores da CEDH42. um processo equitativo, consagrado no nº 1 do artigo 6º, e não é mais abso-
Em primeiro lugar, o TEDH tem vindo a interpretar que apenas existe res- luto em matéria penal do que em matéria civil.
peito pelo direito a um processo equitativo quando seja cumprido o direito a Em Kontalexis c. Grécia50, o TEDH recorda que, ao abrigo do nº 1 do artigo
uma audiência pública. Em Vernes c. França43, o TEDH considerou existirem 6º, um tribunal deve ser sempre estabelecido por lei, o que reflecte o princí-
diversas violações do nº 1 do artigo 6º, uma das quais consistindo na violação pio do Estado de Direito, inerente a todo o sistema da Convenção e seus pro-
resultante da impossibilidade de os requerentes solicitarem uma audiência tocolos. O Tribunal afirma que a um órgão que não tenha sido estabelecido
pública44 e uma outra resultante da falta de imparcialidade do órgão admi-
de acordo com a vontade do legislador faltará necessariamente a legitimação
nistrativo como consequência da ausência de indicação da sua composição45.
necessária numa sociedade democrática. Em DMD GROUP, a.s, c. Eslováquia,
O Tribunal recordou que a audiência pública é um princípio fundamental con-
o TEDH reiterou a noção de um tribunal estabelecido por lei e da indepen-
sagrado no nº 1 do artigo 6º da Convenção. Este princípio pode sofrer com-
dência judicial e certeza jurídicas para o Estado de Direito exigirem uma par-
pressões justificadas em especial pelos interesses da vida privada das partes
ticular clareza das regras aplicadas em qualquer caso e garantias claras para
ou da salvaguarda da justiça (Diennet c. França, nº 18160/91, 26 de Setembro
assegurar objectividade e transparência, de modo a evitar qualquer aparência
de 1995) ou pela natureza das questões submetidas ao tribunal no âmbito do
caso concreto (Miller c. Suécia, nº 55853/00, 8 de Fevereiro de 2005; Göç c. Tur-
quia, nº 36590/97, 11 de Julho de 2002). O TEDH concluiu que, na ausência 46
Neste sentido, também a decisão proferida em Ivanovski c. “Antiga República Jugoslava da
de uma audiência pública, o direito do requerente a um processo equitativo Macedónia”, queixa nº 29908/11, Acórdão de 21 de Janeiro de 2016. É jurisprudência assente do
não fora assegurado. Naquele aresto, o TEDH recordou também que, para os TEDH que a imparcialidade tem de ser determinada “de acordo com um teste subjectivo, em que se
deve atentar na convicção e comportamento pessoais de um determinado juiz, isto é, se o juiz tinha qualquer
efeitos do artigo nº 1 do artigo 6º, a imparcialidade deve ser avaliada com base
preconceito ou tendenciosidade pessoal num determinado caso [a imparcialidade tem de ser presumida
até prova em contrário]; e também de acordo com um teste objectivo, isto é, determinando se o tribunal
41
Supra nota 39, p. 8. propriamente dito e, entre outros aspectos, a sua composição, ofereciam garantias suficientes para afastar
42
Veja-se também a súmula sobre o direito a um processo equitativo e público do artigo 6º, nº 1, da qualquer dúvida legítima a respeito da sua imparcialidade”.
CEDH de Marco Carvalho Gonçalves, “Direito a um processo equitativo e público”, in AA. 47
Queixa nº 4451/70, Acórdão de 21 de Fevereiro de 1975, § 38.
VV., Comentário da Convenção Europeia dos Direitos Humanos e dos Protocolos Adicionais, org. P. Pinto 48
Mas mesmo quando existem limitações implícitas, outros aspectos do direito consagrado no
de Albuquerque, vol. II, Lisboa, Universidade Católica Editora, 2019, pp. 931-964. nº 1 do artigo 6º devem ser respeitados, como o direito a ser ouvido por um tribunal dentro de um
43
Queixa nº 30183/06, Acórdão de 20 de Janeiro de 2011. prazo razoável (cf. Kart c. Turquia, nº 8917/05, 3 de Dezembro de 2009).
44
Supra nota 43, §§ 30-31. 49
Queixa nº 6903/75, Acórdão de 27 de Fevereiro de 1980, § 49.
45
Supra nota 43, §§ 41-44. 50
Queixa nº 59000/08, Acórdão de 31 de Maio de 2011.

217 218
A INTELIGÊNCIA ARTIFICIAL COMO AUXILIAR DAS DECISÕES JUDICIAIS DIREITO E INTELIGÊNCIA ARTIFICIAL

de arbitrariedade na distribuição de processos a juízes específicos51. Noutra crise financeira que atingiu a Islândia em 2008. A investigação durou quase
decisão52, o Tribunal considerou que os casos de distribuição discricionária três anos e levou a uma vasta recolha de dados, incluindo dados apreendidos
de um processo (no sentido de uma distribuição cujas modalidades não estão ao abrigo de um mandado judicial de busca. Para levar a cabo a pesquisa nos
previstas em lei), põem em risco a aparência de imparcialidade, ao dar azo dados electrónicos (e-discovery), a acusação utilizou uma ferramenta de IA cha-
a especulação sobre a influência política ou de outro tipo sobre o tribunal mada Clearwell, cujos resultados foram exportados e marcados como “docu-
destinatário da distribuição e o juiz competente, ainda que a distribuição do mentos de investigação”. Os requerentes queixaram-se de que nunca tinham
caso a um juiz específico em si mesma tenha seguido critérios transparentes. tido a oportunidade de analisar os documentos submetidos ao tribunal e que
Quanto ao princípio da igualdade de armas, o Tribunal afirmou mais recen- lhes fora negada a possibilidade de pesquisar os mesmos dados utilizando o
temente53 que “o princípio do contraditório e o princípio da igualdade de armas, os sistema electrónico empregue pela acusação. Isto consubstanciava, na sua
quais estão intimamente interligados, são componentes fundamentais do conceito de um opinião, uma violação do princípio da igualdade de armas (estabelecido no nº
‘processo equitativo’ no sentido que lhe é dado pelo nº 1 do artigo 6º da Convenção. Eles 1 e na alínea b) do nº 3 do artigo 6º), dado que eles deveriam ter tido as mes-
exigem um ‘justo equilíbrio’ entre as partes: a cada parte deve ser dada oportunidade mas oportunidades que a acusação de aceder à prova e seleccioná-la a partir
razoável de expor o seu caso em circunstâncias que não a coloquem em especial desvan- do conjunto de documentos recolhidos pela polícia durante a investigação.
tagem face ao(s) seu(s) oponente(s)”. O Tribunal considerou não existir qualquer violação do artigo 6º quanto
Um dos mais importantes direitos consagrados no nº 2 do artigo 6º é o a dados em massa não marcados, afirmando que nesse aspecto a acusação
da presunção de inocência. O TEDH interpreta-o como o direito a ser-se não detinha qualquer vantagem face à defesa, por não se tratar de um caso
presumido inocente até prova da culpabilidade em conformidade com a lei. de não divulgação. Quanto aos dados marcados, tinham sido analisados pelos
É “visto como uma garantia processual no contexto do próprio julgamento penal”, mas investigadores, manualmente e através do Clearwell, com vista a escolher o
a presunção da inocência também “impõe requisitos relativos, nomeadamente, ao material que deveria integrar o processo de investigação e a acusação. O Tri-
ónus da prova; à presunção legal de facto e de direito; à protecção contra a auto-incri-
bunal reconheceu que esta selecção fora feita somente pela acusação, sem o
minação; à publicidade na fase pré-julgamento; e a expressões prematuras, por parte
envolvimento da defesa e sem qualquer supervisão judicial, e também que
do tribunal de julgamento ou de outros funcionários públicos, quanto à culpabilidade
novas pesquisas nos dados pela defesa teriam sido tecnicamente possíveis e
de um arguido”54.
apropriadas para uma busca por prova potencialmente ilibatória. O Tribunal
concluiu assim que “qualquer recusa em autorizar a defesa a realizar novas buscas nos
4.2. O acórdão Sigurdur Einarsson “e.o.c” (e outros contra) Islândia
documentos ‘marcados’ suscitaria em princípio um problema à luz da alínea b) do nº 3 do
Conjugando quase todas as disposições sobre direitos consagrados no artigo
artigo 6º no que respeita à concessão de meios adequados para a preparação da defesa”56.
6º, o TEDH foi confrontado em Sigurdur Einarsson a. o. c. Islândia55 quanto a
potenciais violações do referido artigo num processo penal em que os arguidos A jurisprudência Sigurdur Einarsson a. o. c. Islândia é fundamental para a
alegavam ter-lhes sido negado acesso pleno ao processo detido pela acusação. conjugação das ferramentas de IA com os direitos consagrados no artigo 6º:
O processo penal em causa dizia respeito a uma conduta alegadamente
criminosa ligada ao colapso de um dos maiores bancos do país durante a 56
Supra nota 55, §§ 85-91. Apesar da conclusão mencionada, o Tribunal afastou a violação da alínea
b) do nº 3 do artigo 6º da CEDH por ter considerado que os requerentes não tinham formalmente
51
Queixa nº 19334/03, Acórdão de 5 de Outubro de 2010, § 66. procurado um tribunal com vista a ter acesso àqueles documentos e, nessa medida, não lhes tinha
52
Miracle Europe KFT c. Hungria, Queixa nº 57774/13, Acórdão de 12 de Janeiro de 2016, § 58 sido negado globalmente um processo equitativo. O acórdão mereceu uma declaração de voto por
53
Prebil c. Eslovénia, Queixa nº 29278/16, Acórdão de 19 de Março de 2019. parte do Juiz Pavli. Com especial interesse, veja-se o § 10 (tradução livre): “Vale a pena recordar neste
54
Kangers c. Letónia, Queixa nº 35726/10, Acórdão de Março de 2019. Igualmente, Lolov c. Bulgária, ponto que o que está em causa é um pilar fundamental do processo penal equitativo, nomeadamente a igualdade
Queixa nº 6123/11, Acórdão de 21 de Fevereiro de 2019; Allenet de Ribemont c. França, Queixa no de armas. À luz deste princípio cardeal, a abordagem global da maioria parece insuficientemente harmonizada
15175/89, Acórdão de 10 de Fevereiro de 1995; Viorel Burzo c. Roménia, Queixas nº 75109/01 e com a complexidade da revelação electrónica em processo penal (ou civil) envolvendo elevados volumes de dados;
12639/02, Acórdão de 30 de Junho de 2009; Lizaso Azconobieta c. Espanha, Queixa nº 28834/08, à utilização de ferramentas tecnológicas modernas neste contexto; e às suas implicações combinadas para a
Acórdão de 28 de Junho de 2011. igualdade de armas. O pressuposto de que as regras de revelação padrão devem aplicar-se sem alterações neste
55
Queixa nº 39757/15, Acórdão de 4 de Junho de 2019. contexto carece, no mínimo, de ser testada.”

219 220
A INTELIGÊNCIA ARTIFICIAL COMO AUXILIAR DAS DECISÕES JUDICIAIS DIREITO E INTELIGÊNCIA ARTIFICIAL

estabeleceu um claro princípio de que, onde sejam usadas ferramentas de IA Uma decisão judicial sem especificação dos seus fundamentos é nula58.
para tratar dados em massa e exista informação extraída através desse meca- Pelo que não é admissível a resposta “computer says no”. Mas o princípio da
nismo, o princípio da igualdade de armas (nº 1 do artigo 6º) e o direito a dis- explicabilidade não impõe necessariamente que saibamos como um agente de
por de tempo e meios adequados para a preparação da defesa exigem que o IA chegou aos seus resultados, nem implica que se abra a caixa negra. Impõe
arguido/demandado (num processo penal ou civil, como afirmado em Deweer apenas – o que já não é pouco – que o resultado obtido tenha suficiente poder
c. Bélgica) tenha o direito de participar na escolha da informação e tenha o explicativo. Uma proposta para o alcançar poderá ser através da utilização de
direito de realizar a sua própria pesquisa nos dados, utilizando a mesma fer- justificações contrafactuais59.
ramenta que a acusação. Na lógica formal, uma condicional contrafactual é uma proposição no
Para garantir o direito a um processo judicial equitativo, a utilização de modo subjuntivo, tal como “se o osso estivesse partido, o raio X teria resultado dife-
uma ferramenta de IA nesse contexto terá sempre de garantir o direito a uma rente”. São condicionais contrárias aos factos, implicando a sugestão de que
audiência pública; a imparcialidade do julgador, avaliada com base numa abor- o antecedente de tal condição é falso. Uma vez que as contrafactuais podem
dagem subjectiva e também de acordo com uma abordagem objectiva; a iden- estar relacionadas com todo o tipo de mundos possíveis, é importante que o
tificação do decisor; o direito de acesso a um tribunal (embora não seja um mundo que utilizamos seja próximo do mundo real, isto é, deve ser o mundo
direito absoluto); a garantia de legitimação mediante criação por lei (prin- mais próximo possível60.
cípio do Estado de Direito); a clareza das regras aplicadas em qualquer caso A explicabilidade dos resultados provenientes de uma caixa negra pode
e garantias para assegurar objectividade e transparência, de modo a evitar ser alcançada através de algoritmos criados para confundir classificadores,
qualquer aparência de arbitrariedade na distribuição de processos a juízes gerando um ponto de dados sintéticos próximo a um já existente, de modo a
específicos, em nome do princípio da transparência; o princípio do contra- que esse novo ponto de dados sintéticos possa ser classificado de forma dife-
ditório; a igualdade de armas, seja na acepção de que a cada parte deve ser rente do original, descrevendo as dependências entre uma decisão particular
dada oportunidade razoável de expor o seu caso em circunstâncias que não e factos externos específicos. O agente de IA vai então pesar esse novo dado
a coloquem em especial desvantagem face ao(s) seu(s) oponente(s), seja no sintético ou “contra-o-facto” que resultou do dado original. É importante,
direito a dispor de tempo e meios adequados para a preparação da defesa, por exemplo, para aferir a robustez do nexo de causalidade61.
utilizando os mesmos meios de pesquisa, caso uma IA tenha sido utilizada Imaginemos uma situação de rebentamento de uma conduta de água que
no âmbito na investigação criminal. provoca danos. O teste do algoritmo para aferir o nexo de causalidade com o
auxílio de justificações contrafactuais será o seguinte: num cenário próximo
4.3. A opacidade das caixas negras ao que está a ser julgado (mundo possível), em que a conduta de água não
Conexo com as questões atrás mencionadas está o problema das caixas negras
(black boxes), isto é, quando um agente de IA produz um resultado que os prognóstico médico humano – os pacientes que se encontravam em risco de mortalidade hospitalar
humanos ou mesmo os seus criadores não conseguem perceber nem expli- (93%-94%), os que seriam submetidos a reinternamento não planeado a 30 dias (75-76%), os casos
car como foi obtido, embora a sua exactidão ultrapasse as melhores decisões de hospitalização prolongada (85-86%) e as situações de alta médica (90%). Já com o conhecimento
da previsão do algoritmo, a informação clínica foi reexaminada pelos médicos que continuaram
ou previsões humanas57. O resultado de uma função algorítmica inexplicável
sem perceber ou conseguir explicar a elevada percentagem de acerto das previsões do algoritmo.
poderá ser utilizado numa decisão judicial? Esta função algorítmica foi designada como não-explicável (non-explainable algorithmics).
58
Artigo 615º, nº 1, alínea c) do Código de Processo Civil.
57
Veja-se o estudo de Alvin Rajkomar, Eyal Oren et al., denominado “Scalable and accurate 59
Sandr a Wachter, Brent Mittelstadt, Chris Russel, “Counterfactual Explanations
deep learning with electronic health records”, Npj (Nature Partner Journals), Digital Medicine, 1, Without Opening the Black Box: Automated Decisions and the GDPR”, in Harvard Journal of Law
nº 18, 2018, disponível em https://www.nature.com/articles/s41746-018-0029-1 (última consulta, & Technology, 31 (2), 2019.
19-10-2022). Neste estudo foi apresentado o surpreendente desempenho de um algoritmo preditivo 60
Simon Blackbur n, The Oxford Dictionary of Philosophy, Oxford, Oxford University Press,
de aprendizagem profunda, que analisou os relatórios clínicos de 216.221 pacientes, incluindo 1996, pp. 85-86.
notas soltas dos médicos assistentes, sem intervenção humana na selecção dos dados. O algoritmo 61
Veja-se o caso do programa Resnet, mencionado por Sandra Wachter, Brent Mittelstadt,
criou quatro categorias e previu, com um nível de exactidão de 75% a 94% – superando o melhor Chris Russel, ob. cit.

221 222
A INTELIGÊNCIA ARTIFICIAL COMO AUXILIAR DAS DECISÕES JUDICIAIS DIREITO E INTELIGÊNCIA ARTIFICIAL

rebentou (condicional ou dado sintético), o lesado não iria sofrer os danos Para a boa decisão da causa, a IA será a raposa, pois sabe muitas coisas:
que alega (perturbação adversária). armazenar informação, retirar taxas base, alcançar juízos probabilísticos,
Trata-se de uma proposta de solução mais realista para ultrapassar a opa- compilar o acervo jurisprudencial, executar automatismos sem dificuldade,
cidade das caixas negras do que um direito à demonstração plena do fun- reduzir vieses cognitivos. Mas para as partes em litígio, o juiz será o ouriço,
cionamento interno do algoritmo. As decisões de redes neuronais artificiais pois tem a obrigação de saber uma coisa muito importante: o caso particular
partem de milhares de funções e milhões de parâmetros que controlam o submetido a julgamento.
seu comportamento. Já a memória humana de curto prazo consegue reter,
em média, cerca de sete objectos (números, palavras, letras) em simultâneo. Bibliografia
A transparência total do agente de IA dificilmente será compreensível para Aletras, Nikolaos/Tsarapatsanis, Dimitrios/Preoţiuc-Pietro, Daniel/
a maioria das pessoas, a que teríamos de adicionar os direitos de propriedade Lampos, Vasileios, Predicting judicial decisions of the European Court of Human Rights:
intelectual sobre os algoritmos. a Natural Language Processing perspective, 2016.
Do mesmo modo que não é possível pedir a um juiz humano que abra o Altavilla, Enrico, Psicologia Judiciária – o processo psicológico e a verdade judicial, vol. I, 2ª
seu cérebro e descreva como chegou à decisão, também não podemos espe- ed., trad. Fernando Miranda, Coimbra, Almedina, 2007.
rar total transparência dos algoritmos de IA, a qual só poderia ser obtida à Berlin, Isaiah, “The Hedgehog and the Fox” (1953), in The Proper Study of Mankind:
An Anthology of Essays, New York, Farrar, Straus and Giroux, 2000.
custa do seu próprio desempenho. O que não significa uma confiança cega e
Blackburn, Simon, The Oxford Dictionary of Philosophy, Oxford, Oxford University Press,
acrítica no agente de IA.
1996.
Chace, Callum, The Artificial Intelligence and the Two Singularities, Boca Raton, London,
5. Conclusão New York, CRC Press, 2018.
A aversão a algoritmos susceptíveis de afectar os seres humanos inclui-se na Fedoll, Jordi Nieva, La valoración de la prueba, Madrid, Marcial Pons, 2010.
frequente hostilização ao que é sintético ou artificial. Esta tendência verifica- Fedoll, Jordi Nieva, Inteligencia artificial y processo judicial, Madrid, Marcial Pons, 2018.
-se, por exemplo, na alimentação, na energia e, no caso que nos ocupa, tam- Floridi, Luciano, The Fourth Revolution: how the infosphere is reshaping human reality,
bém no processo de decisão. Todavia, não se prescindindo dos juízos humanos, Oxford, Oxford University Press, 2014.
Floridi, Luciano et. al., “AI4People–An Ethical Framework for a Good AI Society:
mais ou menos intuitivos, é eticamente muito questionável negar o auxílio
Opportunities, Risks, Principles, and Recommendations”, Minds and Machines, Sprin-
de algoritmos que cometerão menos erros no processo decisório, sobretudo
ger, 2018.
em ambientes regulares e estáveis. Gonçalves, Marco Carvalho, “Direito a um processo equitativo e público”, in AA.
A IA é uma realidade actual e muito seguramente, num futuro próximo, VV., Comentário da Convenção Europeia dos Direitos Humanos e dos Protocolos Adicionais, org.
será um preciso auxiliar do juiz, quer na tramitação processual quer na efi- P. Pinto de Albuquerque, vol. II, Lisboa, Universidade Católica Editora, 2019.
ciência e qualidade das decisões. A sua utilização no processo judicial deve Khaneman, Daniel, Thinking, Fast and Slow, trad. port. Pedro Vidal, Pensar, Depressa
ser encorajada, começando pelas situações que suscitem menor desconfiança. e Devagar, 12ª ed., Lisboa, Temas e Debates – Círculo de Leitores, reimpressão, 2021.
Mas não devemos apostar numa singularidade jurídica, em que o auxílio da Martins, Hermínio, Experimentum Humanum, Lisboa, Relógio D’Água, 2011.
Nakad-Weststrate, H.W.R. (Henriëtte)/Van den Herik, H.J. (Jaap)/Jong-
IA à decisão judicial acertará em todos os casos e eliminará toda a incerteza
bloed, A.W. (Ton)/ Salem, Abdel-Badeeh M., The Rise of the Robotic Judge
jurídica ou a própria intervenção humana.
in Modern Court Proceedings”, conference paper on the 7th International Confer-ence
A posição prudentemente optimista por nós defendida pode ser sinteti- on Information Technology, 2015, acessível em https://www.researchgate.net/publica-
zada na vetusta sentença do poeta grego Arquíloco, popularizada por Isaiah tion/300720949_The_Rise_of_the_Robotic_Judge_in_Modern_Court_Proceedings
Berlin, de que “a raposa sabe muitas coisas, mas o ouriço sabe uma coisa muito (última consulta em 19-10-2022).
importante”62. Rajkomar, Alvin/Oren, Eyal/et. al., “Scalable and accurate deep learning with elec-
tronic health records”, Npj (Nature Partner Journals), Digital Medicine, 1, nº 18, 2018,
62
Isaiah Berlin, “The Hedgehog and the Fox”, 1953, in The Proper Study of Mankind: An Anthology disponível em https://www.nature.com/articles/s41746-018-0029-1 (última consulta,
of Essays, New York, Farrar, Straus and Giroux, 2000, pp.436 e ss. 19-10-2022).

223 224

Você também pode gostar