Você está na página 1de 6

Primeira Oradora – Judith Martins-Costa

I. Regime aplicável

Só em 2018, com a Lei 13.709 (agosto), é que o Brasil passou a fazer parte dos países
que contêm uma legislação específica para a proteção de dados e para a privacidade dos
seus cidadãos.

A aprovação desta Lei Geral de Proteção de Dados Pessoais (LGPD ou LGPDP) vem, no
fundo, adaptar a realidade às necessidades que foram surgindo na última década,
alterando, assim, vários artigos do Marco Civil da Internet (Lei 12.965/2014), que regula
o uso da Internet no Brasil por meio da previsão de princípios, garantias, direitos e deveres
para quem usa a rede, bem como da determinação de diretrizes para a atuação do Estado.

Todavia, tendo em conta que, no Brasil, segundo dados de 2017/2018, foram apresentados,
nas Cortes brasileiras, cerca de 80 milhões de casos relacionados com IA que, há cerca de
16 dias, se apresentou o Projeto de Lei 50/51 que vem regular o uso da Inteligência
Artificial no Brasil.

II. Regime aplicável atualmente

Ora, se não existiam, até ao momento, regras especiais aplicáveis, cabia aplicar as regras
de responsabilidade objetiva, na medida em que, veja-se, se Robot não é uma pessoa,
não é possível que a estes seja imputada qualquer responsabilidade diretamente, tendo,
para tanto, que imputá-la a alguma pessoa.

Quanto a isto vem, o novo projeto de lei estabelecer que a responsabilizade cabe
supervisor da máquina, seja ele quem for. Embora, para a professora, a lei mais
importante continua a ser a Lei do consumidor.

Da sua análise, em especial do artigo 8º e o 12º que estabelecem que, primeiro, os


produtos e serviços colocados no mercado de consumo não poderão acarretar riscos à
saúde ou segurança dos consumidores, exceto os considerados normais e previsíveis em
decorrência de sua natureza e fruição, obrigando-se os fornecedores, em qualquer
hipótese, a dar as informações necessárias e adequadas a seu respeito e que, segundo,
é o fabricante, o produtor, o construtor, nacional ou estrangeiro, e o importador quem
responde, independentemente da existência de culpa, pela reparação dos danos
causados aos consumidores por defeitos decorrentes de projeto, fabricação,
construção, montagem, fórmulas, manipulação, apresentação ou acondicionamento de
seus produtos, bem como por informações insuficientes ou inadequadas sobre sua
utilização e riscos.

O problema aqui é que se o robot auto apreender, ou seja, se começar a tomar


decisões autonomamente, deixa de ser adequado aplicar o “defeito do produto” pelo
qual se rege a Lei do consumidor?

Quanto a isto, começa a Professora Judith por definir o que deve ser considerado, para
efeitos da aplicação da Lei, como “defeito do produto”.

Ora, sendo que a responsabilidade não é da coisa, mas sim do produto da coisa, o
defeito do produto carateriza-se por ser um fator adicional ao risco, que é o fator de
imputação primário.

Numa comparação com o tabaco, uma vez que é apto a provocar riscos, deve este
considerar-se como defeituoso ou não?

Quanto a isto, afirma a Prof. Judith que, a Lei do Consumidor não pode, utopicamente,
proteger o risco, isto porque, é algo normal em tudo. É, aliás, por esta razão que os
artigos 8º e 9º, falam em riscos que legitimamente, ou seja, em razão da segurança, são
expetáveis. Isto numa dicotomia entre perigosidade inerente (normal e previsível),
ligada a um problema de informação, em primeira linha, aos limites deste dever de
informação, versus perigosidade, em sentido estrito.

Na lógica Código Civil, e uma vez que a responsabilidade objetiva é regra geral no Brasil,
ao aplicarmos o artigo 907º caberá desvendar quem responde pelo risco.
Nesta senda, que tipo de risco devemos aqui a considerar?

A Professora é da opinião de que o que se tem aplicado é o “risco proveito”, ou seja, a


empresa que tem o proveito, assume o risco.

Todavia, outros riscos podem aqui ser considerados, como por exemplo, o risco
desenvolvimento (risco cognoscível).

A questão é, exclui ou não a responsabilidade? Responde-se pelos danos tardios? Pode


ser considerado um risco esperado? Ou é um risco que decorre do desenvolvimento
humano?

Embora a maior parte dos autores considerem que estes riscos não são integrantes da
responsabilidade civil, a verdade é que a classificação do risco é a ponta do iceberg.

Nas palavras da Professora, embora sendo o Direito uma experiência permanente, que
trabalha com conceitos, a questão primeira, no caso, é a de saber se temos já um regime
que pode ser aplicado ou precisamos de novas leis.

Exemplos da introdução de autómatos no mundo jurídico:

1º A 30 de maio de 2018 é lançada a notícia de que o Supremo Tribunal Federal utilizava


já I.A. para facilitar/agilizar processos. O autómato, designado por Victor (em
homenagem a um ministro dos anos 60), verifica se estão cumpridos os requisitos
de admissibilidade de todos os recursos extraordinários que sobem ao Supremo.

Em suma, Victor unifica os requisitos e conclui pela admissibilidade ou


inadmissibilidade do recurso, isto tudo em menos de 5 segundos, o que comparado
com os 44 minutos que levam os funcionários revela uma agilização significativa.
1º O STJ utiliza o Sócrates, a quem cabe a qualificação de processos, embora vá
começar a, para além da análise, sugerir uma decisão. Na prática, vai significar que
em menos de 1 segundo, teremos 280 casos julgados.
À primeira vista as vantagens parecem óbvias, mas vejamos:

Em 2003, uma pessoa é condenada em 6 anos de prisão por furto de veículo, tiroteio,
tendo já antecedentes de coação sexual.
O patamar da pena foi definido por uma máquina privada que funciona com um
algoritmo secreto que nem os juízes têm acesso.
Houve recurso, pede-se acesso aos algoritmos. Acontece que, estes se encontram
abrangidos pelo segredo industrial e embora saibamos já que este tipo de soluções
baseadas em algoritmos estejam já a ser praticadas a nível da seleção de empregos, dos
respetivos trabalhadores, na área dos seguros, cartão multibanco, a verdade é que aqui
estamos a falar de justiça, mais propriamente, da restrição de direitos fundamentais.
A questão é, não estaremos a ser demasiados levianos?

1º No Tribunal de Contas, também já se utilizam autómatos. Há uma advogada robot


chamada Sophia (vem do ancestral brasileiro/sul americano), que auxilia o Estado a
descobrir e “condenar” os devedores (penhora de bens, etc.).

O problema, na realidade, é que o algoritmo é tão bom quanto bons sejam os dados
que o Estado lhe fornecer, ou seja, a responsabilidade tal como inicialmente a
“desenhámos” não nos dá resposta, sendo necessário, por isso, olhar para o sistema
inicial, o de compliance.

B. Segundo Orador – Henrique Sousa Antunes

A responsabilidade civil, tal como consta do Regulamento Europeu de 2017 e do


Regulamento da Comissão Europeia, de abril de 2018, é um tema central nesta
discussão, na medida em que as empresas precisam de saber com o que contar, qual a
forma de restituir os lesados (bibliografia sobre o assunto: Benard C. – Princípios éticos
em matéria de IA – Polices).
Vejamos, o lesado é o ator central, por isso, não pode ser confrontado com a prova do
defeito, até porque o objetivo principal da responsabilidade, não é a segurança do
produto, mas a segurança do consumidor.

Posto isto, tem a responsabilidade por objetivo principal a compensação e não a


segurança do produto.

Embora, numa interpretação atualista se possa concluir pela responsabilidade solidária


entre o produtor e o utilizador, na medida em que o utilizador mesmo que cego em
relação ao que utiliza, é beneficiador.

Vítimas utilizador produtor

Quanto ao conceito de risco, deve ter-se em consideração que não estamos aqui
perante um risco fundado na estatística, mas na gravidade do que pode causar.

Nesta lógica, o Professor, defende que o sistema, tal como está construído, é adequado
para dar resposta, talvez seja apenas necessário adaptar a responsabilidade do
produtor. Isto para que, numa fase em que os seguros comandarão o ressarcimento, se
consiga definir o que proteger/como/valor dos prémios.

Quanto a isto, o que agora se tem debatido é: poderá o Estado obrigar, legislativamente,
à existência de seguro?

O cuidado a ter, reside no facto das pessoas verem, nesta zona cinzenta, uma forma de
fraude à lei, agindo em nome da atribuição de personalidade jurídica

É, exatamente por isto, que se tem debatido a possibilidade de os autómatos virem a


gerar património, que posteriormente responderá pelos danos causados. Mas como?
Através de um fundo.
Para tanto, na opinião do Sr. Professor, não é necessário dotar os autómatos de
personalidade jurídica, tal como tem vindo a ser defendido, basta que este fundo seja
constituído por um “acumular do valor da remuneração” recebido pelas suas
capacidades de utilização.

De outra maneira, teríamos de aplicar o instituto da desconsideração da personalidade


jurídica para imputar o utilizador, se não cairíamos na desresponsabilização de quem
utiliza algoritmo.

Finaliza o Sr. Professor dizendo:


“Não pode o legislador, ou os juristas no geral, em momento algum, considerar que a
Inteligência Artificial é superior à dos humanos, como se o algoritmo fosse Deus, se
não vamos acabar por criar espaço de manobra para quem sabe utilizar o algoritmo e
o faz a seu favor” – Superpotências da I.A.

Você também pode gostar