Escolar Documentos
Profissional Documentos
Cultura Documentos
VEÍCULO AUTOMATIZADO
Manuel Felício
INTRODUÇÃO
A ficção científica tem alimentado, desde sempre, o imaginário humano. Quer com
base nela, quer através dela, as pessoas vão ideando e, simultaneamente, concretizando os
vislumbres de um futuro que depressa se torna presente. A insatisfação congénita do ser
humano é o combustível da criação pela qual a espécie humana procura incessantemente
atingir o zénite. A tecnologia é um dos veículos da criatividade humana e, se pode dizer-se
que acompanha o Homem desde os primórdios da sua existência em modos, pelo menos,
mais rudimentares, não se pode negar que ao longo das últimas décadas o seu
desenvolvimento tem vindo a atingir patamares crescentemente marcantes e desafiantes.
Mas não só de idealismo e certeza se faz o progresso. O cepticismo e a dúvida – desde que
não crónicos – afiguram-se imprescindíveis na sua função orientadora e inquisitória num
caminho que, já se sabe, é duro e sinuoso. O campo da robótica não é excepção. São várias
as preocupações suscitadas nesta área, e, em particular, no que à condução automatizada diz
respeito, pelo papel determinante que poderá vir a desempenhar. Interrogações a respeito da
privacidade, ética, segurança, cultura e normas sociais marcam a discussão em torno do lugar
que os veículos autónomos, como tantos outros artefactos robóticos, tomarão na vivência
comunitária e na relação do indivíduo consigo e com o outro.
Por ora, colocaremos essas ânsias de lado. O problema de que pretendemos ocupar-
nos refere-se à responsabilidade civil extracontratual decorrente de um acidente de viação
causado por um automóvel autónomo. Procurar-se-á apurar quem deverá, e de que forma,
responder, buscando conciliar a intenção responsabilizatória com as concepções de
antropocentrismo e humanismo e com as finalidades que, a título de doutrina ressarcitória,
devem ser protegidas e prosseguidas.
1
Ryan Abbott, «The Reasonable Computer: Disrupting the Paradigm of Tort Liability», SSRN Scholarly Paper,
2016, 41.
Nos dias que correm, são já notórios os esforços de diversas entidades no sentido
de regular este campo da robótica2. O debate adensa-se à medida que a sociedade global se
prepara para a introdução, com data ainda indefinida, de veículos automatizados no seu seio.
Cientes dos perigos do desenvolvimento de tecnologias num vácuo regulamentar e da
dificuldade da lei em acompanhar a inovação tecnológica, as autoridades e entidades
competentes procuram dar resposta ao problema através da previsão de normas legais,
normas técnicas, códigos de conduta e demais instrumentos ao seu dispor3. Neste sentido, a
definição de um regime de responsabilidade civil capaz de responder cabalmente aos
desafios que se lhe coloquem assumirá um papel relevantíssimo na promoção da inovação e
competitividade no mercado e, simultaneamente, na tutela dos interesses e expectativas dos
utilizadores. O que não significa que os interesses enunciados sejam totalmente compatíveis.
Antes pelo contrário.
O foco na responsabilidade do produtor, fundada no papel de fabricantes de
hardware e, em especial, de programadores e criadores de software em detrimento da
responsabilidade do condutor poderá ter um efeito adverso e dilatório no desenvolvimento e
comercialização dos automóveis em estudo4. Há, contudo, autores que defendem que o efeito
dissuasor não será tão gravoso como se possa pensar, não se justificando o receio de efeitos
nocivos no incentivo à introdução de sistemas deste tipo na indústria automóvel5.
Por outro lado, definir como regra a responsabilidade do proprietário ou condutor
poderá, apesar de todas as vantagens de que possa vir a beneficiar, demover aquele da
aquisição de um veículo cujo modus operandi é de difícil perceção e o qual poderá vir, num
2
Fazemos, aqui, menção à actividade legislativa neste âmbito nos Estados Unidos da América, com foco,
contudo, na previsão de normas a que terão de obedecer os testes com veículos autónomos, National
Conference of State Legislatures – National Conference of State Legislatures. Washington: NCSL. [Consult.
5 Jan. 2018], <http://www.ncsl.org/research/transportation/autonomous-vehicles-self-driving-vehicles-
enacted-legislation.aspx>.
3
Erica Palmerini, et al, Robolaw – Guidelines on Regulating Robotics, 2014, 11.
4
Matthew U. Scherer, «Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and
Strategies», Harvard Journal of Law and Technology, v. 29, nº 2, 2015, 388: “Tort law influences future
behavior primarily through the deterrent effect of liability”; Nidhi Kalra, James Anderson, Martin Wachs,
Liability and Regulation of Autonomous Vehicle Technologies, 2009, 22.
5
Cf. F. Patrick Hubbard, «“Sophisticated Robots”: Balancing Liability, Regulation, and Innovation», Florida
Law Review, v. 66, nº 5, 2014, 1859.
6
Ryan Abbott, op. cit., 17.
Cumpre, de forma a melhor compreender que opções deverão ser adoptadas no que
ao regime da responsabilidade delitual concerne, abordar brevemente o modo de
funcionamento de um veículo autónomo, referindo a tecnologia que incorpora e os vários
níveis de automação a que poderá operar.
A autoridade estadunidense para a segurança no tráfego rodoviário havia
estabelecido, num documento publicado em 2013, cinco níveis distintos de automação. Mais
recentemente, e seguindo as recomendações da Sociedade de Engenheiros da Mobilidade em
documento publicado em 2014 e revisto em 20167, acrescentou um nível aos cinco
inicialmente delineados, numa escala composta por seis níveis em que o primeiro
corresponde à ausência de automação e o último à automação completa da condução8. Em
função do nível de automação do veículo, serão diferentes o hardware e as tecnologias nele
incorporadas, em virtude das funções e tarefas que ao sistema automatizado cabe cumprir.
De qualquer das formas, essencial para a tarefa dinâmica de condução, seja esta levada a
cabo pelo condutor ou pelo sistema de condução automatizada, será a instalação de sensores
– radar, lidar, GPS, câmaras - que permitam saber onde se encontra, identificar e interpretar
objectos circundantes e tomar a melhor decisão em conformidade com a informação que
recolha9. Para que tal aconteça, prevê-se que os sistemas de condução automatizada
cumpram um processo complexo, comum no ramo da robótica, composto por três fases:
7
Para considerações mais aprofundadas sobre o tema, SAE International, Taxonomy and Definitions for Terms
Related to Driving Automation Systems for On-Road Motor Vehicles, 2016; U.S. Department of Transportation,
Automated Driving Systems 2.0: A Vision for Safety, 2017.
8
Sumariamente, os níveis de autonomia estão, de presente, definidos da seguinte forma:
- Nível 0: Ausência de automação, cumprindo ao condutor todas as tarefas de condução;
- Nível 1: O veículo poderá encarregar-se, não simultaneamente, do controlo de movimento longitudinal ou de
movimento lateral;
- Nível 2: Automação parcial, pelo que o sistema de condução automatizada poderá encarregar-se
cumulativamente do controlo de movimento longitudinal e de movimento lateral, tendo o condutor de se
encarregar das restantes tarefas e supervisionar o funcionamento do sistema;
- Nível 3: Automação condicionada, sendo que o sistema se encarrega de todas as tarefas dinâmicas de
condução mas mantém a expectativa de intervenção e resposta adequada do utilizador quando tanto lhe seja
pedido ou quando haja falhas sistémicas;
- Nível 4: Automação alta, sendo o veículo capaz de executar todas as tarefas dinâmicas de condução em
determinadas condições não havendo a expetativa de intervenção do utilizador;
- Nível 5: Automação total, podendo o veículo executar todas as tarefas dinâmicas de condução em quaisquer
condições, não havendo a expetativa de intervenção por parte do utilizador.
9
Harry Surden e Mary-Anne Williams, «Technological Opacity, Predictability, and Self-Driving Cars»,
Cardozo Law Review, v. 38, 2016, 137.
10
Em geral, Harry Surden e Mary-Anne Williams, op. cit.
De entre os desafios que se nos colocam com o advento dos veículos autónomos,
afigura-se particularmente espinhoso aquele que subjaz ao presente estudo. São muitas as
particularidades da condução automatizada que, em face de acidentes provocados pelos
respetivos sistemas, levantarão questões às quais é imperioso dar resposta. Em particular,
aquela que encerra em si uma das mais prementes interrogações em sede de dogmática
ressarcitória – quem? A quem podemos e devemos assacar a responsabilidade, de entre todos
os intervenientes na concretização do sonho, outrora futurista, da condução automatizada?
Genericamente, “who pays”11? Surgem como possíveis alvos de responsabilização o próprio
12, 13
veículo, o produtor , o proprietário do veículo e o condutor, se ainda nele pudermos falar.
Importa também clarificar que cada uma das alternativas avançadas apresenta méritos
distintos, não sendo, contudo, líquida a sua bondade. São múltiplos os factores14 a ter em
conta e dependendo deles assim será diferente a oportunidade da sua aplicação.
Apoiando-nos na distinção entre responsabilidade subjectiva e objectiva e
concretizando as finalidades da responsabilidade civil, refletiremos, agora, sobre as soluções
legais que, de iure constituto e de iure constituendo, se nos apresentam aplicáveis.
11
Ugo Pagallo, The Law of Robots: crimes, contracts, and torts, Springer, 2013, 43.
12
O termo “produtor” corresponderá a qualquer das hipóteses previstas no art. 2º do DL 382/89 de 6 de
Novembro, que transpôs para o ordenamento jurídico nacional a Directiva 85/374/CEE, do Conselho, de 25 de
Julho de 1985.
13
Brendan Gogarty; Meredith Hagger, «The Laws of Man over Vehicles Unmanned», Journal of Law,
Information and Science, v. 19, 2008, 123: “Regardless of how autonomous a UV is, there will always,
ultimately, be human agents that can potentially be held responsible. They would include: software and
hardware developers; manufacturers; systems engineers; operators; and those who decide to deploy them, or
set the parameters for their deployment”.
14
Tais como o nível de automação e a possibilidade de intervenção do tripulante do veículo, variáveis de caso
para caso, que terão influência na determinação da solução que melhor se adequa na prossecução das
finalidades da responsabilidade civil.
15
Tom Allen e Robin Widdison, «Can Computers Make Contracts?», Harvard Journal of Law and Technology,
v. 9, n. 1, 1995.
16
Erica Palmerini, et al, op. cit., 206: “By pushing the ontological argument further one may conclude that
robots – in some cases at least, namely when autonomous – amount to subjects, rather than objects; hence some
sort of – legal – personhood should be attributed to them, with all the consequences that may be derived
therefrom in terms of rights and liabilities”.
17
Ugo Pagallo, op. cit., 134.
18
Cf., quanto a este ponto, C. A. Mota Pinto, Teoria Geral do Direito Civil, 4º edição (por A. Pinto Monteiro
e P. Mota Pinto), Coimbra Editora, 2012, 140 s. e 271 s.; Mafalda Miranda Barbosa, «Inteligência Artificial,
E-Persons e Direito: Desafios e Perspetivas», Revista Jurídica Luso-Brasileira, Ano 3, nº 6, 1480 s.
4.1.2. E-servants?
19
Mafalda Miranda Barbosa, «Inteligência Artificial, E-Persons e Direito: Desafios e Perspetivas», cit.,
1482.
20
Draft Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)),
de 27 de Janeiro de 2017, §59, alínea f).
21
Ugo Pagallo, op. cit., 103 s.
22
Ugo Pagallo, op. cit., 133.
23
As questões que, a um tempo, se colocavam quanto à condição jurídica do servus colocam-se, hodiernamente,
no âmbito da robótica. Curiosa, a este título, é a escolha de palavras de A. Santos Justo, «A Escravatura em
Roma», Boletim da Faculdade de Direito, v. LXXIII, Coimbra, 1997, 27, quando afirma que “os escravos
tinham capacidade negocial, eram considerados servidores dos seus domini, porta-vozes ou máquinas
inteligentes que permitiam aumentar os seus patrimónios e estender o círculo das suas actividades jurídicas”.
24
A condição humana, diz-nos A. Santos Justo, actuava como limite de disposição do senhor sobre o seu
escravo ao inibir o exercício abusivo do ius utendi et abutendi. À medida que os robots forem adquirindo
feições cada vez mais humanas, quer físicas, quer intelectuais, prevê-se a discussão em torno de semelhante
limitação ao direito de propriedade sobre algo que, ao invés do que os escravos alguma vez deveriam ter sido,
é exclusivamente res.
25
A. Santos Justo, op. cit., 27.
26
A. Santos Justo, op. cit., 28.
27
Ugo Pagallo, op. cit., 103.
28
Pagallo fala a este propósito da criação de chauffeurs autónomos, veículos que desempenhariam a função ora
realizada, entre outros, por taxistas. Excluindo-se o factor humano, todas as transações concretizadas em
virtude da prestação do serviço de transporte seriam levadas a cabo pelo próprio veículo.
29
A desresponsabilização do ser humano contraria, sobremaneira, o próprio sentido do direito, levando aquele
a preterir as fundações deste, de que é exemplo a relação de cuidado com o outro.
30
Mafalda Miranda Barbosa, Lições de Responsabilidade Civil, 1ª edição, Princípia, 2017, 43.
4.2. O Produtor
31
Transcrição parcial do parágrafo 3.33 do parecer: “O CESE opõe-se a qualquer forma de personalidade
jurídica para os robôs ou para os sistemas de IA, pois tal acarreta um risco moral inaceitável. Caso venha a
concretizar-se, os efeitos preventivos e corretivos decorrentes da responsabilidade civil poderão desaparecer,
uma vez que o fabricante deixará de assumir o risco da responsabilidade, que terá sido transferido para o robô
(…). Por outro lado, há o risco de utilização indevida e de abuso de uma forma jurídica desse tipo. Não faz
qualquer sentido estabelecer uma comparação entre esta situação e a responsabilidade limitada das sociedades,
já que neste último caso existe sempre uma pessoa singular que é responsável em última análise”.
32
Nathalie Nevejans, European civil law rules in robotics, 2016, 14.
33
Erica Palmerini, et al, op. cit., 206: “(…) the choice of attributing robots legal personhood would not be
grounded on the ontological nature of the machine, rather on a purely instrumental argument of the opportunity
of limiting liability or identifying an autonomous centre of imputation of rights and duties, like in the case of
a corporation”.
34
A autora aponta, por exemplo, a criação de um seguro de robots, sugerindo a combinação com um fundo de
compensação.
35
Matthew U. Scherer, ob. cit., 369: “From a regulatory standpoint, some of the most problematic features of
AI are not features of AI itself, but rather the manner in which AI research and development can be done.
Discreetness refers to the fact that AI development work can be conducted with limited visible infrastructure.
Diffuseness means that the individuals working on a single component of an AI system might be located far
away from one another. A closely related feature, discreteness, refers to the fact that the separate components
of an AI systems could be designed in different places and different times without any conscious coordination.
Finally, opacity denotes the possibility that the inner workings of an AI system may be kept secret and may
not be susceptible to reverse engineering.”
36
Este diploma transpôs para a ordem jurídica interna a Directiva 85/374/CEE, em matéria de responsabilidade
decorrente de produtos defeituosos.
37
J. Calvão da Silva, Responsabilidade Civil do Produtor, Coimbra, Almedina, 1990, 546.
38
J. Calvão da Silva, op. cit., 615 s.
39
Nas palavras do autor: “Os defeitos de software (…) são possíveis (…). Na verdade, o mercado está a ser
inundado de tal forma por software genérico e estandardizado (…) que não admira a forte tendência doutrinária
para (…) incluir os danos decorrentes dos seus defeitos na responsabilidade do produtor, responsabilidade que
assim já não é uma utopia”.
40
Conforme se diz no art. 1º do DL 383/89.
41
Os artigos têm como epígrafes, respectivamente, “Concurso do lesado e de terceiro”, “Prescrição” e
“Caducidade”.
42
J. Calvão da Silva, op. cit., 517. Em sentido diverso, A. Menezes Cordeiro, Tratado de Direito Civil, v. 8,
Coimbra, Almedina, 2014, 692: “O produtor tem o dever de lançar no mercado (apenas) produtos que não
provoquem danos nos destinatários. Quando responda, é porque não cumpriu. Não se trata de mera ilicitude
imperfeita que temos vindo a reclamar na generalidade dos casos de responsabilidade pelo risco. Optamos,
pois, pela natureza subjectiva da responsabilidade aqui em jogo”.
43
A resposta assumirá, porém, contornos diferentes na presença de open platform software, por meio do qual
o proprietário do veículo poderá proceder a alterações a nível do funcionamento do sistema de condução
autónomo. Nesse sentido, Erica Palmerini, et al., op. cit., 23: “Moreover consumers could interfere with robots
as long as their software system works on an open platform, that would be open to third party innovation that
a manufacturer could not anticipate”. Igualmente, James M. Anderson, et al, Autonomous Vehicle Technology:
A Guide for Policymakers, RAND Corporation, 2014, 71: “vehicle owners also pose possible security threats.
Many technology enthusiasts seek access to their own systems to gain control over elements that are otherwise
locked down by the manufacturer (…). [Autonomous vehicles] will surely be as big a temptation for “jail
breaking” as users seek to improve performance or run their own software, almost certainly while risking
safety. This will require manufacturers to ensure users cannot hack into the vehicle’s hardware and software
systems”.
44
Maria da Graça Trigo, Responsabilidade Civil – Temas Especiais, Lisboa, Universidade Católica, 2015, 115-
116.
45
Segundo Calvão da Silva, op. cit., 638, “o público espera que a “segurança externa” do produto – aquela que
lhe é infundida pela sua configuração, pela sua forma, pela sua embalagem e etiquetagem, pela sua publicidade,
pela sua descrição e modo de emprego, numa palavra, pela informação a seu respeito – não falte, tal como crê
na sua segurança interna”. No mesmo sentido, Maria da Graça Trigo, op. cit., 114: “(…) há que ter presente,
antes de mais, que a definição de produto defeituoso inclui uma dimensão subjectiva; em segundo lugar, que,
para esse efeito, muito relevam a apresentação e informação constantes do produto”.
46
Em Curtis E. A. Karnow, «Liability for Distributed Artificial Intelligences», Berkeley Technology Law
Journal, v. 11, nº 1, 1996, 162, o autor fala de “inherent problems with software reliability”, em especial no
caso de intelligent agents: “The long-term operation of complex systems entails a fundamental uncertainty,
especially in the context of complex environments, including new and unpredictable environments. That, of
course, is precisely the situation in which intelligent agents are forecast to operate”. O autor prossegue,
estendendo estas conclusões ao próprio hardware e termina atirando que “It is thus no surprise that, from time
to time, software fails, property is damaged and people are killed”.
47
Interiorização esta apenas momentânea, já que redundaria em exteriorização com a disseminação do custo
dos defeitos dos produtos pelos consumidores, cf. J. Calvão da Silva, op. cit., 532.
48
Sobre o seguro do produtor, vide J. Calvão da Silva, op. cit., 534 s.
49
Guido Calabresi, «Some Thoughts on Risk Distribution and the Law of Torts», The Yale Law Journal, v. 70,
1961, 500: “”Enterprise liability” – the notion that losses should be borne by the doer, the enterprise, rather
than distributed on the basis of fault – is usually explained in such terms. A statement of this kind is generally
followed by an additional one which implies that the enterprise can pass the loss on to the consumers in price
rises, and that therefore enterprise liability is really a form of “risk spreading””.
50
Não se exclui a possibilidade de ocorrência de efeitos adversos no mercado por, em virtude do aumento do
preço do produto, a procura por parte do público decrescer.
51
Ryan Abbot, op. cit., 32-33.
52
Vide, supra, nota 10.
53
Jeffrey K. Gurney, «Sue my car, not me: Products Liability and Accidents Involving Autonomous Vehicles»,
Journal of Law, Technology & Policy, v. 2013, nº 2, 2013, 255 s.
54
“Artigo 491º - Responsabilidade das pessoas obrigadas à vigilância de outrem
As pessoas que, por lei ou negócio jurídico, forem obrigadas a vigiar outras, por virtude da
incapacidade natural destas, são responsáveis pelos danos que elas causem a terceiro, salvo se mostrarem que
cumpriram o seu dever de vigilância ou que os danos se teriam produzido ainda que o tivessem cumprido”.
“Artigo 493º - Danos causados por coisas, animais ou actividades
1 – Quem tiver em seu poder coisa móvel ou imóvel, com o dever de a vigiar, e bem assim quem
tiver assumido o encargo da vigilância de quaisquer animais, responde pelos danos que a coisa ou os animais
causarem, salvo se provar que nenhuma culpa houve da sua parte ou que os danos se teriam igualmente
produzido ainda que não houvesse culpa sua.
2 – Quem causar danos a outrem no exercício de uma actividade, perigosa por sua própria natureza
ou pela natureza dos meios utilizados, é obrigado a repará-los, excepto se mostrar que empregou todas as
providências exigidas pelas circunstâncias com o fim de os prevenir”.
55
Se este preceito se aproxima dos outros dois pela previsão de uma presunção de culpa, deles se aparta pelo
modo de ilisão daquela. Nos arts. 491º e 493º/1, como já se disse, poderá o lesante afastar a presunção de culpa
provando, quer o cumprimento do dever de vigilância, quer a produção dos danos mesmo se tivesse ele tivesse
sido cumprido. Por sua vez, o art. 493º/2, comportando um agravamento do ónus da prova a cargo do pretenso
lesante, exige, para a exclusão da responsabilidade, a prova de que aquele empregou todas as providências
exigidas pelas circunstâncias. Desconsidera-se, portanto, a relevância da real causa da lesão ou a indiferença
do não cumprimento do dever de prevenção, restando ao réu a demonstração do cumprimento cabal do dever de
prevenção do perigo que o onerava. Cf., para estas e outras considerações, nomeadamente a natureza e o alcance
das presunções de culpa estabelecidas em sede de responsabilidade delitual, Mafalda Miranda Barbosa, «Os
artigos 491º, 492º e 493º do Código Civil – questões e reflexões», Boletim da Faculdade de Direito, v. XCIII, t.
1, 2017, 349 s.
56
Fala-se, neste âmbito, de propensão do menor para produzir determinados danos. Por exemplo, num caso em
que um menor brinque frequentemente com uma fisga, tendo já partido duas janelas de sua casa, e, certo dia,
brincando com a fisga, causa uma mossa no carro de luxo do vizinho, os pais tinham ou deveriam ter
conhecimento da propensão do filho para a causa de danos daquele tipo.
57
A disposição americana levanta algumas questões, nomeadamente no que à “dangerous propensity” diz
respeito. Dificilmente, como nos diz Pagallo, poderão os proprietários ou utilizadores apurar uma qualquer
propensão para a produção de certo dano que não se verificará noutros modelos. Para isso, contribui a crescente
autonomia e imprevisibilidade de actuação dos veículos autónomos. De qualquer forma, a dangerous
propensity pela qual os pais são chamados a responder assume, no caso de robots, contornos de defeito de
software, pelo que se poderá reconduzir à responsabilidade do produtor.
58
No que ao art. 2048º do Codice Civile diz respeito, não bastará a prova da impossibilidade de obstar o facto
danoso, antes se exigindo, fruto do labor jurisprudencial, a prova da transmissão de uma boa educação e do
cumprimento adequado do dever de vigilância – cf. Giovanna Visintini, Trattato breve della responsabilità
civile, Casa Editrice Dott. Antonio Milani, 1996, 597 s.; Henrique Sousa Antunes, Responsabilidade civil dos
obrigados à vigilância de pessoa naturalmente incapaz, Lisboa, Universidade Católica Editora, 2000, 61 s. Já
no âmbito da responsabilidade por danos causados por animais, assim como daqueles causados por coisas, as
disposições legais italianas, apesar da intenção originária de operarem somente uma inversão do ónus da prova,
vêm sendo interpretadas, fruto da ausência de referências específicas à culpa no texto legal como hipóteses de
responsabilidade objectiva - cf. Giovanna Visintini, op. cit., 652. No ordenamento jurídico nacional, semelhante
regime resulta da aplicação conjunta dos arts. 503º e 505º, precisamente em matéria de acidentes de viação, ao
qual dedicaremos algumas linhas mais à frente.
59
Joaquim Sousa Ribeiro, «O ónus da prova da culpa na responsabilidade civil por acidente de viação»,
Separata do número especial do Boletim da Faculdade de Direito de Coimbra – Estudos em homenagem ao
Prof. Doutor José Joaquim Teixeira Ribeiro, 1980, 3 s. O autor distingue actividades perigosas de carácter
geral de outras, como é o caso da circulação automóvel, de “periculosidade particularmente intensa”. Ademais,
confrontam-se os fundamentos e efeitos da aplicabilidade do constante dos arts. 493º/2 e 503º, no sentido em
que no primeiro se fala num desvio comportamental voluntário imputável ao lesante pelo que, no processo de
apuramento da culpa, a inversão do ónus da prova favorece a posição do lesado, não se prevendo a imposição
de qualquer limite ao montante indemnizatório. Por seu lado, a tutela estabelecida pelo art. 503º parte, não de
uma referência ao modo de agir do lesante, mas ao que simplesmente acontece enquanto decorrência da
situação de risco que aquele estabeleceu em proveito próprio. Estabelecendo-se o nexo entre a situação de risco
e o dano originado na esfera do lesado, o lesante é chamado a responder independentemente de culpa. Ao que
este preceito oferece em termos de amplitude de aplicação opõe-se, contudo, a profundidade da tutela, limitada
pelo preceituado no art. 508º do Código Civil.
60
Pires de Lima e Antunes Varela, Código Civil Anotado, v. 1, 4ª edição, Coimbra Editora, 1986, 505.
61
Mafalda Miranda Barbosa, Estudos a Propósito da Responsabilidade Objectiva, 1ª edição, Princípia, 2014,
44-45.
62
Ugo Pagallo, op. cit., 130.
63
Pires de Lima e Antunes Varela, op. cit., 507-508.
64
No mesmo sentido avança Samir Chopra, quando, a propósito das ameaças à privacidade perpetráveis com
recurso a agentes artificiais, defende a responsabilização das entidades que os utilizam com base na doutrina
67
Dário Martins de Almeida, Manual de Acidentes de Viação, 3ª edição, Almedina, 1987, 316.
68
No sentido de que do direito de propriedade surge a presunção de direcção efectiva e de utilização do veículo
pelo proprietário, ver Ac. STJ de 06-12-2001, relatado por Ribeiro Coelho.
69
Cf. Ac. Rel. Porto, de 20-11-2014, relatado por José Amaral.
70
Dário Martins de Almeida, op. cit., 317.
71
Dário Martins de Almeida, op. cit., 79.
72
Sobre os obstáculos que se colocam à aplicação analógica das hipóteses legalmente previstas de
responsabilidade objectiva, vide Mafalda Miranda Barbosa, Estudos a Propósito da Responsabilidade
Objectiva, cit., 97 s.
73
Na sociedade de risco em que nos encontramos comunitariamente inseridos, muitos são os riscos a que nos
predispomos. E, se para efeitos do disposto no art. 493º/2, o perigo a ter em conta será aquele que ultrapassa o
limite imposto pela normalidade, a previsão de uma cláusula de responsabilidade objectiva assente na
perigosidade convocará, obrigatoriamente, uma abnormally dangerous activity, um extrahazard. Para Curtis
E. A. Karnow, uma actividade pode ser considerada como ultrahazardous se for anormal, acarretar um risco
elevado e provocar danos elevados. Cf. Curtis E. A. Karnow, «The Application of Traditional Tort Theory to
Embodied Machine Intelligence», Robot Law, Edward Elgar Publishing, 2016, 51 s.
74
Mafalda Miranda Barbosa, Estudos a Propósito da Responsabilidade Objectiva, cit., 127.
75
De acordo com Erdem Büyüksagis e Willem H. van Boom, «Strict Liability in Contemporary European
Codification: Torn Between Objects, Activities, and Their Risks», Georgetown Journal of International Law,
v. 44, 2013, 612, os acidentes daí resultantes são tidos como inevitáveis, pois nenhuma acção humana seria
suficiente para os prevenir.
76
O art. 5º/101 PETL, com a epígrafe “Actividades Anormalmente Perigosas”, prevê a responsabilidade
objectiva daquele que exercer uma actividade anormalmente perigosa pelos danos que advenham do risco típico
dessa actividade. A perigosidade anormal resulta da criação de um risco previsível e bastante significativo de
dano, mesmo sendo empregue o cuidado devido, e do facto de não ser objecto do uso comum. O risco de dano
poderá ser considerado significativo quer qualitativamente – a gravidade do dano -, quer quantitativamente – a
probabilidade do dano.
77
Erdem Büyüksagis e Willem H. van Boom, op. cit., 636 s.
78
Cf. Curtis E. A. Karnow, op. cit., 67.
79
Erdem Büyüksagis e Willem H. van Boom, op. cit., 636: “Therefore, driving a motor car is certainly a matter
of common usage, and for that reason falls outside the scope of this article – even though it may be subject to
strict liability under national regimes – whereas transporting highly explosive chemicals in a huge tanker cannot
be excluded by this provision.”.
80
A versão final promulgada pela Rainha, após discussão na Câmara dos Comuns e na Câmara dos Lordes,
está disponível em <http://www.legislation.gov.uk/ukpga/2018/18/pdfs/ukpga_20180018_en.pdf>.
81
Mafalda Miranda Barbosa, Estudos a Propósito da Responsabilidade Objectiva, cit., 115 s.
82
Merece também uma brevíssima referência a cláusula 6, no sentido em que enuncia uma série de ficções de
conduta culposa para efeitos de harmonização com normas já em vigor naquele ordenamento jurídico,
procurando assim fortalecer a tutela conferida aos lesados.
83
Mafalda Miranda Barbosa, Estudos a Propósito da Responsabilidade Objectiva, cit., 135. Resumindo aquela
que é, para a autora, a finalidade última da responsabilidade, op. cit., 57: “Ao responsabilizar o sujeito, estamos
a afirmar que ele é pessoa e a recusar o seu tratamento como objecto. A finalidade última da responsabilidade
civil passa por aqui – pela reafirmação da pessoalidade de cada um.”.
84
Dário Martins de Almeida, op. cit., 481-483.
85
J. Sinde Monteiro, «Responsabilidade por culpa, responsabilidade objectiva, seguro de acidentes», Revista
de Direito e Economia, Coimbra, 1983, 14 s.
86
Associada à prova da origem culposa ou não do acidente de viação surge a recolha de dados pelo sistema de
condução automatizada ou a instalação de black boxes nos veículos autónomos, de forma a facilitar a
conhecimento das circunstâncias em que o acidente tenha ocorrido, à imagem do que acontece em veículos de
circulação aérea. A utilização desses meios de recolha de informação remete-nos, quase instintivamente, para
a discussão em torno da protecção de dados do proprietário ou utilizador do veículo A este título, assume papel
de destaque o Regulamento 2016/679 do Parlamento Europeu e do Conselho de 27 de Abril de 2016 sobre a
Protecção de Dados, aplicável desde 25 de Maio de 2018 que, sem embargo do foco colocado nos interesses
do titular dos dados, é insuficiente para responder às questões suscitadas, em geral, pelo tratamento de dados
por sistemas de inteligência artificial e, em concreto, pela produção e recolha de dados pelos sistemas de
condução automatizada. Por um lado, cumpre saber quem é titular dos dados recolhidos. Será aquele o
fabricante do veículo, o produtor do software, o proprietário ou o utilizador do veículo automatizado? Por outro
lado, justificam-se as reservas em torno da utilização dos dados recolhidos por parte dos intervenientes na
cadeia de produção do veículo. Da mesma forma, a eventual partilha com entidades como companhias de
seguros é causa de receio e insegurança, em virtude da possibilidade de criação de perfis de utilização de acordo
com os quais seja permitido às companhias de seguros conformar os termos do contrato de seguro. Como é
bom de ver, o foco nos contributos de sistemas de condução automatizada em áreas como segurança ou
mobilidade relegam para segundo plano as discussões em matéria de implicações para a privacidade dos end
users. Essa tendência deverá ser, contudo, invertida, sendo imperiosa a actuação do legislador de forma a tutelar
os direitos em risco.
87
Nas palavras de Paula Costa e Silva, a propósito da contratação automatizada: “Se não há uma vontade
contemporânea [ao negócio], o problema tranfere-se da “autoria” material para a imputação. (…) Os actos
vinculam (…) porque foram praticados por uma máquina, como todas imperfeita, que o homem utiliza em seu
proveito próprio. (…) A autonomia pode ser encontrada no momento em que o homem escolhe a máquina. A
partir de aqui, ele deve assumir os riscos próprios do seu funcionamento.”. Cf. Paula Costa e Silva, «A
Contratação Automatizada», Direito da Sociedade e da Informação, vol. IV, Coimbra Editora, 2003, 305.
88
Cf. parágrafos 24-29, 49, 52, 56, 57 e 58.
89
Cf. 16-18.
O futuro, embora incerto, não é mais um cenário longínquo. Se, por um lado,
a incerteza que o caracteriza nos impede de tecer considerações absolutamente
correctas e conceber soluções ideais para as questões que se nos colocam, por outro,
a velocidade do progresso científico e tecnológico não permite uma atitude
complacente. A realidade da inteligência artificial, concretizada, por nós, no
fenómeno da condução automatizada, comprova-o. No que à responsabilidade por
acidentes causados por veículos automatizados diz respeito, pudemos encontrar
respostas e questões que deverão, acreditamos, conformar e guiar toda a abordagem
ético-jurídica que os ordenamentos jurídicos, de forma célere, mas consciente, terão
de concretizar.
Desse modo, entendemos que uma solução que passe pela atribuição de
personalidade jurídica a entidades dotadas de inteligência artificial é irrazoável e
perniciosa. Se partirmos de concepções antropocêntricas e humanistas, a própria ideia
de responsabilização autónoma de um sistema desse tipo colide com os alicerces do
sistema jurídico. Da mesma forma, outras soluções de jure constituendo, embora
menos radicais, afiguram-se desnecessárias para lidar com o problema sobre que nos
debruçámos.
Afastando-nos de uma intenção de desresponsabilização do ser humano –
que culminaria na disrupção do elo fundamental entre liberdade e responsabilidade -
, entendemos que o ordenamento jurídico se encontra já munido dos mecanismos
adequados para fazer face ao problema. A responsabilidade objectiva do produtor,
nos acidentes que se devam a defeito do veículo ou partes componentes, e a
responsabilidade objectiva do proprietário do veículo, cumulada com a
obrigatoriedade de contratação de seguro automóvel, bem como a criação de um
fundo de garantia são, parece-nos, soluções satisfatórias para responder à pergunta
que no início nos colocámos, sendo apenas necessária a sua adaptação ao fenómeno
em causa.