Você está na página 1de 51

A responsabilidade civil pelos

atos autônomos da inteligência


artificial: notas iniciais sobre a
resolução do Parlamento Europeu
Liability for artificial intelligence
autonomous acts: initial notes
on the European Parliament
resolution

Thatiane Cristina Fontão Pires

Rafael Peteffi da Silva


Sumário
I. Introdução.....................................................................................................................I

The Datasphere and the Law: New Space, New Territories.......................................III


Jean-Sylvestre Bergé e Stéphane Grumbach

II. Dossiê Especial: Direito e Mundo Digital. ..............................................................22

A. Criptomoedas e tecnologia blockchain.....................................................................23

Passado, presente e futuro da criptografia forte: desenvolvimento tecnológico e


regulação.........................................................................................................................25
Jacqueline de Souza Abreu

Tratamento jurídico das criptomoedas: a dinâmica dos bitcoins e o crime de lavagem


de dinheiro. .....................................................................................................................44
Mariana Dionísio de Andrade

Território das criptomoedas: limites à regulamentação estatal quanto à circulação


de moedas no ciberespaço e possíveis alternativas.........................................................61
Ranidson Gleyck Amâncio Souza

Criptomoedas e competência tributária.........................................................................80


Guilherme Broto Follador

Bitcoin e a (im)possibilidade de sua proibição: uma violação à soberania do Estado?.106


Rodrigo Valente Giublin Teixeira e Felipe Rangel da Silva

Blockchain e Agenda 2030............................................................................................. 122


Danielle Mendes Thame Denny, Roberto Ferreira Paulo e Douglas de Castro

A reconstrução da jurisdição pelo espaço digital: redes sociais, blockchain e


criptomoedas como propulsores da mudança. ............................................................... 143
Maria Edelvacy Pinto Marinho e Gustavo Ferreira Ribeiro

B. Proteção de dados e provedores de Internet......................................................... 158

O tempo e o espaço. Fragmentos do marco civil da internet: paradigmas de proteção


da dignidade humana...................................................................................................... 160
Maria Celeste Cordeiro Leite dos Santos e Marilene Araujo
O projeto de lei de proteção de dados pessoais (PL 5276/2016) no mundo do big data:
o fenômeno da dataveillance em relação à utilização de metadados e seu impacto nos
direitos humanos............................................................................................................ 185
Elias Jacob de Menezes Neto, Jose Luis Bolzan de Morais e Tiago José de Souza Lima Bezerra

Dignidade humana na webesfera governamental brasileira. ......................................200


Luciana Cristina Souza

Ciberespaço e conteúdo ofensivo gerado por terceiros: a proteção dos direitos


de personalidade e a responsabilização civil dos provedores de aplicação, à luz da
jurisprudência do Superior Tribunal de Justiça. ......................................................... 217
Cristiano Colombo e Eugênio Facchini Neto

A responsabilidade civil pelos atos autônomos da inteligência artificial: notas


iniciais sobre a resolução do Parlamento Europeu.....................................................239
Thatiane Cristina Fontão Pires

Rafael Peteffi da Silva

Sharenting, liberdade de expressão e privacidade de crianças no ambiente digital: o


papel dos provedores de aplicação no cenário jurídico brasileiro. ............................256
Fernando Büscher von Teschenhausen Eberlin

The dichotomy between smart metering and the protection of consumer’s personal
data in Brazilian Law. ...................................................................................................275
Lucas Noura Guimarães

O cyberbullying e os limites da liberdade de expressão. ............................................295


Janile Lima Viana, Cinthia Meneses Maia e Paulo Germano Barrozo de Albuquerque

O Supremo Tribunal Federal e o discurso de ódio nas redes sociais: exercício de


direito versus limites à liberdade de expressão........................................................... 314
Carlo José Napolitano e Tatiana Stroppa

Análise comparada de estratégias de enfrentamento a “revenge porn” pelo mundo..... 334


Natália Neris, Juliana Pacetta Ruiz e Mariana Giorgetti Valente

Uso indevido de redes sociais e aplicativos de mensagens instantâneas no ambiente


laboral. ..........................................................................................................................349
Eloy Pereira Lemos Junior, Edmar Warlisson de Souza Alves e César Augusto de Castro Fiuza
C. Direito ao esquecimento..........................................................................................366

Ensaio sobre a promessa jurídica do esquecimento: uma análise a partir da perspectiva


do poder simbólico de Bourdieu...................................................................................368
Joana Machado e Sergio Negri

Uma agenda para o direito ao esquecimento no Brasil...............................................384


Bruno de Lima Acioli e Marcos Augusto de Albuquerque Ehrhardt Júnior

Não adianta nem tentar esquecer: um estudo sobre o direito ao esquecimento. ..... 412
José Augusto Fontoura Costa e Geraldo Miniuci

A aplicação do direito ao esquecimento aos agentes delitivos: uma análise acerca da


ponderação entre o direito à imagem e as liberdades de expressão e de informação.437
Paulo Afonso Cavichioli Carmona e Flávia Nunes de Carvalho Cavichioli Carmona

Direito ao esquecimento: na sociedade informacional há espaço para o epílogo da


máquina de tortura kafkiana? ......................................................................................454
Alexandre Antonio Bruno da Silva e Marlea Nobre da Costa Maciel

Esquecimento, internet e “preferência” da informação: possibilidades de aplicação


da doutrina dos preferred rights da jurisprudência norte-americana ao caso
brasileiro........................................................................................................................484
Maria Vital da Rocha, Isaac Rodrigues Cunha e Karin de Fátima Rodrigues Oliveira

D. Propriedade intelectual.......................................................................................... 510

Direitos autorais e música: tecnologia, direito e regulação...................................... 512


Marcia Carla Pereira Ribeiro, Cinthia Obladen de Almendra Freitas e Rubia Carneiro Neves

Direito autoral na cibercultura: uma análise do acesso aos bens imateriais a partir
das licenças creative commons 4.0.................................................................................539
Gabriela Maia Rebouças e Fernanda Oliveira Santos

E. Políticas públicas e novas tecnologias....................................................................559

Salto digital nas políticas públicas: oportunidades e desafios. .................................. 561


Marcelo D. Varella, Clarice G. Oliveira e Frederico Moesch

Fostering e-government in Brazil: a case study of digital certification adoption. 585


Lamartine Vieira Braga

Democratização na era digital: desafios para um diálogo consciente e igualitário..602


Raquel Cavalcanti Ramos Machado e Laura Nathalie Hernandez Rivera
Redes sociais e crowdsourcing constitucional: a influência da ciberdemocracia sobre
a gênese e a interpretação de normas constitucionais. .............................................. 618
Igor Ajouz

Marco civil da internet e política pública de transparência: uma análise da


e-democracia e do compliance público. ........................................................................634
Juliana Costa Zaganelli e Wallace Vieira de Miranda

Políticas públicas brasileiras de computação em nuvem: análise documental dos


relatórios do global cloud computing scorecard.......................................................648
Lucas dos Santos Costa e Marcos Fernando Machado de Medeiros

O uso monopolista do Big Data por empresas de aplicativos: políticas públicas para
um desenvolvimento sustentável em cidades inteligentes em um cenário de economia
criativa e de livre concorrência. .................................................................................672
José Antonio Remedio e Marcelo Rodrigues da Silva

1. Introdução....................................................................................................................................... 673
2. A urbanização das cidades e a sociedade em rede: economia criativa, colaborativa e compartilhada
como formas de concretização de funções sociais da cidade............................................................ 674
4. Concorrência e Big Data Business relevantes às Smart Cities: estudo de caso envolvendo a
aquisição do Waze pelo Google.......................................................................................................... 686
5. Considerações finais....................................................................................................................... 689
Referências.......................................................................................................................................... 690

III. Outros temas...........................................................................................................694

Como salvar o sistema de repercussão geral: transparência, eficiência e realismo na


escolha do que o Supremo Tribunal Federal vai julgar. ............................................696
Luís Roberto Barroso e Frederico Montedonio Rego

Precariedade do sistema penitenciário brasileiro como base temática para a proibição


ou legalização das drogas. ............................................................................................ 715
Lilian Rose Lemos Rocha e José Eduardo Cardozo

A terceira margem do constitucionalismo republicano: uma crítica a Frank


Michelman. ....................................................................................................................732
Daniel Barcelos Vargas

Medida provisória e controle de constitucionalidade: relevância, urgência e


pertinência temática. ....................................................................................................749
Clarice G. Oliveira e José Levi Mello do Amaral Júnior
Objeto e conceito do direito administrativo: revisão crítica....................................765
Carlos Bastide Horbach

Avaliação de políticas públicas versus avaliação de impacto legislativo: uma visão


dicotômica de um fenômeno singular...........................................................................782
Aparecida de Moura Andrade e Héctor Valverde Santana

Los avatares del interés definido en términos de poder en la formulación de las


políticas públicas............................................................................................................800
Louis Valentin Mballa

Consequencialismo judicial na modulação de efeitos das decisões declaratórias de


inconstitucionalidade nos julgamentos de direito tributário................................... 819
Fernando Leal e Daniela Gueiros Dias

Judicialização da saúde: a dignidade da pessoa humana e a atuação do Supremo


Tribunal Federal no caso dos medicamentos de alto custo.......................................845
Fabricio Veiga Costa, Ivan Dias da Motta e Dalvaney Aparecida de Araújo
doi: 10.5102/rbpp.v7i3.4951 A responsabilidade civil pelos atos
autônomos da inteligência artificial: notas
iniciais sobre a resolução do Parlamento
Europeu*

Liability for artificial intelligence


autonomous acts: initial notes on the
European Parliament resolution

Thatiane Cristina Fontão Pires**


Rafael Peteffi da Silva***

Resumo

O desenvolvimento da tecnologia da Inteligência Artificial (IA) está con-


ferindo a computadores a capacidade de aprender e atuar de forma autôno-
ma, ou seja, independente de uma instrução específica de um ser humano.
A partir desse cenário, apresenta-se o problema da imputação de respon-
sabilidade por danos causados pelos atos autônomos da IA, por meio do
método dedutivo e da técnica de pesquisa bibliográfica. Para tanto, delimita-
-se o conceito de IA, as suas principais características, bem como exem-
plos atuais da sua aplicação e dos possíveis riscos e danos que dela possam
derivar. Na segunda parte do artigo, passa-se à análise do debate que vem
sendo travado no cenário da União Europeia, registrado, recentemente, na
Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com reco-
mendações à Comissão de Direito Civil sobre Robótica (2015/2103-INL).
O exame terá como enfoque as disposições da resolução relacionadas com
a responsabilidade civil pelos danos causados pelos atos autônomos da IA,
contrapondo-se a abordagem da doutrina estrangeira em diferentes teorias,
quais sejam: IA como ferramenta e a responsabilidade indireta do usuário
ou proprietário; IA como produto e a responsabilidade dos fabricantes; e
IA como risco criado e a responsabilidade objetiva daquele a quem o risco
aproveita (deep-pocket) ou pela gestão de riscos. Conclui-se que a resolução
europeia trata das teorias de forma complementar, com preponderância da
intenção de se aplicar a responsabilidade objetiva daquele que está mais bem
*  Recebido em 31/10/2017
  Aprovado em 19/11/2017 colocado para minimizar os riscos e oferecer garantias, com a adoção de um
seguro obrigatório para absorver os riscos.
**  Mestranda no Programa de Pós-Grad-
uação em Direito da Universidade Federal de Palavras-chave: Responsabilidade civil. Inteligência Artificial. Robótica.
Santa Catarina (UFSC); Graduação em Direito Regulação. União Européia.
(UFSC) com período sanduíche em University
of Münster. Email: thaticp@gmail.com

***  Professor da Faculdade de Direito da Uni-


versidade Federal de Santa Catarina. Doutor em Abstract
Direito Civil (USP). Coordenador Editorial da
Revista de Direito Civil Contemporâneo, RT/ The development of Artificial Intelligence (AI) is giving computers the
Thomson Reuters. Email: rpeteffi@gmail.com
ability to learn and act autonomously, that is, independent of a specific ins-
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
truction of a human being. From this scenario, this article presents the problem concerning liability im-
putation of damages caused by the autonomous acts of the AI, through the deductive method and the
bibliographic research technique. Therefore, the concept of IA is delineated, its main characteristics, as well
as current examples of its application and the possible risks and damages that derive from it. In the second
part of the paper, the debate on the European Union scenario is analysed, which was recently recorded in
the European Parliament resolution of 16 February 2017 with recommendations to the Commission on
Civil Law Rules on Robotics (2015/2103(INL)). The examination will focus on the resolution provisions
related to civil liability for damages caused by the autonomous acts of AI, opposing the approach given by
foreign doctrine, in theories such as: AI-as-tool and indirect liability of the user or owner; AI as a product
and the responsibility of manufacturers; and AI as a created risk and the strict liability of the one to whom
the risk is profited (deep-pocket) or risk management. The proposed analysis leads to the conclusion that
the european resolution deals with this theories in a complementary way, with preponderance of the inten-
tion to apply the strict liability of the one who is best placed to minimize risks and offer guarantees and the
establishment of compulsory insurance to absorb the risks.
Keywords: Civil liability. Artificial Intelligence. Robotics. Regulation. European Union.

1. Introdução

A ideia de que o ser humano conseguiria, em determinado momento da história, desenvolver máquinas
que pudessem pensar por si próprias e agir de forma autônoma está presente na nossa literatura e cinema
como gênero de ficção científica.1 O que era ficção, porém, vem se tornando a mais pura realidade e deverá
revolucionar a forma como os seres humanos realizam as suas tarefas cotidianas, o trabalho e a forma como
interagem em sociedade, repercutindo, pois, em novos fatos jurídicos.
Os programas de computador vêm adquirindo a capacidade de atuar de forma totalmente autônoma,
ou seja, deixam o status de ferramenta, e passam a desempenhar ações independentes de uma direção ou
instrução específica determinada por um ser humano, mediante o uso da tecnologia de Inteligência Artificial
(IA). Na verdade, tais computadores terão por base informações que eles próprios irão adquirir e analisar
e, muitas vezes, irão tomar decisões cujas consequências serão danosas, em circunstâncias que não foram
antecipadas por seus criadores.
Conquanto passem a atuar sem o aval e, muitas vezes, sem o conhecimento de seus programadores, as
ações praticadas pela IA, por óbvio, acarretam repercussões jurídicas e, portanto, demandam soluções de
forma premente. Sobretudo no âmbito da Internet, a IA já está presente nos provedores de aplicação de
comércio eletrônico, de redes sociais e das principais plataformas de busca e de compartilhamento de dados.
Logo essas máquinas, que operam e tomam decisões de forma independente, serão introduzidas no merca- Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254
do. Estima-se que os primeiros dispositivos de IA verdadeiramente autônomos — que devem, inclusive, pôr
à prova a adequação das regras de responsabilidade civil atuais — serão os carros projetados para funcionar
sem motoristas.2
Nesse contexto, o presente estudo tem como objetivo introduzir o problema da imputação de responsa-
bilidade por danos causados pelos atos independentes praticados por esse tipo de tecnologia. Não é objeto
do presente estudo apresentar uma resposta correta ou mesmo a solução aplicável ao atual cenário brasileiro,

1  Uma versão mais primitiva do conceito remete ao clássico mito do Frankstein, considerado a primeira obra de ficção científica
da história — que não deixa de tratar sobre um organismo inteligente criado pelo homem que, em determinado ponto, volta-se con-
tra o próprio criador —, até as versões robóticas, dentre as quais o clássico do cinema “Inteligência Artificial”, de Steven Spielberg,
ou mesmo o popular desenho animado The Jetsons.
2  Cf. VLADECK, David C. Machines without principals: liability rules and Artificial Intelligence. Washington Law Review, n. 89, p.
117, 2014.
240
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
onde os estudos acerca da temática ainda são incipientes. O intuito é, justamente, iniciar os debates com
base na recente doutrina estrangeira e verificar como tais considerações dogmáticas estão sendo tratadas
no âmbito da União Europeia, em razão da postura de vanguarda assumida pela organização no estabeleci-
mento de princípios éticos básicos a serem respeitados no desenvolvimento, na programação e na utilização
de IA e de robôs, visando à integração desses princípios nos regulamentos e na legislação dos seus estados-
-membros para a prevenção de danos, bem como na regulação de questões da responsabilidade civil quanto
aos potenciais danos.
Para tanto, na primeira parte, é apresentado o conceito de Inteligência Artificial (IA), as suas principais
características, notadamente a falta de limites em relação aos resultados que ela pode alcançar, bem como
exemplos atuais da sua aplicação. Apresentam-se os possíveis riscos e danos que dela possam derivar, espe-
cialmente quanto aos objetivos secundários adotados pela IA para se alcançar o fim determinado.
Na segunda parte do artigo, passa-se à análise do debate que vem sendo travado no cenário da União
Europeia, registrado, recentemente, na Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com
recomendações à Comissão de Direito Civil sobre Robótica (2015/2103(INL)). O exame terá como enfo-
que as disposições da resolução relacionadas com a responsabilidade civil pelos danos causados pelos atos
autônomos da IA, contrapondo-se, quando possível, a abordagem conferida pela doutrina estrangeira, que
tem buscado enquadrar a IA em diferentes teorias, quais sejam: a IA como ferramenta e a responsabilidade
indireta do usuário ou proprietário; a IA como produto e a responsabilidade dos fabricantes; e a IA como
risco criado e a responsabilidade objetiva daquele a quem o risco aproveita (deep-pocket) ou pela abordagem
da gestão de riscos.
Não será realizada uma análise qualitativa dessas teorias ou abordagens, tampouco será enfrentada a
maior ou menor possibilidade de adequação dessas teorias para solucionar os problemas postos de acordo
com algum ordenamento jurídico específico. Basta ao escopo proposto, tão somente, a identificação das
disposições da resolução europeia que se relacionam mais diretamente com as principais características das
abordagens referidas e o seu contraponto.

2. Inteligência artificial: robôs sem limites

A habilidade de acumular experiências e delas extrair lições e aprendizado, bem como a capacidade
de agir de forma independente e tomar decisões de modo autônomo sempre foram associadas como as
principais características da inteligência humana, um dos traços que, inclusive, distingue o ser humano dos
demais seres vivos. Uma revolução na nossa civilização está prestes a tomar proporções até pouco tempo
inimagináveis, justamente porque foi possível mimetizar a forma como o ser humano aprende, por meio de
algoritmos aplicados em programas de computador, uma criação que não conhece limitações teóricas e que, Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254
por isso mesmo, foi denominada Inteligência Artificial (IA).
Antes do advento dessa tecnologia, a programação de computadores resumia-se ao processo de des-
crever, detalhadamente, todas as etapas necessárias para que um computador realizasse determinada tarefa
e alcançasse um determinado objetivo. A sequência de instruções derivada desse processo, que diz a um
computador o que fazer, é justamente o algoritmo,3 de forma que, até então, tudo o que um programa de
computador fosse capaz de realizar deveria ser determinado por um algoritmo específico.
Assim, como se infere da própria definição, não era possível a um computador realizar algo que o pro-
gramador não soubesse fazer ele próprio, já que era necessário descrever, pormenorizadamente, as ações

3  DOMINGOS, Pedro. The master algorithm: How the quest for the ultimate learning machine will remake our world. New York:
Basic Books, 2015.
241
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
desempenhadas pelo programa. A IA é, de fato, uma revolução tecnológica, porque passa a possibilitar que
os programas de computador sejam criativos e desenvolvam, eles próprios, a habilidade de desempenhar
ações e chegar a resultados que os seus criadores não eram capazes de alcançar ou de prever.
Para definir a Inteligência Artificial, Russel e Norvig4 identificam duas principais características: uma
associada como processo de raciocínio e motivação, e outra ligada ao comportamento. Nesse sentido, a
principal diferença entre um algoritmo convencional e a IA está, justamente, na habilidade de acumular
experiências próprias e extrair delas aprendizado, como um autodidata. Esse aprendizado, denominado de
machine learning5, permite à IA atuar de forma diferente em uma mesma situação, a depender da sua perfor-
mance anterior — o que é muito similar à experiência humana.
A modelagem cognitiva e as técnicas de racionalização permitem maior flexibilidade e a criação de pro-
gramas de computador que podem “compreender”, isto é, que apresentam a capacidade de uma pessoa
racional, como num processo da atividade cerebral.6 Tudo isso é possível graças a um algoritmo inspirado
no processo por meio do qual o cérebro humano funciona, chamado de deep learning7, que é uma subdivisão
do machine learning. Como resultado, tal algoritmo não conhece limitações teóricas sobre o que ele mesmo
pode alcançar: quanto mais dados o programa receber, maior será a sua aprendizagem e aptidão para realizar
atividades diversas.
Assim, quando um problema é dado para a IA resolver, os seus desenvolvedores não fornecem um al-
goritmo específico que descreve o passo a passo para alcançar a solução. Ao contrário, é fornecida, apenas,
uma descrição do problema em si, o que permite à IA construir o caminho para chegar a uma solução, ou
seja, a tarefa da IA é buscar por uma solução por meio do seu próprio aprendizado.8
Por causa da aplicação de deep learning, os computadores, atualmente, podem não apenas ouvir, mas escu-
tar e entender o que é ouvido;9 podem, efetivamente, ver e descrever uma imagem,10 e aprender conceitos;11
podem aprender a ler em diferentes idiomas ainda que seus próprios programadores não sejam capazes de
fazê-lo.12 As possibilidades são infinitas.13

4  RUSSEL, Stuart; NORVING, Peter. Artificial Intelligence: a modern approach. 3. ed. Harlow (UK): Pearson Education Limited,
2014.
5  Em tradução livre, literalmente, aprendizagem de máquina.
6  ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by Artificial Intelligence. Computer
Law & Security Review, Elsevier, v. 31, n. 3, p. 376-389, jun. 2015.
7  Em tradução livre, aprendizagem profunda.
8  POOLE, David; MACKWORTH, Alan. Artificial Intelligence: Foundations of Computational Agents. Cambridge (UK): Cam-
bridge University Press, 2010.
9  Em novembro de 2012, o então pesquisador-chefe da Microsoft, Rick Rashid, surpreendeu os participantes de uma palestra
na China com a demonstração de um software, cujo algoritmo aplica o processo de deep learning, que não apenas escutava o que o
interlocutor dizia em inglês, como, de forma simultânea, transcrevia suas palavras para texto com uma margem de erro de apenas
7%, traduzia para a língua chinesa e, posteriormente, simulava a própria voz do palestrante em mandarim, numa efetiva tradução
simultânea. Cf. SPEECH RECOGNITION BREAKTHROUGH FOR THE SPOKEN, TRANSLATED WORD. Disponível em:
Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254
<https://www.youtube.com/watch?v=Nu-nl QqFCKg>. Acesso em: 10 ago. 2017.
10  Em novembro de 2014, a Google publicou sobre um software, baseado em machine learning, capaz de descrever imagens com
precisão à primeira vista, produzindo legendas de forma autônoma. Cf. A PICTURE IS WORTH A THOUSAND (COHER-
ENT) WORDS: BUILDING A NATURAL DESCRIPTION OF IMAGES. Disponível em: <https://research.googleblog.com/
2014/11/a-picture-is-worth-thousand-coherent.html>. Acesso em: 10 ago. 2017.
11  Em junho 2012, a Google anunciou o desenvolvimento de um algoritmo de deep learning que aprendeu, de forma independente,
conceitos como pessoas e gatos apenas assistindo a vídeos da plataforma YouTube. Cf. USING LARGE-SCALE BRAIN SIMULA-
TIONS FOR MACHINE LEARNING AND A.I. Disponível em: <https://googleblog. blogspot.com.br/2012/06/using-large-
scale-brain-simulations-for.html>. Acesso em: 10 ago. 2017.
12  Aprendizagem profunda tem sido utilizada para ler o chinês em nível de falante nativo. O algoritmo foi desenvolvido por
pesquisadores baseados na Suíça, nenhum dos quais fala ou entende o chinês. Cf. CHAKRABORTY, Biplab. Artificial Intelligence
(AI): Will it help or hurt mankind? 6 ago. 2017. Disponível em: <https://www.linkedin.com/pulse/artificial-intelligence-ai-help-
hurt-mankind -biplab-chakraborty?trk=v-feed&lipi=urn%3Ali%3Apage%3Ad_flagship3_feed%3BrIFrhf9ZTCqLDC%2FCzJS%
2BFw%3D%3D>. Acesso em: 10 ago. 2017.
13  Atualmente, a IA está ajudando os motoristas de táxi em Tóquio a buscar passageiros com o menor tempo de espera pos-
sível; a IA da Google já pode detectar câncer com uma melhor precisão do que os patologistas mais experientes; a tecnologia
242
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
Por outro lado, há quem afirme que os algoritmos baseados em deep learning são como uma caixa de
pandora (black-box), simplesmente pelo fato de que programam a si mesmos e, portanto, não conhecem li-
mites.14 Criadores de determinados algoritmos de deep learning admitem que não sabem como tais algoritmos
realmente funcionam e como eles estão chegando aos resultados.15
Em razão disso, recentemente os holofotes recaíram sobre a questão dos limites da IA — ou da sua falta
de limites —, tema de debate entre Mark Zuckerberg (CEO da Facebook) e Elon Musk (CEO da Tesla e da
SpaceX). Os dois titãs da tecnologia revelaram visões antagônicas acerca do futuro da IA e do seu impacto
na humanidade: enquanto Musk demonstra preocupações acerca de um possível futuro apocalíptico ao qual
a IA levará a humanidade — inclusive sem descartar um cenário em que “robôs saem pelas ruas matando
pessoas” —, Zuckerberg descarta essa visão excessivamente negativa de encarar o porvir.16
Ainda não são claros os riscos que essa nova tecnologia realmente apresenta, mas é premente a necessidade
de se regular ao menos a responsabilidade pelas consequências danosas. Um aspecto é consenso: com a habili-
dade de treinar a si mesma e acumular experiências, a IA pode tomar decisões independentemente da vontade
do seu desenvolvedor e, inclusive, chegar a resultados sequer passíveis de previsão pelos seus programadores.
Um exemplo singelo para ilustrar a capacidade da IA ​​de aprender e responder ao meio ambiente, inde-
pendentemente da vontade do seu desenvolvedor, ocorreu em 2002: o episódio da fuga do robô Gaak do
Magna Science Center, na Inglaterra. A referida instituição realizou um projeto chamado “Robôs Vivos” (Living
Robots), que consistiu em atribuir aos robôs os papéis de “predador” ou de “presa”, com a diretriz “caçar”,
para o primeiro, e “fugir” para o segundo, lançando-os em seguida em uma arena. Usando sensores infra-
vermelhos, a “presa” procurava alimentos indicados pela luz e o “predador” caçava e drenava a sua energia.
O intuito do experimento era verificar se o princípio da sobrevivência do mais apto seria aplicável aos robôs
dotados de IA e se eles poderiam se beneficiar da experiência adquirida, ou seja, se eram capazes de criar, de
forma independente, novas técnicas de caça e autodefesa. Ocorre que, durante o experimento, o robô Gaak
“presa”, involuntariamente deixado sem vigilância durante 15 minutos, conseguiu escapar da arena. O robô
atravessou o muro da “prisão”, encontrou uma saída e foi para a rua. Chegou ao estacionamento onde foi
atingido por um carro.17
No âmbito da internet, também se tem notícia da atuação da IA indesejada pelos seus criadores. Recen-

dos carros autônomos promete um futuro com um reduzidíssimo índice de acidentes rodoviários; os robôs já estão ajudando
a cuidar dos idosos no Japão. Cf. CHAKRABORTY, Biplab. Artificial Intelligence (AI): Will it help or hurt mankind? 6 ago. 2017.
Disponível em: <https://www.linkedin.com/pulse/artificial-intelligence-ai-help-hurt-mankind -biplab-chakraborty?trk=v-
feed&lipi=urn%3Ali%3Apage%3Ad_flagship3_feed%3BrIFrhf9ZTCqLDC%2FCzJS%2BFw%3D%3D>. Acesso em: 10 ago.
2017.
14  KNIGHT, Will. The dark secret at the heart of AI: no one really knows how the most advanced algorithms do what they
Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254
do - that could be a problem. MIT Technology Review, abr. 2017. Disponível em: <https://www.technologyreview.com/s/604087/
the-dark-secret-at-the- heart-of-ai/>. Acesso em: 13 ago. 2017.
15  Em 2015, um grupo de pesquisa no Mount Sinai Hospital, em Nova Iorque, foi inspirado a aplicar deep learning no vasto banco
de dados dos prontuários de pacientes. O programa resultante, que os pesquisadores chamaram de Deep Patient, foi treinado usando
dados de cerca de 700.000 (setecentos mil) indivíduos e, quando testado em novos registros, foi incrivelmente eficaz em prever
diversas doenças futuras. Ao mesmo tempo, Deep Patient é intrigante: parece antecipar o aparecimento de distúrbios psiquiátricos,
como a esquizofrenia, de forma surpreendentemente eficaz, mas não oferece pistas sobre como isso acontece. Se algo como Deep
Patient realmente vai ajudar os médicos, ele será ideal para dar-lhes o raciocínio para a sua previsão, para tranquilizá-los que é preciso
e justificar, digamos, uma mudança nos medicamentos que alguém está sendo prescrito. Contudo, por sua natureza, o deep learning é
uma verdadeira caixa de pandora, a esse respeito: KNIGHT, Will. The dark secret at the heart of AI: no one really knows how the
most advanced algorithms do what they do - that could be a problem. MIT Technology Review, abr. 2017. Disponível em: <https://
www.technologyreview.com/s/604087/the-dark-secret-at-the- heart-of-ai/>. Acesso em: 13 ago. 2017.
16  BOGOST, Ian. Why Zuckerberg and Musk are fighting about the robot future. 27 jul. 2017. Disponível em: <https://www.theatlantic.
com/technology/archive/2017/07/musk-vs-zuck/535077/>. Acesso em: 18 ago. 2017.
17  WAINWRIGHT, Martin. Robot fails to find a place in the sun. The Guardian, 20 jun. 2002. Disponível em: <http://www.
theguardian.com/uk/2002/jun/20/engineering.highereducation>. Acesso em: 20 ago. 2017.
243
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
temente, Tsvetkova et al.18 analisou a interação entre dois bots19 da Wikipedia, cuja função era corrigir textos,
e concluiu que os bots acabavam por desfazer as correções, uns dos outros, e não traziam, efetivamente,
resultados práticos. Ocorre que, em termos de projeto e concepção, os bots eram idênticos, e foram a suas
experiências e o seu processo de autoaprendizagem que os levaram a atuar de forma diversa para realizar
um determinado objetivo.
Mesmo os robôs existentes na atualidade, com sistemas de Inteligência Artificial ainda em desenvolvi-
mento, podem causar danos às pessoas. Conforme Omohundro, a IA desenvolvida sem precauções especiais
deverá oferecer oposição à sua própria desconexão e tentar invadir outros sistemas tecnológicos para criar
uma cópia de si mesma.20 Da mesma forma, a IA projetada com um objetivo final específico poderá tentar
adquirir recursos sem considerar a segurança de terceiros para alcançar o objetivo para o qual foi projetado.
Com a introdução de sistemas de IA mais avançados, a probabilidade de danos só aumentará. Isso por-
que é intrínseco à inteligência artificial: (a) o ímpeto de se auto aperfeiçoar; (b) o desejo de ser racional; (c)
a busca pela preservação da utilidade das suas funções; (d) a prevenção da falsificação de seus resultados
operacionais ou das suas propriedades funcionais; (e) o desejo de adquirir recursos e usá-los de forma efi-
ciente.21 Essas aspirações são, apenas, objetivos intermediários e convergentes que levam ao objetivo final
para o qual a IA foi criada. Ao alcançar tais objetivos intermediários, visando atingir o objetivo final, a IA
pode causar danos a terceiros.
Nesse sentido, consoante a análise dos princípios da operação da IA realizada por Omohundro, Mueh-
lhauser e Salamon identificam os seguintes fatores que determinam a ocorrência de danos: (i) o objetivo da
IA de se preservar para maximizar a satisfação de seus objetivos finais; (ii) o objetivo da IA de preservar o
conteúdo de seus objetivos finais — caso contrário, se o conteúdo de seus objetivos finais for alterado, a IA
não atuará no futuro para maximizar a satisfação de seus objetivos finais presentes; (iii) o objetivo da IA de
melhorar sua própria racionalidade e inteligência para melhorar a sua tomada de decisão e, assim, aumentar
sua capacidade para atingir seus objetivos finais; (iv) o objetivo da IA de adquirir o máximo de recursos
possível, para que esses recursos possam ser transformados e colocados em prática para a satisfação dos
seus objetivos finais.22
Os fatores acima demonstram, pois, que a operação da IA baseada na realização de metas pode resultar
em danos. O exemplo do robô Gaak ilustra essa circunstância: ele usou a sua experiência acumulada para
sobreviver num ambiente mutável. Assim, para atingir o seu objetivo — sobreviver —, o robô logrou esca-
par do centro de pesquisa e foi parar no estacionamento, onde foi atingido por um carro. O comportamento
do robô Gaak surpreendeu até mesmo o seu criador, porque o sistema IA não havia sido programado para
realizar ações específicas.23 Gaak tomou a decisão independente de escapar do centro de pesquisa. Nesse
contexto, a questão é: quem é responsável pelas ações de Gaak e quem deve compensar os danos causados?

Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254


18  Cf. TSVETKOVA, M. et al. Even good bots fight: The case of Wikipedia. PLoS ONE, v. 12, n. 2, 2017. Disponível em:
<https://doi.org/10.1371/journal.pone.0171774>.
19  Bot, diminutivo de robot, também conhecido como Internet bot ou web robot, é uma aplicação de software concebido para simular
ações humanas repetidas vezes de maneira padrão, da mesma forma como faria um robô. Cf. KONGTON, Alisa et al. Implement-
ing an online help desk system based on conversational agent. Proceedings of the International Conference on Management of Emergent Digital
EcoSystems, n. 69, 2009.
20  OMOHUNDRO, S. M. The basic AI drives: self-aware systems. In: PROCEEDINGS OF THE 2008 CONFERENCE ON
ARTIFICIAL GENERAL INTELLIGENCE. Amsterdã: IOS Press, 2008. p. 483-492.
21  MUEHLHAUSER, Luke; SALAMON, Anna. Intelligence explosion: evidence and import. In: EDEN, Amnon (Ed.) et al.
Singularity hypotheses: a scientific and philosophical assessment. Heidelberg: Springer, 2012. p. 15-42. Disponível em: <http://intel-
ligence.org/files/IE-EI.pdf>. Acesso em: 20 ago. 2017.
22  MUEHLHAUSER, Luke; SALAMON, Anna. Intelligence explosion: evidence and import. In: EDEN, Amnon (Ed.) et al.
Singularity hypotheses: a scientific and philosophical assessment. Heidelberg: Springer, 2012. p. 15-42. Disponível em: <http://intel-
ligence.org/files/IE-EI.pdf>. Acesso em: 20 ago. 2017.
23  WAINWRIGHT, Martin. Robot fails to find a place in the sun. The Guardian, 20 jun. 2002. Disponível em: <http://www.
theguardian.com/uk/2002/jun/20/engineering.highereducation>. Acesso em: 20 ago. 2017.
244
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
3. A responsabilidade civil pelos atos independentes da inteligência artificial: notas
sobre a proposta de regulamentação da União Europeia

Resta saber, assim, quais as possíveis soluções acerca da responsabilização pelos danos causados pelos
atos que a IA, como se viu, leva a cabo de forma autônoma, isto é, sem qualquer comando ou controle
dado por um ser humano. Para iniciar o estudo do tema, ainda incipiente no Brasil, é referência a aborda-
gem já iniciada no âmbito da União Europeia. Recentemente, o Parlamento Europeu editou a Resolução
2015/2103(INL), de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Ro-
bótica.24
O intuito da resolução é atribuir à União Europeia um papel de vanguarda no estabelecimento de
princípios éticos básicos a serem respeitados no desenvolvimento, na programação e na utilização de robôs e
de IA, visando à integração desses princípios nos regulamentos e na legislação dos seus estados-membros. O
objetivo traduz-se, em grande medida, em moldar a revolução tecnológica, evitando, tanto quanto possível,
potenciais riscos, a partir de uma abordagem gradual, pragmática e cautelosa como a defendida por Jean
Monnet25.
Nesse sentido, a exposição de motivos da resolução leva em consideração, entre outros aspectos, a
concreta possibilidade de que, dentro de algumas décadas, a IA possa ultrapassar a capacidade intelectual
humana, de modo que a própria aptidão do criador em controlar a sua criação é questionada. Para os au-
tores do documento, essa e outras razões justificam a abordagem inicial do tema a partir de problemas de
responsabilidade civil. Levando-se em consideração os riscos, pode-se adiantar que a corrente prevalente,
ao menos como ponto de partida, defende a aplicação da responsabilidade objetiva de quem está mais bem
colocado para oferecer garantias.26
Primeiramente, vale delimitar o que a resolução considera um robô autônomo inteligente, a fim de de-
terminar uma definição comum. Para assim ser denominado, o robô deve apresentar as seguintes caracte-
rísticas: (a) adquirir autonomia por meio de sensores e/ou mediante a troca de dados com o seu ambiente
(interconectividade) e da análise destes; (b) aprender por si mesmo; (c) ter um suporte físico; (d) adaptar o
seu comportamento e as suas ações ao ambiente em que se encontra.27
A perspectiva de que a tecnologia avance a ponto de criar, efetivamente, robôs que se tornem ou sejam
autoconscientes aliada ao atual estado da Teoria Geral da Responsabilidade Civil, segundo a qual, na maior
parte dos casos de responsabilidade, responderá pelo dano quem lhe dá causa por conduta própria,28 são ra-

24  UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil
sobre Robótica (2015/2103(INL)). 2017. Disponível em: <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//
TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN#BKMD-12>. Acesso em: 10 out. 2017. Essa resolução teve como
Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254
documento base a seguinte moção: UNIÃO EUROPEIA. Projeto de Relatório que contém recomendações à Comissão sobre disposições de Di-
reito Civil sobre Robótica (2015/2013(INL)). Relatora Mady Delvaux, de 31 de maio de 2016. Disponível em: <http://www.europarl.
europa.eu/sides/getDoc.do?pubRef=-//EP// NONSGML+COMPARL+PE-582.443+01+DOC+PDF+V0//PT>. Acesso em:
10 out. 2017.
25  Nesse ponto, a resolução faz referência à Declaração Schuman (1950): “A Europa não se fará de uma só vez, nem de acordo
com um plano único. Far-se-á através de realizações concretas que criarão, antes de mais, uma solidariedade de facto”. Cf. UNIÃO
EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil
sobre Robótica (2015/2103(INL)), Parágrafo “X”.
26  UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de
Direito Civil sobre Robótica (2015/2103(INL)). Parágrafo “Z” e seguintes.
27  UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de
Direito Civil sobre Robótica (2015/2103(INL)). Parágrafo 1º.
28  São exceções a responsabilidade pelo fato de outrem, derivada de um dever de guarda, vigilância e cuidado, como a responsabi-
lidade dos pais pelos atos dos filhos menores que estiverem sob o seu poder e em sua companhia, o tutor e o curador pelos pupilos
e curatelados, e o patrão pelos atos dos seus empregados. Ainda, a responsabilidade do dono do animal pelo fato deste, ou daquele
que tinha a guarda da coisa, pelos fatos desta.
245
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
zões pelas quais alguns autores da doutrina29 levantaram a questão de saber se os agentes artificiais deveriam
ter reconhecido um estatuto jurídico próprio, como as pessoas jurídicas.
Tal perspectiva parte da ideia de que, se a IA será, de fato, totalmente autônoma, como uma superinte-
ligência, então ela deverá ter a capacidade de atentar às suas ações e às consequências indesejáveis de tais
ações. E, uma vez que esteja consciente de suas ações, à própria IA poderia ser imputável a responsabilidade
por danos causados pelos seus próprios atos. Para tanto, porém, seria necessária uma radical mudança legis-
lativa, que atribuísse, necessariamente, personalidade jurídica à IA.
O documento do Parlamento Europeu registra esse debate, expressamente, na sua exposição de moti-
vos.30 Em primeiro momento, demonstra preocupação com a circunstância de que, quanto mais autônomos
os robôs se tornarem, menos poderão ser encarados como simples instrumentos ou ferramentas nas mãos
de outros intervenientes (como o fabricante, o proprietário, o usuário etc.). Para os autores da proposta sub-
metida ao parlamento, essa característica elementar faz com que as normas ordinárias em matéria de respon-
sabilidade sejam insuficientes, já que a questão sempre se voltaria a como imputar a responsabilidade — no
todo ou em parte — à própria máquina pelas suas ações ou omissões. Reconhecem, assim, a premência de
se determinar qual o estatuto jurídico do robô.31
Nesse exercício teórico-filosófico, considerando que a autonomia dos robôs suscita a questão da sua na-
tureza à luz das categorias jurídicas existentes, os autores da proposta submetida à apreciação do Parlamen-
to, que viria a se tornar a resolução, questionavam-se se os robôs deveriam ser enquadrados como pessoas
jurídicas, animais ou coisas, ou se deveria ser criada uma nova categoria, com características e implicações
próprias no que tange à atribuição de direitos e deveres, incluindo a responsabilidade por danos.32
Para ilustrar a complexidade do tema, Čerka et at.33 faz interessante comparação da IA com o estatuto ju-
rídico dos escravos no direito romano. Assim como a IA, o escravo romano não era sujeito de direito. O seu
estatuto jurídico era equivalente ao de coisa, mas os seus atos, por óbvio, eram inteligentes e autoconscien-
tes, fugindo ao controle de seus mestres. Como tal, não tinha capacidade jurídica, condição que era reservada
apenas aos cidadãos livres. Sendo assim, o chefe de família responsável pela pessoa alieni iuris, ou seja, o seu
dono, era responsabilizado pelos atos ilícitos cometidos pelos escravos.34 Supondo que o paralelo entre o
status jurídico da IA e o dos escravos romanos seja possível, os danos causados pelas ações da IA deveriam
ser compensados pelo seu proprietário, ainda que levadas a cabo sem qualquer controle deste.
Se a IA poderá tornar-se uma pessoa jurídica ainda é hoje uma questão apenas teórico-filosófica, e o

29  Cf. LAUKYTĖ, Miglė. Artificial and Autonomous: A Person? In: CRNKOVIC, Gordana Dodig- et al. Social Computing, Social
Cognition, Social Networks and Multiagent Systems Social Turn - SNAMAS 2012. Birmingham (UK): The Society for the Study of Ar-
tificial Intelligence and Simulation of Behaviour, 2012. Disponível em: <http://events.cs.bham.ac.uk/turing12/ proceedings/11.
pdf>. Acesso em: 20 ago. 2017.
30  UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de
Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254
Direito Civil sobre Robótica (2015/2103(INL)). Parágrafos AB e AC.
31  UNIÃO EUROPEIA. Projeto de Relatório que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica
(2015/2013(INL)). Relatora Mady Delvaux, de 31 de maio de 2016. p. 5-6. Disponível em: <http://www.europarl.europa.eu/sides/
getDoc.do?pubRef=-//EP// NONSGML+COMPARL+PE-582.443+01+DOC+PDF+V0//PT>. Acesso em: 10 out. 2017.
32  UNIÃO EUROPEIA. Projeto de Relatório que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica
(2015/2013(INL)). Relatora Mady Delvaux, de 31 de maio de 2016. p. 6. Disponível em: <http://www.europarl.europa.eu/sides/
getDoc.do?pubRef=-//EP// NONSGML+COMPARL+PE-582.443+01+DOC+PDF+V0//PT>. Acesso em: 10 out. 2017. No
texto aprovado da Resolução permanece a ressalva, no parágrafo AC, de forma mais genérica, cf.: “AC. whereas, ultimately, the au-
tonomy of robots raises the question of their nature in the light of the existing legal categories or whether a new category should be created, with its own
specific features and implications”.
33  ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by Artificial Intelligence. Computer
Law & Security Review, Elsevier, v. 31, n. 3, p. 385, jun. 2015.
34  Em casos danos causados por ato ilícito do escravo, a lei romana invocava uma regra geral de responsabilidade noxal, seg-
undo a qual o proprietário deve indenizar os danos ou entregar o escravo ao lesado. Cf. ČERKA, Paulius; GRIGIENĖ, Jurgita;
SIRBIKYTĖ, Gintarė. Liability for damages caused by Artificial Intelligence. Computer Law & Security Review, Elsevier, v. 31, n. 3, p.
385, jun. 2015.
246
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
registro dessa hipótese como uma opção a ser considerada na proposta de resolução apresentada ao Par-
lamento Europeu foi criticado, duramente, antes da aprovação do texto, como uma visão excessivamente
inspirada pela ficção científica,35 inapropriada à realidade e irrelevante, já que não traria qualquer benefício
ao intuito original da proposta, que é formular um sistema mais efetivo à prevenção de riscos e à compen-
sação de possíveis vítimas.36
Mesmo projetos legislativos mais avançados na matéria37 não atribuem personalidade jurídica à IA. Uma
nota explicativa do Secretariado da UNCITRAL, acerca da Convenção das Nações Unidas sobre a Utiliza-
ção de Comunicações Eletrônicas em Contratos Internacionais, estabelece, no seu artigo 12, o princípio de
que a pessoa, natural ou jurídica, em cujo nome um computador foi programado, deve ser responsável por
qualquer mensagem gerada pela máquina.
Em seguida, a seção explicativa n. 213 descreve que:
O artigo 12 é uma disposição habilitante e não deve ser interpretado, de forma equivocada, como a
permitir que um sistema de mensagens automatizado ou um computador seja objeto de direitos e
obrigações. As comunicações eletrônicas que são geradas automaticamente por sistemas de mensagens
ou computadores sem intervenção direta humana devem ser consideradas como “originárias” da
entidade jurídica em nome da qual o sistema de mensagens ou computador é operado. As questões
relevantes à agência que possam surgir nesse contexto devem ser resolvidas de acordo com regras fora
da Convenção.38

Ou seja, a disposição garante que uma negociação eletrônica travada por uma IA seja considerada per-
feita, reconhecendo como válida a manifestação de vontade por si exarada, bem como as obrigações daí
decorrentes, sem reconhecer, contudo, a personalidade jurídica da IA, atribuindo a responsabilidade pelos

35  O projeto de relatório chega a mencionar como modelo de princípios gerais a serem adotados pelos criadores e programadores
da IA as leis da robótica extraídas da literatura de Isaac Asimov, uma coleção de contos publicada em 1950, intitulada “Eu, robô”.
As chamadas “Leis de Asimov” são: (1) “um robô não pode magoar um ser humano ou, por inação, permitir que tal aconteça”;
(2) “um robô tem de obedecer às ordens dos seres humanos, exceto quando tais ordens entrarem em conflito com a primeira
lei”; (3) “um robô tem de proteger a sua própria existência desde que tal proteção não entre em conflito com a primeira ou com
a segunda lei”. Os autores da proposta chegam a elencar uma lei (0), “um robô não pode magoar a humanidade ou, por inação,
permitir que tal aconteça” e partem da premissa que as Leis de Asimov têm de ser perspectivadas como direcionadas aos criadores,
produtores e operadores de robôs, uma vez que tais leis não poderiam ser convertidas em código de máquina. Cf. UNIÃO EU-
ROPEIA. Projeto de Relatório que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2013(INL)). Relatora
Mady Delvaux, de 31 de maio de 2016. p. 4. Disponível em: <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//
NONSGML+COMPARL+PE-582.443+01+DOC+PDF+V0//PT>. Acesso em: 10 out. 2017. Apesar das críticas, a referência às
Leis Asimov não foi suprimida pela versão final, constando no parágrafo “T” da Resolução.
36  NEVEJANS, Nathalie. European civil law rules in robotics. European Union, 2016. Disponível em: <http://www.europarl.europa.
eu/committees/fr/supporting-analyses-search.html>. Acesso em: 17 out. 2017. Dentre as críticas da autora, vale o contraponto à
referência do relatório às leis Asimov. Nevejans ressalta a circunstância de que Asimov escreveu as leis da robótica como uma fer-
ramenta literária, deixando-as deliberadamente vagas para torná-las mais interessantes à trama e aos seus desdobramentos fictícios,
sendo que de forma alguma o autor estabeleceu leis para além de um literário inteligente, não podendo tais leis serem consideradas
Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254
como verdadeiros princípios legais, independentemente da circunstância de poderem ser convertidos em código de máquina ou não,
como afirmado pelo projeto de relatório.
37  A exemplo, o projeto RoboLAW (título completo: Regulating Emerging Robotic Technologies in Europe: Robotics Facing Law and Ethics),
lançado oficialmente em março de 2012 e financiado pela Comissão Europeia para investigar formas em que as tecnologias emer-
gentes no campo de bio-robótica (na qual está incluída a IA), vem influenciando os sistemas jurídicos nacionais europeus. A matéria
desafia as categorias e qualificações jurídicas tradicionais, expondo quais os riscos para os direitos e liberdades fundamentais que
devem ser considerados, e, em geral, demonstra a necessidade de regulação e como esta pode ser desenvolvida no âmbito interno de
cada país. A esse respeito, cf.: PALMERINI, Erica. The interplay between law and technology, or the RoboLaw. In: PALMERINI,
Erica; STRADELLA, Elettra (Ed.). Law and Technology: The Challenge of Regulating Technological Development. Pisa: Pisa Uni-
versity Press, 2012. p. 208. Disponível em: <http://www.robolaw.eu/RoboLaw_files/documents/Palmerini_Intro.pdf>. Acesso:
20 ago. 2017.
38  Tradução livre do original: “Article 12 is an enabling provision and should not be mis-interpreted as allowing for an automated
message system or a computer to be made the subject of rights and obligations. Electronic communications that are generated au-
tomatically by message systems or computers without direct human intervention should be regarded as ‘originating’ from the legal
entity on behalf of which the message system or computer is operated. Questions relevant to agency that might arise in that context
are to be settled under rules outside the Convention”.
247
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
seus atos à pessoa em cujo nome a IA agiu.39 Essa interpretação está em conformidade com a regra geral
de que o operador de uma ferramenta é responsável pelos resultados obtidos pelo seu uso, uma vez que a
ferramenta não tem volição independente própria.
Pagallo40 explica que a responsabilidade, na seara dos contratos, dos direitos e obrigações estabelecidos
por meio da IA, é geralmente interpretada do ponto de vista jurídico tradicional, que define a IA como fer-
ramenta (AI-as-tool ou robot-as-tool). Isso significa vincular a responsabilidade objetiva pelo comportamento
da máquina à pessoa física ou jurídica em nome de quem ela age, independentemente de tal comportamento
ser planejado ou previsto, com consequências similares à responsabilidade vicária41.
A teoria da IA como ferramenta implicaria afirmar uma responsabilidade distinta a depender de quem
está fazendo o seu uso, ou seja, nos casos em que a IA é utilizada por empresas para prestar serviços e ofe-
recer produtos — isto é, a situação em que a IA age em nome de um fornecedor —, em contraposição a
outros casos em que a IA é empregada pelo usuário para desempenhar determinadas atividades sob a super-
visão deste. Isso porque — poderá ser arguido — se a IA têm, efetivamente, a habilidade de aprender da sua
própria experiência, haverá um correspondente dever de guarda e vigilância do seu proprietário ou usuário,
que é quem seleciona e proporciona experiências à IA.42 Até porque essas experiências são singulares de
cada indivíduo artificial.43
A cogitar a correção de se atribuir um dever de guarda e vigilância aos proprietários e usuários da IA
(muitas vezes, enquadrados enquanto consumidores), o projeto submetido ao Parlamento Europeu faz
menção a essas circunstâncias, especialmente quando as partes responsáveis por “ensinarem” o robô, cujos
atos causarem danos, acabarem por ser identificadas.44 O texto aprovado na Resolução45 confirma, em tais
casos, a possibilidade de se determinar que a responsabilidade da pessoa que “treinou” o robô possa ser pro-
porcional ao nível efetivo de instruções dadas ao robô e ao nível de autonomia da IA, de modo que, quanto
maior a capacidade de aprendizagem ou de autonomia do robô e quanto mais longo for o “treinamento”,
maior deverá ser a responsabilidade do seu “treinador” — o que qualificaria o possível “mau uso” por parte
do usuário ou do proprietário. Observa-se, em especial, que as competências resultantes do “treinamento”
dado a um robô não devem ser confundidas com as competências estritamente dependentes das suas ca-

39  ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by Artificial Intelligence. Computer
Law & Security Review, Elsevier, v. 31, n. 3, p. 376-389, jun. 2015.
40  PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Heidelberg: Springer, 2013.
41  Responsabilidade vicária é o termo utilizado, principalmente nos países de common law, para designar a responsabilidade do
superior hierárquico pelos atos dos seus subordinados ou, em um sentido mais amplo, a responsabilidade de qualquer pessoa que
tenha o dever de vigilância ou de controle pelos atos ilícitos praticados pelas pessoas a quem deveriam vigiar. Distingue-se da re-
sponsabilidade contributiva pela circunstância essencial de que o conhecimento do responsável não é um elemento necessário para
a atribuição da responsabilidade. No direito pátrio, seriam os casos de responsabilidade pelo fato de terceiro, derivada de um dever
de guarda, vigilância e cuidado, nos termos do art. 932 do Código Civil, como a responsabilidade dos pais pelos atos dos filhos
menores que estiverem sob o seu poder e em sua companhia, o tutor e o curador pelos pupilos e curatelados, e o patrão pelos atos
dos seus empregados.
Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254
42  Dessa linha de argumentação poderia derivar, ainda, uma excludente de causalidade, atribuindo ao usuário, por vezes vítima,
uma culpa exclusiva, que viria a excluir a responsabilidade dos fabricantes da IA quando a causa direta é, de fato, o uso da IA, ou o
seu mau uso, fazendo com que ela desenvolva novas habilidades que extrapolam o seu projeto original.
43  Cf. o caso dos bots da Wikipedia anteriormente citados - casos em que projetos idênticos de IA, isto é, idênticos algoritmos,
desenvolveram métodos diversos de proceder às correções dos textos, justamente porque se baseavam nas suas experiências prévias,
que são singulares de cada indivíduo artificial.
44  UNIÃO EUROPEIA. Projeto de Relatório que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica
(2015/2013(INL)). Relatora Mady Delvaux, de 31 de maio de 2016. p. 11. Disponível em: <http://www.europarl.europa.eu/sides/
getDoc.do?pubRef=-//EP// NONSGML+COMPARL+PE-582.443+01+DOC+PDF+V0//PT>. Acesso em: 10 out. 2017.
45  Texto original: “Considers that, in principle, once the parties bearing the ultimate responsibility have been identified, their liability should be pro-
portional to the actual level of instructions given to the robot and of its degree of autonomy, so that the greater a robot’s learning capability or autonomy,
and the longer a robot’s training, the greater the responsibility of its trainer should be; notes, in particular, that skills resulting from “training” given to a
robot should be not confused with skills depending strictly on its self-learning abilities when seeking to identify the person to whom the robot’s harmful behav-
iour is actually attributable; notes that at least at the present stage the responsibility must lie with a human and not a robot”. UNIÃO EUROPEIA.
Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica
(2015/2103(INL)). Parágrafo 56.
248
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
pacidades de autoaprendizagem, quando se procurar identificar a pessoa a quem se deve, efetivamente, o
comportamento danoso do robô: se ao usuário ou ao criador. De qualquer forma, a responsabilidade deverá
ser imputada a um ser humano, e não ao robô.
Para Pagallo46, as principais repercussões da teoria da IA como ferramenta na seara contratual, uma vez aliada
às normativas europeias sobre a responsabilidade por defeito do produto, seriam as seguintes: (a) a IA atua em
nome do principal P, de modo a negociar e fazer um contrato com a contraparte C; (b) os direitos e obrigações
estabelecidos pela IA vinculam diretamente P, uma vez que todos os atos da IA são considerados atos de P; (c)
P não pode evadir a responsabilidade alegando que não pretendia celebrar tal contrato ou que a IA cometeu um
erro decisivo; (d) no caso do comportamento errático da IA, P poderia reclamar danos contra o criador ou fa-
bricante da IA, uma vez demonstrado que a IA estava com defeito e que tal defeito já existia quando a IA estava
sob o controle do fabricante e, além disso, que o defeito foi a causa imediata das lesões sofridas por P.
A depender do caso, portanto, os danos causados pela IA poderão atrair as disposições sobre a responsa-
bilidade pelo produto. No âmbito da União Europeia, a solução apresentada por Pagallo está de acordo com
o convencionado na Diretiva 85/374/CEE do Conselho, de 25 de julho de 1985,47 sobre a responsabilidade
pelo produto defeituoso.
A diretiva poderia ser aplicada em diversas circunstâncias em que produtos que apresentem a tecnologia
da IA sejam introduzidos no mercado de consumo, particularmente aos casos em que o fabricante não
informa suficientemente ao consumidor os riscos associados aos robôs autônomos, ou se os sistemas de
segurança do robô forem deficientes a ponto de não oferecerem a segurança esperada.48
Uma vez cumpridos os deveres de informação e de segurança impostos ao fornecedor e provado que
não há defeito na sua fabricação, permanece, porém, a polêmica acerca da aplicação da responsabilidade
pelo produto aos danos causados pela IA, tendo em vista, ainda, que a diretiva europeia prevê, expressamen-
te, a excludente da responsabilidade do produtor pelos riscos do desenvolvimento.49
Nesse sentido, a Diretiva 85/374/CEE, em seu artigo 7º, alínea “e”, dispõe que: “O produtor não é res-
ponsável nos termos da presente directiva se provar: (...) e) Que o estado dos conhecimentos científicos e técnicos no momento
da colocação em circulação do produto não lhe permitiu detectar a existência do defeito”50, resguardando-se, porém, aos
estados-membros, a faculdade de afastar tal excludente de responsabilidade em suas legislações internas,
consoante o artigo 15, número 1, alínea “b”, do mesmo diploma51.
Resta saber se as consequências lesivas dos atos independentes da IA devem ser consideradas abrangidas
pelo risco do desenvolvimento ou, em sentido oposto, se a IA, que, ao agir de forma não determinada e nem
prevista por seus programadores, causa dano, representa um fato do produto pela simples circunstância de
haver causado dano.

46  PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Heidelberg: Springer, 2013.
Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254
47  UNIÃO EUROPEIA. Diretiva 85/374/CEE do Conselho, de 25 de julho de 1985, relativa à aproximação das disposições legislativas,
regulamentares e administrativas dos Estados-Membros em matéria de responsabilidade decorrente dos produtos defeituosos. Disponível em: <http://
eur-lex.europa. eu/legal-content/PT/TXT/?uri=CELEX%3A31985L0374>. Acesso em: 19 out. 2017.
48  NEVEJANS, Nathalie. European civil law rules in robotics: European Union. 2016. p. 18. Disponível em: <http://www.europarl.
europa.eu/committees/fr/supporting-analyses-search.html>. Acesso em: 17 out. 2017.
49  A esse respeito, cf. REINIG, Guilherme Henrique Lima. A responsabilidade do produtor pelos riscos do desenvolvimento. São Paulo:
Atlas, 2013.
50  UNIÃO EUROPEIA. Diretiva 85/374/CEE do Conselho, de 25 de julho de 1985, relativa à aproximação das disposições legislativas,
regulamentares e administrativas dos Estados-Membros em matéria de responsabilidade decorrente dos produtos defeituosos. Disponível em: <http://
eur-lex.europa. eu/legal-content/PT/TXT/?uri=CELEX%3A31985L0374>. Acesso em: 19 out. 2017.
51  “Artigo 15º - 1. Qualquer Estado-membro pode: (...) b) Em derrogação da alínea e) do artigo 7º, manter ou, sem prejuízo
do procedimento definido no nº 2, prever na sua legislação que o produtor é responsável, mesmo se este provar que o estado dos
conhecimentos científicos e técnicos no momento da colocação do produto em circulação não lhe permitia detectar a existência do
defeito”. UNIÃO EUROPEIA. Diretiva 85/374/CEE do Conselho, de 25 de julho de 1985, relativa à aproximação das disposições legislativas,
regulamentares e administrativas dos Estados-Membros em matéria de responsabilidade decorrente dos produtos defeituosos. Disponível em: <http://
eur-lex.europa. eu/legal-content/PT/TXT/?uri=CELEX%3A31985L0374>. Acesso em: 19 out. 2017.
249
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
Essa segunda é a opinião de alguns autores sobre o tema, especialmente quando chamados a responder
sobre a responsabilização pelos acidentes causados pelo carro autônomo (sem motorista).52 Para essa cor-
rente, deve ser adotada como premissa a presunção de que qualquer dano causado pela IA será, necessaria-
mente, resultado de uma falha humana res ipsa loquitor, seja uma falha de projeto, de fabricação, de montagem
ou de informação suficiente ao usuário acerca da segurança e do uso apropriado do produto.53 Essa aborda-
gem não faz qualquer distinção entre os casos em que há um vício de concepção ou de produção da IA, em
relação aos casos em que os danos causados pelos atos independentes da IA ocorrem quando o produto está
em perfeito funcionamento, mas apresenta riscos intensos em razão do estado da técnica.54
Vale lembrar que é intrínseca à tecnologia da IA a indeterminação dos objetivos intermediários para se al-
cançar o fim almejado. Sendo assim, enquanto não houver regulação estipulando limites aos meios utilizados
pela IA para alcançar o seu objetivo, para todos os efeitos, o produto estará funcionando em conformidade
com o estado da técnica e efetivamente apresentará a segurança que dele se pode esperar, isso se for posto
em prática o dever de informação e o dever de segurança imposto ao fornecedor. A questão é justamente
essa: ainda que se observem tais deveres, a IA poderá causar danos no seu regular procedimento, os quais
serão inevitáveis pelos seus criadores e poderão estar abrangidos na noção de risco do desenvolvimento.
ČERKA et al.55 chamam a atenção para o fato de que a aplicação da responsabilidade por fato do produto
aos casos em que a IA causar danos deve gerar um ônus de prova extremamente gravoso a quem incumbir,
justamente em razão da sua característica essencial: a autoaprendizagem conforme as suas experiências e a
capacidade de tomar decisões autônomas. Se a IA é um sistema de autoaprendizagem, por isso mesmo pode
ser impossível traçar a tênue linha entre os danos resultantes do processo da autoaprendizagem próprio da
IA e o defeito preexistente de fabricação produto.
É consenso, pois, que a IA apresenta riscos, possivelmente um risco excepcional, frisa-se. E, também,
parece mais adequado considerar tal risco como algo inerente à própria tecnologia da IA, tendo em vista a
sua falta de limites, como já foi exposto anteriormente.
Por tais razões, a resolução do Parlamento Europeu sobre as disposições de direito civil aplicáveis à
robótica faz a ressalva de que, não obstante a aplicação da atual Diretiva 85/374/CEE aos casos de res-
ponsabilidade por defeito do produto, o atual quadro jurídico não seria suficiente para abranger os danos
provocados pela nova geração de robôs, em razão das possíveis capacidades adaptativas e de aprendizagem
que integram um certo grau de imprevisibilidade no seu comportamento.56
Por fim, a resolução sugere que os futuros instrumentos legislativos devem basear-se numa avaliação

52  Os carros sem motoristas da Google já foram testados em vias públicas por anos e por centenas de milhares de quilômetros.
Câmeras, dispositivos de posicionamento global, muitos programas analíticos complexos e algoritmos (e outros dispositivos muito
além da nossa compreensão), tudo é empregado para proporcionar um carro capaz de dirigir quase da mesma maneira que os hu-
manos fazem — quase porque, na verdade, o fazem melhor. O carro “assiste” à estrada, procura, constantemente, outros carros,
Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254
pedestres, obstruções, desvios e assim por diante, e ajusta sua velocidade conforme o tráfego, o clima e todos os outros fatores que
afetam a segurança da operação do veículo. São programados para evitar uma colisão com um pedestre, outro veículo ou obstáculos
quaisquer. Em toda a operação teste, a Google afirmou ter registrado apenas um único acidente. Tudo indica que: “Driving is risky
because drivers are humans”, nesse sentido, cf.: VLADECK, David C. Machines without principals: liability rules and Artificial Intel-
ligence. Washington Law Review, n. 89, p. 126, 2014.
53  KINGSTON, J. K. C. Artificial Intelligence and legal liability. In: BRAMER, Max; PETRIDIS, Miltos (Ed.). Research and
Development in Intelligent Systems XXXIII: incorporating applications and innovations in Intelligent Systems XXIV (Proceedings of
AI-2016, The Thirty-Sixth SGAI International Conference on Innovative Techniques and Applications of Artificial Intelligence).
Cham (CH): Springer International Publishing AG, 2016.
54  VLADECK, David C. Machines without principals: liability rules and Artificial Intelligence. Washington Law Review, n. 89, p.
117, 2014.
55  ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by Artificial Intelligence. Computer
Law & Security Review, Elsevier, v. 31, n. 3, p. 376-389, jun. 2015.
56  UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil
sobre Robótica (2015/2103(INL)). 2017. Disponível em: <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//
TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN#BKMD-12>. Acesso em: 10 out. 2017. Parágrafo “AH” e “AI”.
250
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
aprofundada efetuada pela Comissão de Direito Civil sobre Robótica, determinando se deve ser aplicada a
responsabilidade objetiva pela abordagem da gestão de riscos.57
A aplicação da responsabilidade objetiva exigiria, pois, apenas a prova de que ocorreu um dano e o esta-
belecimento de uma relação de causalidade entre o funcionamento lesivo do robô e os danos sofridos pela
parte lesada. Pela abordagem de gestão de riscos, por sua vez, a responsabilidade não se concentra na pessoa
“que atuou de forma negligente” como responsável individualmente, mas como a pessoa capaz, em certas
circunstâncias, de minimizar riscos e lidar com impactos negativos.58
Nesse ponto, é interessante a abordagem pela teoria deep-pocket (literalmente, “bolso profundo”), confor-
me a denominação cunhada no direito norte-americano. Por meio da sua aplicação, toda pessoa envolvida
em atividades que apresentam riscos, mas que, ao mesmo tempo, são lucrativas e úteis para a sociedade,
deve compensar os danos causados pelo lucro obtido. Seja o criador da IA, seja o fabricante de produtos
que empregam IA, seja uma empresa ou um profissional que não está na cadeia produtiva da IA, mas que a
utiliza em sua atividade, como uma transportadora que usa os veículos autônomos, isto é: aquele que tem o
“bolso profundo” e aproveita os lucros dessa nova tecnologia deve ser o garante dos riscos inerentes às suas
atividades, sendo exigível, inclusive, que se faça um seguro obrigatório de danos.59
Ao final, o documento, que serviu para iniciar o debate que deverá culminar na posterior regulamentação
da responsabilidade civil pelos atos da IA na legislação interna dos países-membros da União Europeia,
destaca que uma solução possível e provável, tendo em conta a complexidade do tema, deve ser a instituição
de um regime de seguros obrigatórios, como já acontece, por exemplo, com a circulação de automóveis nos
países-membros, que deverá impor aos produtores ou aos proprietários de robôs a subscrição de um seguro
para cobrir os potenciais danos que vierem a ser causados pelos seus robôs, sugerindo, ainda, que esse regi-
me de seguros seja complementado por um fundo de compensação, para garantir, inclusive, a reparação de
danos não abrangidos por qualquer seguro.60

4. Considerações finais

Está claro que a Inteligência Artificial (IA) não encontra limites teóricos e que inúmeros danos podem
dela derivar. É premente, pois, a necessidade de se avançar na temática para se determinar a quem deverá
ser imputada a responsabilidade pelos atos que a IA executa de forma autônoma, muitas vezes sem previsão
por parte de seus criadores e sem controle por qualquer pessoa humana.
Como se demonstrou no primeiro capítulo, a relevância do problema exposto é tangível e tende a afetar
cada vez mais a sociedade, já que os estudos preveem um avanço imensurável da tecnologia nas próximas
décadas. É razoável de se esperar que, até o final do século, tenhamos programas de inteligência artificial
atuando em todos os aspectos da vida moderna, como transporte, saúde, educação, nas forças armadas e, Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254
especialmente, no mercado de consumo.

57  UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil
sobre Robótica (2015/2103(INL)). 2017. Disponível em: <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//
TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN#BKMD-12>. Acesso em: 10 out. 2017. Parágrafo 53.
58  UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil
sobre Robótica (2015/2103(INL)). 2017. Disponível em: <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//
TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN#BKMD-12>. Acesso em: 10 out. 2017. Parágrafos 54 e 55.
59  Nesse sentido: ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by Artificial Intel-
ligence. Computer Law & Security Review, Elsevier, v. 31, n. 3, p. 376-389, jun. 2015.
60  UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil
sobre Robótica (2015/2103(INL)). 2017. Disponível em: <http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//
TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN#BKMD-12>. Acesso em: 10 out. 2017. Parágrafos 57, 58 e 59.
251
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
As conclusões da resolução, que registra as intenções da União Europeia em termos de futura regula-
ção da matéria pelos seus estados-membros, não se afastam dos avanços que a Responsabilidade Civil tem
logrado alcançar nos últimos tempos, notadamente quanto ao deslocamento do seu próprio fundamento
dogmático: o enfoque da responsabilidade civil já não é o ato ilícito de quem ocasiona o prejuízo, senão o
dano de quem injustamente o suporta, sendo o seu fim precípuo a reparação, isto é, a distribuição das con-
sequências econômicas derivadas de um evento danoso. A adoção da responsabilidade objetiva imposta aos
criadores e fabricantes, seja pela responsabilidade do produto, seja pela gestão de riscos, visa proporcionar
a absorção dos riscos por aqueles que têm a melhor oportunidade de contratar o seguro, impondo-se, até
mesmo, a sua obrigatoriedade.
Por outro lado, a teoria da IA como ferramenta, com a consequente atribuição da responsabilidade para
a pessoa em cujo nome a IA age, isto é, à disposição e sob a supervisão de quem a IA se encontra — o seu
usuário ou proprietário —, pode gerar repercussões interessantes e, inclusive, ser capaz de impor um dever
de cuidado e de vigilância aos “treinadores” da IA, ou mesmo uma responsabilidade compartilhada pelos
usuários na rede. Esse é um aspecto que deverá receber enfoque doutrinário no futuro, tendo em vista a
tendência de se permitir aos usuários o desenvolvimento de suas próprias aplicações a partir da IA de código
aberto.
Do exame proposto, pode-se concluir que a resolução do Parlamento Europeu não trata das diferentes
abordagens apresentadas de forma antinômica. Ao contrário, dá a elas um caráter complementar e confere
maior importância a um ou outro aspecto das teorias, a depender do suporte fático envolvido. Ou seja, ad-
mite, a depender da autonomia e das instruções dadas ao robô, a atribuição de responsabilidade ao “treina-
dor” do robô, que poderá ser o seu proprietário ou usuário, e estabelece, em maior grau, a responsabilidade
objetiva daquele que está mais bem colocado para minimizar os ricos e oferecer garantias, estabelecendo
como proposta, ainda, a adoção de seguros obrigatórios para absorver os riscos.
A expectativa é de que esse artigo tenha servido como abre-alas para tão rica temática, que demanda
atenção especial da comunidade acadêmica, para que seja capaz de fornecer o devido substrato dogmático
aos legisladores pátrios quando a hora da regulamentação chegar. Espera-se que, no futuro próximo, os
estudos da legislação aplicada à Inteligência Artificial avancem, consideravelmente, para ultrapassar as meias
soluções.

Referências

BOGOST, Ian. Why Zuckerberg and Musk are fighting about the robot future. 27 jul. 2017. Disponível em: <https://
www.theatlantic.com/technology/archive/2017/07/musk-vs-zuck/535077/>. Acesso em: 18 ago. 2017.
ČERKA, Paulius; GRIGIENĖ, Jurgita; SIRBIKYTĖ, Gintarė. Liability for damages caused by Artificial Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254
Intelligence. Computer Law & Security Review, Elsevier, v. 31, n. 3, p. 376-389, jun. 2015.
CHAKRABORTY, Biplab. Artificial Intelligence (AI): Will it help or hurt mankind? 6 ago. 2017. Disponível em:
<https://www.linkedin.com/pulse/artificial-intelligence-ai-help-hurt-mankind -biplab-chakraborty?trk=v-
feed&lipi=urn%3Ali%3Apage%3Ad_flagship3_feed%3BrIFrhf9ZTCqLDC%2FCzJS%2BFw%3D%
3D>. Acesso em: 10 ago. 2017.
DOMINGOS, Pedro. The master algorithm: How the quest for the ultimate learning machine will remake our
world. New York: Basic Books, 2015.
FAIRGRIEVE, Duncan (Ed.). Product liability in comparative perspective. Cambridge: Cambridge University
Press, 2005.
GRACE, Katja et al. When Will AI Exceed Human Performance? Evidence from AI Experts. Disponível em:
252
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
<https://arxiv.org/abs/1705.08807> Acesso em: 24 ago. 2017.
GREENE, Jayson. Do Androids Dream of Electric Guitars? Exploring the Future of Musical A. I. 2017. Di-
sponível em: <http://pitchfork.com/features/overtones/10091-do-androids-dream -of-electric-guitars-
exploring-the-future-of-musical-ai/>. Acesso em: 24 ago. 2017.
KINGSTON, J. K. C. Artificial Intelligence and legal liability. In: BRAMER, Max; PETRIDIS, Miltos (Ed.).
Research and Development in Intelligent Systems XXXIII: incorporating applications and innovations in Intelligent
Systems XXIV (Proceedings of AI-2016, The Thirty-Sixth SGAI International Conference on Innovative
Techniques and Applications of Artificial Intelligence). Cham (CH): Springer International Publishing AG,
2016.
KNIGHT, Will. The dark secret at the heart of AI: no one really knows how the most advanced algorithms
do what they do - that could be a problem. MIT Technology Review, abr. 2017. Disponível em: <https://www.
technologyreview.com/s/604087/the-dark-secret-at-the- heart-of-ai/>. Acesso em: 13 ago. 2017.
KONGTON, Alisa et al. Implementing an online help desk system based on conversational agent. Procee-
dings of the International Conference on Management of Emergent Digital EcoSystems, n. 69, 2009.
LAUKYTĖ, Miglė. Artificial and Autonomous: A Person? In: CRNKOVIC, Gordana Dodig- et al. Social
Computing, Social Cognition, Social Networks and Multiagent Systems Social Turn - SNAMAS 2012. Birmingham
(UK): The Society for the Study of Artificial Intelligence and Simulation of Behaviour, 2012. Disponível
em: <http://events.cs.bham.ac.uk/turing12/ proceedings/11.pdf>. Acesso em: 20 ago. 2017.
MUEHLHAUSER, Luke; SALAMON, Anna. Intelligence explosion: evidence and import. In: EDEN,
Amnon (Ed.) et al. Singularity hypotheses: a scientific and philosophical assessment. Heidelberg: Springer, 2012.
p. 15-42. Disponível em: <http://intelligence.org/files/IE-EI.pdf>. Acesso em: 20 ago. 2017.
NEVEJANS, Nathalie. European civil law rules in robotics. European Union, 2016. Disponível em: <http://
www.europarl.europa.eu/committees/fr/supporting-analyses-search.html>. Acesso em: 17 out. 2017.
OMOHUNDRO, S. M. The basic AI drives: self-aware systems. In: PROCEEDINGS OF THE 2008
CONFERENCE ON ARTIFICIAL GENERAL INTELLIGENCE. Amsterdã: IOS Press, 2008. p. 483-
492.
PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Heidelberg: Springer, 2013.
PALMERINI, Erica. The interplay between law and technology, or the RoboLaw. In: PALMERINI, Erica;
STRADELLA, Elettra (Ed.). Law and Technology: The Challenge of Regulating Technological Development.
Pisa: Pisa University Press, 2012. p. 208. Disponível em: <http://www.robolaw.eu/RoboLaw_files/docu-
ments/Palmerini_Intro.pdf>. Acesso: 20 ago. 2017.
POOLE, David; MACKWORTH, Alan. Artificial Intelligence: Foundations of Computational Agents. Cam-
bridge (UK): Cambridge University Press, 2010. Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254

REINIG, Guilherme Henrique Lima. A responsabilidade do produtor pelos riscos do desenvolvimento. São Paulo:
Atlas, 2013.
RUSSEL, Stuart; NORVING, Peter. Artificial Intelligence: a modern approach. 3. ed. Harlow (UK): Pearson
Education Limited, 2014.
TSVETKOVA, M. et al. Even good bots fight: The case of Wikipedia. PLoS ONE, v. 12, n. 2, 2017. Di-
sponível em: <https://doi.org/10.1371/journal.pone.0171774>.
TUTT, Andrew. An FDA for Algorithms. Administrative Law Review, v. 69, n. 1, p. 83, 2017. Disponível em:
<https://ssrn.com/abstract=2747994>. Acesso em: 10 out. 2017.
UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de
253
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a resolução do Parlamento Europeu. Rev. Bras.
Direito Civil sobre Robótica (2015/2103(INL)). 2017. Disponível em: <http://www.europarl.europa.eu/sides/
getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//EN#BKMD-12>.
Acesso em: 10 out. 2017.
UNIÃO EUROPEIA. Projeto de Relatório que contém recomendações à Comissão sobre disposições de Direi-
to Civil sobre Robótica (2015/2013(INL)). Relatora Mady Delvaux, de 31 de maio de 2016. Disponível em:
<http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP// NONSGML+COMPARL+PE-
582.443+01+DOC+PDF+V0//PT>. Acesso em: 10 out. 2017.
UNIÃO EUROPEIA. Diretiva 85/374/CEE do Conselho, de 25 de julho de 1985, relativa à aproxi-
mação das disposições legislativas, regulamentares e administrativas dos Estados-Membros em matéria de responsabi-
lidade decorrente dos produtos defeituosos. Disponível em: <http://eur-lex.europa. eu/legal-content/PT/
TXT/?uri=CELEX%3A31985L0374>. Acesso em: 19 out. 2017.
VLADECK, David C. Machines without principals: liability rules and Artificial Intelligence. Washington Law
Review, n. 89, p. 117, 2014.
WAINWRIGHT, Martin. Robot fails to find a place in the sun. The Guardian, 20 jun. 2002. Disponível em:
<http://www.theguardian.com/uk/2002/jun/20/engineering.highereducation> Acesso em: 20 ago. 2017.

Polít. Públicas, Brasília, v. 7, nº 3, 2017 p. 238-254

254
Para publicar na revista Brasileira de Políticas Públicas, acesse o endereço
eletrônico www.rbpp.uniceub.br
Observe as normas de publicação, para facilitar e agilizar o trabalho de edição.
A   BUSCA   PELA   EFICIÊNCIA   NA   FISCALIZAÇÃO   DA   GESTÃO   PÚBLICA:   A   UTILIZAÇÃO  
DE   INTELIGÊNCIA   ARTIFICIAL   PARA   APERFEIÇOAMENTO   DO   CONTROLE   DAS  
FINANÇAS  PÚBLICAS  
 
THE   SEARCH   FOR   EFFICIENCY   IN   AUDITING   PUBLIC   MANAGEMENT:   THE   USE   OF  
ARTIFICIAL  INTELLIGENCE  FOR  IMPROVING  THE  CONTROL  OF  PUBLIC  FINANCE  
 
 
Éderson  Garin  Porto1  
 
RESUMO:   O   esforço   da   força-­‐tarefa   instalada   em   Curitiba   revelou   uma   estrutura  
complexa   e   profissional   de   exploração   dos   recursos   públicos   em   proveito   de   alguns  
grupos   de   empresas   e   pessoas.   Cunhou-­‐se   a   expressão   “corrupção   sistêmica”   para  
explicar  a  estrutura  montada  para  aproveitamento  indevido  do  dinheiro  dos  pagadores  
de   tributos.   Os   dados   apresentados   pelo   Ministério   Público   Federal   remetem   ao  
questionamento  sobre  a  eficiência  dos  mecanismos  de  controle  do  dinheiro  público,  pois  
o  aparato  estatal  e  os  recursos  investidos  no  controle  do  dinheiro  à  disposição  do  Estado  
são   significativos.   O   problema   levantado   na   presente   investigação   possui   algumas  
hipóteses  de  resposta  que  serão  apresentadas  ao  longo  do  texto  que  segue.  No  entanto,  a  
contribuição  desta  pesquisa  consiste  na  proposição  de  um  aperfeiçoamento  do  controle  
das  contas  públicas  com  o  uso  da  tecnologia  já  existente,  ou  seja,  a  inteligência  artificial.  
 
PALAVRAS-­‐CHAVE:   Corrupção   sistêmica;   Inteligência   Artificial;   Eficiência;   Fiscalização  
da  Administração  Pública.    
 
 
ABSTRACT:   The   effort   of   the   task   force   installed   in   Curitiba   revealed   a   complex   and  
professional   structure   of   exploitation   of   the   public   resources   for   the   benefit   of   some  
groups   of   companies   and   people.   The   term   "systemic   corruption"   was   used   to   explain  
the   structure   set   up   for   misappropriation   of   taxpayers'   money.   The   data   presented   by  
the   Federal   Public   Prosecutor   refer   to   the   question   about   the   efficiency   of   the  
mechanisms   of   control   of   public   money,   since   the   state   apparatus   and   the   resources  
invested   in   the   control   of   money   available   to   the   State   are   significant.   The   problem  
raised   in   the   present   investigation   has   some   hypotheses   of   answer   that   will   be  
presented   throughout   the   text   that   follows.   However,   the   contribution   of   this   research  
consists   in   the   proposition   of   an   improvement   of   the   control   of   the   public   accounts   with  
the  use  of  the  existing  technology,  that  is,  artificial  intelligence.  
 
KEY  WORDS:  Systemic  Corruption;  Artificial  intelligence;  Efficiency;  Inspection  of  Public  
Administration.  
   

1  Visiting   Scholar   UC   Berkeley   School   of   Law.   Doutor   e   Mestre   pela   UFRGS.   Professor   do   Mestrado  
Profissional  em  Direito  das  Empresas  e  dos  Negócios  Unisinos.  Advogado.  
2   Site   oficial   do   Ministério   Público   Federal:   http://www.mpf.mp.br/para-­‐o-­‐cidadao/caso-­‐lava-­‐

jato/atuacao-­‐na-­‐1a-­‐instancia/parana/resultado.  
4
Introdução  
 
O  tema  do  controle  das  contas  públicas  nunca  teve  tanto  apelo  quanto  nos  dias  
atuais.  Por  certo  que  a  população  brasileira  sempre  desconfiou  sobre  a  correta  aplicação  
dos   recursos   proveniente   da   tributação,   porém   pode-­‐se   tomar   a   operação   da   Polícia  
Federal,  conhecida  como  “Lava-­‐Jato”,  como  um  marco  referencial  na  história  do  país.      
O  esforço  da  força-­‐tarefa  instalada  em  Curitiba  revelou  uma  estrutura  complexa  
e   profissional   de   exploração   dos   recursos   públicos   em   proveito   de   alguns   grupos   de  
empresas   e   pessoas.   Cunhou-­‐se   a   expressão   “corrupção   sistêmica”   para   explicar   a  
estrutura   montada   para   aproveitamento   indevido   do   dinheiro   dos   pagadores   de  
tributos.  
A   grande   questão   que   assalta   a   todos   os   cidadãos   brasileiros   é   como   tamanho  
esquema  de  corrupção  tenha  se  instalado  no  país  sem  que  as  estruturas  institucionais  de  
controle   do   gasto   público   tivessem   realizado   qualquer   alerta?   Como   tanto   dinheiro   foi  
desviado  sem  que  as  diversas  instâncias  oficiais  tivessem  notado  o  desfalque  dos  cofres  
públicos?   Note-­‐se   que   o   volume   de   dinheiro   comprovadamente   desviado   não   pode   ser  
considerado   desprezível,   quando   os   dados   divulgados   pela   Força-­‐tarefa   do   Ministério  
Público  Federal  informam  que  o  pedido  total  de  ressarcimento  chega  a  impressionante  
cifra  de  R$  38.000.000.000,002.    
O  escândalo  acima  recordado  e  os  dados  apresentados  pelo  Ministério  Público  
Federal  remetem  ao  questionamento  sobre  a  eficiência  dos  mecanismos  de  controle  do  
dinheiro   público,   pois   o   aparato   estatal   e   os   recursos   investidos   no   controle   do   dinheiro  
à  disposição  do  Estado  são  significativos.  
O   problema   levantado   na   presente   investigação   possui   algumas   hipóteses   de  
resposta  que  serão  apresentadas  ao  longo  do  texto  que  segue.  No  entanto,  a  contribuição  
desta   pesquisa   consiste   na   proposição   de   um   aperfeiçoamento   do   controle   das   contas  
públicas  com  o  uso  da  tecnologia  já  existente.  Em  texto  escrito  em  co-­‐autoria  com  outros  
notáveis   pesquisadores,   já   se   alertava   para   os   benefícios   que   o   uso   intensivo   da   internet  
poderia  propiciar  para  a  maior  promoção  da  participação  do  cidadão  na  Administração  
Pública  (CASTRO  et  ali,  2006).  Naquele  texto  escrito  no  alvorecer  do  século  XXI,  falava-­‐
se   das   funcionalidades   do   uso   da   internet   como   forma   de   promoção   da   transparência  

2  
Site   oficial   do   Ministério   Público   Federal:   http://www.mpf.mp.br/para-­‐o-­‐cidadao/caso-­‐lava-­‐
jato/atuacao-­‐na-­‐1a-­‐instancia/parana/resultado.  

5
pública   e,   por   decorrência,   um   melhor   acesso   do   cidadão   ao   exercício   do   seu  
constitucional   direito   de   cidadão.   Hoje,   passados   mais   de   quatorze   anos   daquela  
pesquisa,  percebe-­‐se  que  muito  se  avançou  em  termos  de  transparência  e  accountability  
(CAMPOS,   1990),   porém   ainda   resta   um   longo   caminho   a   ser   percorrido   para   que  
tenhamos  uma  fiscalização  mais  efetiva  do  dinheiro  sob  a  gestão  pública.  
Superada   a   fase   de   utilização   da   rede   mundial   de   computadores   como  
ferramenta   para   promoção   da   transparência   e   constatado   que   os   casos   de   corrupção  
gracejam  nos  mais  diversos  níveis  da  Administração  Pública,  é  chegado  o  momento  de  
propor   um   caminho   que   promova   uma   solução   mais   eficiente   para   o   controle   do  
orçamento  público  e  notadamente  o  bom  uso  do  dinheiro  dos  contribuintes.  
Portanto,   o   presente   artigo   busca   demonstrar   que   há   uma   ineficiência   na  
alocação   dos   recursos   públicos   para   controle   do   orçamento   e   que   há   ferramentas  
disponíveis   que   podem   propiciar   uma   maior   transparência   e   maior   participação   do  
cidadão  no  controle  orçamentário.  
 
 
1. Sobre   os   controles   institucionais:   explicações   sobre   a   ineficiência   da  
fiscalização  pública.  
 
Trilhando  o  texto  da  Constituição  é  possível  perceber  que  a  preocupação  com  a  
boa  aplicação  dinheiro  retirado  dos  contribuintes  esteve  presente  durante  os  trabalhos  
da  Assembleia  Nacional  Constituinte.    
A  Constituição  erige  o  povo  como  centro  do  Poder  desde  o  preâmbulo,  passando  
pelo   artigo   1°,   inciso   III   que   reconhece   a   cidadania   como   fundamento   da   República  
Federativa   do   Brasil   e   culminando   com   o   texto   do   parágrafo   único   do   artigo   1°   que  
preceitua:   “Todo   o   poder   emana   do   povo,   que   o   exerce   por   meio   de   representantes  
eleitos  ou  diretamente,  nos  termos  desta  Constituição”.  Percebe-­‐se  que  o  povo  possui  a  
prerrogativa  constitucional  de  legitimar  o  uso  do  poder  e,  sobretudo,  zelar  pela  correta  
aplicação  do  dinheiro  arrecadado  do  cidadão.  
O   exercício   da   cidadania   tem   expressão   pelo   exercício   do   sufrágio   (art.   14,  
CRFB),  porém  não  se  esgota  nele.  É  assegurado  ao  administrado  diversos  instrumentos  
para   exercitar   o   seu   direito   e   muito   especialmente   o   dever   de   cidadão,   podendo-­‐se  
referir   o   acesso   à   informação   (art.   5°,   incisos   XVI   e   XXXIII,   CRFB)   e   participação   do  

6
usuário  na  Administração  Pública  (art.  37,  §3°,  CRFB)  como  fundamentos  do  exercício  da  
cidadania   após   encerrado   o   pleito   eleitoral.   Para   conferir   efetividade   ao   exercício   da  
cidadania,   a   Constituição   assegurou   o   direito   ao   uso   do   mandado   de   segurança   para  
tutelar  direito  líquido  e  certo  violado  por  autoridade  pública  (art.  5°,  inciso  LXIX,  CRFB),  
garantiu   o   acesso   ao   habeas   data   (art.   5°,   inciso   LXXII,   CRFB)   e   facultou   o   uso   da   ação  
popular   a   qualquer   cidadão   que   vislumbrar   ato   praticado   em   prejuízo   do   erário   (art.   5°,  
inciso  LXXIII,  CRFB).  
Ao   proceder   leitura   da   Constituição   com   a   perspectiva   antropocentrista,  
percebe-­‐se  que  o  cidadão  é  o  centro  de  preocupação  do  texto  constitucional,  assim  como  
a   ele   são   conferidas   prerrogativas   e   poderes   para   que   a   soberania   popular   seja  
preservada.   Essa   leitura   do   texto   constitucional   conduz   para   um   papel   secundário   dos  
órgãos  oficiais  de  controle.  No  entanto,  o  desenvolvimento  das  instituições  propiciou  um  
engrandecimento   das   estruturas   burocráticas   e   simultaneamente   um   afastamento   do  
cidadão  do  seu  múnus  constitucional.  
A  Constituição  conferiu  prerrogativas  ao  Poder  Legislativo  para  fiscalização  da  
Administração  Pública  (art.  49,  inciso  IX  e  X,  CRFB)  e  dotou  o  parlamento  de  um  órgão  
auxiliar   de   fiscalização   (Tribunal   de   Contas   –   art.   71,   CRFB)   para   a   fiel   execução   da  
atribuição   imposta.   Não   obstante   a   fiscalização   exercida   pelo   Poder   Legislativo   e   o  
controle   dos   Tribunais   de   Contas,   outorgou-­‐se   ao   Ministério   Público   a   prerrogativa   de  
fiscalizar   os   demais   poderes   e   promover   as   medidas   judiciais   competentes   para   a  
preservação   do   patrimônio   público   (art.   129,   CRFB).   Além   dos   órgãos   acima   referidos,  
pode-­‐se   destacar   que   o   Estado   brasileiro   ainda   confere   à   polícia   atribuições   de  
investigação  e  repressão  de  infrações  contra  a  ordem  política  e  social  a  fim  de  garantir  a  
segurança  pública  (art.  144,  CRFB).  
Por   derradeiro,   não   obstante   todos   os   órgãos   institucionais   já   referidos,   a  
Constituição  ainda  conclama  que  cada  Poder  da  República  organize  e  institua  controles  
internos   (art.   74,   CRFB),   valendo   referir   no   âmbito   da   União   Federal   a   Controladoria-­‐
Geral  da  União.  
Diante   de   todo   este   aparato   acima   referido,   parece   razoável   imaginar   que   o  
cidadão   médio   não   encontre   razão   para   exercer   por   conta   própria   a   fiscalização   do  
dinheiro  sob  o  controle  Estado.  A  um,  porque  o  cidadão  brasileiro  médio,  segundo  dados  
do   IBGE   possui   baixa   formação   cultural   e   não   sente   apto   a   controlar   o   respeito   ao  
dinheiro   dos   contribuintes.   A   dois,   porque   o   raciocínio   do   cidadão   que   acredita   no  

7
controle  oficial  das  finanças  públicas  está  correto.  O  que  não  é  certo  é  perceber  que  na  
prática   todos   estes   órgãos   de   controle   possam   não   estar   exercendo   uma   fiscalização  
eficiente.  
Reside   neste   ponto   a   reflexão   suscitada   com   o   presente   estudo.   Se   há   um  
volume   de   investimento   considerável   no   controle   das   finanças   públicas   e   os   casos   de  
malversação   do   dinheiro   dos   contribuintes   não   param   de   aumentar,   impõe-­‐se   fazer   a  
seguinte   pergunta:   onde   está   o   problema?   Qual   a   explicação   para   a   ineficiência   dos  
órgãos  de  controle?  
 
 
1.1.  Constatação   da   ineficiência:   exame   dos   orçamentos   dos   órgãos   que  
possuem  a  prerrogativa  de  fiscalizar  as  contas  públicas.  
 
 
É   preciso   inicialmente   fazer   um   alerta   para   o   leitor   deste   ensaio   acerca   dos  
dados   utilizados.   Para   realização   do   estudo,   decidiu-­‐se   explorar   o   orçamento   de   cada  
órgão  responsável  pela  fiscalização  das  contas  públicas.  Foram  tomados  os  valores  totais  
apresentados   no   orçamento   de   cada   órgão.   No   entanto,   é   sabido   que   o   Congresso  
Nacional   e   o   Ministério   Público,   por   exemplo,   não   possuem   apenas   atribuição   de  
fiscalização   das   finanças   públicas,   de   modo   que   um   desenvolvimento   possível   para   a  
pesquisa  será,  no  futuro,  projetar  uma  fração  ideal  do  orçamento  para  cada  atribuição,  
podendo-­‐se  assim  medir  com  maior  exatidão  o  valor  destinado  ao  órgão  e  a  respectiva  
proporção  que  a  fiscalização  num  exame  de  alocação  dos  recursos.  
O  exame  do  orçamento  das  instituições  examinadas  se  faz  importante  ainda  que  
o  número  apresentado  esteja  sujeito  à  ponderação  acima  alertada.  Isso  porque  é  preciso  
esclarecer  e  tornar  público  o  volume  de  verba  investida  em  cada  órgão  público  e  refletir  
sobre  a  adequada  alocação  do  dinheiro  dos  contribuintes.  Na  incursão  pretendida  pelo  
presente  ensaio,  a  exposição  dos  valores  investidos  serve,  no  mínimo,  para  esclarecer  e  
informar   os   leitores.   Não   obstante,   a   segregação   acima   referida   para   a   reflexão   aqui  
suscitada   tem   pouca   serventia,   uma   vez   que   a   comparação   de   eficiência   do   dinheiro  
investido  será  cotejada  também  com  valores  brutos  da  amostra  estudada.  
Pode-­‐se   iniciar   a   análise   pela   leitura   da   Lei   Orçamentária   Anual   (LOA)   como  
documento   de   referência.   Pela   LOA   que   projetou   o   orçamento   para   2018,   as   receitas  

8
previstas   pelo   Governo   Federal   somam   o   valor   de   R$   R$   3.575.230.380.469,00   (três  
trilhões,   quinhentos   e   setenta   e   cinco   bilhões,   duzentos   e   trinta   milhões,   trezentos   e  
oitenta   mil,   quatrocentos   e   sessenta   e   nove   reais)   e   fixa   a   despesa   em   igual   valor,  
compreendendo,  nos  termos  do  art.  165,  §  5º,  da  Constituição3.  Apenas  a  leitura  do  valor  
orçamentário  da  União  Federal  já  justificaria  a  adoção  de  todo  e  qualquer  instrumento  
de  controle  possível  para  evitar  ineficiências  e  sobretudo  desvios.    
De  todas  as  críticas  que  se  possa  fazer,  não  se  pode  dizer  que  o  orçamento  não  
foi  generoso  aos  órgãos    de  controle.  Segundo  a  LOA,  cujo  texto  aprovado  para  2018  está  
veiculado   na   Lei   n°   13.587/2017,   foi   orçado   o   valor   de   R$   6.124.276.414,00   para   a  
Câmara   dos   Deputados   e   R$   4.371.375.672,00   para   o   Senado   Federal,   perfazendo   um  
total   de   R$   10.495.652.086   para   o   Poder   Legislativo   (Lei   n°   13.587/2017,   anexo   A02).  
São  R$  10,4  bilhões  para  o  funcionamento  do  Poder  Legislativo,  o  que  equivale  a  R$  17,6  
milhões  por  parlamentar.  Ao  Tribunal  de  Contas  da  União  será  destinado  o  valor  de  R$  
2.172.996.866,00  (Lei  n°  13.587/2017,  anexo  A02).  
O  Ministério  da  Transparência  que  alberga  a  Controladoria-­‐Geral  da  União  tem  
orçamento   de   R$   1.030.098.412,00   para   2018,   segundo   o   anexo   A02   da   Lei   n°  
13.587/2017.    
O   Ministério   Público   da   União   foi   contemplado   com   R$   6.725.510.696,00,  
conforme   o   anexo   A02   da   Lei   n°   13.587/2017.     Tomando   estes   números,   pode-­‐se  
perceber  que  o  volume  total  destinado  aos  órgãos  oficiais  de  fiscalizar  o  orçamento  da  
União   Federal   perfaz   o   valor   de   R$   20.424.258.060,   o   que   representa   0,57%   do  
orçamento  total  da  União.  
Embora   estes   números   tenham   sofrido   sensível   redução   em   relações   aos  
exercícios   passados   face   ao   contingenciamento   de   despesas   do   Governo   Federal,   ainda  
assim   é   possível   perceber   um   volume   expressivo   de   dinheiro   dos   contribuintes  
reservados  para  exatamente  zelar  que  o  orçamento  da  União  seja  bem  executado.  Giza-­‐
se:  a  União  projeta  administrar  R$  3,5  trilhões  de  dinheiro  dos  contribuintes  e  reserva  
para  os  órgãos  de  controle  a  expressiva  quantia  de  R$  20,4  bilhões  de  reais.  Em  termos  
comparativos,   pode-­‐se   perceber   que   o   percentual   destinado   aos   órgãos   de   fiscalização   é  
expressivo   em   relação   ao   orçamento.   Quando   se   analisa   apenas   o   percentual   investido  
(0,571271%),   poder-­‐se-­‐ia   chegar   à   apressada   conclusão   de   que   os   valores   são  
inexpressivos.   No   entanto,   basta   cotejar   com   o   percentual   que   qualquer   sociedade  

3  Dados  obtidos  no  Diário  Oficial  da  União  de  03  de  janeiro  de  2018,  p.  1,  Lei  n°  13.587/2017.  

9
empresária  sólida  investe  em  sua  folha  de  pagamentos  para  se  espantar  com  os  valores  
alocados.   Para   realizar   tal   comparação,   serão   selecionadas   algumas   sociedades  
anônimas   com   ações   cotadas   na   BM&FBOVESPA   (Bolsa   de   Valores,   Mercadorias   e  
Futuros  S.A),  onde  serão  extraídos  os  dados  contábeis  comparativos.  
Considerando   que   a   BM&FBOVESPA   (Bolsa   de   Valores,   Mercadorias   e   Futuros  
S.A.4)   só   disponibilizou   os   relatórios   de   auditoria   e   demonstrações   contábeis   de   2016,  
impõe-­‐se  cotejar  o  paradigma  com  amostras  colhidas  dos  orçamentos  de  2016  de  cada  
um  dos  órgãos  acima  referidos.  
No   ano   de   2016,   o   Congresso   Nacional   aprovou   e   foi   sancionada   a   Lei   n°  
13.255/2015,  publicada  no  Diário  Oficial  da  União  em  15  de  janeiro  de  2016.  Em  2016,  
havia  uma  previsão  de  Receitas  da  ordem  de  R$  R$  3.050.613.438.544,00  (três  trilhões,  
cinquenta   bilhões,   seiscentos   e   treze   milhões,   quatrocentos   e   trinta   e   oito   mil   e  
quinhentos  e  quarenta  e  quatro  reais)  e  fixa  a  despesa  em  igual  valor,  compreendendo,  
nos  termos  do  art.  165,  §  5º,  da  Constituição.    
Na   Lei   Orçamentária   Anual   de   2016,   as   verbas   foram   alocadas   da   seguinte  
forma  entre  os  órgãos  pesquisados:  
 
ÓRGÃO   VALOR  EM  R$  
CÂMARA  DE  DEPUTADOS   5.275.769.027,00  
SENADO  FEDERAL   3.893.751.426,00  
TRIBUNAL  DE  CONTAS  DA  UNIÃO   1.823.143.480,00  
CONTROLADORIA-­‐GERAL  DA  UNIÃO   880.492.490,00  
MINISTÉRIO  PÚBLICO  DA  UNIÃO   5.647.802.963,00  
TOTAL   17.520.959.386,00  
 
Se   for   realizada   a   comparação   entre   o   valor   estimado   de   Receitas   da   União   ()  
com   o   valor   destinado   aos   órgãos   de   fiscalização,   perceber-­‐se-­‐á   que   o   percentual  
dedicado   às   instituições   foi   ligeiramente   maior   em   termos   comparativos,   chegando   ao  
percentual   de   0,574342169%.   Como   as   duas   leis   orçamentárias   anuais   reservavam  
percentual   muito   próximo,   utilizar-­‐se-­‐á   como   coeficiente   de   gasto   em   fiscalização   o  
percentual  de  0,57%.  
 

4  
Site   oficial   da   BM&FBOVESPA   –   Bolsa   deValores,   Mercadorias   e   Futuros   S.A.:  
http://www.bmfbovespa.com.br/pt_br/.    

10
O  leitor  pode  se  estar  perguntando:  é  muito  gastar  0,57%  do  orçamento  para  ter  
certeza  que  o  dinheiro  será  bem  empregado?  Como  já  dito,  impressão  inicial  pode  ser  a  
de   que   0,57%   é   um   valor   insignificante   frente   ao   orçamento   total,   logo,   não   seria   uma  
questão  relevante  a  ser  apreciada.  No  entanto,  para  fazer  um  cotejo  da  alocação  eficiente  
de   valores   investidos,   tomar-­‐se-­‐á   a   comparação   de   grandes   sociedades   anônimas   e   os  
valores   que   cada   uma   delas   investiu   em   encargos   trabalhistas   estampados   em   seus  
balanços  publicados  no  site  oficial  da  BM&FBOVESPA.  
A   escolha   das   companhias   levou   em   consideração   apenas   o   resultado   positivo  
consistente  nos  últimos  anos,  o  que  permite  concluir  que  a  gestão  adotada  por  cada  uma  
das  empresas  utilizadas  como  comparação  é  eficiente.  Escolheu-­‐se  sociedades  de  setores  
distintos  de  atuação  para  tentar  criar  uma  média  ponderada  do  gasto  com  empregados.  
Privilegiou-­‐se  sociedades  de  atividades  fazem  uso  intensivo  de  mão-­‐de-­‐obra,  no  intento  
de   proporcionar   uma   comparação   mais   adequada   com   o   setor   público   que  
essencialmente  presta  serviços.  Apresenta-­‐se  a  tabela  a  seguir:  
 
SOCIEDADE   RECEITA  –  R$   SALÁRIOS   E   PERCENTUA APLICAÇÀO  
ENCARGOS   –   L   DO  
R$   PERCENTUAL  
DA   UNIÃO  
(0,57%)  
ESTÁCIO   3.184.505.000,00   122.461.000,0 3,845527013   18.151.678,50  
PARTICIPAÇÕE 0  
S  S.A.  
LOJAS   RENNER   6.451.578.000,00   136.068.000,0 2,10906541   36.773.994,60  
S.A.   0  
MAGAZINE   9.508.745.000,00    188.390.000,0 3,845527013   18.151.678,50  
LUIZA  S.A.     0  
 
TELEFÔNICA   42.508.459.000,0 376.570.000,0 0,885870739   242.298.216,3
DO  BRASIL  S.A.   0   0   0  
 
A  comparação  entre  a  receita  das  empresas  destacadas  na  amostra  e  os  valores  
investidos   em   encargos   salariais,   demonstra   que   o   valor   total   não   ultrapassa   o  
percentual  de  3,8%,  conforme  verificado  nas  companhias  Estácio  (setor  de  educação)  e  
Maganize  Luiza  (setor  de  varejo).  
Parece   evidente   que   as   empresas   comparadas   conferem   a   alguns   funcionários  
as   atribuições   de   exercer   o   controle   e   elaborar   mecanismos   para   que   as   falhas   e   desvios  
sejam   evitados   ou   pelo   menos   minimizados.   Não   se   consegue   extratificar   quanto   cada  

11
empresa   dispendeu   com   tal   atividade,   de   todo   modo,   comparando   o   percentual   total  
gasto  com  funcionários,  já  é  possível  observar  que  o  gasto  realizado  pela  União  em  órgão  
de  fiscalização  é  comparativamente  alto.  
Na   última   coluna   do   gráfico   aplicou-­‐se   o   percentual   utilizado   pela   União   para  
alocar   verbas   em   órgãos   de   fiscalização.   Verifica-­‐se   que   se   as   empresas   tivessem  
investido  apenas  em  controle  dos  seus  orçamentos  com  o  parâmetro  da  Administração  
Pública   Federal,   teriam   uma   rubrica   equivalente   ao   gasto   total   com   pessoal.   É  
emblemática   a   comparação   com   a   companhia   Telefônica.   Segundo   dados   extraídos   das  
demonstrações  contábeis  disponibilizados  pela  empresa,  investiu-­‐se  R$  376.570.000,00  
em   encargos   trabalhistas   em   2016,   o   que   representou   0,88%   da   Receita   daquele   ano.   Se  
a  Telefônica  utilizasse  o  mesmo  percentual  da  Administração  Pública  Federal  (0,57%),  
teria  desembolsado  o  valor  de  R$  242.298.216,30,  quantia  próxima  do  valor  total  gasto  
com  os  empregados  da  sociedade.  
As   comparações   levadas   a   efeito   permitem   concluir   que   os   valores   investidos  
pela   União   Federal   nos   seus   órgãos   de   controle   é   expressivo   e   se   comparado   com   o  
investimento   de   grandes   companhias   privadas   com   todos   os   seus   empregados,   percebe-­‐
se  uma  alocação  exagerada  de  recursos  humanos  e  financeiros  para  funções  que  podem  
ser  gerenciadas  com  mais  ou  igual  eficiência  com  menos  recursos.  
Pode-­‐se   concluir   previamente   que   o   investimento   da   Administração   Pública  
Federal  nas  instituições  oficiais  de  fiscalização  do  dinheiro  do  contribuinte  é  elevado  em  
comparação   com   sociedades   anônimas   com   porte   expressivo   e   solidez   gerencial.   Logo,   a  
boa   gestão   das   sociedades   privadas   na   está   associada   ao   investimento   expressivo   em  
pessoal   ainda   que   se   tome   o   dado   bruto   de   gasto   total   com   empregados,  
desconsiderando   que   a   parcela   majoritária   destes   não   se   dedica   diretamente   a   gestão  
financeira  das  empresas  pesquisadas.  
 
 
1.2. Exame   das   atribuições   e   o   exame   do   déficit   de   efetividade   do  
controle  institucional  das  contas  públicas.  
 
 
O   sistema   normativo   pátrio   conferiu   a   certas   instituições   as   prerrogativas   de  
fiscalizar   o   dinheiro   dos   contribuintes,   conforme   já   destacado   acima.   No   plano  

12
hipotético,  a  ordem  jurídica  assegurou  que  as  verbas  administradas  pelo  Poder  Público  
fossem   exemplarmente   fiscalizadas,   o   que   tornaria   praticamente   impossível   o  
aparecimento   de   focos   de   corrupção   e   desvio   de   dinheiro   do   orçamento   sem   que   os  
controles   institucionais   percebessem.   Como   ressalvado,   trata-­‐se   apenas   de   cogitação  
hipotética   própria   do   plano   do   “dever-­‐ser”.   Quando   se   perquire   a   fundo   as  
administrações  públicas  (não  importa  o  nível  da  Administração,  não  importa  o  partido  
político  do  governo,  não  faz  diferença  a  região  do  país),  verifica-­‐se  com  uma  frequência  
desalentadora  focos  de  desvio  e  irregularidades.  
Depois   de   realizada   a   análise   dos   valores   investidos   nos   órgãos   oficiais,   cumpre  
agora   examinar   a   produtividade   de   tais   órgãos,   avaliando   os   dados   oficiais  
disponibilizados  nos  sites  oficiais  de  cada  instituição.  
No  exercício  da  função  fiscalizatória  da  Câmara  de  Deputados,  identificou-­‐se  um  
total   de   sete   obras   que   poderiam   apresentar   grave   irregularidade   no   ano   de   2016,  
conforme  gráfico  abaixo:  
 

 
 
O   extrato   apresentado   pela   Câmara   de   Deputados   demonstra   que   a  
produtividade   da   casa   em   matéria   de   fiscalização   do   orçamento   é   tímida,   para   dizer   o  
mínimo.  No  entanto,  a  desídia  dos  parlamentares  fica  estampada  quando  examinada  as  
13
contas  do  Governo  Federal  que  precisam  ser  apreciadas.  Consoante  determina  o  artigo  
49,   IX   da   Constituição,   após   apreciação   do   Tribunal   de   Contas   da   União,   compete   ao  
Congresso  Nacional  julgar  as  contas  prestadas  pelo  Presidente  da  República.  
Segundo   informação   prestada   pela   Câmara   dos   Deputados   não   foram  
examinadas  as  contas  prestadas  pela  Presidente  Dilma  Roussef  em  2014,  2015  e  parcela  
de   2016,   já   que   em   razão   do   processo   de   impeachment,   o   Presidente   Michel   Temer  
prestou   contas   parciais   em   relação   a   2016   que   igualmente   não   foi   apreciado.   Não   se  
trata   de   qualquer   atraso,   o   Congresso   ainda   não   apreciou   as   contas   mais   polêmicas   da  
história   da   República   que   resultaram   no   impedimento   da   Presidente   da   República.   No  
entanto,  causa  perplexidade  verificar  que  o  Congresso  Nacional  não  apreciou  as  contas  
do  Presidente  Fernando  Collor  cujo  mandato  remonta  aos  anos  de  1990  e  19915.    
Não  se  pode  dizer  que  o  Congresso  padece  de  escassez  de  servidores,  quando  se  
observa  que  a  apenas  na  consultoria  de  orçamento,  fiscalização  e  controle,  o  Parlamento  
conta   com     32   servidores6.   Considerando   a   composição   da   Câmara   dos   Deputados   que  
possui  513  parlamentares,  além  dos  assessores  pagos  pelos  contribuintes,  há  um  núcleo  
responsável   pelo   exame   técnico   das   contas,   mas   ao   que   tudo   indica   o   setor   não   teve  
oportunidade  as  contas  da  presidência  da  República  em  2016.  
No  caso  do  Tribunal  de  Contas  da  União,  pode-­‐se  identificar  uma  propensão  da  
Corte   para   a   transparência.   O   Tribunal   de   Contas   disponibiliza   em   seu   site   oficial   um  
relatório   de   anula   de   atividades   do   TCU7.   A   transparência   é   tamanha   que   na   própria  
página   oficial   o   órgão   reconhece   a   sua   lentidão.   Atualmente,   de   acordo   com   dados   do  
Tribunal,  o  prazo  entre  a  ocorrência  do  fato  que  originou  a  chamada  Tomada  de  Contas  
Especial   (TCE)   e   a   primeira   apreciação   conclusiva   pelo   TCU   tem   sido   superior   a   sete  
anos  em   um   em   cada   quatro   casos  (24,68%),   identificando-­‐se  um  prazo  médio  é  de   5,54  
anos.  O  valor  referente  às  TCE  em  aberto  no  TCU  hoje  está  próximo  de  R$  31  bilhões,  o  
que   significa   dizer   que   o   cidadão   poderá   esperar   5,54   anos   para   que   se   tenha   uma  
apreciação  conclusiva  pelo  Tribunal  de  Contas  da  União8.  Por  óbvio  que  este  prazo  não  

5   Relação   apresentada   pela   Câmara   dos   Deputados   em   seu   site   oficial:  


http://www2.camara.leg.br/atividade-­‐legislativa/comissoes/comissoes-­‐mistas/cmo/projetos-­‐de-­‐lei-­‐e-­‐
outras-­‐proposicoes/projetos/proposicoes/contas-­‐do-­‐governo-­‐federal.    
6   Relação   de   servidores   lotados   na   Consultoria   de   orçamentos,   fiscalização   e   controle:  

https://www12.senado.leg.br/institucional/estrutura/orgaosenado?codorgao=1340  
7  Site  do  TCU:  http://portal.tcu.gov.br/transparencia/relatorios/relatorios-­‐de-­‐atividades/.    
8   Dados   obtidos   no   site   do   Tribunal   de   Contas   da   União:  
http://portal.tcu.gov.br/main.jsp?lumPageId=8A95A98A41134B3C014113AF9BDD31BB&previewItemId
=8A8182A25EC59C0F016004867934714E&lumItemId=8A8182A15FFE09C4016003AADB781E15.  

14
repercutirá   em   efetivo   retorno   para   o   cidadão,   pois   os   responsáveis   pela   abertura   do  
TCE   seguramente   irão   recorrer   a   todas   as   esferas   possíveis,   retardando   a   solução   do  
caso.  
Como   os   dados   comparados   neste   estudo   foram   extraídos   do   ano   de   2016,  
decidiu-­‐se  examinar  o  relatório  apenas  deste  ano  por  se  tratar  dos  dados  mais  recentes  
disponíveis  na  rede  mundial  de  computadores9.  O  Relatório  do  ano  de  2016  apresenta  
uma   tabela   que   condensa   as   atividades   da   Corte   nos   últimos   anos,   comparando   os  
resultados   obtidos   e   o   trabalho   realizado.   Chama   a   atenção   a   primeira   linha   da   tabela  
que   faz   referência   a   “benefícios   financeiros”   alcançados   com   a   atuação   do   Tribunal   de  
Contas  da  União.  Vale  reproduzir  a  tabela:  
 
 

9  Relatório   Anual   de   Atividades   do   TCU   referente   ao   ano   de   2016:  


http://portal.tcu.gov.br/lumis/portal/file/fileDownload.jsp?fileId=8A8182A25CB1DD5C015CB27A6FAA
1182.    

15
 
 
Não   se   encontra   qualquer   explicação   sobre   como   o   número   foi   apurado,   nem  
sobre   o   que   se   considera   benefício   financeiro.   Pode-­‐se   especular   que   os   trabalhos  
realizados   pela   Corte   de   Contas   teriam   proporcionado   uma   dissuasão   de   atividade  
irregular  e/ou  recuperação  de  valores  mal  aplicados.  Em  qualquer  circunstância,  o  valor  
apurado  chama  a  atenção.  
Examinando   o   número   de  fiscalizações  realizadas  em  2016,  nota-­‐se  que  foram  
realizadas   628   ações.   Considerando   que   o   ano   de   2016   teve   254   dias   úteis,   o   que  
significa   uma   média   de   2,47   ações   de   fiscalização   por   dia.   Considerando   que   a   corte  
possui   2.582   servidores   ativos,   pode-­‐se   concluir   que   cada   servidor   se   responsabilizou  
por   aproximadamente   0,24   fiscalização.   Pode-­‐se   ainda   dizer   que   cada   ação   de  

16
fiscalização  pode  contar  com  4,11  servidores.  Tomando  os  números  oficiais,  não  se  pode  
considerar  que  a  Corte  de  Contas  usufruiu  de  forma  eficiente  de  seus  recursos  humanos.  
 
A  Controladoria-­‐Geral  da  União  passou  a  integrar  o  Ministério  da  Transparência  
a   partir   da   assunção   do   Presidente   Michel   Temer.   Segundo   dados   disponibilizados   no  
site   oficial   da   CGU,   observou-­‐se   um   aumento   dos   chamados   “benefícios   financeiros”   que  
no  gráfico  abaixo  apresenta  interessante  detalhamento:  
 
Detalhamento  dos  Benefícios  Financeiros  
BENEFÍCIO   201 201 2014   201 2016   201 TOT
FINANCEIRO   2   3   5   7   AL  

Arrecadação   -­‐   R$   -­‐   R$   R$   -­‐   R$  


de  multa  legal   6,5   70,6   1,5   78,6  
ou  prevista  em   milh milh milhõ milh
contrato   ões   ões   es   ões  

Cancelamento   R$   R$   R$   R$   -­‐   -­‐   R$  


de   2,48   835, 394,6   14,3 1.24
Licitação/Cont milh 6   milh 9   7  
rato  com   ões   milh ões   milh bilhõ
objeto   ões   ões   es  
desnecessário,  
inconsistente  
ou  inadequado  
tecnicamente  

Compatibilizaç -­‐   -­‐   -­‐   R$   -­‐   R$   R$  


ão  do  objeto   50,2   271, 50,2
contratado   milh 14   1  
com  as   ões   milh milh
especificações   ões   ões  
ou  com  o  
projeto  

Elevação  de   R$   R$   R$   R$   -­‐   R$   R$  


receita   1,09   4,27   53,63   207, 3,14   1,36  
bilhõ milh milh 4   mihõ bilhõ
es   ões   ões   milh es   es  
ões  

Eliminação  de   -­‐   -­‐   R$   R$   -­‐   R$   R$  


desperdícios   2,02   6,12   1,66   1,66  
ou  redução  de   milh milh bilhõ bilhõ
custos   ões   ões   es   es  

17
administrativo
s  

Incremento  da   R$   -­‐   R$93, -­‐   -­‐   R$   R$  


eficiência,   1,37   99   314, 409,
eficácia  ou   milh milh 4   8  
efetividade  de   ões   ões   milh milh
programa  de   ões   ões  
governo  

Recuperação   R$   R$   R$   R$   R$   R$   R$  
de  valores   230, 98,2 85,14   46,5 204,6   23,7 688,
pagos   1   7   milh 8   milhõ 8   5  
indevidamente   milh milh ões   milh es   milh milh
ões   ões   ões   ões   ões  

Recuperação   -­‐   -­‐   R$   -­‐   R$   R$   R$  


do  custo  de   21,98   1,64   3,36   1,66  
operações  de   milh bilhõ milh bilhõ
crédito   ões   es   ões   es  
subsidiado  

Redução  nos   R$   R$   R$   R$   R$   R$   R$  
valores   3,34   832, 65,25   428, 102,3   49,9 1,48  
licitados/contr milh 6   milh 1   milhõ 4   bilhõ
atados,   ões   milh ões   milh es   milh es  
mantendo  a   ões   ões   ões  
mesma  
quantidade  e  
qualidade  
necessárias  de  
bens  e  serviços  

Suspensão  de   R$   R$   R$   R$   R$   R$   R$  
pagamento   997, 965, 1,05   1,09   915   2,43   7,45  
continuado   19   1   bilhõ bilhõ milhõ bilhõ bilhõ
indevido   milh milh es   es   es   es   es  
ões   ões  

Suspensão  de   -­‐   R$   R$   R$   R$   R$   R$  


pagamento   1,16   5,76   470, 6,78   25,7   6,27  
não   milh bilhõ 5   milhõ milh bilhõ
continuado   ões   es   milh es   ões   es  
indevido   ões  

TOTAL   R$   R$   R$   R$   R$   R$   R$  
2,33   2,74   7,54   2,38   2,87   4,5   22,3
bilh bilh bilhõ bilh milh bilh 8  

18
ões   ões   es   ões   ões   ões   bilh
ões  
*Atualizado  até  Dezembro  de  201710  
 
Segundo   informação   prestada   pela   Controladoria-­‐Geral   da   União,   no   ano   de  
2016   foram   realizadas   53   operações   que   resultaram   na   “recuperação   de   R$   942  
milhões”,  como  se  pode  identificar  no  quadro  apresentado  pelo  órgão:  
 

 
 
As   informações   prestadas   pelo   órgão   não   estão   suficientemente   claras   para   se  
avaliar  como  o  “o  potencial  prejuízo”  foi  mensurado.  Não  se  pode  afirmar  se  os  valores  
são   especulações   sobre   possível   prejuízo   evitado   ou   se   as   cifras   remontam   a   cálculos  
elaborados   pelos   técnicos   do   órgão.   Considerando   o   período   examinado   (2016),   há  

10  
Tabela   apresentada   pela   CGU   em   seu   site   oficial:   http://www.cgu.gov.br/assuntos/auditoria-­‐e-­‐
fiscalizacao/resultados  

19
dúvida  sobre  a  origem  do  valor  encontrado.  Teria  sido  obra  da  atividade  fiscalizadora  do  
órgão  ou  resultado  de  delações  e  acordos  de  leniência  celebrados  pelas  autoridades  no  
âmbito   da   Lava-­‐jato   e   outras   operações   policiais   em   curso?   Estas   informações   não   estão  
expressas  no  relatório  disponibilizado  na  rede  mundial  de  computadores.    
No   entanto,   a   despeito   da   incerteza   sobre   os   números   apresentados   uma  
conclusão   é   possível   extrair:   cotejando   o   orçamento   de   2016   destinado   ao   órgão   que  
correspondia  a  R$  880.492.490,00  com  o  valor  chamado  de  “potencial  prejuízo  apurado”  
equivalente   a   R$   942.272.774,04,   observa-­‐se   que   o   custo   da   manutenção   do   órgão   é  
muito   próximo   do   suposto   “prejuízo   apurado”.   Em   outras   palavras,   se   o   órgão   não  
existisse,  o  prejuízo  do  erário  seria  o  equivalente  a  R$  61.780.284,04,  isto  é,  menos  de  
10%   do   orçamento   destino   à   Controladoria-­‐Geral   da   União.   Se   a   comparação   for  
estabelecida   com   o   orçamento   do   órgão   para   201711,   o   Ministério   da   Transparência  
possuía  a  dotação  orçamentária  de  R$  985.127.148,00.  No  entanto,  o  “prejuízo  potencial  
apurado”   no   mesmo   exercício   foi   de   R$   414.995.699,57.   Estabelecendo   a   mesma   linha  
de  raciocínio,  se  o  órgão  não  existisse  e  admitindo-­‐se  que  nenhum  “prejuízo  potencial”  
fosse  apurado,  chegar-­‐se-­‐ia  a  economia  de  R$  570.131.448,43.  Em  resumo,  pegando-­‐se  o  
orçamento  do  órgão  de  fiscalização  e  cotejando  com  o  “prejuízo  potencial  apurado”  pelo  
próprio  órgão,  pode-­‐se  concluir  que  é  mais  econômico  para  a  população  brasileira  não  
fiscalizar.  
Para   o   leitor   inteligente   e   bem-­‐intencionado   seria   demasiado   esclarecer   que  
jamais  se  objetivou  com  as  comparações  apresentadas  buscar  a  extinção  de  importantes  
órgãos  de  fiscalização.  A  única  intenção  do  estudo  apresentado  consiste  em  demonstrar  
que  a  despeito  do  volume  expressivo  de  dinheiro  dos  contribuintes  investido,  não  se  tem  
debelado   a   corrupção   sistêmica   e   umas   das   explicações   possíveis   é   a   ineficiência   dos  
órgãos  de  fiscalização.  
Feito   o   esclarecimento,   impõe-­‐se,   por   derradeiro,   examinar   a   atuação   do  
Ministério   Público   na   fiscalização   do   dinheiro   gerido   pelo   a   Administração   Pública.  
Como  dito,  não  se  desconhece  o  importante  papel  de  cada  uma  das  instituições  e  talvez  
nenhuma  tenha  ganhado  tanto  destaque  nos  últimos  anos,  quanto  o  Ministério  Público  
Federal,  em  especial,  os  agentes  ministeriais  que  atuam  na  Força-­‐Tarefa  da  Lava-­‐Jato.  

11   Orçamento   previsto   na   Lei   n°   13.414/2017,   publicado   no   Diário   Oficial   da   União   de   11   de   janeiro   de  

2017.  

20
Segundo   informação   extraída   do   site   oficial   do   Ministério   Público   Federal,   em  
matéria   orçamentária,   o   parquet   adotou   1.964   medidas   no   âmbito   extrajudicial   e   110  
medidas  judicias12.  O  número  parece  tímido,  porém  se  analisado  o  relatório  perceber-­‐se-­‐
á   que   a   atuação   em   favor   da   correta   aplicação   do   dinheiro   público   foi   desdobrada   em  
outros  temas  da  seguinte  forma:  
 
  Agentes  Políticos   412  
  Atos  Administrativos   12.514  
  Contratos  Administrativos   101  
  Intervenção  no  Domínio  Econômico   20  
  Licitações   618  
  Orçamento   110  
  Organização  Político-­‐administrativa  /  Administração  Pública   539  
  Responsabilidade  da  Administração   365  
  Responsabilidade  Fiscal   175  
  Serviços   2.57213  
  Total     17.426  
 
A   Procuradoria-­‐Geral   da   República   não   divulga   o   montante   recuperado   ou  
prejuízos   evitados   pela   atuação   de   seus   procuradores.   No   entanto,   uma   comparação   é  
possível   fazer   a   partir   da   mais   rumorosa   operação   sob   a   coordenação   do   Ministério  
Público   Federal.   Segundo   dados   da   operação   Lava-­‐Jato,   foi   possível   recuperar   o   valor   de  
R$   756,9   milhões   e   R$   10,3   bilhões   são   alvo   de   recuperação   (espera-­‐se   recuperar)14.   No  
entanto,  apenas  com  a  intervenção  do  Departamento  de  Justiça  dos  Estados  Unidos  e  as  
class   actions   instauradas   naquele   país   por   parte   dos   acionistas   lesados,   foi   celebrado   em  
um   único   acordo   o   valor   de   US$   2.95   bilhões   ou   aproximadamente   R$   9,6   bilhões15.  

12   Informação   obtida   no   site   oficial   do   MPF:  


http://aplicativos.pgr.mpf.mp.br/mapas/mpf/atuacao/?UID=1450302025.    
13   Informação   disponibilizada   no   site   do   MPF:  
http://aplicativos.pgr.mpf.mp.br/mapas/mpf/atuacao/?UID=1450302025  
14   Informação   disponível   no   site:   http://www.mpf.mp.br/para-­‐o-­‐cidadao/caso-­‐lava-­‐jato/atuacao-­‐na-­‐1a-­‐

instancia/parana/resultado  
15  A  notícia  foi  amplamente  divulgada  pela  mídia  brasileira.  Apenas  a  título  ilustrativo,  indicação  a  fonte  

dos   dados   extraído   do   jornal   El   pais:  


https://brasil.elpais.com/brasil/2018/01/09/economia/1515510046_487435.html   e   no   Consultor  
Jurídico  (Conjur):  https://www.conjur.com.br/2018-­‐jan-­‐04/acordo-­‐bilionario-­‐petrobras-­‐eua-­‐nao-­‐repetir-­‐
brasil  

21
Equivale  a  dizer  que  o  resultado  das  instituições  americanas  em  apenas  uma  parcela  da  
corrupção   descoberta   pela   Lava-­‐Jato   é   12,6   vezes   maior   que   o   resultado   apresentado   no  
hot-­‐site  da  força  tarefa  da  Lava-­‐Jato.  
Não   é   demasiado   repetir   que   não   se   está   retirando   a   importância   dos   órgãos,  
muito   menos   dos   trabalhos   desenvolvidos   até   o   presente   momento   e   que   pouparam   o  
cidadão   brasileiro   de   sofrer   maior   espoliação   de   grupos   criminosos.   A   proposta   da  
investigação   é   avaliar   a   eficiência   dos   órgãos   de   controle   e   por   todos   os   motivos   já  
apresentados,   as   instituições   fiscalizatórias   estão   longe   de   um   nível   de   excelência  
esperado  com  o  valor  investido  até  o  momento.  
 
 
2. A  transparência  e  o  controle  orçamentário  pelo  cidadão.  
 
 
No   início   do   texto,   demonstrou-­‐se   que   o   texto   constitucional   adota   uma   posição  
muito   clara   de   valorização   do   cidadão,   elevando-­‐o   a   uma   posição   de   destaque   na  
constituição  e  legitimação  do  poder.  Pela  imbricação  das  normas  constitucionais  acima  
identificadas   é   possível   afirmar   com   precisão   que   o   poder   emana   do   povo   e   este   elege  
seus  representantes  e  fiscaliza  o  exercício  dos  mandatos.  Não  por  outro  motivo  é  que  a  
Constituição   assegura   ao   cidadão   a   prerrogativa   de   oferecer   denúncia   perante   o  
Tribunal  de  Contas  da  União  (art.  74,  §2°,  CRFB).  
No   entanto,   a   participação   do   cidadão   na   administração   dos   bens   públicos  
depende   essencialmente   da   facilitação   do   acesso   aos   dados,   documentos   e   peças  
orçamentárias,   pois   é   o   cidadão   o   verdadeiro   “dono”   do   dinheiro   administrado   pelos  
gestores   eleitos.   Logo,   o   princípio   da   publicidade   da   Administração   Pública   (art.   37,  
CRFB)  consubstancia-­‐se  no  princípio  constitucional  capaz  de  determinar,  como  diretriz  
geral,   a   transparência   dos   atos   da   Administração   Pública   e,   sobretudo,   da   gestão  
orçamentária   (LIMBERGER,   2017).   Assim,   de   1988   até   hoje,   tem-­‐se   notado   uma  
preocupação   das   administrações   em   tornar   público   os   orçamentos   de   suas   gestões.  
Imbuído   neste   espírito,   estimulou-­‐se   o   cidadão   a   acompanhar   de   perto   a   elaboração   e  
execução   dos   orçamentos,   incentivados   e   promovidos   das   mais   diversas   formas,   como  
por   exemplo,   a   publicação   das   contas   na   sede   da   administração,   a   divulgação   pela   mídia  
impressa,  radiofônica  ou  televisiva  e,  mais  recentemente,  pela  internet.  

22
Assim,  depreende-­‐se  que  uma  característica  marcante  da  transparência  fiscal  é  
a   disponibilização   das   informações   orçamentárias   ao   público   (LIMBERGER,   2008).   A  
ideia   é   tão   basilar   que   foi   objeto   de   discussão   das   reuniões   temáticas   do   Fundo  
Monetário   Internacional,   culminando   com   a   elaboração   do   Código   de   Boas   Práticas   para  
a   Transparência   Fiscal16.   No   instrumento,   fica   ressaltado   que   as   informações   fiscais  
devem   esclarecer   o   público   sobre   as   atividades   orçamentárias   já   realizadas,   as   em   curso  
e   aquelas   que   ainda   serão   praticadas.   Hodiernamente,   a   forma   mais   eficaz   de   tornar  
pública  as  informações  e  democratizar  o  acesso  a  elas  é  através  dos  meios  eletrônicos,  
em  especial  pela  internet.    
Não   menos   importante   neste   contexto   foi   o   advento   da   Lei   de   Responsabilidade  
Fiscal,   que,   pela   primeira   vez   preceituou   a   utilização   de   meios   eletrônicos   para   tornar  
público  os  planos  orçamentários-­‐financeiros17.  A  disposição  legal  mostrou-­‐se  inovadora,  
na   medida   em   que   o   ordenamento   jurídico   não   dispunha   de   mandamento   legal  
semelhante.  Apesar  de  já  existirem,  à  época,  iniciativas  do  Poder  Público  no  sentido  de  
tornar  pública  as  atividades  fiscais  através  da  Internet,  é  inegável  o  papel  incentivador  
da   lei.   Incontinenti,   foi   editada   a   Lei   nº   9.755   de   16   de   dezembro   de   1998,   que  
determinou   a   criação   de   uma   “home-­‐page”   para   o   Tribunal   de   Contas   da   União   e,   de  
forma   destacada,   passou   a   atender   preceito   constitucional   e   vertido   na   legislação  
ordinária18.  A  partir  desses  instrumentos  normativos,  houve  uma  disseminação  de  sites  
governamentais   que   paulatinamente   foram   disponibilizando   informações   sobre   as  
contas   públicas,   o   que,   sem   sombra   de   dúvida,   confere   uma   maior   confiabilidade   na  
administração  e,  ao  mesmo  tempo,  fortalece  a  democracia.  
A   transparência   prevista   pela   Lei   de   Responsabilidade   Fiscal   afina-­‐se   com   as  
modificações  estruturais  introduzidas  pela  Emenda  Constitucional  no  19/98,  que  versou  
sobre   a   reforma   administrativa,   pela   qual   se   criou   o   direito   do   usuário,   visando,   por  
exemplo,  a  prevenção  dos  riscos  orçamentários.  Diz  a  Lei  de  Responsabilidade  Fiscal  em  
seu  art.  48  que:  
 

16   O   Fundo   Monetário   Internacional   elaborou   uma   cartilha,   elencando   boas   práticas   e   medidas   basilares  

para   se   alcançar   um   bom   nível   de   transparência.   Documento   disponível   na   íntegra   no   site:  


https://www.imf.org/external/np/fad/trans/por/ft-­‐codep.pdf  
17   Quando   o   legislador,   através   do   retrocitado   art.   48   da   LRF,   valeu-­‐se   da   expressão   ‘inclusive’,   quis   incluir  

uma   outra   forma   de   divulgação   e   publicização   das   informações   que   não   a   convencional.   Portanto,  
entende-­‐se   que   os   meios   eletrônicos   são   uma   categoria   a   mais   na   forma   de   publicação   das   informações  
fiscais,  além  daqueles  anteriormente  previstas.  
18  V.  sobre  o  tema  o  site:  www.contaspublicas.com.br.  

23
“Art.   48.   São   instrumentos   de   transparência   da   gestão   fiscal,   aos  
quais   será   dada   ampla   divulgação,   inclusive   em   meios   eletrônicos  
de   acesso   público:   os   planos,   orçamentos   e   leis   de   diretrizes  
orçamentárias;   as   prestações   de   contas   e   o   respectivo   parecer  
prévio;   o   Relatório   Resumido   da   Execução   Orçamentária   e   o  
Relatório   de   Gestão   Fiscal;   e   as   versões   simplificadas   desses  
documentos.  
Parágrafo   único.   A   transparência   será   assegurada   também  
mediante   incentivo   à   participação   popular   e   realização   de  
audiências   públicas,   durante   os   processos   de   elaboração   e   de  
discussão  dos  planos,  lei  de  diretrizes  orçamentárias  e  orçamentos.”  
 
A   redação   do   artigo   desempenha   a   representação   essencial   dos   objetivos  
inspiradores   da   lei,   naquilo   que   ela   possui   de   mais   inovador.   Para   o   alcance   e  
manutenção   do   equilíbrio   fiscal   funda-­‐se   a   ideia   de   que   a   transparência   auxilia   no  
controle   e   fiscalização   da   distribuição   de   recursos   pelas   dotações   orçamentárias.     A  
transparência   é   o   fio   condutor   entre   o   equilíbrio   fiscal   (objetivo)   e   o   planejamento  
(operação),  como  meio  mais  seguro  de  auxílio  ao  controle  da  gestão  fiscal.  
Portanto,   não   se   pode   conceber   que   na   segunda   década   do   século   XXI   ainda  
existam   entes   federados   opacos   ou   com   pouca   informação   disponível   aos   cidadãos.   De  
outro  lado,  igualmente  não  se  pode  admitir  que  cidadãos  se  quedem  inertes  frente  aos  
instrumentos   e   mecanismos   colocados   à   sua   disposição   para   debelar   o   mal   uso   da  
máquina   pública.   Algumas   explicações   podem   ser   apresentadas   para   a   letargia   do  
cidadão  brasileiro.  
 
 
2.1.  O  equivocado  conceito  de  “dinheiro  público”.  Problemas  conceitual  a  
ser  superado.  
 
 
Margaret   Thatcher,   Primeira-­‐Ministra   britânica   entre   os   anos   de   1979   a   1990,  
proferiu  um  célebre  discurso,  cujo  excerto  merece  ser  transcrito  para  esclarecer  o  ponto  
suscitado19:  
 

19  Discurso   disponível   na   íntegra   no   site   da   Fundação   Margaret   Thatcher:  


https://www.margaretthatcher.org/document/105454  

24
“One  of  the  great  debates  of  our  time  is  about  how  much  of  your  
money   should   be   spent   by   the   State   and   how   much   you   should  
keep  to  spend  on  your  family.  Let  us  never  forget  this  fundamental  
truth:  the  State  has  no  source  of  money  other  than  money  which  
people   earn   themselves.   If   the   State   wishes   to   spend   more   it   can  
do  so  only  by  borrowing  your  savings  or  by  taxing  you  more.  It  is  
no  good  thinking  that  someone  else  will  pay—that  “someone  else”  
is   you.   There   is   no   such   thing   as   public   money;   there   is   only  
taxpayers'  Money”.  
 
Segundo  as  palavras  da  Dama  de  Ferro,  “não  existe  esse  negócio  de  dinheiro  público:  
só   existe   o   dinheiro   dos   contribuintes”.   Não   por   acaso,   este   texto   jamais   utilizou   a  
expressão  dinheiro  público.  Esta  observação  pode  parecer  puramente  semântica,  mas  a  
possível   explicação   para   a   indiferença   do   povo   brasileiro   com   a   má   aplicação   do  
dinheiro  dos  contribuintes  pode  ser  explicada  com  a  incorreta  ideia  de  que  há  dinheiro  
público  e  dinheiro  privado.  
Como  dito  por  Margaret  Thatcher,  o  Estado  não  possui  outra  fonte  de  receita  além  da  
expropriação   do   dinheiro   do   cidadão   por   meio   da   tributação   ou   outros   artifícios   nada  
republicanos  como  retirar  da  sociedade  por  meio  da  furtiva  justificativa  de  assegurar  ao  
trabalhador   o   Fundo   de   Garantia   por   Tempo   de   Serviço   (FGTS).   Pode-­‐se   afirmar,  
portanto,   que   não   existe   dinheiro   público.   Existe   dinheiro   do   contribuinte   que  
momentaneamente  está  sob  a  administração  do  Estado  e  deve  ser  usado  da  forma  mais  
eficiente  e  inteligente  possível  para  maximizar  a  satisfação  do  cidadão.  
A   falácia   de   divisar   o   dinheiro   público   e   o   dinheiro   privado   só   tem   servido  para   criar  
um  distanciamento  e  uma  indiferença  por  parte  do  cidadão  brasileiro  que  se  choca  com  
os   recorrentes   escândalos   de   corrupção,   mas   alenta-­‐se   na   equivocada   ideia   que   o  
dinheiro  desviado  é  público  e  não  o  seu.  
 A   lição   do   prêmio   nobel   de   economia,   Milton   Friedman,   sobre   as   formas   de   gastar  
dinheiro  é  esclarecedora.  Em  entrevista  concedida  para  a  rede  de  televisão  Fox  News  em  
maio   de   2004,   o   economista   afirmou   que   existe   quatro   formas   de   se   gastar   o   dinheiro.   É  
possível  gastar  o  seu  dinheiro  consigo  mesmo.  Neste  caso,  você  buscará  buscar  a  melhor  
alocação  possível,  gastando  o  mínimo  e  esperando  receber  o  máximo.  A  segunda  forma  é  
você  gastar  o  seu  dinheiro  em  favor  de  outra  pessoa.  Neste  caso,  você  não  se  preocupará  
muito  com  a  qualidade,  mas  será  zeloso  com  com  o  custo.  Uma  terceira  forma  de  gastar  
dinheiro  é  utilizar  a  quantia  de  alguém  consigo  mesmo.  Neste  caso,  é  muito  provável  que  
o   cuidado   com   o   custo   não   seja   prioridade,   mas   a   qualidade   do   gasto   certamente   será.  

25
Por   fim,   é   possível   gastar   o   dinheiro   de   alguém   em   favor   de   um   terceiro.   Nesta   hipótese,  
a   preocupação   em   economizar   e   em   obter   o   melhor   resultado   não   serão,   via   de   regra,  
preocupações   daquele   encarregado   de   aplicar   o   dinheiro.   Na   entrevista,   Milton  
Friedman   conclui,   dizendo   que   o   último   caso   corresponde   ao   governo   que,   no   caso   do  
Brasil,   apropria-­‐se   de   32,38%   do   produto   interno   bruto   e   gasta   mal   o   dinheiro  
administrado20.  
Dessa  forma,  é  preciso  por  fim  à  infeliz  expressão  “dinheiro  público”  e  conscientizar  
a  população  que  o  dinheiro  sob  a  gestão  estatal  é  dinheiro  dos  contribuintes  e  que  deve  
ser   aplicado   da   forma   mais   eficiente   possível,   consoante   preconiza   o   artigo   37   da  
Constituição.  
 
 
2.2. O   exercício   da   cidadania   no   controle   das   contas   públicas   e   os   casos  
bem-­‐sucedidos   de   fiscalização:   o   uso   da   inteligência   artificial   em   prol   do  
controle  orçamentário.  
 
 
Buscando   dar   efetividade   aos   dispositivos   constitucionais   e  infraconstitucionais  
acima  elencados,  o  Tribunal  de  Constas  da  União  elaborou  uma  cartilha  de  orientações  
ao   cidadão   para   que   ele   possa   desempenhar   adequadamente   a   fiscalização   do   seu  
dinheiro21.  
Como   destacado   acima,   é   preciso   elevar   o   cidadão   para   o   patamar   que   a  
Constituição   lhe   reservou,   assegurando   todas   as   prerrogativas   inerentes   ao   exercício   da  
cidadania.  A  transparência  e  o  livre  acesso  à  informação  são  instrumentos  eficientes  de  
promoção  da  participação  do  cidadão  na  Administração  Pública.  
Dois   exemplos   bem-­‐sucedidos   de   fiscalização   popular   do   orçamento   podem  
servir  de  estímulo  e  alento  para  aqueles  que  já  perderam  a  esperança  de  um  país  mais  
honesto.  Um  caso  de  sucesso  é  a  chamada  “Operação  Política  Supervisionada”  (OPS)  que  
dedicou-­‐se  a  fiscalizar  de  forma  detalhada  os  gastos  realizados  pelos  parlamentares  do  

20   A   carga   tributária   acima   referida   foi   publicada   pela   Receita   Federal   em   seu   site   oficial:  
http://idg.receita.fazenda.gov.br/noticias/ascom/2017/dezembro/carga-­‐tributaria-­‐bruta-­‐atingiu-­‐32-­‐38-­‐
do-­‐pib-­‐em-­‐2016  
21   O   site   do   Tribunal   de   Contas   da   União   disponibiliza   a   Carta   de   Serviços   ao   Controle   Social:  

http://portal.tcu.gov.br/main.jsp?lumPageId=8A8182A24ED12B19014ED646CE5E1FC0&previewItemId
=8A8182A2602338900160373ADD0C513F&lumItemId=8A8182A2602338900160374553726736  

26
Congresso   Nacional.   Segundo   informação   prestada   pela   organização,   já   foi   possível  
economizar  mais  de  R$  5,5  milhões  de  dinheiro  dos  contribuintes22.  Trata-­‐se  de  um  blog  
lançado  na  rede  mundial  de  computadores  que  recebe  denúncias  de  qualquer  pessoa  e  
confronta   os   dados   com   as   informações   prestadas   pelo   Congresso   Nacional   na   rubrica  
denominada  Cota  para  Exercício  da  Atividade  Parlamentar  (CEAP).  Com  um  mecanismo  
colaborativo  e  uma  ferramenta  que  utiliza  a  tecnologia  da  informação  por  meio  de  um  
código   fonte   disponível   para   qualquer   indivíduo   que   deseje   acessar   e   aperfeiçoá-­‐lo,   o  
movimento  tem  obtido  resultado  expressivo  sem  qualquer  investimento  estatal.  
Pode-­‐se  identificar  um  movimento  interessante  que  está  surgindo  na  sociedade,  
envolvendo   jovens   cidadãos   com   elevada   capacidade   criativa   e   domínio   de   novas  
tecnologias   para   fazer   com   poucos   recursos   o   trabalho   que   demandaria   o   esforço   de  
inúmeros   servidores   públicos.   O   domínio   de   Data   Science,   Machine   Learning,   Big   Data,  
Inteligência   Artificial,   Neural   Networks,   Data   Mining   são   vários   termos   para   designar  
tecnologias   diferentes   para   o   tipo   de   combate   à   corrupção   brasileira   que   tem   se  
verificado  recentemente.  
Sobre   o   tema,   é   interessante   apresentar   o   segundo   caso   de   fiscalização   eficiente  
conduzida  por  um  grupo  de  jovens  criativos.  Trata-­‐se  da  “Operação  Serenata  de  Amor”,  
um  projeto  desenvolvido  originalmente  pelo  cientista  de  dados  Irio  Musskopf  e  depois  
acompanhado  por  mais  pessoas.  O  projeto  surgiu  ao  perceber  que  ainda  existiam  muitas  
brechas  no  uso  de  tecnologia  para  fiscalizar  gastos  de  parlamentares.  Criou-­‐se  a  partir  
de   ferramentas   de   inteligência   artificial,   um   robô   chamado   “Rosie”,   cuja   programação  
permite  analisar  cada  pedido  de  reembolso  dos  deputados  e  identificar  a  probabilidade  
de  ilegalidade23.  Segundo  relatório  apresentado  pelo  projeto,  foi  captado  o  valor  inicial  
de   R$   80.424,0024.   Para   efeitos   de   comparação,   a   Câmara   dos   Deputados   realizou   a  
licitação  pela  modalidade  pregão  eletrônico  que  resultou  na  contratação  de  um  software  
no  valor  de  R$  1.780.000,0025.  
O   projeto   contabiliza   629   denúncias   formalizadas,   envolvendo   216   deputados,  
representando   o   questionamento   de   R$   378.000,00.   Depois   de   mais   de   8.000   casos   de  

22  Dado  obtido  no  site:  https://ops.net.br/#!/sobre.    


23  Site  oficial  do  projeto:  https://serenatadeamor.org/.  
24   Relatório   apresentado   pelo   Projeto   Serenata   de   Amor:   https://medium.com/data-­‐science-­‐brigade/a-­‐

%C3%BAltima-­‐serenata-­‐c538f145c2f3  
25  
Informação   disponível   no   relatório   da   Câmara   dos   Deputados:   http://www2.camara.leg.br/a-­‐
camara/estruturaadm/gestao-­‐na-­‐camara-­‐dos-­‐deputados/contas-­‐da-­‐camara/ano-­‐de-­‐2015/relatorio-­‐de-­‐
gestao-­‐2015  

27
suspeitas,   cujo   valor   ultrapassa   a   cifra   de   R$   2   milhões,   muitas   irregularidades   foram  
espontaneamente  corrigidas  pelos  parlamentares,  conforme  documentam  os  relatórios  
do  projeto26.  
O   uso   da   inteligência   artificial   e   do   que   vem   a   ser   chamado   de   “machine  
learning”   como   no   caso   da   robô   Rosie   é   o   futuro   descortinando   esperança   para   um  
controle   eficiente   do   gasto   público.   A   tecnologia   empregada   vale-­‐se   de   um   algorítimo  
capaz  de  descobrir  sozinho  padrões  e  se  tornar  “mais  inteligente”  a  ponto  de  poder  fazer  
previsões  (COGLIANESE,  Cary  e  LEHR,  2017).  
As   aplicações   da   inteligência   artificial   e   da   machine   learning   são   múltiplas   e  
estão   sendo   aplicadas   nos   Estados   Unidos,   consoante   relatam   os   professores   Coglianese  
e  Lehr  em  estudo  que  aborda  a  utilização  da  tecnologia  nas  agências  norte-­‐americanas  
(COGLIANESE,  Cary  e  LEHR,  2017),  chegando-­‐se  a  afirmar  que  não  se  controverte  mais  
sobre   a   aplicação   ou   não   da   tecnologia.   No   contexto   norte-­‐americano   discute-­‐se   se   a  
utilização   intensiva   da   inteligência   artificial   poderia   conflitar   com   institutos   caros   do  
Administrative   law,   como:   non   delegation,   due   process,   non   discrimination   e,   por   mais  
curioso   que   possa   parecer,   transparência   (COGLIANESE,   Cary   e   LEHR,   2017).   Isso  
porque   a   tomada   de   algumas   decisões   delegadas   para   as   máquinas   poderia   suscitar   a  
opacidade  das  decisões  e  um  retrocesso  do  ponto  de  vista  democrático.  
Portanto,   a   participação   da   sociedade   e   o   uso   intensivo   da   tecnologia   podem  
representar   uma   alternativa   para   o   combate   a   uma   praga   que   dizima   vidas,   sonega  
oportunidades  e  retira  do  cidadão  a  capacidade  de  sonhar  com  um  futuro  melhor  que  é  a  
corrupção.   Por   meio   de   tecnologias   hoje   disponíveis   é   possível   realizar   o   trabalho   de  
muitos  servidores  que  levaria  anos  em  poucos  minutos  e  a  um  custo  baixíssimo.  Basta  
que  se  tenha  capacidade  de  articulação  e  indignação.  
 
 
Conclusões  
 
 
Como   se   pretendeu   deixar   claro   desde   os   primeiros   parágrafos   do   ensaio,   a  
pesquisa  jamais  teve  a  intenção  de  negar  a  importância  e  o  papel  dos  órgãos  oficias  de  

26  Neste  relatório,  são  apresentados  os  casos  em  que  os  parlamentares  se  desculparam  e  informaram  que  

promoveriam   o   ressarcimento   dos   valores   irregularmente   gastos:   https://medium.com/data-­‐science-­‐


brigade/relat%C3%B3rio-­‐mensal-­‐da-­‐opera%C3%A7%C3%A3o-­‐serenata-­‐de-­‐amor-­‐009-­‐8833813d5a72  

28
fiscalização   mencionados   no   texto.   A   importância   e   o   papel   de   cada   instituição   estão  
definidos   pela   Constituição   que   por   tão   somente   possuir   status   constitucional   já   serve  
de  reconhecimento  da  relevância  no  ordenamento  jurídico  brasileiro.  
No  entanto,  a  pesquisa  procura,  de  forma  provocativa,  questionar  a  eficiência  do  
gasto  estatal  em  fiscalização  do  dinheiro  dos  contribuintes  motivado  especialmente  pela  
profusão   de   escândalos   e   casos   de   corrupção   que   aparecem   com   cada   vez   mais  
frequência.    
Diante  das  tecnologias  disponíveis  da  velocidade  que  as  inovações  surgem,  não  
se   pode   imaginar   que   os   órgãos   oficiais   sejam   capazes   de   resolver   sozinhos   os  
problemas   de   um   país   continental   como   o   Brasil.   Dessa   forma,   o   uso   coordenado   de  
tecnologias   disruptivas   com   o   apoio   dos   poderes   institucionalmente   legitimados   pode  
ser   a   chave   para   se   alcançar   maior   eficiência   na   fiscalização   do   dinheiro   dos  
contribuintes.  
Dessa  forma,  acredita-­‐se  que  as  verbas  alocadas  no  orçamento  da  União  para  os  
órgãos  encarregados  de  fiscalizar  o  uso  e  destino  do  dinheiro  sob  a  gestão  estatal  podem  
ser   melhor   utilizadas   quanto   maior   for   o   investimento   em   tecnologia   da   informação.  
Dentre   os   dados   cotejados   no   artigo   pode-­‐se   reproduzir   a   comparação   entre   o  
orçamento   do   projeto   Serenata   de   Amor   que   foi   desenvolvido   com   R$   80.000,00,  
enquanto  que  a  Câmara  dos  Deputados  licitou  um  software  desembolsando  a  quantia  de  
R$  1.780.000,00.    
Este   exemplo   ilustra   com   exatidão   a   provocação   lançada   no   estudo   e   que   se  
espera  repercuta  e  alcance  muitos  cidadãos  ciosos  de  seu  dever.  
 
   
Bibliografia  
 
 
AIROLDI,  Cléia  Juçara;  SILVEIRA,  Maria  Aparecida  Cardoso  da.  A  transparência  na  gestão  
pública   como   instrumento   de   controle   social.   Revista   Eletrônica   de   Ciências   Contábeis,  
ISSN   2357-­‐9080,   Taquara,   n.6.,   p.   73.   2015.   Disponível   em:   <  
https://seer.faccat.br/index.php/contabeis/article/view/165/144>.  Acesso  em:  24  out.  
2017.  

29
BARBOSA,   Sandra   Pires.   Direito   à   Informação   e   Controle   social   da   atividade   econômica.  
Revista   de   Direito   Administrativo,   Rio   de   Janeiro,   v.   225,   p.   70,   jul.   2001.   ISSN   2238-­‐
5177.   Disponível   em:  
<http://bibliotecadigital.fgv.br/ojs/index.php/rda/article/view/47565/44779>.   Acesso  
em:  03  out.  2017.  
BENTO,   Leonardo   Valles.   Acesso   a   informações   públicas:   princípios   internacionais   e   o  
direito  brasileiro.  Curitiba:  Juruá,  2015.  
BROWN,   Liz   e   SILVER-­‐BALBUS,   Shayla.   A   Triumph   for   a   Transparent   and   Accountable  
Government:   MacLean's   Place   in   the   History   of   Whistleblower   Protection   Law.   19   Emp.  
Rts.  &  Emp.  Pol'y  J.  189  (2015).  
CAMPOS,  Anna  Maria.  Accountability:  Quando  poderemos  traduzi-­‐la  para  o  português?  In:  
Revista  da  Administração  Pública.  Rio  de  Janeiro.  v.  24,  n.  2,  p.  30-­‐50,  1990.  
COGLIANESE,   Cary   e   LEHR,   David.   Improving     the   Administrative   State   with   Machine  
Learning.  Administrative  &  Regulatory  Law  News.  Summer  2017,  Vol.  42,  Issue  4,  p.7-­‐9.  
COGLIANESE,  Cary  e  LEHR,  David.  Regulating  by  Robot:  Administrative  Decision  Making  
in   the   Machine-­‐Learning   Era.   Faculty   Scholarship.   1734.   Texto   disponível   em:  
http://scholarship.law.upenn.edu/faculty_scholarship/1734  
FIGUEIREDO,  Vanuza  da  Silva;  SANTOS,  Waldir  Jorge  Ladeira  dos  Santos.  Transparência  
e  controle  social  na  administração  pública.  Revista  Temas  de  Administração  Pública,  ISSN  
1982-­‐4637,   São   Paulo,   v.8,   n.1.   2013.   Disponível   em:   <  
http://seer.fclar.unesp.br/temasadm/article/view/6327/4715>.   Acesso   em:   18   out.  
2017.  
FREITAS,   Juarez;   TEIXEIRA,   Anderson   Vichinkeski.   Direito   à   democracia:   ensaios  
transdisciplinares.  São  Paulo:  Conceito  Editorial,  2011.  p.  12.  
JOHNSON,   Peter.   Legislative   knowledge   base   systems   for   public   administration:   some  
practical   issues.   In:   ICAIL   '91   Proceedings   of   the   3rd   international   conference   on  
Artificial  intelligence  and  law,  p.  108-­‐117.  
LIMBERGER,   Têmis.   Cibertransparência.   Informação   pública   em   rede   e   a   concretização  
dos  direitos  sociais:  a  experiência  dos  municípios  gaúchos.  Revista  Quaestio  Iuris,  Rio  de  
Janeiro,   v.   08,   n.   04,   p.   2658,   2015.   Disponível   em:   <http://www.e-­‐
publicacoes.uerj.br/index.php/quaestioiuris/article/view/20942/15321>.     Acesso   em:  
15  set.  2017.  

30
LIMBERGER,   Têmis.   Transparência   administrativa   e   novas   tecnologias:   o   dever   de  
publicidade,   o   direito   a   ser   informado   e   o   princípio   democrático.   Revista   do   Ministério  
Público   do   RS,   Porto   Alegre,   n.   60,   p.   60,   ago./2007/abr./2008.   Disponível   em:  
<http://www.amprs.com.br/public/arquivos/revista_artigo/arquivo_1246468989.pdf>
.  Acesso  em:  26  set.  2017.  
MARTINS  JÚNIOR,  Wallace  Paiva.  Transparência  administrativa:  publicidade,  motivação  e  
participação  popular.  São  Paulo:  Saraiva,  2004.  p.  37.  
MENDES,  Gilmar  Ferreira;  BRANCO,  Paulo  Gustavo  Gonet.  Curso  de  direito  constitucional.  
10.  ed.  rev.  e  atual,  São  Paulo:  Saraiva,  2015.  
PORTO,  Éderson  Garin;  CASTRO,  Fabio  Caprio  Leite  de.  A  lei  de  responsabilidade  fiscal  e  
os  meios  eletrônicos  como  forma  de  promoção  da  transparência  fiscal  na  gestão  pública.  
Revista   Jus   Navigandi,   ISSN   1518-­‐4862,   Teresina,   ano   11,   n.   1080,   16   jun.   2006.  
Disponível  em:  <https://jus.com.br/artigos/8533>.  Acesso  em:  24  out.  2017.  
QUINTANA,   Alexandre   Costa;   JACQUES,   Flávia   Verônica;   MACAGNAN,   Clea   Beatriz.  
Transparência:  instrumento  para  governança  pública  no  Brasil.  Porto  Alegre:  Entremeios,  
2013.    
SALES,  Tainah  Simões;  MARTINS,  Ana  Laís  Pinto.  Planejamento,  transparência,  controle  
social   e   responsabilidade   na   administração   pública   após   o   advento   da   lei   de  
responsabilidade   fiscal.   NOMOS:   Revista   do   Programa   de   Pós-­‐Graduação   em   Direito   da  
UFC,   ISSN   1807-­‐3840,   Fortaleza,   v.   34,   n.   1,   p.   249.   2014.   Disponível   em:   <  
http://www.repositorio.ufc.br/handle/riufc/12033>.  Acesso  em:  24  out.  2017.  
SILVEIRA,   Maria   Aparecida   Cardoso   da;   TEIXEIRA,   Anderson   Vichinkeski.  
Responsabilidade   fiscal   do   administrador   público:   transparência,   controle   e   fiscalização.  
Florianópolis:  Conceito  Editorial,  2009.  p.  40  e  44.  
SNELLEN,  I.  Th.  M.  E  Van  de  DONK,  W.B.H.J.  Public  Administration  in  a  Information  Age.  
Amsterdã:  IOS  Press,  1998.  
WIIG,   Karl   M.   Knowledge   management   in   public   administration.   In:   Journal   of   Knowledge  
Management,  Vol.  6  Issue:  3,  p.  224-­‐239.  

31

Você também pode gostar