Escolar Documentos
Profissional Documentos
Cultura Documentos
com
RESUMO
Legislação da UE em andamento
A Comissão Europeia apresentou uma proposta de quadro regulamentar da UE para a inteligência artificial (IA)
em abril de 2021. O projeto de lei sobre IA é a primeira tentativa de promulgar uma regulamentação horizontal
para a IA. O quadro jurídico proposto centra-se na utilização específica de sistemas de IA e nos riscos associados.
A Comissão propõe estabelecer uma definição tecnologicamente neutra dos sistemas de IA no direito da UE e
estabelecer uma classificação para os sistemas de IA com diferentes requisitos e obrigações adaptados a uma
«abordagem baseada no risco». Alguns sistemas de IA que apresentam riscos «inaceitáveis» seriam proibidos.
Uma vasta gama de sistemas de IA de «alto risco» seria autorizada, mas sujeita a um conjunto de requisitos e
obrigações para obter acesso ao mercado da UE. Os sistemas de IA que apresentem apenas «risco limitado»
estariam sujeitos a obrigações de transparência muito leves. O Conselho definiu a posição geral dos Estados-
Membros da UE em dezembro de 2021. O Parlamento votou a sua posição em junho de 2023. Os legisladores da
UE estão agora a iniciar negociações para finalizar a nova legislação, com alterações substanciais à proposta da
Comissão, incluindo a revisão da definição de sistemas de IA, ampliar a lista de sistemas de IA proibidos e impor
obrigações à IA de uso geral e aos modelos de IA generativos, como o ChatGPT.
Proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria
de inteligência artificial (lei sobre inteligência artificial) e que altera determinados atos legislativos da União
Introdução
Espera-se que as tecnologias de IA tragam uma ampla gama debenefícios económicos e sociaisa uma vasta gama de
sectores, incluindo o ambiente e a saúde, o sector público, as finanças, a mobilidade, os assuntos internos e a
agricultura. São particularmente úteis para melhorar a previsão, para otimizar operações e alocação de recursos e para
personalizar serviços.1No entanto, as implicações dos sistemas de IA para direitos fundamentaisprotegido sob oCarta
dos Direitos Fundamentais da UE , assim como oriscos de segurançapara os utilizadores quando as tecnologias de IA
estão incorporadas em produtos e serviços, são motivo de preocupação. Mais notavelmente, os sistemas de IA podem
comprometer direitos fundamentais, como o direito à não discriminação, a liberdade de expressão, a dignidade
humana, a proteção de dados pessoais e a privacidade.2
Dado o rápido desenvolvimento destas tecnologias, nos últimos anos a regulamentação da IA tornou-se uma
questão política central na União Europeia (UE). Os decisores políticos comprometeram-se a desenvolver uma'
abordagem humancêntrica à IAgarantir que os europeus possam beneficiar das novas tecnologias
desenvolvidas e que funcionam de acordo com os valores e princípios da UE.3Em seu 2020Livro Branco sobre
Inteligência Artificial , a Comissão Europeia comprometeu-se apromover a adoção da IAeabordar os riscos
associadoscom certos usos desta nova tecnologia. Embora a Comissão Europeia tenha inicialmente adoptado
umabordagem de soft law, com a publicação do seu relatório não vinculativo de 2019Diretrizes de Ética para IA
Confiável eRecomendações de políticas e investimentos , desde entãomudou em direção a um abordagem
legislativa, apelando à adoção de regras harmonizadas para o desenvolvimento, a colocação no mercado e a
utilização de sistemas de IA.4
Abordagem regulatória de IA no mundo. Embora os Estados Unidos da América (EUA) tenham inicialmente adoptado uma
abordagem tolerante em relação à IA,chamadas para regulamentação têm aumentado recentemente. A Administração do
Ciberespaço da China também está prestando consultoria em umproposta para regulamentar a IA, enquanto o Reino Unido
estátrabalhando num conjunto de princípios regulamentares pró-inovação. A nível internacional, a Organização para a
Cooperação e Desenvolvimento Económico (OCDE) adoptou um acordo (não vinculativo)Recomendação sobre IA em 2019 , a
UNESCO adotouRecomendações sobre a Ética da IA em 2021, e o Conselho da Europa está atualmentetrabalhando em um
internacionalconvenção sobre IA . Além disso, no contexto da recém-criada parceria tecnológica UE-EUA (Conselho de Comércio
e Tecnologia), a UE e os EUA procuram desenvolver um entendimento mútuo sobre os princípios que sublinham uma IA fiável e
responsável. Os legisladores da UE emitiram umdeclaração conjunta em maio de 2023, instando o presidente Biden e a
presidente da Comissão Europeia, Ursula von der Leyen, a convocar uma cimeira para encontrar formas de controlar o
desenvolvimento de sistemas avançados de IA, como o ChatGPT.
2
Lei de inteligência artificial
considerar medidas eficazes para identificar, prever e responder aos potenciais impactos das
tecnologias digitais, incluindo a IA, nos direitos fundamentais.
Preparação da proposta
Seguindo oLivro Branco sobre Inteligência Artificial 5adotada em fevereiro de 2020, a Comissão lançou uma
amplaconsulta pública em 2020 e publicou umAvaliação de impacto do regulamento relativo à inteligência
artificial , um suporteestudar e umprojecto de proposta , que recebeuopinião de uma variedade de partes
interessadas.6Na sua avaliação de impacto, a Comissãoidentifica vários problemas suscitadas pelo
desenvolvimento e utilização de sistemas de IA, devido às suas características específicas.7
O novo quadro de IA, baseado no artigo 114.º9e Artigo 16.º10do Tratado sobre o Funcionamento da União
Europeia (TFUE), consagraria umadefinição tecnologicamente neutra de sistemas de IAe adotar um
abordagem baseada no risco, que estabelece diferentesrequisitos e obrigaçõespara o desenvolvimento,
colocação no mercado e utilização de sistemas de IA na UE. Na prática, a proposta define requisitos
obrigatórios comuns aplicáveis à conceção e ao desenvolvimento de sistemas de IA antes da sua
colocação no mercado e harmoniza a forma como os controlos ex post são realizados. A lei proposta sobre
IA complementaria a regulamentação de segurança horizontal e setorial existente e futura da UE.11A
Comissão propõe seguir a lógica donovo quadro legislativo (NLF), ou seja, a abordagem da UE para
garantir que uma gama de produtos cumpre a legislação aplicável quando são colocados no mercado da
UE através de avaliações de conformidade e da utilização da marcação CE.
Definições
Nenhuma definição únicaO conceito de inteligência artificial é aceite pela comunidade científica e o termo «IA»
é frequentemente utilizado como um «termo geral» para várias aplicações informáticas baseadas em diferentes
técnicas, que apresentam capacidades comum e atualmente associadas à inteligência humana.14O Grupo de
Especialistas de Alto Nível em IAproposto uma definição básica de IA que é cada vez mais utilizada na literatura
científica, e o Centro Comum de Investigaçãoestabelecido uma definição operacional de IA baseada numa
taxonomia que mapeia todos os subdomínios da IA desde um contexto político, de investigação e industrial
3
EPRS | Serviço de Investigação do Parlamento Europeu
perspectiva. Contudo, a Comissão concluiu que onoção de um sistema de IAdeveria ser definido de forma mais
clara, dado que a determinação do que constitui um «sistema de IA» é crucial para a atribuição de
responsabilidades jurídicas no âmbito do novo quadro de IA. A Comissão propõe, portanto, estabelecer uma
definição jurídica de «sistema de IA» no direito da UE, que se baseia em grande parte numa definição já utilizada
pela OCDE.15O artigo 3.º, n.º 1, do projeto de lei afirma que «sistema de inteligência artificial' significa:
. . . software que é desenvolvido com técnicas e abordagens [específicas] [listadas no Anexo 1] e pode, para um
determinado conjunto de objetivos definidos pelo homem, gerar resultados como conteúdo, previsões,
recomendações ou decisões que influenciam os ambientes com os quais interagem.16
Anexo 1 da proposta estabelece umalista de técnicas e abordagensque são usados hoje para desenvolver IA.
Assim, a noção de «sistema de IA» referir-se-ia a uma gama de tecnologias baseadas em software que abrange «
aprendizado de máquina','lógica e baseada no conhecimento'sistemas e'estatística' se aproxima. Esta
definição ampla abrange sistemas de IA que podem ser utilizados de forma autónoma ou como componente de
um produto. Além disso, a legislação proposta pretende ser preparada para o futuro e abranger os
desenvolvimentos tecnológicos atuais e futuros da IA. Para esse efeito, a Comissão complementaria a lista do
Anexo 1 com novas abordagens e técnicas utilizadas para desenvolver sistemas de IA à medida que estes vão
surgindo – através da adoção deatos delegados(Artigo 4).
Além disso, o artigo 3.º prevê uma longalista de definiçõesincluindo o de «fornecedor» e «utilizador» de sistemas de IA
(abrangendo entidades públicas e privadas), bem como de «importador» e «distribuidor», de «reconhecimento de
emoções» e de «categorização biométrica».
Pirâmide de riscos
A utilização da IA, com as suas características específicas (por exemplo, opacidade, complexidade, dependência de dados,
comportamento autónomo), pode afetar negativamente uma série de direitos fundamentais e a segurança dos utilizadores.
Para responder a essas preocupações, o projeto de lei sobre IA segue umabordagem baseada no riscoatravés do qual a
intervenção legal é adaptada ao nível concreto de risco. Para esse efeito, o projeto de lei relativa à IA distingue entre sistemas de
IA que apresentam (i)risco inaceitável, (ii)alto risco, (iii)risco limitadoe (iv)risco baixo ou mínimo. As aplicações de IA seriam
regulamentadas apenas na medida estritamente necessária para abordar níveis específicos de risco.17
4
Lei de inteligência artificial
O título III (artigo 6.º) da proposta de lei relativa à IA regula os sistemas de IA de «alto risco» que criam um impacto adverso na
segurança das pessoas ou nos seus direitos fundamentais. O projeto de texto distingue entre duas categorias de sistemas de IA
de alto risco.
- Sistemas utilizados como componente de segurança de um produto ou abrangidos pela legislação de harmonização em matéria de
saúde e segurança da UE (por exemplo, brinquedos, aviação, automóveis, dispositivos médicos, elevadores).
ó Aplicação da lei;
ó Gestão da migração, asilo e controlo de fronteiras;
ó Administração da justiça e processos democráticos.
Todos estes sistemas de IA de alto risco estariam sujeitos a um conjunto de novas regras, incluindo:
Requisito para uma avaliação de conformidade ex ante: Os fornecedores de sistemas de IA de alto risco seriam
obrigados a registar os seus sistemas numBase de dados à escala da UEgeridos pela Comissão antes de os colocar no
mercado ou de os colocar em serviço. Quaisquer produtos e serviços de IA regidos pela legislação existente em matéria
de segurança dos produtos serão abrangidos pelos quadros de conformidade de terceiros existentes que já se aplicam
(por exemplo, para dispositivos médicos). Os fornecedores de sistemas de IA que não sejam atualmente regidos pela
legislação da UE teriam de realizar a sua própria avaliação de conformidade (auto-avaliação) mostrando que atendem
aos novos requisitos e podem usarmarcação CE. Apenas os sistemas de IA de alto risco utilizados para identificação
biométrica exigiriam uma avaliação de conformidade por parte de um «organismo notificado».
Outros requerimentos: Esses sistemas de IA de alto risco teriam de cumprir uma série de requisitos, especialmente em
matéria de gestão de riscos, testes, robustez técnica, formação e governação de dados, transparência, supervisão
humana e cibersegurança (artigos 8.º a 15.º). A este respeito, os fornecedores, importadores, distribuidores e
utilizadores de sistemas de IA de alto risco teriam de cumprir uma série de obrigações. Os fornecedores de fora da UE
exigirão umrepresentante autorizadona UE para (entre outras coisas) garantir a avaliação da conformidade,
estabelecer um sistema de monitorização pós-comercialização e tomar medidas corretivas conforme necessário.
Sistemas de IA em conformidade com as novasnormas harmonizadas da UE, atualmente em desenvolvimento,
beneficiaria de uma presunção de conformidade com os requisitos do projeto de lei relativa à IA.19
Os sistemas de IA que apresentam «risco limitado», comosistemas que interagem com humanos(ou seja, chatbots),
sistemas de reconhecimento de emoções,sistemas de categorização biométricae sistemas de IA que geram ou
manipulam conteúdo de imagem, áudio ou vídeo (ou seja,deepfakes), estaria sujeito a um conjunto limitado de
obrigações de transparência.
5
EPRS | Serviço de Investigação do Parlamento Europeu
Administrativomultasde escalas variadas (até 30 milhões de euros ou 6% do volume de negócios anual total a nível
mundial), dependendo da gravidade da infração, são estabelecidas como sanções pelo incumprimento da lei relativa à
IA. Os Estados-Membros teriam de estabelecer regras em matéria de sanções, incluindo multas administrativas, e tomar
todas as medidas necessárias para garantir que sejam aplicadas de forma adequada e eficaz.
Comitês consultivos
O Comité Económico e Social Europeu adoptou o seuopinião sobre a proposta de lei sobre inteligência
artificial em 22 de setembro de 2021.
Parlamentos nacionais
O prazo para apresentação deopiniões fundamentadas por motivos de subsidiariedade foi em 2 de
setembro de 2021. Foram recebidas contribuições da República ChecaCâmara dos Deputados e o Tcheco
Senado , o portuguesParlamento , o polonêsSenado e o alemãoConselho Federal .
Definições
As definições são um ponto controverso de discussão entre as partes interessadas. A Big Data Value Association, uma
organização internacional sem fins lucrativos dirigida pela indústria,estressa que a definição de sistemas de IA é
bastante ampla e abrangeria muito mais do que aquilo que é subjetivamente entendido como IA, incluindo os mais
simples algoritmos de pesquisa, classificação e encaminhamento, que estariam, consequentemente, sujeitos a novas
regras. Além disso, pedem esclarecimentos sobre como os componentes de sistemas de IA maiores (como
6
Lei de inteligência artificial
Embora geralmente acolham favoravelmente a abordagem baseada no risco proposta pela lei sobre IA, algumas partes
interessadas apoiam uma proibição e regulamentação mais amplas dos sistemas de IA. Organizações de direitos civischamar
para a proibição da utilização indiscriminada ou arbitrariamente direcionada de dados biométricos em espaços públicos ou
acessíveis ao público, e para restrições à utilização de sistemas de IA, incluindo para controlo de fronteiras e policiamento
preditivo. Acesse agoraargumenta que as disposições relativas às práticas proibidas de IA (artigo 5.º) são demasiado vagas e
propõe uma proibição mais ampla da utilização da IA para categorizar pessoas com base em dados fisiológicos,
comportamentais ou biométricos, para reconhecimento de emoções, bem como utilizações perigosas no contexto de
policiamento, migração, asilo e gestão de fronteiras. Além disso, apelam a requisitos mais rigorosos de avaliação de impacto e
de transparência.
A Aliança Europeia de Empresasestressa que existe uma incerteza geral sobre os papéis e responsabilidades dos
diferentes intervenientes na cadeia de valor da IA (desenvolvedores, fornecedores e utilizadores de sistemas de
IA). Isto é particularmente difícil para as empresas que fornecem interfaces de programação de aplicações de uso
geral ou modelos de IA de código aberto que não se destinam especificamente a sistemas de IA de alto risco,
mas que, no entanto, são utilizados por terceiros de uma forma que pode ser considerada de alto risco. Apelam
também à redefinição de “alto risco”, com base nos danos mensuráveis e no impacto potencial. AlgoritmoWatch
sublinhadas que a aplicabilidade de regras específicas não deve depender do tipo de tecnologia, mas do impacto
que esta tem nos indivíduos e na sociedade. Apelam a que as novas regras sejam definidas de acordo com o
impacto dos sistemas de IA e recomendam que cada operador realize uma avaliação de impacto que avalie os
níveis de risco do sistema caso a caso. IA sobre Mudanças Climáticaschamadas que a atenuação e a adaptação às
alterações climáticas sejam tidas em conta nas regras de classificação dos sistemas de IA de alto risco e
imponham requisitos de proteção ambiental.
Proteção do consumidor
A Organização Europeia dos Consumidores, BEUC,estressa que a proposta exige melhorias substanciais para
garantir a protecção do consumidor. A organização defende que a proposta deve ter um âmbito mais amplo e
impor princípios e obrigações básicas (por exemplo, justiça, responsabilização e transparência) a todos os
sistemas de IA, bem como proibir de forma mais abrangente práticas prejudiciais (como a utilização de
pontuação social por entidades privadas e de sistemas remotos de identificação biométrica em espaços
públicos). Além disso, deve ser concedido aos consumidores um forte conjunto de direitos, vias de recurso
eficazes e mecanismos de recurso, incluindo recurso colectivo.
7
EPRS | Serviço de Investigação do Parlamento Europeu
Definição de sistemas de IA
A definição jurídica de «sistemas de IA» contida na proposta de lei sobre IA tem sido fortementecriticado . Smuha
e outros alertam que a definição carece de clareza e pode levar à incerteza jurídica, especialmente para alguns
sistemas que não seriam qualificados como sistemas de IA ao abrigo do projeto de texto, embora a sua utilização
possa ter um impacto adverso nos direitos fundamentais.23Para resolver esse problema, os autores propõem
ampliar o escopo da legislaçãoincluir explicitamente todos os sistemas computacionais utilizados nos domínios
de alto risco identificados, independentemente de serem considerados IA. Segundo os autores, a vantagem
estaria em tornar a aplicação das novas regras mais dependente do domínio em que a tecnologia é utilizada e
dos riscos relacionados com os direitos fundamentais, e não de uma técnica computacional específica. Ebers e
outros consideram que o âmbito dos «sistemas de IA» é demasiado amplo, o que pode levar aincerteza jurídica
para desenvolvedores, operadores e usuários de sistemas de IA e, em última análise, ao excesso de
regulamentação.24Apelam aos legisladores da UE para que isentem os sistemas de IA desenvolvidos e utilizados
parapropósitos de pesquisaesoftware livre(OSS) da regulamentação. Outros comentaristaspergunta se a
definição proposta de «sistemas de IA» é verdadeiramentetecnologia neutra uma vez que se refere
principalmente a “software”, omitindo potenciais desenvolvimentos futuros de IA.
Os académicos também apelam a alterações, alertando que a abordagem baseada no risco proposta pela
Comissão não garantiria um elevado nível de proteção dos direitos fundamentais. Smuha e outros
argumentam que a proposta nem sempre reconhece com precisão os erros e danos associados aos
diferentes tipos de sistemas de IA e, portanto, não atribui responsabilidades de forma adequada. Entre
outras coisas, elesrecomendar acrescentando um procedimento que permite à Comissãoampliar a lista
de sistemas de IA proibidose propor a proibição dos sistemas manipulativos de IA existentes (por
exemplo, deepfakes), pontuação social e alguns dados biométricos. Ébers e outroschamar para
classificação mais detalhada dos riscospara facilitar a autoavaliação e o apoio da indústria, bem como
proibindo mais sistemas de IA(por exemplo, biometria), inclusive no contexto deuso privado. Além disso,
alguns sublinham que o projecto de legislação não abordariscos sistêmicos de sustentabilidadecriado
pela IA, especialmente na área do clima e da proteção ambiental.25
8
Lei de inteligência artificial
Os comentadores deploram uma lacuna crucial na lei da IA, que não prevêdireitos individuais de execução.
Ébers e outrosestresse que os indivíduos afetados pelos sistemas de IA e pelas organizações de direitos civis não
têmdireito de reclamaràs autoridades de fiscalização do mercado ou processar um fornecedor ou utilizador por
incumprimento dos requisitos. Da mesma forma, Veale e Zuiderveen Borgesiusavisar que, embora algumas
disposições do projeto de lei visem impor obrigações aos utilizadores de sistemas de IA, hánenhum mecanismo
de reclamação ou recurso judicialdisponível para eles. Smuha e outros recomendar alterar a proposta para
incluir, entre outros, umdireito explícito de reparação para indivíduosedireitos de consulta e participação
dos cidadãos da UErelativamente à decisão de alterar a lista de sistemas de alto risco constante do Anexo III.
Também tem sidoestressado que o texto tal como estácarece de coordenação adequadamecanismos entre
autoridades, em particular no que diz respeitoinfração transfronteiriça. Consequentemente, a competência das
autoridades relevantes a nível nacional deverá ser clarificada. Além disso, a orientação seria desejável sobre
como garantir o cumprimento dos requisitos de transparência e informação, ao mesmo tempo queproteger os
direitos de propriedade intelectual e segredos comerciais(por exemplo, até que ponto o código-fonte deve
ser divulgado), sobretudo para evitar práticas divergentes nos Estados-Membros.
Processo legislativo
OConselhoadotou seuposição comum em dezembro de 2022. O Conselho propõe, nomeadamente:
EmParlamento, o processo foi atribuído conjuntamente (nos termos do artigo 58.º) à Comissão do Mercado
Interno e da Proteção dos Consumidores (IMCO) e à Comissão das Liberdades Cívicas, da Justiça e dos Assuntos
Internos (LIBE), com Brando Benifei (S&D, Itália) e Dragos Tudorache, Renew, Roménia) nomeados relatores.
Além disso, a Comissão dos Assuntos Jurídicos (JURI), a Comissão da Indústria, da Investigação e da Energia
(ITRE) e a Comissão da Cultura e da Educação (CULT) estão associadas ao trabalho legislativo nos termos do
artigo 57.º, com competências partilhadas e/ou exclusivas. para aspectos específicos da proposta. Parlamento
adotado sua posição negocial (499 votos a favor, 28 contra e 93 abstenções) em 14 de junho de 2023, com
resultados substanciaisalterações ao texto da Comissão, incluindo:
9
EPRS | Serviço de Investigação do Parlamento Europeu
10
Lei de inteligência artificial
Últimas questões do debate político. O recente e rápido desenvolvimentointeligência artificial de uso geral tecnologias
enquadrou o debate político em torno, inter alia,definindo propósito geral Modelos de IA, a aplicação da UEdireito autoral
estrutura paraIA generativa, como garantir modelos de fundaçãoconformidade com os princípios do AI Act e o design de
soluções eficientesprocedimentos de auditoria paragrandes modelos de linguagem(LLM). Um risco deexcesso de
regulamentaçãoprejudicial para o investimento em IA na UE tem sidoidentificado devem ser impostas obrigações
excessivamente rigorosas de avaliação, mitigação e gestão de riscosmodelos de fundaçãoe nas PME. Como definir regras pró-
competitivas parasandbox eCódigo aberto Os sistemas de IA também foram discutidos. Enquanto existempreocupações que a
IA representa riscos à escala social semelhantes aos das armas nucleares, apelos para uma pausa no desenvolvimento da IA
foram feitos porsociedade civil organizações,Especialistas em IA e executivos de tecnologia. A questão de como abordar
aplicações de IA militares e de dupla utilização também foi levantado. Além disso, dado que a regulamentação da UE levará
algum tempo a entrar em vigor, a adopção decódigos de conduta voluntários e de umPacto de IA estão previstos para mitigar
as potenciais desvantagens da IA generativa. Uma questão premente é definir umcomumterminologia para que os
legisladores de todo o mundo tenham o mesmo entendimento das tecnologias que precisam abordar.
ANÁLISE DE APOIO DO EP
Inteligência artificial de uso geral , EPRS, Madiega T., março de 2023.
Reconhecimento biométrico e detecção comportamental , Parlamento Europeu, Departamento Temático dos Direitos dos
Cidadãos e Assuntos Constitucionais, agosto de 2021.
OUTRAS FONTES
Lei de Inteligência Artificial , Parlamento Europeu, Observatório Legislativo (OEIL).
Ebers M., e outros,A proposta da Comissão Europeia para uma lei de inteligência artificial – uma avaliação
crítica por membros da Robotics and AI Law Society (RAILS) , J 4, no 4: 589-603, outubro de 2021.
Smuha N. e outros,Como a UE pode alcançar uma IA juridicamente confiável: uma resposta à proposta da
Comissão Europeia para uma lei de inteligência artificial , Elsevier, agosto de 2021.
Veale M., Zuiderveen Borgesius F.,Desmistificando o projeto de lei da UE sobre IA , 22(4)Revisão Internacional de Direito da
Informática, julho de 2021.
NOTAS FINAIS
1
Ver Comissão Europeia, Proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas
sobre inteligência artificial (lei sobre inteligência artificial)2021/0106 (COD) , Memorando explicativo (proposta da Comissão para
uma lei relativa à IA). Embora a definição exacta de IA seja altamente contestada (ver abaixo), é geralmente reconhecido que a IA
combina uma gama de tecnologias, incluindotécnicas de aprendizado de máquina ,robótica e sistemas automatizados de tomada de
decisão .
2
Ver, por exemplo, Grupo de Peritos de Alto Nível,Diretrizes de Ética para IA Confiável , 2019.
3
Ver Comissão Europeia,Comunicação sobre a criação de confiança na inteligência artificial centrada no ser humano ,
COM(2019) 168.
4
Ver Comissão Europeia,Comunicação sobre a promoção de uma abordagem europeia à inteligência artificial ,
COM(2021) 205.
5
Ver Comissão Europeia,Livro Branco sobre Inteligência Artificial , COM(2020) 65 final.
6
Para uma visão geral, ver H. Dalli,Lei de inteligência artificial , Avaliação inicial de uma avaliação de impacto da Comissão Europeia,
EPRS, Parlamento Europeu, 2021.
7
De acordo com a avaliação de impacto da Comissão, as cinco características específicas da IA são (i) opacidade (capacidade limitada
da mente humana para compreender como funcionam determinados sistemas de IA), (ii) complexidade, (iii) adaptação contínua e
imprevisibilidade, (iv) comportamento autónomo e (v) dados (dependência funcional dos dados e da qualidade dos dados).
8
VerProposta da Comissão para uma lei sobre IA, exposição de motivos e considerandos 1 e 5. Para
9
a adoção de um conjunto harmonizado de requisitos para sistemas de IA.
10
Pela adoção de regras específicas para o tratamento de dados pessoais no âmbito da identificação biométrica.
11
EPRS | Serviço de Investigação do Parlamento Europeu
11
A proposta complementa a legislação sectorial em matéria de segurança dos produtos, baseada no novo quadro legislativo (QNL), incluindo o
Diretiva Geral de Segurança de Produtos , oDiretiva Máquinas , oRegulamento de Dispositivos Médicos e aQuadro da UE relativo à
homologação e fiscalização do mercado de veículos a motor . A Lei da IA também faz parte de um quadro regulamentar mais amplo da UE
que inclui, além disso, a proposta de um novoDiretiva de responsabilidade de IA e a proposta de revisão da directiva sobre a responsabilidade
dos produtos.
12
Ver artigo 2.º. O regulamento proposto aplicar-se-ia também às instituições, organismos, órgãos e agências da União que atuem como fornecedores ou
utilizadores de sistemas de IA.
13
Isto abrange o caso de um serviço (digitalmente) fornecido por um sistema de IA localizado fora da UE.
14
Ver Conselho da Europa,Estudo de viabilidade , Comité Ad hoc sobre Inteligência Artificial, CAHAI(2020)23 . OCDE,
15
Recomendação do Conselho de Inteligência Artificial , 2019. Ver artigo 3.º, n.º 1, e considerando 6.
16
17
Ver avaliação de impacto nas páginas 48-49. Uma abordagem de risco também é adotada nos Estados UnidosLei de Responsabilidade
Algorítmica de 2019 e em 2019Diretiva Canadense sobre Tomada de Decisão Automatizada .
18
Os FRT seriam permitidos (i) para buscas direcionadas de potenciais vítimas de crimes, incluindo crianças desaparecidas, (ii) para
prevenir uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas ou de um ataque terrorista, e (iii)
para a detecção, localização, identificação ou acusação de um autor ou indivíduo suspeito de uma infracção penal referida no
Decisão-quadro relativa ao mandado de detenção europeu .
19
As normas harmonizadas são definidas em conformidade com o Regulamento (UE) n.º 1025/2012 e a Comissão poderia, através de atos de
execução, adotar especificações técnicas comuns em domínios onde não existam normas harmonizadas ou onde seja necessário abordar
questões específicas de segurança ou de direitos fundamentais preocupações.
20
Para uma visão geral, consulte T. Madiega e H. Mildebrath,Regulando o reconhecimento facial na UE , EPRS, setembro de 2021.
21
Esta secção pretende dar uma ideia do debate e não pretende ser um relato exaustivo de todos os diferentes pontos de vista sobre a
proposta. Informações adicionais podem ser encontradas em publicações relacionadas listadas em “Análise de apoio do PE”.
22
Para uma análise aprofundada das propostas e recomendações de alterações, ver N. Smuha e outros,Como a UE pode alcançar uma
IA juridicamente confiável: uma resposta à proposta da Comissão Europeia para uma lei de inteligência artificial , Elsevier, agosto de
2021; M. Ebers e outros,A proposta da Comissão Europeia para uma lei de inteligência artificial – uma avaliação crítica por membros
da Robotics and AI Law Society (RAILS) , J 4, no 4: 589-603, outubro de 2021.
23
N. Smuha e outros, acima nas páginas 14-15. Veja também E. Biber,Máquinas aprendendo o Estado de Direito – UE propõe a primeira lei de
inteligência artificial do mundo , Agosto de 2021. Há também apelos a uma mudança de abordagem, para identificar práticas problemáticas
que levantam questões em termos de direitos fundamentais, em vez de se concentrar em definições; M. Veale e F. Zuiderveen Borgesius.,
Desmistificando o projeto de lei da UE sobre IA , 22(4)Revisão Internacional de Direito da Informática, julho de 2021.
24
Veja M. Ebers e outros, acima.
25
Veja V. Galaz e outros,Inteligência artificial, riscos sistêmicos e sustentabilidade , Vol. 67,Tecnologia na Sociedade, 2021. Para
26
uma visão geral, consulte T. Madiega e H. Mildebrath, acima.
Este documento foi preparado e dirigido aos deputados e funcionários do Parlamento Europeu como material de base
para os ajudar no seu trabalho parlamentar. O conteúdo do documento é da exclusiva responsabilidade do(s) seu(s)
autor(es) e quaisquer opiniões aqui expressas não devem ser interpretadas como representativas de uma posição oficial
do Parlamento.
A reprodução e a tradução para fins não comerciais são autorizadas, desde que a fonte seja citada e o
Parlamento Europeu seja avisado previamente e lhe seja enviada uma cópia.
© União Europeia, 2023. eprs@ep.europa.eu
(contato) www.eprs.ep.parl.union.eu (intranet)
www.europarl.europa.eu/thinktank (Internet)
http://epthinktank.eu (blogue)
Segunda edição. As informações informativas sobre «Legislação da UE em curso» são atualizadas nas principais fases do processo
legislativo.
12