Você está na página 1de 12

Traduzido do Inglês para o Português - www.onlinedoctranslator.

com

RESUMO
Legislação da UE em andamento

Lei de inteligência artificial


VISÃO GERAL

A Comissão Europeia apresentou uma proposta de quadro regulamentar da UE para a inteligência artificial (IA)
em abril de 2021. O projeto de lei sobre IA é a primeira tentativa de promulgar uma regulamentação horizontal
para a IA. O quadro jurídico proposto centra-se na utilização específica de sistemas de IA e nos riscos associados.
A Comissão propõe estabelecer uma definição tecnologicamente neutra dos sistemas de IA no direito da UE e
estabelecer uma classificação para os sistemas de IA com diferentes requisitos e obrigações adaptados a uma
«abordagem baseada no risco». Alguns sistemas de IA que apresentam riscos «inaceitáveis» seriam proibidos.
Uma vasta gama de sistemas de IA de «alto risco» seria autorizada, mas sujeita a um conjunto de requisitos e
obrigações para obter acesso ao mercado da UE. Os sistemas de IA que apresentem apenas «risco limitado»
estariam sujeitos a obrigações de transparência muito leves. O Conselho definiu a posição geral dos Estados-
Membros da UE em dezembro de 2021. O Parlamento votou a sua posição em junho de 2023. Os legisladores da
UE estão agora a iniciar negociações para finalizar a nova legislação, com alterações substanciais à proposta da
Comissão, incluindo a revisão da definição de sistemas de IA, ampliar a lista de sistemas de IA proibidos e impor
obrigações à IA de uso geral e aos modelos de IA generativos, como o ChatGPT.

Proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria
de inteligência artificial (lei sobre inteligência artificial) e que altera determinados atos legislativos da União

Comitês Mercado Interno e Proteção dos Consumidores (IMCO) e Liberdades COM(2021)206


responsável: Cívicas, Justiça e Assuntos Internos (LIBE) (conjuntamente ao abrigo do 21.4.2021
artigo 58.º) 2021/0106(COD)
Relatores: Brando Benifei (S&D, Itália) e Dragoş Tudorache
(Renew, Roménia)
Legislativo ordinário
Relatores-sombra: Deirdre Clune, Axel Voss (PPE); Petar Vitanov (S&D); Svenja procedimento (COD)
Hahn, (Renovar); Sergey Lagodinsky, Kim Van Sparrentak (Parlamento e
(Verdes/ALE); Rob Rooken, Kosma Złotowski (ECR); Jean-Lin Conselho em igualdade
Lacapelle, Jaak Madison (ID); Cornelia Ernst, Kateřina pé – anteriormente
Konecna (A Esquerda) 'co-decisão')

Próximas etapas esperadas: Negociações do trílogo

EPRS | Serviço de Investigação do Parlamento Europeu


Autor: Tambiama Madiega; Gráfico: Samy Chahri
Serviço de Pesquisa dos Membros

PE 698.792 – junho de 2023 PT


EPRS | Serviço de Investigação do Parlamento Europeu

Introdução
Espera-se que as tecnologias de IA tragam uma ampla gama debenefícios económicos e sociaisa uma vasta gama de
sectores, incluindo o ambiente e a saúde, o sector público, as finanças, a mobilidade, os assuntos internos e a
agricultura. São particularmente úteis para melhorar a previsão, para otimizar operações e alocação de recursos e para
personalizar serviços.1No entanto, as implicações dos sistemas de IA para direitos fundamentaisprotegido sob oCarta
dos Direitos Fundamentais da UE , assim como oriscos de segurançapara os utilizadores quando as tecnologias de IA
estão incorporadas em produtos e serviços, são motivo de preocupação. Mais notavelmente, os sistemas de IA podem
comprometer direitos fundamentais, como o direito à não discriminação, a liberdade de expressão, a dignidade
humana, a proteção de dados pessoais e a privacidade.2

Dado o rápido desenvolvimento destas tecnologias, nos últimos anos a regulamentação da IA tornou-se uma
questão política central na União Europeia (UE). Os decisores políticos comprometeram-se a desenvolver uma'
abordagem humancêntrica à IAgarantir que os europeus possam beneficiar das novas tecnologias
desenvolvidas e que funcionam de acordo com os valores e princípios da UE.3Em seu 2020Livro Branco sobre
Inteligência Artificial , a Comissão Europeia comprometeu-se apromover a adoção da IAeabordar os riscos
associadoscom certos usos desta nova tecnologia. Embora a Comissão Europeia tenha inicialmente adoptado
umabordagem de soft law, com a publicação do seu relatório não vinculativo de 2019Diretrizes de Ética para IA
Confiável eRecomendações de políticas e investimentos , desde entãomudou em direção a um abordagem
legislativa, apelando à adoção de regras harmonizadas para o desenvolvimento, a colocação no mercado e a
utilização de sistemas de IA.4

Abordagem regulatória de IA no mundo. Embora os Estados Unidos da América (EUA) tenham inicialmente adoptado uma
abordagem tolerante em relação à IA,chamadas para regulamentação têm aumentado recentemente. A Administração do
Ciberespaço da China também está prestando consultoria em umproposta para regulamentar a IA, enquanto o Reino Unido
estátrabalhando num conjunto de princípios regulamentares pró-inovação. A nível internacional, a Organização para a
Cooperação e Desenvolvimento Económico (OCDE) adoptou um acordo (não vinculativo)Recomendação sobre IA em 2019 , a
UNESCO adotouRecomendações sobre a Ética da IA em 2021, e o Conselho da Europa está atualmentetrabalhando em um
internacionalconvenção sobre IA . Além disso, no contexto da recém-criada parceria tecnológica UE-EUA (Conselho de Comércio
e Tecnologia), a UE e os EUA procuram desenvolver um entendimento mútuo sobre os princípios que sublinham uma IA fiável e
responsável. Os legisladores da UE emitiram umdeclaração conjunta em maio de 2023, instando o presidente Biden e a
presidente da Comissão Europeia, Ursula von der Leyen, a convocar uma cimeira para encontrar formas de controlar o
desenvolvimento de sistemas avançados de IA, como o ChatGPT.

Posição inicial do Parlamento


Liderando o debate a nível da UE, o Parlamento Europeu apelou à Comissão Europeia para que avaliasse o
impacto da IA e elaborasse um quadro da UE para a IA, no seu amplo relatório de 2017recomendações sobre
regras de direito civil relativas à robótica . Mais recentemente, em 2020 e 2021, o Parlamento adotou uma série
de resoluções não legislativas apelando à ação da UE, bem como duas resoluções legislativas apelando à adoção
de legislação da UE no domínio da IA. Uma primeira resolução legislativa solicitou que a Comissão estabelecesse
um quadro jurídicode princípios éticos para o desenvolvimento, implantação e utilização de IA, robótica e
tecnologias conexas na União. Uma segunda resolução legislativa apelou à harmonização do quadro jurídico
pararesponsabilidade civil reclamações e imposição de um regime de responsabilidade objetiva aos operadores
de sistemas de IA de alto risco. Além disso, o Parlamento adotou uma série de recomendações apelando a uma
abordagem comum da UE à IA nopropriedade intelectual ,lei criminal , educação, cultura e audiovisual áreas, e
em relaçãousos civis e militares de IA .

Posição inicial do Conselho


No passado, o Conselho apelou repetidamente à adoção de regras comuns em matéria de IA, nomeadamente
em2017 e2019 . Mais recentemente, em 2020, o Conselhochamado instar a Comissão a apresentar propostas
concretas que tenham em conta a legislação existente e sigam uma abordagem baseada no risco, proporcionada
e, se necessário, regulamentar. Além disso, o Conselhoconvidamos a UE e os Estados-Membros a

2
Lei de inteligência artificial

considerar medidas eficazes para identificar, prever e responder aos potenciais impactos das
tecnologias digitais, incluindo a IA, nos direitos fundamentais.

Preparação da proposta
Seguindo oLivro Branco sobre Inteligência Artificial 5adotada em fevereiro de 2020, a Comissão lançou uma
amplaconsulta pública em 2020 e publicou umAvaliação de impacto do regulamento relativo à inteligência
artificial , um suporteestudar e umprojecto de proposta , que recebeuopinião de uma variedade de partes
interessadas.6Na sua avaliação de impacto, a Comissãoidentifica vários problemas suscitadas pelo
desenvolvimento e utilização de sistemas de IA, devido às suas características específicas.7

As mudanças que a proposta traria


O projeto de lei sobre IA foi concebido como uminstrumento legislativo horizontal da UEaplicável a todos os sistemas
de IA colocados no mercado ou utilizados na União.

Finalidade, base jurídica e âmbito


Oobjetivo geralda proposta de lei de IArevelado em abril de 2021 é garantir o bom funcionamento do mercado
único, criando as condições para o desenvolvimento e a utilização de sistemas de IA fiáveis na União. O projeto
estabelece um quadro jurídico harmonizado para o desenvolvimento, a colocação no mercado da União e a
utilização de produtos e serviços de IA. Além disso, a proposta da lei sobre IA procura alcançar um conjunto de
objetivos específicos: (i) garantir que os sistemas de IA colocados no mercado da UE sejam seguros e respeitem
a legislação da UE em vigor, (ii) garantir a segurança jurídica para facilitar o investimento e a inovação na IA, (iii)
melhorar a governação e a aplicação eficaz da legislação da UE em matéria de direitos fundamentais e requisitos
de segurança aplicáveis aos sistemas de IA, e (iv) facilitar o desenvolvimento de um mercado único para
aplicações de IA legais, seguras e fiáveis e evitar a fragmentação do mercado.8

O novo quadro de IA, baseado no artigo 114.º9e Artigo 16.º10do Tratado sobre o Funcionamento da União
Europeia (TFUE), consagraria umadefinição tecnologicamente neutra de sistemas de IAe adotar um
abordagem baseada no risco, que estabelece diferentesrequisitos e obrigaçõespara o desenvolvimento,
colocação no mercado e utilização de sistemas de IA na UE. Na prática, a proposta define requisitos
obrigatórios comuns aplicáveis à conceção e ao desenvolvimento de sistemas de IA antes da sua
colocação no mercado e harmoniza a forma como os controlos ex post são realizados. A lei proposta sobre
IA complementaria a regulamentação de segurança horizontal e setorial existente e futura da UE.11A
Comissão propõe seguir a lógica donovo quadro legislativo (NLF), ou seja, a abordagem da UE para
garantir que uma gama de produtos cumpre a legislação aplicável quando são colocados no mercado da
UE através de avaliações de conformidade e da utilização da marcação CE.

As novas regras aplicar-se-iam principalmente aosfornecedores de sistemas de IA estabelecidos na UE ou


num país terceirocolocar sistemas de IA no mercado da UE ou colocá-los em serviço na UE, bem como
utilizadores de sistemas de IA localizados na UE.12Para evitar que o regulamento seja contornado, as novas
regras aplicar-se-iam também aosfornecedores e utilizadores de sistemas de IA localizados num país
terceiroonde os resultados produzidos por esses sistemas são utilizados na UE.13No entanto, o projeto de
regulamento não se aplica aos sistemas de IA desenvolvidos ou utilizados exclusivamente para fins militares, às
autoridades públicas de um país terceiro, nem às organizações internacionais ou às autoridades que utilizem
sistemas de IA no âmbito de acordos internacionais de aplicação da lei e de cooperação judiciária.

Definições
Nenhuma definição únicaO conceito de inteligência artificial é aceite pela comunidade científica e o termo «IA»
é frequentemente utilizado como um «termo geral» para várias aplicações informáticas baseadas em diferentes
técnicas, que apresentam capacidades comum e atualmente associadas à inteligência humana.14O Grupo de
Especialistas de Alto Nível em IAproposto uma definição básica de IA que é cada vez mais utilizada na literatura
científica, e o Centro Comum de Investigaçãoestabelecido uma definição operacional de IA baseada numa
taxonomia que mapeia todos os subdomínios da IA desde um contexto político, de investigação e industrial

3
EPRS | Serviço de Investigação do Parlamento Europeu

perspectiva. Contudo, a Comissão concluiu que onoção de um sistema de IAdeveria ser definido de forma mais
clara, dado que a determinação do que constitui um «sistema de IA» é crucial para a atribuição de
responsabilidades jurídicas no âmbito do novo quadro de IA. A Comissão propõe, portanto, estabelecer uma
definição jurídica de «sistema de IA» no direito da UE, que se baseia em grande parte numa definição já utilizada
pela OCDE.15O artigo 3.º, n.º 1, do projeto de lei afirma que «sistema de inteligência artificial' significa:

. . . software que é desenvolvido com técnicas e abordagens [específicas] [listadas no Anexo 1] e pode, para um
determinado conjunto de objetivos definidos pelo homem, gerar resultados como conteúdo, previsões,
recomendações ou decisões que influenciam os ambientes com os quais interagem.16

Anexo 1 da proposta estabelece umalista de técnicas e abordagensque são usados hoje para desenvolver IA.
Assim, a noção de «sistema de IA» referir-se-ia a uma gama de tecnologias baseadas em software que abrange «
aprendizado de máquina','lógica e baseada no conhecimento'sistemas e'estatística' se aproxima. Esta
definição ampla abrange sistemas de IA que podem ser utilizados de forma autónoma ou como componente de
um produto. Além disso, a legislação proposta pretende ser preparada para o futuro e abranger os
desenvolvimentos tecnológicos atuais e futuros da IA. Para esse efeito, a Comissão complementaria a lista do
Anexo 1 com novas abordagens e técnicas utilizadas para desenvolver sistemas de IA à medida que estes vão
surgindo – através da adoção deatos delegados(Artigo 4).

Além disso, o artigo 3.º prevê uma longalista de definiçõesincluindo o de «fornecedor» e «utilizador» de sistemas de IA
(abrangendo entidades públicas e privadas), bem como de «importador» e «distribuidor», de «reconhecimento de
emoções» e de «categorização biométrica».

Abordagem baseada em risco

Pirâmide de riscos

Fonte de dados:Comissão Europeia .

A utilização da IA, com as suas características específicas (por exemplo, opacidade, complexidade, dependência de dados,
comportamento autónomo), pode afetar negativamente uma série de direitos fundamentais e a segurança dos utilizadores.
Para responder a essas preocupações, o projeto de lei sobre IA segue umabordagem baseada no riscoatravés do qual a
intervenção legal é adaptada ao nível concreto de risco. Para esse efeito, o projeto de lei relativa à IA distingue entre sistemas de
IA que apresentam (i)risco inaceitável, (ii)alto risco, (iii)risco limitadoe (iv)risco baixo ou mínimo. As aplicações de IA seriam
regulamentadas apenas na medida estritamente necessária para abordar níveis específicos de risco.17

Risco inaceitável: práticas proibidas de IA


Título II (Artigo 5) da lei proposta sobre IA explicitamenteproíbe práticas prejudiciais de IAque são consideradas uma
clara ameaça à segurança, aos meios de subsistência e aos direitos das pessoas, devido ao “risco inaceitável” que criam.
Por conseguinte, seria proibido colocar no mercado, colocar em serviços ou utilizar na UE:

- Sistemas de IA que utilizam «técnicas subliminares» manipulativas prejudiciais;


- Sistemas de IA que exploram grupos vulneráveis específicos (deficiência física ou mental);
- Sistemas de IA utilizados pelas autoridades públicas, ou em seu nome, para fins de pontuação social;
- 'Sistemas de identificação biométrica remota em tempo real em espaços acessíveis ao público
para fins de aplicação da lei, exceto num número limitado de casos.18

4
Lei de inteligência artificial

Alto risco: sistemas regulamentados de IA de alto risco

O título III (artigo 6.º) da proposta de lei relativa à IA regula os sistemas de IA de «alto risco» que criam um impacto adverso na
segurança das pessoas ou nos seus direitos fundamentais. O projeto de texto distingue entre duas categorias de sistemas de IA
de alto risco.

- Sistemas utilizados como componente de segurança de um produto ou abrangidos pela legislação de harmonização em matéria de

saúde e segurança da UE (por exemplo, brinquedos, aviação, automóveis, dispositivos médicos, elevadores).

- Sistemas implantados emoito áreas específicasidentificados no Anexo III, que a Comissão


poderá atualizar conforme necessário atravésatos delegados(Artigo 7):
ó Identificação biométrica e categorização de pessoas singulares;
ó Gestão e operação de infraestrutura crítica; Educação e
ó formação profissional;
ó Emprego, gestão de trabalhadores e acesso ao trabalho independente; Acesso e
ó usufruto de serviços privados essenciais e de serviços e benefícios públicos;

ó Aplicação da lei;
ó Gestão da migração, asilo e controlo de fronteiras;
ó Administração da justiça e processos democráticos.

Todos estes sistemas de IA de alto risco estariam sujeitos a um conjunto de novas regras, incluindo:

Requisito para uma avaliação de conformidade ex ante: Os fornecedores de sistemas de IA de alto risco seriam
obrigados a registar os seus sistemas numBase de dados à escala da UEgeridos pela Comissão antes de os colocar no
mercado ou de os colocar em serviço. Quaisquer produtos e serviços de IA regidos pela legislação existente em matéria
de segurança dos produtos serão abrangidos pelos quadros de conformidade de terceiros existentes que já se aplicam
(por exemplo, para dispositivos médicos). Os fornecedores de sistemas de IA que não sejam atualmente regidos pela
legislação da UE teriam de realizar a sua própria avaliação de conformidade (auto-avaliação) mostrando que atendem
aos novos requisitos e podem usarmarcação CE. Apenas os sistemas de IA de alto risco utilizados para identificação
biométrica exigiriam uma avaliação de conformidade por parte de um «organismo notificado».

Outros requerimentos: Esses sistemas de IA de alto risco teriam de cumprir uma série de requisitos, especialmente em
matéria de gestão de riscos, testes, robustez técnica, formação e governação de dados, transparência, supervisão
humana e cibersegurança (artigos 8.º a 15.º). A este respeito, os fornecedores, importadores, distribuidores e
utilizadores de sistemas de IA de alto risco teriam de cumprir uma série de obrigações. Os fornecedores de fora da UE
exigirão umrepresentante autorizadona UE para (entre outras coisas) garantir a avaliação da conformidade,
estabelecer um sistema de monitorização pós-comercialização e tomar medidas corretivas conforme necessário.
Sistemas de IA em conformidade com as novasnormas harmonizadas da UE, atualmente em desenvolvimento,
beneficiaria de uma presunção de conformidade com os requisitos do projeto de lei relativa à IA.19

Reconhecimento facial: A IA potencializa o uso de tecnologias biométricas, incluindotecnologias de reconhecimento facial


(FRTs), que são utilizados por atores privados ou públicos para fins de verificação, identificação e categorização. Além da
legislação aplicável existente (por exemplo, proteção de dados e não discriminação), o projeto de lei sobre IA propõe a
introdução de novas regras para os FRT e a sua diferenciação de acordo com as suas características de utilização de «alto risco»
ou de «baixo risco». A utilização de sistemas de reconhecimento facial em tempo real em espaços acessíveis ao público para
efeitos de aplicação da lei seria proibida, a menos que os Estados-Membros decidam autorizá-los por razões importantes de
segurança pública e sejam concedidas as autorizações judiciais ou administrativas adequadas. Uma vasta gama de FRT
utilizados para outros fins que não a aplicação da lei (por exemplo, controlo de fronteiras, mercados, transportes públicos e até
escolas) poderia ser permitida, sujeita a uma avaliação de conformidade e ao cumprimento dos requisitos de segurança antes
de entrar no mercado da UE.20

Risco limitado: obrigações de transparência

Os sistemas de IA que apresentam «risco limitado», comosistemas que interagem com humanos(ou seja, chatbots),
sistemas de reconhecimento de emoções,sistemas de categorização biométricae sistemas de IA que geram ou
manipulam conteúdo de imagem, áudio ou vídeo (ou seja,deepfakes), estaria sujeito a um conjunto limitado de
obrigações de transparência.

5
EPRS | Serviço de Investigação do Parlamento Europeu

Risco baixo ou mínimo: Sem obrigações


Todos os outros sistemas de IA que apresentam apenas um risco baixo ou mínimo poderiam ser desenvolvidos e
utilizados na UE sem cumprir quaisquer obrigações legais adicionais. No entanto, a lei proposta sobre IA prevê a criação
decódigos de condutaincentivar os fornecedores de sistemas de IA de risco não elevado a aplicarem voluntariamente
os requisitos obrigatórios para sistemas de IA de risco elevado.

Governança, aplicação e sanções


A proposta exige que os Estados-Membros designem uma ou mais autoridades competentes, incluindo um
autoridade supervisora nacional, que seria encarregado de supervisionar a aplicação e implementação
do regulamento, e estabelece umConselho Europeu de Inteligência Artificial (composto por
representantes dos Estados-Membros e da Comissão) a nível da UE. Nacional autoridades de fiscalização
do mercadoseria responsável por avaliar o cumprimento, pelos operadores, das obrigações e requisitos
aplicáveis aos sistemas de IA de alto risco. Teriam acesso a informações confidenciais (incluindo o código-
fonte dos sistemas de IA) e estariam sujeitos a obrigações vinculativas de confidencialidade. Além disso,
eles seriam obrigados a tomar qualquermedidas corretivasproibir, restringir, retirar ou retirar sistemas
de IA que não cumpram a lei relativa à IA ou que, embora conformes, representem um risco para a saúde
ou a segurança das pessoas ou para os direitos fundamentais ou outra proteção do interesse público. Em
caso de incumprimento persistente, os Estados-Membros terão de tomar todas as medidas adequadas
para restringir, proibir, retirar ou retirar do mercado o sistema de IA de alto risco em causa.

Administrativomultasde escalas variadas (até 30 milhões de euros ou 6% do volume de negócios anual total a nível
mundial), dependendo da gravidade da infração, são estabelecidas como sanções pelo incumprimento da lei relativa à
IA. Os Estados-Membros teriam de estabelecer regras em matéria de sanções, incluindo multas administrativas, e tomar
todas as medidas necessárias para garantir que sejam aplicadas de forma adequada e eficaz.

Medidas de apoio à inovação


A Comissão propõe que os Estados-Membros, ou a Autoridade Europeia para a Protecção de Dados, possam
estabelecer umsandbox regulatório, ou seja, um ambiente controlado que facilita o desenvolvimento, o teste e
a validação de sistemas de IA inovadores (durante um período de tempo limitado) antes de serem colocados no
mercado. O sandboxing permitirá aos participantes utilizar dados pessoais para promover a inovação em IA, sem
prejuízo daGDPR requisitos. Outras medidas são adaptadas especificamente para fornecedores de pequena
escala einiciantes

Comitês consultivos
O Comité Económico e Social Europeu adoptou o seuopinião sobre a proposta de lei sobre inteligência
artificial em 22 de setembro de 2021.

Parlamentos nacionais
O prazo para apresentação deopiniões fundamentadas por motivos de subsidiariedade foi em 2 de
setembro de 2021. Foram recebidas contribuições da República ChecaCâmara dos Deputados e o Tcheco
Senado , o portuguesParlamento , o polonêsSenado e o alemãoConselho Federal .

Opiniões das partes interessadas21

Definições
As definições são um ponto controverso de discussão entre as partes interessadas. A Big Data Value Association, uma
organização internacional sem fins lucrativos dirigida pela indústria,estressa que a definição de sistemas de IA é
bastante ampla e abrangeria muito mais do que aquilo que é subjetivamente entendido como IA, incluindo os mais
simples algoritmos de pesquisa, classificação e encaminhamento, que estariam, consequentemente, sujeitos a novas
regras. Além disso, pedem esclarecimentos sobre como os componentes de sistemas de IA maiores (como

6
Lei de inteligência artificial

como componentes de IA pré-treinados de outros fabricantes ou componentes não lançados separadamente)


devem ser tratados. AmCham, a Câmara Americana de Comércio na UE, sugere evitar o excesso de
regulamentação, adotando uma definição mais restrita de sistemas de IA, concentrando-se estritamente em
aplicações de IA de alto risco (e não estendida a aplicações de IA que não sejam de alto risco, ou software em em
geral). AccessNow, uma associação que defende os direitos digitais dos usuáriosargumenta as definições de
“reconhecimento de emoções” e “categorização biométrica” são tecnicamente falhas e recomenda ajustes.

Abordagem baseada em risco

Embora geralmente acolham favoravelmente a abordagem baseada no risco proposta pela lei sobre IA, algumas partes
interessadas apoiam uma proibição e regulamentação mais amplas dos sistemas de IA. Organizações de direitos civischamar
para a proibição da utilização indiscriminada ou arbitrariamente direcionada de dados biométricos em espaços públicos ou
acessíveis ao público, e para restrições à utilização de sistemas de IA, incluindo para controlo de fronteiras e policiamento
preditivo. Acesse agoraargumenta que as disposições relativas às práticas proibidas de IA (artigo 5.º) são demasiado vagas e
propõe uma proibição mais ampla da utilização da IA para categorizar pessoas com base em dados fisiológicos,
comportamentais ou biométricos, para reconhecimento de emoções, bem como utilizações perigosas no contexto de
policiamento, migração, asilo e gestão de fronteiras. Além disso, apelam a requisitos mais rigorosos de avaliação de impacto e
de transparência.

A Aliança Europeia de Empresasestressa que existe uma incerteza geral sobre os papéis e responsabilidades dos
diferentes intervenientes na cadeia de valor da IA (desenvolvedores, fornecedores e utilizadores de sistemas de
IA). Isto é particularmente difícil para as empresas que fornecem interfaces de programação de aplicações de uso
geral ou modelos de IA de código aberto que não se destinam especificamente a sistemas de IA de alto risco,
mas que, no entanto, são utilizados por terceiros de uma forma que pode ser considerada de alto risco. Apelam
também à redefinição de “alto risco”, com base nos danos mensuráveis e no impacto potencial. AlgoritmoWatch
sublinhadas que a aplicabilidade de regras específicas não deve depender do tipo de tecnologia, mas do impacto
que esta tem nos indivíduos e na sociedade. Apelam a que as novas regras sejam definidas de acordo com o
impacto dos sistemas de IA e recomendam que cada operador realize uma avaliação de impacto que avalie os
níveis de risco do sistema caso a caso. IA sobre Mudanças Climáticaschamadas que a atenuação e a adaptação às
alterações climáticas sejam tidas em conta nas regras de classificação dos sistemas de IA de alto risco e
imponham requisitos de proteção ambiental.

Proteção do consumidor
A Organização Europeia dos Consumidores, BEUC,estressa que a proposta exige melhorias substanciais para
garantir a protecção do consumidor. A organização defende que a proposta deve ter um âmbito mais amplo e
impor princípios e obrigações básicas (por exemplo, justiça, responsabilização e transparência) a todos os
sistemas de IA, bem como proibir de forma mais abrangente práticas prejudiciais (como a utilização de
pontuação social por entidades privadas e de sistemas remotos de identificação biométrica em espaços
públicos). Além disso, deve ser concedido aos consumidores um forte conjunto de direitos, vias de recurso
eficazes e mecanismos de recurso, incluindo recurso colectivo.

Impacto nos investimentos e nas PME


Existem opiniões opostas sobre o impacto do regulamento proposto no investimento. Aestudar pelo Centro de Inovação
de Dados (que representa grandes plataformas em linha) destaca que os custos de conformidade incorridos ao abrigo
da lei proposta sobre IA provavelmente provocariam um efeito inibidor sobre o investimento em IA na Europa e
poderiam dissuadir particularmente as pequenas e médias empresas (PME) de desenvolvimento de sistemas de IA de
alto risco. De acordo com o Centro para a Inovação de Dados, a lei relativa à IA custaria à economia europeia 31 mil
milhões de euros nos próximos cinco anos e reduziria os investimentos em IA em quase 20%. No entanto, essas
estimativas dos custos de conformidade são contestadas pelaespecialistas do Centro de Estudos de Política Europeia,
bem como por outroseconomistas . A Aliança Europeia Digital para as PMEavisa contra requisitos de conformidade
excessivamente rigorosos, solicita uma representação eficaz das PME nos procedimentos de definição de normas e que
torne os sandboxes obrigatórios em todos os Estados-Membros da UE.

7
EPRS | Serviço de Investigação do Parlamento Europeu

Pontos de vista acadêmicos e outros


Embora apoiem, em geral, a proposta da Comissão, os críticos apelam a alterações, incluindo a revisão da
definição de «sistemas de IA», a garantia de uma melhor repartição de responsabilidades, o reforço dos
mecanismos de aplicação e a promoção da participação democrática.22Entre as principais questões estão:

Definição de sistemas de IA
A definição jurídica de «sistemas de IA» contida na proposta de lei sobre IA tem sido fortementecriticado . Smuha
e outros alertam que a definição carece de clareza e pode levar à incerteza jurídica, especialmente para alguns
sistemas que não seriam qualificados como sistemas de IA ao abrigo do projeto de texto, embora a sua utilização
possa ter um impacto adverso nos direitos fundamentais.23Para resolver esse problema, os autores propõem
ampliar o escopo da legislaçãoincluir explicitamente todos os sistemas computacionais utilizados nos domínios
de alto risco identificados, independentemente de serem considerados IA. Segundo os autores, a vantagem
estaria em tornar a aplicação das novas regras mais dependente do domínio em que a tecnologia é utilizada e
dos riscos relacionados com os direitos fundamentais, e não de uma técnica computacional específica. Ebers e
outros consideram que o âmbito dos «sistemas de IA» é demasiado amplo, o que pode levar aincerteza jurídica
para desenvolvedores, operadores e usuários de sistemas de IA e, em última análise, ao excesso de
regulamentação.24Apelam aos legisladores da UE para que isentem os sistemas de IA desenvolvidos e utilizados
parapropósitos de pesquisaesoftware livre(OSS) da regulamentação. Outros comentaristaspergunta se a
definição proposta de «sistemas de IA» é verdadeiramentetecnologia neutra uma vez que se refere
principalmente a “software”, omitindo potenciais desenvolvimentos futuros de IA.

Abordagem baseada em risco

Os académicos também apelam a alterações, alertando que a abordagem baseada no risco proposta pela
Comissão não garantiria um elevado nível de proteção dos direitos fundamentais. Smuha e outros
argumentam que a proposta nem sempre reconhece com precisão os erros e danos associados aos
diferentes tipos de sistemas de IA e, portanto, não atribui responsabilidades de forma adequada. Entre
outras coisas, elesrecomendar acrescentando um procedimento que permite à Comissãoampliar a lista
de sistemas de IA proibidose propor a proibição dos sistemas manipulativos de IA existentes (por
exemplo, deepfakes), pontuação social e alguns dados biométricos. Ébers e outroschamar para
classificação mais detalhada dos riscospara facilitar a autoavaliação e o apoio da indústria, bem como
proibindo mais sistemas de IA(por exemplo, biometria), inclusive no contexto deuso privado. Além disso,
alguns sublinham que o projecto de legislação não abordariscos sistêmicos de sustentabilidadecriado
pela IA, especialmente na área do clima e da proteção ambiental.25

Os especialistas parecem particularmente preocupados com a implementação do Artigo 5 (práticas proibidas) e do


Artigo 6 (práticas regulamentadas de alto risco). Uma das principais preocupações levantadas é que as regras relativas a
práticas proibidas e de alto risco podem revelar-se ineficazes na prática, porque a avaliação do risco é deixada ao
cuidado do fornecedor.auto-avaliação. Veale e Zuiderveen Borgesiusavisar que a maioria dos fornecedores pode
classificar arbitrariamente a maioria dos sistemas de alto risco como aderentes às regras, utilizando apenas
procedimentos de autoavaliação. Smuha e outrosrecomendar explorar se certos sistemas de alto risco não
beneficiariam de uma avaliação de conformidade realizada por umentidade independenteantes de sua implantação.

Regulamentação biométrica.Um estudo encomendado pelo Parlamento Europeurecomenda , nomeadamente,


habilitar a Comissão a adaptar periodicamente a lista de práticas proibidas de IA, sob a supervisão do Parlamento
Europeu, e a adotar uma lista mais abrangente de «aplicações restritas de IA» (incluindo identificação biométrica remota
em tempo real, sem limitação para fins de aplicação da lei). A regulamentação das tecnologias de reconhecimento facial
(FRTs) é uma das questões mais controversas.26A Autoridade Europeia para a Proteção de Dados (AEPD) e o Comité
Europeu para a Proteção de Dados (CEPD)chamado para uma proibição geral de qualquer utilização de IA para o
reconhecimento automatizado de características humanas em espaços acessíveis ao público.

8
Lei de inteligência artificial

Estrutura de governação e mecanismos de aplicação e reparação


Ébers e outrosestresse que a IA atuecarece de estruturas de aplicação eficazes, uma vez que a Comissão
propõe deixar a avaliação preliminar dos riscos, incluindo a qualificação como de alto risco, para a autoavaliação
dos prestadores. Levantam também preocupações sobre a excessiva delegação de poder regulamentar em
organizações privadas de normalização europeias (OEN), devido à falta de supervisão democrática, à
impossibilidade de as partes interessadas (organizações da sociedade civil, associações de consumidores)
influenciarem o desenvolvimento de normas, e à falta de meios judiciais para controlá-los uma vez adoptados.
Em vez disso, recomendam que a lei sobre IA codifique um conjunto de requisitos juridicamente vinculativos para
sistemas de IA de alto risco (por exemplo, formas proibidas de discriminação algorítmica), que os OEN podem
especificar através de normas harmonizadas. Além disso, defendem que os decisores políticos europeus devem
reforçar a supervisão democrática do processo de normalização.

Os comentadores deploram uma lacuna crucial na lei da IA, que não prevêdireitos individuais de execução.
Ébers e outrosestresse que os indivíduos afetados pelos sistemas de IA e pelas organizações de direitos civis não
têmdireito de reclamaràs autoridades de fiscalização do mercado ou processar um fornecedor ou utilizador por
incumprimento dos requisitos. Da mesma forma, Veale e Zuiderveen Borgesiusavisar que, embora algumas
disposições do projeto de lei visem impor obrigações aos utilizadores de sistemas de IA, hánenhum mecanismo
de reclamação ou recurso judicialdisponível para eles. Smuha e outros recomendar alterar a proposta para
incluir, entre outros, umdireito explícito de reparação para indivíduosedireitos de consulta e participação
dos cidadãos da UErelativamente à decisão de alterar a lista de sistemas de alto risco constante do Anexo III.

Também tem sidoestressado que o texto tal como estácarece de coordenação adequadamecanismos entre
autoridades, em particular no que diz respeitoinfração transfronteiriça. Consequentemente, a competência das
autoridades relevantes a nível nacional deverá ser clarificada. Além disso, a orientação seria desejável sobre
como garantir o cumprimento dos requisitos de transparência e informação, ao mesmo tempo queproteger os
direitos de propriedade intelectual e segredos comerciais(por exemplo, até que ponto o código-fonte deve
ser divulgado), sobretudo para evitar práticas divergentes nos Estados-Membros.

Processo legislativo
OConselhoadotou seuposição comum em dezembro de 2022. O Conselho propõe, nomeadamente:

- restringir a definição de sistemas de IA a sistemas desenvolvidos através de abordagens de aprendizagem


automática e abordagens baseadas na lógica e no conhecimento;
- alargar aos intervenientes privados a proibição da utilização de IA para pontuação social e acrescentar casos
em que a utilização de sistemas de identificação biométrica remota «em tempo real» em espaços acessíveis ao
público possa ser excecionalmente permitida;
- impor requisitos aos sistemas de IA de uso geral através de atos de execução;
- acrescentar novas disposições para ter em conta situações em que os sistemas de IA podem ser
utilizados para muitos fins diferentes (IA de uso geral); e
- simplificar o quadro de conformidade da Lei da IA e reforçar, em particular, o papel
do Conselho da IA.

EmParlamento, o processo foi atribuído conjuntamente (nos termos do artigo 58.º) à Comissão do Mercado
Interno e da Proteção dos Consumidores (IMCO) e à Comissão das Liberdades Cívicas, da Justiça e dos Assuntos
Internos (LIBE), com Brando Benifei (S&D, Itália) e Dragos Tudorache, Renew, Roménia) nomeados relatores.
Além disso, a Comissão dos Assuntos Jurídicos (JURI), a Comissão da Indústria, da Investigação e da Energia
(ITRE) e a Comissão da Cultura e da Educação (CULT) estão associadas ao trabalho legislativo nos termos do
artigo 57.º, com competências partilhadas e/ou exclusivas. para aspectos específicos da proposta. Parlamento
adotado sua posição negocial (499 votos a favor, 28 contra e 93 abstenções) em 14 de junho de 2023, com
resultados substanciaisalterações ao texto da Comissão, incluindo:

- Definições. O Parlamento alterou a definição de sistemas de IA para alinhá-la com a


definiçãoacordado pela OCDE. Além disso, o Parlamento consagra uma definição de

9
EPRS | Serviço de Investigação do Parlamento Europeu

«sistema de IA de uso geral» e «modelo de base» no direito da UE.


- Práticas proibidas. O Parlamento alterou substancialmente a lista de sistemas de IA proibidos na UE.
O Parlamento pretende proibir a utilização de sistemas de identificação biométrica na UE, tanto para
utilização em tempo real como ex-post (exceto em casos de criminalidade grave e autorização pré-
judicial para utilização ex-post) e não apenas para utilização em tempo real, tal como proposto pela
Comissão. Além disso, o Parlamento pretende proibir todos os sistemas de categorização biométrica
que utilizem características sensíveis (por exemplo, género, raça, etnia, estatuto de cidadania, religião,
orientação política); sistemas de policiamento preditivo (baseados em perfis, localização ou
comportamento criminoso anterior); sistemas de reconhecimento de emoções (usados na aplicação
da lei, gestão de fronteiras, locais de trabalho e instituições educacionais); e sistemas de IA que usam
coleta indiscriminada de dados biométricos de mídias sociais ou imagens de CFTV para criar bancos de
dados de reconhecimento facial.
- Sistemas de IA de alto risco. Embora a Comissão tenha proposto categorizar automaticamente como de alto
risco todos os sistemas em determinadas áreas ou casos de utilização, o Parlamento acrescenta o requisito
adicional de que os sistemas devem representar um «risco significativo» para serem qualificados como de alto
risco. Os sistemas de IA que correm o risco de prejudicar a saúde, a segurança, os direitos fundamentais ou o
ambiente das pessoas seriam considerados abrangidos por áreas de alto risco. Além disso, os sistemas de IA
utilizados para influenciar os eleitores em campanhas políticas e os sistemas de IA utilizados em sistemas de
recomendação exibidos por plataformas de redes sociais, designadas como plataformas em linha de muito
grande dimensão no âmbito doLei dos Serviços Digitais , seriam considerados sistemas de alto risco. Além
disso, o Parlamento impõe àqueles que implementam um sistema de alto risco na UE a obrigação de realizar
uma avaliação de impacto nos direitos fundamentais.
- IA de uso geral, IA generativa e modelos básicos.O Parlamento estabelece uma
regulamentação em camadas para IA de uso geral. O Parlamento impõe uma obrigação aos
fornecedores demodelos de fundação assegurar uma proteção sólida dos direitos fundamentais,
da saúde, da segurança, do ambiente, da democracia e do Estado de direito. Serão obrigados a
avaliar e atenuar os riscos que os seus modelos implicam, a cumprir alguns requisitos de
concepção, informação e ambientais e a registar esses modelos numa base de dados da UE.
Além disso, modelos de IA de base generativa (como ChatGPT) que usamgrandes modelos de
linguagem (LLMs) para gerar arte, música e outros conteúdos estariam sujeitos a rigorosas
obrigações de transparência. Os fornecedores de tais modelos e de conteúdos generativos
teriam de divulgar que o conteúdo foi gerado pela IA e não por seres humanos, treinar e
conceber os seus modelos para evitar a geração de conteúdos ilegais e publicar informações
sobre a utilização de dados de formação protegidos pela lei de direitos de autor. Por último,
todos os modelos de base devem fornecer todas as informações necessárias para que os
fornecedores a jusante possam cumprir as suas obrigações ao abrigo da lei relativa à IA.
- Governança e aplicação. As competências das autoridades nacionais seriam reforçadas, uma
vez que o Parlamento lhes conferiria o poder de solicitar acesso aos modelos de formação e
formação dos sistemas de IA, incluindo os modelos básicos. O Parlamento propõe também a
criação de um Gabinete de IA, um novo órgão da UE para apoiar a aplicação harmonizada da lei
relativa à IA, fornecer orientação e coordenar investigações transfronteiriças conjuntas. Além
disso, os deputados procuram reforçar os direitos dos cidadãos de apresentar queixas sobre
sistemas de IA e de receber explicações sobre decisões baseadas em dados de alto risco.
Sistemas de IA que impactam significativamente os seus direitos.

- Pesquisa e inovação. Para apoiar a inovação, o Parlamento concorda que as atividades de


investigação e o desenvolvimento de componentes de IA gratuitos e de código aberto ficariam
largamente isentos do cumprimento das regras da lei sobre IA.

10
Lei de inteligência artificial

Últimas questões do debate político. O recente e rápido desenvolvimentointeligência artificial de uso geral tecnologias
enquadrou o debate político em torno, inter alia,definindo propósito geral Modelos de IA, a aplicação da UEdireito autoral
estrutura paraIA generativa, como garantir modelos de fundaçãoconformidade com os princípios do AI Act e o design de
soluções eficientesprocedimentos de auditoria paragrandes modelos de linguagem(LLM). Um risco deexcesso de
regulamentaçãoprejudicial para o investimento em IA na UE tem sidoidentificado devem ser impostas obrigações
excessivamente rigorosas de avaliação, mitigação e gestão de riscosmodelos de fundaçãoe nas PME. Como definir regras pró-
competitivas parasandbox eCódigo aberto Os sistemas de IA também foram discutidos. Enquanto existempreocupações que a
IA representa riscos à escala social semelhantes aos das armas nucleares, apelos para uma pausa no desenvolvimento da IA
foram feitos porsociedade civil organizações,Especialistas em IA e executivos de tecnologia. A questão de como abordar
aplicações de IA militares e de dupla utilização também foi levantado. Além disso, dado que a regulamentação da UE levará
algum tempo a entrar em vigor, a adopção decódigos de conduta voluntários e de umPacto de IA estão previstos para mitigar
as potenciais desvantagens da IA generativa. Uma questão premente é definir umcomumterminologia para que os
legisladores de todo o mundo tenham o mesmo entendimento das tecnologias que precisam abordar.

ANÁLISE DE APOIO DO EP
Inteligência artificial de uso geral , EPRS, Madiega T., março de 2023.
Reconhecimento biométrico e detecção comportamental , Parlamento Europeu, Departamento Temático dos Direitos dos
Cidadãos e Assuntos Constitucionais, agosto de 2021.

Regulando o reconhecimento facial na UE , EPRS, Madiega TA e Mildebrath HA, setembro de 2021.


Inteligência artificial no direito penal , EPRS, Voronova S., setembro de 2021.
Lei da Inteligência Artificial: Avaliação Inicial da Avaliação de Impacto da Comissão Europeia , Dalli H., EPRS, julho
de 2021.
Inteligência artificial nas fronteiras da UE: Visão geral das aplicações e questões principais , Dumbrava C., EPRS, julho de
2021.

OUTRAS FONTES
Lei de Inteligência Artificial , Parlamento Europeu, Observatório Legislativo (OEIL).
Ebers M., e outros,A proposta da Comissão Europeia para uma lei de inteligência artificial – uma avaliação
crítica por membros da Robotics and AI Law Society (RAILS) , J 4, no 4: 589-603, outubro de 2021.
Smuha N. e outros,Como a UE pode alcançar uma IA juridicamente confiável: uma resposta à proposta da
Comissão Europeia para uma lei de inteligência artificial , Elsevier, agosto de 2021.
Veale M., Zuiderveen Borgesius F.,Desmistificando o projeto de lei da UE sobre IA , 22(4)Revisão Internacional de Direito da
Informática, julho de 2021.

NOTAS FINAIS
1
Ver Comissão Europeia, Proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas
sobre inteligência artificial (lei sobre inteligência artificial)2021/0106 (COD) , Memorando explicativo (proposta da Comissão para
uma lei relativa à IA). Embora a definição exacta de IA seja altamente contestada (ver abaixo), é geralmente reconhecido que a IA
combina uma gama de tecnologias, incluindotécnicas de aprendizado de máquina ,robótica e sistemas automatizados de tomada de
decisão .
2
Ver, por exemplo, Grupo de Peritos de Alto Nível,Diretrizes de Ética para IA Confiável , 2019.
3
Ver Comissão Europeia,Comunicação sobre a criação de confiança na inteligência artificial centrada no ser humano ,
COM(2019) 168.
4
Ver Comissão Europeia,Comunicação sobre a promoção de uma abordagem europeia à inteligência artificial ,
COM(2021) 205.
5
Ver Comissão Europeia,Livro Branco sobre Inteligência Artificial , COM(2020) 65 final.
6
Para uma visão geral, ver H. Dalli,Lei de inteligência artificial , Avaliação inicial de uma avaliação de impacto da Comissão Europeia,
EPRS, Parlamento Europeu, 2021.
7
De acordo com a avaliação de impacto da Comissão, as cinco características específicas da IA são (i) opacidade (capacidade limitada
da mente humana para compreender como funcionam determinados sistemas de IA), (ii) complexidade, (iii) adaptação contínua e
imprevisibilidade, (iv) comportamento autónomo e (v) dados (dependência funcional dos dados e da qualidade dos dados).
8
VerProposta da Comissão para uma lei sobre IA, exposição de motivos e considerandos 1 e 5. Para
9
a adoção de um conjunto harmonizado de requisitos para sistemas de IA.
10
Pela adoção de regras específicas para o tratamento de dados pessoais no âmbito da identificação biométrica.

11
EPRS | Serviço de Investigação do Parlamento Europeu

11
A proposta complementa a legislação sectorial em matéria de segurança dos produtos, baseada no novo quadro legislativo (QNL), incluindo o
Diretiva Geral de Segurança de Produtos , oDiretiva Máquinas , oRegulamento de Dispositivos Médicos e aQuadro da UE relativo à
homologação e fiscalização do mercado de veículos a motor . A Lei da IA também faz parte de um quadro regulamentar mais amplo da UE
que inclui, além disso, a proposta de um novoDiretiva de responsabilidade de IA e a proposta de revisão da directiva sobre a responsabilidade
dos produtos.
12
Ver artigo 2.º. O regulamento proposto aplicar-se-ia também às instituições, organismos, órgãos e agências da União que atuem como fornecedores ou
utilizadores de sistemas de IA.
13
Isto abrange o caso de um serviço (digitalmente) fornecido por um sistema de IA localizado fora da UE.
14
Ver Conselho da Europa,Estudo de viabilidade , Comité Ad hoc sobre Inteligência Artificial, CAHAI(2020)23 . OCDE,
15
Recomendação do Conselho de Inteligência Artificial , 2019. Ver artigo 3.º, n.º 1, e considerando 6.
16

17
Ver avaliação de impacto nas páginas 48-49. Uma abordagem de risco também é adotada nos Estados UnidosLei de Responsabilidade
Algorítmica de 2019 e em 2019Diretiva Canadense sobre Tomada de Decisão Automatizada .
18
Os FRT seriam permitidos (i) para buscas direcionadas de potenciais vítimas de crimes, incluindo crianças desaparecidas, (ii) para
prevenir uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas ou de um ataque terrorista, e (iii)
para a detecção, localização, identificação ou acusação de um autor ou indivíduo suspeito de uma infracção penal referida no
Decisão-quadro relativa ao mandado de detenção europeu .
19
As normas harmonizadas são definidas em conformidade com o Regulamento (UE) n.º 1025/2012 e a Comissão poderia, através de atos de
execução, adotar especificações técnicas comuns em domínios onde não existam normas harmonizadas ou onde seja necessário abordar
questões específicas de segurança ou de direitos fundamentais preocupações.
20
Para uma visão geral, consulte T. Madiega e H. Mildebrath,Regulando o reconhecimento facial na UE , EPRS, setembro de 2021.
21
Esta secção pretende dar uma ideia do debate e não pretende ser um relato exaustivo de todos os diferentes pontos de vista sobre a
proposta. Informações adicionais podem ser encontradas em publicações relacionadas listadas em “Análise de apoio do PE”.
22
Para uma análise aprofundada das propostas e recomendações de alterações, ver N. Smuha e outros,Como a UE pode alcançar uma
IA juridicamente confiável: uma resposta à proposta da Comissão Europeia para uma lei de inteligência artificial , Elsevier, agosto de
2021; M. Ebers e outros,A proposta da Comissão Europeia para uma lei de inteligência artificial – uma avaliação crítica por membros
da Robotics and AI Law Society (RAILS) , J 4, no 4: 589-603, outubro de 2021.
23
N. Smuha e outros, acima nas páginas 14-15. Veja também E. Biber,Máquinas aprendendo o Estado de Direito – UE propõe a primeira lei de
inteligência artificial do mundo , Agosto de 2021. Há também apelos a uma mudança de abordagem, para identificar práticas problemáticas
que levantam questões em termos de direitos fundamentais, em vez de se concentrar em definições; M. Veale e F. Zuiderveen Borgesius.,
Desmistificando o projeto de lei da UE sobre IA , 22(4)Revisão Internacional de Direito da Informática, julho de 2021.
24
Veja M. Ebers e outros, acima.
25
Veja V. Galaz e outros,Inteligência artificial, riscos sistêmicos e sustentabilidade , Vol. 67,Tecnologia na Sociedade, 2021. Para
26
uma visão geral, consulte T. Madiega e H. Mildebrath, acima.

ISENÇÃO DE RESPONSABILIDADE E DIREITOS AUTORAIS

Este documento foi preparado e dirigido aos deputados e funcionários do Parlamento Europeu como material de base
para os ajudar no seu trabalho parlamentar. O conteúdo do documento é da exclusiva responsabilidade do(s) seu(s)
autor(es) e quaisquer opiniões aqui expressas não devem ser interpretadas como representativas de uma posição oficial
do Parlamento.
A reprodução e a tradução para fins não comerciais são autorizadas, desde que a fonte seja citada e o
Parlamento Europeu seja avisado previamente e lhe seja enviada uma cópia.
© União Europeia, 2023. eprs@ep.europa.eu
(contato) www.eprs.ep.parl.union.eu (intranet)
www.europarl.europa.eu/thinktank (Internet)
http://epthinktank.eu (blogue)

Segunda edição. As informações informativas sobre «Legislação da UE em curso» são atualizadas nas principais fases do processo
legislativo.

12

Você também pode gostar