Você está na página 1de 49

Traduzido do Inglês para o Português - www.onlinedoctranslator.

com

GDPRconformidade de
processamentos que incorporam

Inteligência artificial
Uma introdução
(Este documento é uma tradução do original em espanholAdequação ao RGPD de
tratamentos que incorporam Inteligência Artificial )

Fevereiro de 2020
RESUMO
Esta diretriz pretende ser um primeiro levantamento para a conformidade com o GDPR de produtos e
serviços que incorporam componentes de Inteligência Artificial. O rótulo “Inteligência Artificial” é utilizado
para diversos tipos de soluções técnicas, uma das mais características é o Machine Learning ou ML. Hoje
em dia, a IA é mais um componente que pode ser incorporado num processamento realizado por um
responsável pelo tratamento de dados. Em muitos casos, tal componente foi desenvolvido por terceiros. A
IA levanta muitas preocupações entre utilizadores, investigadores, profissionais, autoridades e indústria
no que diz respeito ao cumprimento, aos direitos humanos e à segurança judicial das partes interessadas.
Tais preocupações e dúvidas dificultam o correto desenvolvimento tecnológico.

A diretriz atual não é apenas uma revisão do GDPR, mas também aborda algumas dessas
preocupações em relação à conformidade com a privacidade e aponta os aspectos mais relevantes
relacionados ao design e implementação de processamentos baseados em IA do ponto de vista do GDPR.

A diretriz presta atenção principalmente à base jurídica para o tratamento, informação e


transparência, direitos, decisões automatizadas, definição de perfis, avaliação do impacto na
privacidade e avaliação da proporcionalidade.
Este documento destina-se a controladores de dados que incorporam IA em seus processamentos,
desenvolvedores, processadores de dados e qualquer outro envolvido no processamento de IA.

Palavras-chave: Inteligência Artificial, IA, GDPR, LOPDGDD, direitos, privacidade, ética, proteção de dados,
design, avaliação de impacto, aprendizado de máquina, ML, decisões automatizadas, criação de perfil,
minimização, transparência, precisão, preconceito.

Página: 2 de 49
ÍNDICE

I. INTRODUÇÃO AO QUADRO DE IA E PROTEÇÃO DE DADOS 5


A. Técnicas de IA 5
B. Tratamento de dados através de soluções de IA 6
C. Proteção de dados e dimensão ética 7
D. Definições do GDPR 8
Finalidade do GDPR 8
Dados pessoais 8
Pseudonimização e anonimização 8
Categorias especiais de tratamento de 9
dados pessoais 9
Perfil 9
Decisões automatizadas 10
Controlador de usuários de soluções 10
baseadas em IA 10
Controlador conjunto 10
Processadores 10
Exceção relativa às atividades domésticas 11
E. Ciclo de vida de uma solução de IA 11
F. Processamento de dados pessoais por meio de IA 12
G. Avaliação de soluções baseadas em IA 14
H. Breve resumo das obrigações estabelecidas pelo RGPD 14

II. FUNÇÕES, RELACIONAMENTOS E RESPONSABILIDADES 16


III. CONFORMIDADE 19
A. Legalidade e finalidade limitada 19
Interesse legítimo 20
Categorias especiais 21
Processamento para fins compatíveis 21
B. Informação 22
Informações relevantes sobre a lógica implementada 23
C. Aspectos gerais relativos ao exercício de direitos 23
D. Direito de acesso 24
E. Direito ao apagamento 24
Limitações ao apagamento 25
F. Bloqueio de dados 25
G. Direito à retificação 25
H. Portabilidade 26
I. Tomada de decisão baseada em tratamento automatizado 26

4. GESTÃO DE RISCOS DE PRIVACIDADE 28


A. Avaliação de risco 28
B. Avaliação de impacto na privacidade (PIA) 29
C. Transparência 31
Durante o treinamento 31
Página: 3 de 49
Certificação 31
Decisões automatizadas e criação de perfis do 32
pessoal do controlador de dados 32
O responsável pela proteção de dados como ferramenta de transparência 32
D. Precisão 33
Fatores que afetam a precisão das 33
informações biométricas 34
Combinação de perfil 35
Verificação vs. Validação 35
Avaliação de precisão como processo contínuo 35
E. Minimização 36
Dados de treinamento 36
Técnicas de minimização 37
Extensão das categorias de dados em uma solução baseada em IA Extensão 37
do conjunto de treinamento 38
Dados pessoais na solução baseada em IA 38
F. Segurança 39
Ameaças específicas em componentes de IA 39
Logs ou registros de atividades 40
G. Avaliação da proporcionalidade e da necessidade desse tratamento 41
H. Auditoria 42

V. TRANSFERÊNCIAS INTERNACIONAIS 44
VI. CONCLUSÕES 45
VII. REFERÊNCIAS 46
VIII. ANEXO: SERVIÇOS ATUAIS BASEADOS EM IA 48

Página: 4 de 49
I. INTRODUÇÃO AO QUADRO DE IA E PROTEÇÃO DE DADOS
O termo Inteligência Artificial ou IA foi usado pela primeira vez em 1956 por John McCarthy em
referência à “ciência e engenharia por trás da criação de máquinas inteligentes, especialmente
programas de computador inteligentes”: The High Level Group for Artificial Intelligence (IA – HLEG )
criado pela Comissão Europeia para desenvolver a estratégia europeia sobre Inteligência Artificial
aplica este termo a qualquer “sistemas que apresentam um comportamento inteligente, entendido
como a capacidade de analisar o seu ambiente e realizar ações, com um certo grau de autonomia,
com o objetivo de atingir objetivos específicos”1. Existem outras definições, embora todas possam
ser resumidas na noção de que a IA é a capacidade de uma máquina agir de uma forma que a
mente humana faria, incluindo o aspecto da criatividade e da capacidade de realizar análises e
inferências complexas.2de informações complexas e até incompletas.
Dependendo do âmbito e do campo de aplicação da inteligência artificial, podem distinguir-se
três categorias diferentes de IA: a chamada IA verdadeira, a IA geral e a IA fraca. A IA geral poderia
resolver qualquer tarefa intelectual que pudesse ser resolvida por um ser humano, enquanto a
verdadeira IA ou superinteligência iria além da capacidade humana. O tipo de IA que fez disparar as
aplicações práticas destas práticas é a disciplina conhecida como IA fraca, que, ao contrário da IA
verdadeira e geral, se caracteriza pela capacidade de desenvolver soluções para problemas
específicos e bem definidos.3. Estes tipos de sistemas têm múltiplas aplicações: desde videojogos a
sistemas de defesa, incluindo cuidados de saúde, monitorização industrial, robótica, motores de
busca na web, processamento de linguagem natural, marketing, assistência pessoal, recursos
humanos, otimização de serviços públicos, gestão de energia, gestão ambiental e qualquer outra
atividade que possamos imaginar4. Assim, o âmbito de aplicação das soluções de IA é alargado a
todos os setores, cada um com as suas características específicas e a exigência de cumprimento de
regulamentações tanto a nível geral como setorial.
A implementação da Inteligência Artificial criou dúvidas entre utilizadores, investigadores, especialistas,
autoridades e indústrias relativamente aos aspectos de conformidade, ao respeito pelos direitos dos titulares
dos dados e à segurança jurídica de todas as partes interessadas. Estas dúvidas podem ser um obstáculo para o
desenvolvimento tecnológico adequado e, portanto, é necessário desenvolver diretrizes e manuais que
abordem tais problemas. Neste documento, focaremos em garantir que qualquer processamento, incluindo
componentes fracos de IA, esteja em conformidade com o GDPR.

A. IATÉCNICAS

Existem diferentes abordagens para soluções baseadas em IA: redes neurais, sistemas baseados em
regras, lógica difusa, aprendizado de máquina, sistemas especialistas, sistemas adaptativos, algoritmos
genéticos, sistemas multiagentes, etc., termos que, geralmente, se sobrepõem.5. Todas essas técnicas são
projetadas para alcançar modelos capazes de abordar sistemas complexos que não podemos (ou não
sabemos como) abordar por meio de algoritmos sequenciais. Tais dificuldades podem ser devidas à
complexidade de modelar um comportamento que é função de múltiplas variáveis, de lidar com relações
não lineares (difíceis de aproximar por métodos lineares) e que até mudam ao longo do tempo.

Um dos ramos de IA de maior sucesso em aplicações comerciais é o Machine Learning


(ML). ML projeta modelos preditivos que são capazes de modelar a relação entre o

1Inteligência Artificial para a Europa, Comissão Europeia


2Webster: Inferência: (1) algo que é inferido; (2) o ato ou processo de inferir Inferir: derivar como conclusão de fatos ou premissas
3Neste caso, a inferência pode ser utilizada para resolver um problema de classificação, como identificar indivíduos suspeitos; ou um problema de
agrupamento, como recomendar um produto a um cliente com base no seu histórico de compras; ou um programa de regressão (estimativa de valor), como a
detecção da intenção de voto de uma comunidade.
4No Relatório Anual do AI Index 2018http://cdn.aiindex.org/2018/AI%20Index%202018%20Annual%20Report.pdf um relatório sobre o escopo e o mercado dos
componentes IA pode ser encontrado
5Um sistema especialista pode ser criado modelando o conhecimento de uma série de especialistas aplicando regras de lógica difusa.
Página: 5 de 49
variáveis por meio da análise de um conjunto original de dados, identificando padrões e estabelecendo
critérios de classificação. Uma vez definidos os critérios relevantes, o componente de IA é capaz de fazer uma
inferência a partir de um novo conjunto de dados. O aprendizado de máquina está, portanto, relacionado à
mineração de dados, otimização e técnicas de big data6. Existem diferentes tipos de aprendizado de máquina
(aprendizado supervisionado7, aprendizagem não supervisionada8, aprendizagem reforçada9e suas variantes), e
cada um usa técnicas próprias. Além disso, existem variantes especializadas de ML, como Deep Learning10, e
diferentes modelos de aprendizagem: aprendizagem centralizada, aprendizagem descentralizada ou
aprendizagem federada. Dada uma componente de IA, podemos concluir que se trata de um sistema adaptativo
quando o modelo de inferência é ajustado dinamicamente para cada nova entrada do conjunto de dados,
afinando assim a relação já estabelecida.

B. DPROCESSAMENTO DE ATA POR MEIO DEIASOLUÇÕES

O desenvolvimento e a operação de uma solução de IA podem envolver o processamento de dados de pessoas


singulares, como pode ser o caso de um modelo de marketing ou de perfil eleitoral, ou podem envolver o
processamento de dados de natureza não pessoal, como num modelo de previsão meteorológica que recolhe dados
de estações meteorológicas distribuídas geograficamente.

Qualquer processo automatizado pode afetar pessoas singulares (por exemplo, um sistema de
autenticação) ou não (por exemplo, um sistema de monitorização industrial). Quando o processo
automatizado relevante toma decisões relativas a pessoas singulares, essas decisões podem estar
relacionadas com a interação dessa pessoa com o seu contexto social, como o seu acesso a um
determinado produto ou serviço, ou com a personalização desse serviço, pois é o caso com aplicações de
IA para gestão de um veículo ou personalização de uma televisão. As decisões podem ser de natureza
preditiva relativamente à evolução deste assunto, podem avaliar o estado atual dessa pessoa ou podem
decidir se um conjunto de ações deve ser realizado em relação a ela11.

Além disso, a IA pode desempenhar duas funções no processo de tomada de decisão:


• Pode apoiar o processo de tomada de decisão, fornecendo uma inferência ou perfil em
relação a um indivíduo ou situação e deixando a decisão final para um ser humano.
• Pode tomar e implementar a decisão relevante.
Em qualquer um dos dois cenários acima, a solução de IA nunca atua isoladamente; é sempre parte de
um processamento mais amplo. Além disso, deverá ser implementado fisicamente em um sistema no
qual outras aplicações sejam implementadas, haverá comunicação de dados entre processamentos,
interfaces de usuário, etc. A sinergia que ocorre inerentemente nas implementações incluindo
componentes de IA deve relacionar esses processamentos baseados em IA com grandes dados, Internet
das Coisas, sistemas móveis 5G Edge Computing12e elementos de computação em nuvem. Portanto,
muitos componentes técnicos, mas também fatores humanos, participam diretamente ou de forma
colateral e devem ser levados em conta para determinar as implicações da utilização de um
processamento que inclua elementos de IA.

Por último, há que ter em conta que nem todos os sistemas que tomam decisões automáticas são sistemas
de IA; nem toda IA é aprendizagem de máquina e nem tudo rotulado como IA é na verdade IA13,

6Porém, é possível realizar ML em Small Data desde que seja realizado em um conjunto de dados com alto poder preditivo.
7O sistema é treinado por meio de um conjunto de exemplos nos quais a saída é conhecida. Assim, os algoritmos trabalham em dados rotulados para tentar encontrar uma
função que, fornecidas as variáveis de entrada, atribua a tal data o rótulo de saída apropriado.
8Pretende extrair informações significativas sem qualquer referência a variáveis de saída conhecidas, por meio da exploração da estrutura de tais dados não
rotulados. Baseiam-se em dados não rotulados para os quais não há informação quanto à sua classificação ou evento dependente contínuo. O papel do
algoritmo é descobrir a estrutura interna deste conjunto de dados.
9Há intervenção humana no processo de aprendizagem para recompensar ou punir intervenções parciais.
10Técnica de ML que utiliza múltiplas camadas de processamento não linear, e em que cada camada é adaptada para captura por meio do aprendizado de uma determinada
característica. Essas camadas são organizadas em uma hierarquia do nível de abstração mais baixo ao mais alto.
11Por exemplo, num contexto de saúde, pode prever a evolução de um paciente, realizar um diagnóstico automático após uma exploração ou prescrever um
tratamento específico.
12Técnica de processamento realizada na localização física do dispositivo do usuário ou da fonte de dados ou próximo a ela.
13https://www.elmundo.es/tecnologia/2019/03/12/5c829c0d21efa0760a8b45fa.html
Página: 6 de 49
mas pode ser simplesmente rotulado como tal para fins de marketing ou para implementar outros tipos de
estratégia de negócios.

C. DPROTEÇÃO DA ATA E DIMENSÃO ÉTICA

A proteção das pessoas singulares no que diz respeito ao tratamento dos seus dados pessoais
constitui um direito fundamental. O artigo 8.º, secção 1, da Carta dos Direitos Fundamentais da
União Europeia, e o artigo 16.º, secção 1, do Tratado sobre o Funcionamento da União Europeia
estabelecem que todas as pessoas têm direito à proteção dos dados pessoais que lhes digam
respeito.14.O direito fundamental à proteção de dados pessoais desenvolve-se num quadro
regulamentar que inclui atualmente o Regulamento (UE) 2016/679 do Parlamento Europeu e do
Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao
tratamento de dados pessoais e sobre a livre circulação desses dados, e que revoga a Diretiva
95/46/CE (Regulamento Geral de Proteção de Dados), complementada pela Lei Orgânica 3/2018, de
5 de dezembro, sobre Proteção de Dados Pessoais e Garantia de Direitos Digitais ( LOPDGDD), além
de quaisquer regulamentos específicos do setor que tenham entrado em vigor antes ou depois da
promulgação do GDPR.
Um dos aspectos mais preocupantes da implementação da IA é a sua dimensão ética, no
âmbito da “ética digital”.15. A abordagem ética da IA visa proteger valores como a dignidade, a
liberdade, a democracia, a igualdade, a autonomia para todos os indivíduos e a justiça no que
diz respeito ao governo mecânico. A Comissão Europeia está a trabalhar na definição de uma
Inteligência Artificial confiável e estabeleceu que, para ser considerada como tal, deve cumprir
sete requisitos fundamentais: ação e supervisão humana, segurança e robustez técnica, gestão
de dados e privacidade, transparência, diversidade, não discriminação e equidade, bem-estar
social e ambiental e responsabilização.
Esses requisitos devem ser avaliados de forma contínua ao longo de todo o ciclo de vida de um
sistema de IA e exigem uma vigilância constante, tanto no que diz respeito à legitimação ética e a
qualquer resultado inesperado de atividades de tratamento legítimas, como ao impacto colateral de
tais atividades de tratamento num contexto social. ambiente, além da finalidade, duração e escopo
pretendidos.
Ou seja, as soluções de IA devem ser analisadas tanto por si mesmas como no âmbito do
processamento onde estão integradas, bem como a relação desse processamento com o seu
contexto:
• No que diz respeito aos valores e princípios éticos que dependem das diferenças culturais.
• Em relação aos requisitos de qualidade devido ao contexto em que o serviço relevante é
implantado.
• No que diz respeito a quaisquer outros aspectos decorrentes da interligação massiva de
componentes e processamentos.

Um aspecto crítico dos sistemas de IA é a possível existência de preconceitos. Um preconceito é um desvio


apropriado num processo de inferência e é particularmente preocupante quando, por exemplo, resulta na
discriminação de um grupo em favor de outro.16. Este problema não é exclusivo dos sistemas de IA, mas é geral
a todos os processos de tomada de decisão, incluindo aqueles baseados em humanos ou automatizados sem
IA.

No entanto, existem outros tipos de preconceito que podem ser ainda mais preocupantes, e esse é o preconceito
na interpretação dos resultados da IA. O preconceito humano significa assumir os resultados da IA como

14Considerando 1 do RGPD.
Armas de destruição matemática: como o big data aumenta a desigualdade e ameaça a democracia, Cathy O'Neil, Broadway Books 2016
15

16''discriminar de forma sistemática e injusta certos indivíduos ou grupos de indivíduos em favor de outros. Um sistema discrimina injustamente
se negar uma oportunidade ou um bem ou se atribuir um resultado indesejável a um indivíduo ou grupo de indivíduos por motivos que são
irracionais ou inadequados”.Friedman, B. e Nissenbaum, H. (1996). Viés em sistemas de computador. Transações ACM em Sistemas de Informação
(TOIS), 14(3), 330-347).
Página: 7 de 49
verdadeiro e certo sem uma análise crítica, e dotado de um princípio de infalibilidade que
surge das expectativas criadas por tais sistemas.
O alcance e a profundidade dos valores éticos estão em grande parte enraizados no ambiente cultural em
que são desenvolvidos como pessoas. A vida privada dos indivíduos constitui um aspecto importante dos
princípios éticos. Da mesma forma, a percepção de tais valores defendidos por cada sociedade pode ser muito
diferente17, embora certos princípios aceites a nível mundial tenham sido gradualmente acordados a nível
internacional18.

D. GDPRDEFINIÇÕES

O RGPD, principalmente no seu artigo 4.º, estabelece um quadro de conceitos e definições.


Não obstante a referência a tal artigo, alguns deles são desenvolvidos a seguir por serem de
especial interesse no que diz respeito à IA:

Objetivo do GDPR

O artigo 1.º do RGPD estabelece que o objetivo deste regulamento é proteger os direitos e
liberdades fundamentais das pessoas singulares, especificamente em relação à proteção dos seus
dados pessoais.19.

Dados pessoais

Os dados pessoais são definidos pelo artigo 4.1. do RGPD como“qualquer informação relativa a uma pessoa
singular identificada ou identificável («titular dos dados»); uma pessoa singular identificável é aquela que pode
ser identificada, direta ou indiretamente, em particular por referência a um identificador como um nome, um
número de identificação, dados de localização, um identificador online ou a um ou mais fatores específicos da
natureza física, fisiológica, identidade genética, mental, económica, cultural ou social dessa pessoa singular”.

Esta definição é desenvolvida em profundidade emParecer 4/2007 sobre o conceito de dados pessoais do
Grupo de Trabalho do Artigo 29.º (WP29).

Pseudonimização e anonimato

A pseudonimização é definida no artigo 4.5 do GDPR como“o tratamento de dados pessoais de tal
forma que os dados pessoais já não possam ser atribuídos a um titular de dados específico sem a
utilização de informações adicionais, desde que essas informações adicionais sejam mantidas
separadamente e estejam sujeitas a medidas técnicas e organizacionais para garantir que o os dados
pessoais não são atribuídos a uma pessoa singular identificada ou identificável”.

A anonimização é o processo que permite eliminar ou minimizar o risco de reidentificação de um


indivíduo com base nos seus dados pessoais, eliminando qualquer referência direta ou indireta à
sua identidade, mas mantendo a exatidão dos resultados do tratamento desses dados. Isto

17Em alguns países, o acesso à informação fiscal é um dos dados pessoais mais protegidos, enquanto noutros países é considerada
informação pública. “Noruega: o país onde nenhum salário é secreto”https://www.bbc.com/news/magazine-40669239
18Artigo 12 da Declaração Universal dos Direitos Humanos. Convenção para a Proteção dos Direitos Humanos e das Liberdades Fundamentais (1950). Pacto
Internacional sobre Direitos Civis e Políticos (1966) Resolução 509 do Conselho da Europa sobre direitos humanos e desenvolvimentos científicos e
tecnológicos modernos. Recomendação da OCDE relativa às directrizes que regem a protecção da privacidade e dos fluxos transfronteiriços de dados pessoais
(1980; actualizada em 2002). Convenção 108 do Conselho da Europa para a Proteção dos Indivíduos no que diz respeito ao Processamento Automático de
Dados Pessoais (1981). Resolução da Assembleia Geral das Nações Unidas, de 14 de janeiro de 1990, relativa às Diretrizes para a Regulamentação de Arquivos
Informatizados de Dados Pessoais.
19Artigo 1.º Objecto e objectivo 1. O presente regulamento estabelece regras relativas à protecção das pessoas singulares no que diz respeito ao tratamento
de dados pessoais e regras relativas à livre circulação de dados pessoais 2. O presente regulamento protege os direitos e liberdades fundamentais das
pessoas singulares. pessoas e, em particular, o seu direito à protecção dos dados pessoais. …
Página: 8 de 49
seria ideal que, além de impedir a identificação de pessoas, o tratamento de dados anonimizados
mantivesse uma qualidade adequada dos resultados20.

Ambas as definições são complementadas pelas disposições do WP2)Parecer 05/2014


sobre Técnicas de Anonimização e aOrientações e garantias para os processos de
anonimização de dados pessoais publicado pela AEPD.

Categorias especiais de dados pessoais

O artigo 9.º do RGPD estabelece que serão consideradas categorias especiais de dados pessoais
aquelas “revelar origem racial ou étnica, opiniões políticas, crenças religiosas ou filosóficas, ou
filiação sindical, e o tratamento de dados genéticos21, dados biométricos22para efeitos de
identificação única de uma pessoa singular, dados relativos à saúde23ou dados relativos à vida
sexual ou orientação sexual de uma pessoa física.”
O referido artigo estabelece uma proibição genérica de tratamento desses dados. Tal
proibição é alargada no artigo 9.º da LOPDGDD, salvo os requisitos descritos nas secções
2, 3 e 4 do artigo 9.º do RGPD e nas secções 1 e 2 do artigo 9.º da LOPDGDD.

Em processamento

O artigo 4.2 do RGPD significa qualquer operação ou conjunto de operações realizadas sobre dados
pessoais ou sobre conjuntos de dados pessoais, por meios automatizados ou não, tais como recolha,
registo, organização, estruturação, armazenamento, adaptação ou alteração, recuperação, consulta,
utilização, divulgação por transmissão, difusão ou disponibilização de outra forma, alinhamento ou
combinação, restrição, apagamento ou destruição.

A criação de perfis (conforme definido abaixo) e a tomada de decisões relativas a uma pessoa física são
consideradas processamento de acordo com o Considerando 2424e 7225do RGPD.

Perfil

Artigo 4.4. do RGPD define perfil como qualquer forma de tratamento automatizado de dados pessoais que
envolva a utilização de dados pessoais para avaliar determinados aspectos pessoais referentes a uma pessoa
singular, especialmente para analisar ou prever aspectos relativos a essa pessoa singular26.

Qualquer processamento que envolva criação de perfil é caracterizado por três elementos27:
• Deve consistir num tratamento automatizado, incluindo as atividades de tratamento em que
estejam parcialmente envolvidos seres humanos.
• Deve ser realizada com referência a dados pessoais;

20“Diretrizes e garantias para os processos de anonimização de dados pessoais” (AEPD 2016)


21Artigo 4.13: dados pessoais relativos às características genéticas herdadas ou adquiridas de uma pessoa singular que forneçam informações
únicas sobre a fisiologia ou a saúde dessa pessoa singular e que resultem, em particular, de uma análise de uma amostra biológica da pessoa
singular em pergunta.
22Artigo 4.14: dados pessoais resultantes de tratamento técnico específico relativo às características físicas, fisiológicas ou comportamentais de
uma pessoa singular, que permitam ou confirmem a identificação única dessa pessoa singular, tais como imagens faciais ou dados
dactiloscópicos.
23Artigo 4.15: dados pessoais relacionados com a saúde física ou mental de uma pessoa singular, incluindo a prestação de serviços de saúde, que
revelem informações sobre o seu estado de saúde.
24Considerando 24 do RGPD: “(…) potencial utilização posterior de técnicas de tratamento de dados pessoais que consistem na definição de perfis de uma
pessoa singular, nomeadamente para tomar decisões que lhe digam respeito ou para analisar ou prever as suas preferências e comportamentos pessoais e
atitudes.”
25Considerando 72 A definição de perfis está sujeita às regras do presente regulamento que regem o tratamento de dados pessoais, tais como os fundamentos jurídicos do
tratamento ou os princípios de proteção de dados. O Comité Europeu para a Proteção de Dados criado pelo presente regulamento (o «Comité») deverá poder emitir
orientações nesse contexto.
26Artigo 4.4 «definição de perfis»: qualquer forma de tratamento automatizado de dados pessoais que consiste na utilização de dados pessoais para avaliar certos aspectos
pessoais relativos a uma pessoa singular, em particular para analisar ou prever aspectos relativos ao desempenho dessa pessoa singular no trabalho, situação económica,
saúde, preferências pessoais, interesses, confiabilidade, comportamento, localização ou movimentos;.
27Diretrizes sobre tomada de decisão individual automatizada e definição de perfis para efeitos do Regulamento 2016/679. Grupo de Trabalho do Artigo 29.º
Página: 9 de 49
• O objetivo desse perfil deve ser avaliar os aspectos pessoais de uma pessoa física.

Decisões automatizadas

Decisões baseadas exclusivamente em processamento automatizado representam a capacidade de


tomar decisões por meio de soluções tecnológicas sem intervenção humana28. Considerando que os
artigos 71.º e 71.º e o artigo 22.º do RGPD limitam e consagram o direito do titular dos dados de não ficar
sujeito a decisões baseadas exclusivamente no tratamento automatizado29que tenham consequências
jurídicas ou afetem significativamente o titular dos dados. O perfil automático está incluído nesta
estrutura de decisões automatizadas. O Grupo de Trabalho do Artigo 29 avaliou as implicações deste
direito no WP29Orientações sobre tomada de decisão individual automatizada e definição de perfis para
efeitos do Regulamento 2016/679 .

No entanto, deve-se levar em conta que as decisões automatizadas podem envolver a criação de perfis ou não, e a
criação de perfis pode envolver decisões automatizadas ou não.

Usuários de soluções baseadas em IA

Do ponto de vista da proteção de dados, os utilizadores de atividades de tratamento baseadas em IA podem ser
classificados da seguinte forma:

• Organizações que utilizam soluções de IA em dados de titulares de dados (funcionários, clientes ou


outros); por exemplo, uma empresa que utiliza IA para determinar políticas de marketing com base
nas preferências dos seus clientes.

• Pessoas singulares que adquiram um produto ou subscrevam um serviço que inclua uma
componente de IA para efeitos de tratamento dos seus próprios dados pessoais; por
exemplo, uma pessoa que compra faixas de atividades para planejar seu treinamento.

Controlador

O controlador de dados é definido pelo artigo 4.730do RGPD como pessoa que determina as
finalidades e os meios de tratamento dos dados pessoais, e o âmbito das suas obrigações, conforme
definido no artigo 24.º, inclui, entre outros, “implementar medidas técnicas e organizacionais
adequadas para garantir e poder demonstrar que o processamento é realizado em conformidade
com o presente regulamento”

Controlador conjunto

O RGPD inclui, no seu artigo 26.º, as figuras do responsável pelo tratamento como aqueles (dois ou mais)
responsáveis pelo tratamento que determinam conjuntamente as finalidades e os meios de tratamento. Os
responsáveis conjuntos pelo tratamento devem acordar mutuamente, de forma transparente, as respetivas
responsabilidades no cumprimento das obrigações impostas pelo RGPD.

Processadores

Os processadores de dados são aquelas pessoas que processam dados pessoais em nome do controlador,
conforme estabelecido no artigo 4.831do RGPD. O âmbito das suas obrigações é definido pelo artigo

28Orientações sobre tomada de decisão individual automatizada e definição de perfis para efeitos do Regulamento 2016/679
29Paraconsiderar que houve intervenção humana, a supervisão da decisão deve ser realizada por pessoa competente e autorizada a
modificar a decisão, e a sua intervenção deve ser significativa e não puramente simbólica.
30Artigo 4.7 «responsável pelo tratamento de dados» ou «responsável pelo tratamento»: significa a pessoa singular ou colectiva, autoridade pública, agência ou outro organismo que,

isoladamente ou em conjunto com outros, determina as finalidades e os meios de tratamento de dados pessoais; sempre que as finalidades e os meios desse tratamento sejam determinados

pelo direito da União ou do Estado-Membro, o responsável pelo tratamento ou os critérios específicos para a sua nomeação podem ser previstos pelo direito da União ou do Estado-Membro.

31Artigo 4.8 «processador de dados» ou «processador»: significa uma pessoa física ou jurídica, autoridade pública, agência ou outro órgão que processa dados pessoais em
nome do responsável pelo tratamento.
Página: 10 de 49
28, que estabelece, entre outros aspectos, que sua relação com o controlador “será regido por um contrato ou
outro ato jurídico ao abrigo do direito da União ou do Estado-Membro, que vincule o subcontratante no que diz
respeito ao responsável pelo tratamento”.

Exceção relativa às atividades domésticas

Artigo 2.c. estabelece, conforme desenvolvido no Considerando 18, que as disposições do RGPD não
se aplicam quando o tratamento relevante é realizado por uma pessoa singular no âmbito de uma
atividade puramente pessoal ou doméstica.

Tais atividades podem ser, por exemplo “correspondência e posse de endereços, ou


redes sociais e atividades on-line realizadas no contexto de tais atividades”e, em geral,
aqueles“sem ligação a uma atividade profissional ou comercial”.
No entanto, deve considerar-se que a exceção relativa às atividades domésticas não se aplica aos
responsáveis pelo tratamento ou ao subcontratante que forneçam os meios necessários para o tratamento de
dados pessoais no que diz respeito a tais atividades.

E. euCICLO IFE DE UMIASOLUÇÃO

Uma vez definidos alguns conceitos de estrutura relevantes, podemos proceder à análise das
atividades de processamento que incluem uma solução baseada em IA ou um componente de IA.

Uma solução baseada em IA significa um elemento de um processamento de dados que


deve ser incluído em pelo menos uma das fases de um processamento. Em alguns casos, a
componente IA deve ser desenvolvida especificamente para esse tratamento. Em muitos
outros casos, tal componente deverá ser desenvolvido por terceiros que não sejam o
controlador32. A componente IA não está isolada, mas sim integrada num tratamento
específico com outras componentes, tais como recolha de dados, sistemas de ficheiros,
módulos de segurança, interfaces de utilizador, etc. controladores33.
O ciclo de vida de um sistema de IA34, desde a sua criação até à sua extinção, passará por diferentes
fases, que são partilhadas por todos os desenvolvimentos tecnológicos, mas que, dependendo da
tecnologia de IA específica, podem ter certas especificidades. Essas etapas são:
• Design e análise, onde são definidos os requisitos funcionais e não funcionais da solução
baseada em IA. Estes serão estabelecidos pelos objetivos comerciais decorrentes do
tratamento onde a componente de IA será incluída ou do mercado onde pretende ser
comercializada. Deve incluir planejamento do projeto, requisitos legais, etc.
• Desenvolvimento, incluindo pesquisa, prototipagem, design, testes, treinamento e validação.
Nem todas estas fases estarão presentes em todos os casos, e a presença ou não de uma
determinada fase dependerá da solução específica baseada em IA adotada. Por exemplo, a
fase de formação deve ser incluída para componentes de IA baseados em ML.
• Operação, incluindo a implementação de determinadas ações, algumas das quais
poderiam ser realizadas em paralelo: integração, produção, implantação, inferência,
decisão, manutenção e evolução35.
• Remoção final de processamento ou componente.

32Como o desenvolvimento de chatbots ou plataformas de conversação de atendimento ao cliente.


33Amazon Web Services oferece módulos de IA para serem incluídos em procedimentos de processamento, conforme exibido em sua página da web “Não é necessário
aprendizado de máquina”https://aws.amazon.com/es/machine-learning/ai-services/ .
34As etapas do ciclo de vida de um componente de IA, que é um componente do procedimento de processamento, com as etapas em que o processamento
pode ser dividido para fins de análise. A AEPDO Guia Prático para Avaliações de Impacto na Proteção de Dados expõe a divisão do processamento em fases,
desde uma abordagem baseada em dados até a coleta, classificação/armazenamento de dados, atribuição de dados a terceiros e destruição de dados. Esta é
uma divisão geral, uma abordagem inicial para analisar o conjunto de processamento em operação. Cada desenho de processamento deve adaptar esta
divisão geral às suas condições específicas. Por exemplo, a fase de desenvolvimento de um componente de IA baseado em ML é um processamento composto
por diferentes fases que devem ser analisadas.
35Manutenção evolutiva
Página: 11 de 49
Não se deve esquecer que, para efeitos de preparação deste documento, centrámo-nos na
componente IA, mas ao realizar uma análise do tratamento, a componente IA e todas as outras
componentes incluídas nesse tratamento devem ser avaliadas como um todo. Além disso,
dependendo do tipo de aplicação, algumas das etapas descritas acima podem se sobrepor. Por
exemplo, a validação pode ser sobreposta durante as fases de desenvolvimento e operação, ou a
evolução pode ser realizada simultaneamente à inferência.

F. PTRATAMENTO DE DADOS PESSOAIS POR MEIO DEIA

Considerando uma abordagem abrangente para possíveis atividades de processamento por soluções baseadas em
IA36, os dados pessoais podem ser encontrados nas seguintes fases do ciclo de vida da solução baseada em IA:

• Treinamento: considerando um modelo de IA baseado, por exemplo, em ML, dados pessoais


podem ser utilizados no desenvolvimento de IA. Noutros cenários, como seria o caso de um
sistema de formação baseado na captação de conhecimentos de um perito, pode considerar-se
que, em teoria, não são realizadas quaisquer atividades de tratamento de dados pessoais. Quando
a fase de formação envolver tratamento de dados pessoais, será considerada, por si só, um
tratamento de dados pessoais. Na sua maior extensão, pode incluir as seguintes atividades:
definição, pesquisa e obtenção do conjunto de dados relevante37, pré-processamento de dados
(processamento de dados não estruturados, limpeza, balanceamento, seleção, transformação de
dados), divisão do conjunto de dados para fins de verificação, informações sobre rastreabilidade e
auditoria.

• Validação38: esta etapa pode incluir o tratamento de dados pessoais quando utilizar
dados que correspondam à situação real e atual de uma atividade de tratamento, a fim
de determinar a elegibilidade do modelo experimental. Este conjunto de dados pode ser
diferente dos utilizados na fase de formação (se presente e se utilizar dados pessoais) e
pode mesmo ser realizado por terceiros para efeitos de auditoria de modelo ou
certificação.
• Implantação: caso a solução baseada em IA seja distribuída a terceiros como
componente, pode-se considerar que há divulgação de dados quando o mesmo modelo
inclui dados pessoais ou existe uma forma de obter tais dados pessoais. Algumas
soluções baseadas em IA, como Support Vector Machines (SVM39) pode incluir exemplos
de dados de treinamento na lógica do modelo. Noutros casos, pode verificar-se que o
modelo definiu padrões que identificam uma pessoa singular.
• Operação: é possível que algumas das atividades operacionais da solução baseada em IA
incluam processamento de dados pessoais:
• Inferência: quando os dados do titular dos dados são utilizados para obter
determinados resultados, ou quando dados de terceiros são utilizados para os mesmos
fins, ou quando são armazenadas inferências ou dados do titular dos dados. Se o próprio
titular dos dados tiver uma componente de IA própria, aplicar-se-á a exceção relativa às
atividades domésticas.

• Tomando uma decisão: como visto anteriormente, qualquer decisão relativa a um titular de dados é
considerada tratamento de dados pessoais.

36Como afirmado anteriormente, nem todos estarão presentes na implementação de uma solução baseada em IA.

37Isso faz parte das atividades de mineração de dados.

38A validação pode ser realizada ou complementada por outros métodos, por exemplo, métodos analíticos. A abordagem adotada por este texto está focada
na utilização de dados pessoais.
39Support Vector Machines ou SVMs são um conjunto de algoritmos de aprendizagem supervisionada. Esses métodos estão relacionados a desafios de
classificação e regressão. Dado um conjunto de exemplos para fins de treinamento, rotulados em classes, é possível treinar um SVM para construir um modelo
prevendo as classes nas quais um novo conjunto de dados será dividido. Uma descrição intuitiva de um SVM é um modelo que representa pontos de dados de
amostra no espaço, separando categorias com dois espaços, tão distantes quanto possível, por meio de um hiperplano de separação definido como o vetor
entre os dois pontos de dados mais próximos para as duas classes. , que é chamado de vetor de suporte.
Página: 12 de 49
• Evolução: a solução baseada em IA pode utilizar dados e resultados do titular dos
dados para ajustar o modelo de IA. Quando se verifique que este ajuste é realizado
na componente de IA propriedade do próprio titular dos dados, de forma isolada e
autónoma, aplicar-se-á a exceção relativa às atividades domésticas. Porém, se tais
dados forem enviados a terceiros, isso seria considerado um evento de divulgação
de dados, possível processamento de armazenamento, processamento de mudança
de modelo ou poderia até dar origem a novas divulgações se tais dados fossem
incorporados ao modelo e este modelo fosse disponível a terceiros.

• Remoção: a remoção do serviço pode incluir duas extensões diferentes: o componente de IA é


removido quando se torna obsoleto em todo o processamento em que é implementado, ou um
determinado usuário decide não usar mais o componente de IA. Este utilizador pode ser uma
entidade ou uma pessoa singular e pode ter efeitos na supressão de dados locais, centralizados ou
distribuídos, bem como na portabilidade dos serviços.

Importa recordar que nem todas as soluções baseadas em IA processam dados pessoais em qualquer fase dos
seus ciclos de vida, ou tomam decisões exclusivamente com base no processamento automatizado que afeta pessoas
singulares40. Alguns exemplos de tais soluções são os sistemas de controle de qualidade de produtos industriais, ou os
algoritmos utilizados para a tomada de decisões no que diz respeito à venda e gestão de alto nível de produtos
financeiros.

Se uma IA tratar dados pessoais, definir perfis de pessoas singulares ou tomar decisões
relativamente a essas pessoas singulares, as suas atividades estarão sujeitas às disposições
estabelecidas pelo RGPD. Caso contrário, não estará sujeito a tais disposições. Concluir se numa
determinada fase do ciclo de vida da IA não envolve tratamento de dados pessoais pode parecer
trivial, mas, em alguns casos, pode não ser tão simples.
Quando os dados pessoais estão de alguma forma envolvidos durante o ciclo de vida de uma solução
baseada em IA (por exemplo, durante o seu desenvolvimento) antes de declarar que nas fases seguintes
não existem atividades de tratamento de dados pessoais e, como consequência, pelo menos essa fase de
tratamento não é sujeito às obrigações previstas no RGPD, devem ser fornecidas provas de que a
remoção ou anonimização de tais dados é verdadeiramente eficaz, e deve ser realizada uma avaliação
para determinar o risco potencial de reidentificação.

A fase de operação do sistema incluindo uma solução baseada em IA pode apresentar vários
cenários:
• O proprietário do sistema baseado em IA concede acesso diretamente ao titular dos dados
cujos dados estão sendo processados por meio de IA, por exemplo, no caso de a avaliação
psicológica dos usuários do Facebook realizada pelo Facebook em determinados países41.

• O proprietário do sistema baseado em IA decide transferir os direitos de utilização dessa solução


de IA como componente para terceiros. O componente de IA relevante é, portanto, tratado como
um elemento pronto para uso por um controlador. O proprietário não está envolvido na operação
do sistema42. Este poderia ser o caso de um assistente de condução baseado em IA adquirido como
componente por um fabricante de automóveis para o incluir nos seus veículos43.

• O proprietário do sistema baseado em IA é contratado pelo usuário do sistema de IA para acessar


um determinado serviço, de modo que o proprietário da IA implemente efetivamente

40A utilização de soluções baseadas em IA para a tomada de decisões num ambiente financeiro pode ter graves consequências jurídicas https://
www.bloomberg.com/news/articles/2019-05-06/who-to-sue-when-a-robot-loses-your-fortune
41https://about.fb.com/news/2018/09/inside-feed-suicide-prevention-and-ai/

42Embora possam não estar dissociados da evolução do sistema.


43https://igniteoutsourcing.com/automotive/artificial-intelligence-in-automotive-industry/
Página: 13 de 49
uma das fases de tratamento de acordo com a ordem e instruções do responsável pelo
tratamento dos dados do titular dos dados44.

G. AAVALIAÇÃO DEIA-SOLUÇÕES BASEADAS

Tanto o modelo de IA incluído num tratamento como o próprio tratamento devem ter como
objetivo dar resposta a uma necessidade real da entidade e da indústria. Neste artigo estamos a
lidar com soluções de IA que excedem o âmbito experimental e estão sujeitas às regras do mercado,
especificamente um mercado regulamentado que é obrigado a cumprir determinados padrões e
regulamentos de qualidade.45.
No que diz respeito à sua capacidade de cumprir os requisitos de processamento, todas as soluções técnicas
partilham determinados parâmetros que devem ser especificados, como, por exemplo:
• Exatidão, precisão ou taxas de erro exigidas pelo processamento relevante46.
• Requisitos de qualidade de entrada de dados para o componente de IA.
• Precisão, exatidão ou taxas de erro efetivas da solução baseada em IA, dependendo das
métricas apropriadas para medir a elegibilidade de tal solução baseada em IA47.
• Convergência do modelo ao treinar ou evoluir a solução IA.
• Consistência nos resultados do processo de inferência.
• Previsibilidade do algoritmo48 49
• E quaisquer outros parâmetros de avaliação da componente IA.
Qualquer solução técnica que não forneça uma resposta certificada a estas questões não pode ser
considerada uma tecnologia madura, mas apenas uma tecnologia sem capacidade para cumprir
requisitos básicos de responsabilização, transparência e legalidade. Além disso, a resposta a tais questões
de desempenho servirá de insumo para a definição de alguns requisitos de proteção de dados, por
exemplo, no que diz respeito à implementação do princípio da minimização.

H. S.HORT RESUMO DAS OBRIGAÇÕES ESTABELECIDAS PELOGDPR

O objetivo deste documento não é reproduzir o conteúdo doGDPR , pelo que o texto do
regulamento deve ser utilizado como referência. Resumidamente, o RGPD desenvolve-se em torno
de seis princípios estabelecidos no Capítulo II:
1. Legalidade, justiça e transparência
2. Limitação de finalidade (especificação de finalidade)
3. Minimização de dados
4. Precisão
5. Limitação de armazenamento
6. Integridade e confidencialidade

O mesmo capítulo estabelece as condições que legitimam uma atividade de tratamento de dados
pessoais.

44https://es.wordpress.org/plugins/tags/captcha/
45 Qual é a sua pontuação no teste de ML? Uma rubrica para sistemas de produção de ML, Eric Breck, 2018, Google Inc. https://
www.eecs.tufts.edu/~dsculley/papers/ml_test_score.pdf
46Estas medidas dependerão de o tipo de IA utilizado ser utilizado para fins de classificação, regressão ou outros. A precisão refere-se às
dispersões do conjunto de valores obtidos pela medição repetida de uma magnitude. Uma medida comum de variabilidade é o desvio padrão das
medições. Nos modelos de classificação, a precisão pode ser avaliada como a proporção de instâncias classificadas corretamente ou instâncias
com curvas ROC. A precisão está relacionada ao viés de uma estimativa e refere-se a quão próximo está o valor medido do valor real. A precisão
pode ser modelada com os parâmetros de erro total, erro médio, erro médio absoluto ou erro quadrático médio.
47Sua precisão e exatidão podem ou não exceder os requisitos de processamento.
48A previsibilidade permite obter uma estimativa precisa do comportamento do componente de IA sob certas condições especificadas. Embora o problema da
parada afirme que não existe uma maneira automaticamente computável de saber se todos os programas possíveis terminarão a execução, não se nega que
existam métodos de teste aplicáveis à análise de componentes específicos.
49A imprevisibilidade factual de um algoritmo causada pela falta de análise de tal algoritmo não deve ser confundida com falta de conhecimento do estado
interno, e a falta de procedimentos de teste exaustivos não deve ser confundida com aleatoriedade.
Página: 14 de 49
O Capítulo III estabelece os direitos a que têm direito os titulares dos dados, bem como a obrigação de
garantir esses direitos e implementar mecanismos eficazes para o exercício desses direitos, especialmente os
direitos à transparência, à informação, ao acesso, à retificação, ao apagamento, à limitação, à oposição, à
portabilidade, e os direitos dos cidadãos no que diz respeito à tomada de decisões automatizada, o que é
especialmente relevante quando são implementadas soluções de IA.

O Capítulo IV estabelece o modelo de responsabilidade e cumprimento baseado na


prestação de contas, e cujos elementos regentes são:
• Identificação de um elemento de responsabilidade no processamento.
• Análise de riscos em matéria de direitos e liberdades.
• Avaliação da necessidade e proporcionalidade das atividades de processamento considerando o seu
objetivo.
• Implantação de medidas de gestão de riscos, privacidade por padrão e medidas de
privacidade de design, medidas de segurança, gestão de incidentes, etc.

E para concluir este breve resumo, o Capítulo C estabelece as condições para realizar
transferências de dados pessoais para países terceiros ou organizações internacionais.

Página: 15 de 49
II. FUNÇÕES, RELACIONAMENTOS E RESPONSABILIDADES
Um dos principais aspetos do RGPD, central para determinar se as políticas de responsabilização e
transparência foram corretamente implementadas, é identificar devidamente as diferentes funções e
responsabilidades no âmbito do tratamento.

Nas diferentes fases do ciclo de vida de um componente de IA, os responsáveis pelo tratamento de
dados pessoais serão qualquer pessoa singular ou colectiva, autoridade pública ou outra organização que
tome a decisão de realizar o tratamento de dados acima mencionado, conforme definido acima50.
Portanto, responsabilidades diferentes implicarão obrigações diferentes no âmbito do processamento de
dados. É possível que o referido responsável pelo tratamento subcontrate diversas tarefas a terceiros,
que as desempenharão em nome do responsável pelo tratamento e de acordo com as suas instruções.
Esses terceiros serão considerados processadores de dados, desde que realizem qualquer atividade de
processamento de dados pessoais sob as instruções do controlador de dados. Qualquer outro tratamento
adicional de tais dados realizado para fins próprios os tornará os responsáveis pelo tratamento em
relação a esse tratamento.

As diferentes fases do ciclo de vida de um sistema de IA podem envolver diferentes controladores e


processadores, bem como cenários de divulgação de dados51entre controladores:

Estágio Controlador Processadores

Desenvolvimento/Treinamento A organização que define a A organização para a qual é


finalidade do componente de IA e terceirizado o desenvolvimento
decide quais dados serão usados ou o treinamento, desde que o
para treinar o sistema. contratante defina os termos que
fixam a finalidade da atividade de
Se o desenvolvimento for externalizado a
tratamento e as características
um terceiro, e for este terceiro quem tomar
significativas dos dados,
qualquer decisão sobre os dados pessoais
independentemente de
utilizados para treinar a componente de IA
se a parte contratante
para os seus próprios fins, terá o estatuto
transfere para o contratante
de responsável pelo tratamento dos dados.
os dados relevantes ou o
contratante obtém esses dados
Se a pessoa que define as finalidades da relevantes por seus próprios
componente de IA adquirir um conjunto de meios, e os dados
dados pessoais, essa pessoa terá o o processador utiliza esses dados
estatuto de responsável pelo tratamento exclusivamente para os fins
dos dados. estabelecidos pelo responsável pelo
tratamento.

Validação O mesmo que acima O mesmo que acima

Implantação/liberação Se a solução baseada em IA for um Qualquer entidade que disponibilize o


componente52vendido/alugado a acesso ao modelo baseado em IA a
outra entidade (o IA poderá fazer um responsável pelo tratamento para
parte de uma aplicação) e esta que este atue no contexto da
componente inclui dados pessoais, prestação de serviços, ou qualquer
ambas as entidades realizaram um entidade que o faça porque

50Consulte a definição de “controlador conjunto”, conforme indicado neste documento e no artigo 26 do RGPD, caso as decisões relevantes sejam
tomadas por mais de uma pessoa.
51O Artigo 4.2 define “…divulgação por transmissão, disseminação ou outra forma de disponibilização, alinhamento ou combinação…” também como processamento de
dados.
52Ou estão incluídos num produto mais complexo, em que a componente de IA é apenas mais um elemento.
Página: 16 de 49
comunicação de dados e ambos são é necessário para a
controladores. execução adequada deste
serviço, mas não utiliza
Se o objetivo for comercializar um
dados pessoais para fins
produto que inclua uma
próprios.
componente de IA a uma pessoa
singular para uso privado, mesmo
que o modelo inclua dados
pessoais, aplica-se a exceção
relativa às atividades domésticas, a
menos que estas tratem os dados
pessoais incluídos para os seus
próprios fins, nesse caso, eles
também terão o status de dados
controlador.

Inferência/perfil A organização que decide tratar O mesmo que acima


os dados do titular dos dados
através do sistema de IA para os
seus próprios fins.
Se o tratamento relevante for
realizado por uma pessoa singular
relativamente aos seus próprios
dados pessoais ou aos dados
pessoais do seu ambiente imediato
para uma atividade exclusivamente
pessoal ou doméstica, aplica-se a
exceção relativa às atividades
domésticas. No entanto, isso
a exceção não se aplicará àqueles que
fornecem os meios para processar
dados pessoais no que diz respeito a
tais atividades pessoais ou domésticas
53por seus próprios meios.

Tomando uma decisão A entidade que toma decisões O mesmo que acima
automatizadas relativamente aos
titulares dos dados para os seus
próprios fins.

Evolução A entidade que decidir tratar os dados Caso a entidade que decida tratar
do titular dos dados através do sistema dados pessoais subcontrate o
de IA, quando divulgar os dados do tratamento baseado em IA a um
utilizador a uma terceira organização, terceiro, esse terceiro terá o
será a responsável pelo tratamento no estatuto de responsável pelo
que diz respeito à divulgação dos tratamento dos dados, desde que
dados. não o faça.

53Considerando 18 O presente regulamento não se aplica ao tratamento de dados pessoais por uma pessoa singular no exercício de uma atividade puramente
pessoal ou doméstica e, portanto, sem qualquer ligação a uma atividade profissional ou comercial. As atividades pessoais ou domésticas podem incluir
correspondência e manutenção de endereços, ou redes sociais e atividades on-line realizadas no contexto de tais atividades. No entanto, o presente
regulamento aplica-se aos responsáveis pelo tratamento ou aos subcontratantes que fornecem os meios para o tratamento de dados pessoais para essas
atividades pessoais ou domésticas.
Página: 17 de 49
portanto, não é uma relação processar dados para seus
controlador-processador. próprios fins.

A organização que determina a


evolução do componente de IA com
base nos dados do usuário será
responsável pela
correspondente processamento de
evolução ou retenção,
independentemente de tais dados
terem sido divulgados diretamente
pelo titular ou obtidos através de
prestador de serviço.

O modelo controlador-processador pode tornar-se mais complicado quando, por exemplo, surgirem
redes cooperativas do tipo blockchain incorporando modelos de IA. A tabela acima pretende abordar os
casos mais comuns e servir de orientação para novas situações que possam surgir no mercado. Nenhuma
dessas tabelas retrata a relação entre as partes interessadas que podem coletar dados no âmbito do Big
Data, a fim de colocar esses dados nas mãos dos desenvolvedores. Particularmente, os modelos de
controladores conjuntos não são analisados especificamente.

Devemos estar cientes de que a questão da responsabilidade está a ser abordada do ponto de
vista da proteção de dados, sem outras considerações legais ou éticas que possam derivar da
utilização de soluções de IA.
A decisão de adotar, no âmbito de uma atividade de tratamento, uma solução técnica baseada
em IA ou outra tecnologia, é tomada pelo responsável pelo tratamento, uma vez que é o
responsável pelo tratamento quem “determina os meios e finalidades do processamento", e,
portanto, responsável por tomar a decisão sobre qual solução tecnológica ou outra será utilizada.
Esse controlador é obrigado a agir com a devida diligência na seleção da solução mais correta,
especialmente quando terceirizar ou adquirir o desenvolvimento relevante54; devem exigir e avaliar
quaisquer especificações de qualidade da solução relevante, estabelecer o âmbito do tratamento e
assumir o ónus de enfrentar as consequências das suas decisões. O responsável pela condução do
tratamento será o responsável e não poderá alegar que lhe faltaram informações ou conhecimentos
técnicos para fugir à sua responsabilidade de auditar e decidir se um sistema é elegível.
Transferir a responsabilidade para o próprio sistema de IA não é aceitável em nenhum caso.

54Artigo 28.1 do GDPR “Quando o processamento for realizado em nome de um responsável pelo tratamento, o responsável pelo tratamento deverá utilizar
apenas processadores que forneçam garantias suficientes para implementar medidas técnicas e organizacionais adequadas, de tal forma que o
processamento cumpra os requisitos deste Regulamento e garanta a proteção dos direitos do titular dos dados.”
Página: 18 de 49
III. CONFORMIDADE
O RGPD é uma ferramenta que pode proporcionar um elevado grau de flexibilidade para
poder garantir e comprovar a conformidade de um determinado tratamento com a lei. No
entanto, deve-se considerar que existe um conjunto mínimo de termos e condições que devem
ser cumpridos para garantir a conformidade do tratamento, incluindo:
• Fundamentos para um tratamento legítimo de dados pessoais (artigos 6.º a 11.º do RGPD).
• Obrigação de informar os titulares dos dados e de ser transparente a este respeito (artigos
12.º a 14.º do RGPD).
• Obrigação de dotar os titulares dos dados de mecanismos para o exercício dos seus direitos
(artigos 15.º a 23.º do RGPD).
• Aplicação do princípio da responsabilização (artigos 24 a 43) que estabelecem a necessidade
de incluir uma série de garantias adicionais, além de um mínimo, documentadas e orientadas
para gerir os riscos que representam os direitos e liberdades dos indivíduos); em particular, a
obrigação de manter um registo das atividades de tratamento (artigo 30.º do RGPD).

• Cumprimento de todos os termos e condições para realizar transferências internacionais de


dados (artigos 44 a 50 do RGPD).

Os artigos referenciados do GDPR são desenvolvidos posteriormente noLista de verificação de conformidade


regulatória diretrizes publicadas pela AEPD. Os principais aspectos a considerar na definição de um tratamento
que utiliza soluções baseadas em IA para garantir que respeita todos os princípios estabelecidos pelo RGPD
serão descritos detalhadamente neste capítulo, e, nos capítulos seguintes, outros aspectos como a
responsabilização e as transferências internacionais serão cobertas.

A. euINCRÍVEL E PROPÓSITO LIMITADO

Estabelecer uma base jurídica legitimadora é o primeiro passo que precisa ser dado para garantir que a
solução baseada em IA esteja em conformidade com o GDPR. A legalidade do tratamento de dados pessoais
deve ser considerada antes da fase de conceção do tratamento, independentemente de esse tratamento
consistir na criação de uma componente de IA ou na implementação de uma componente de IA no tratamento.
A partir de uma abordagem de proteção de dados, a legitimidade é o primeiro elemento que precisa ser
estabelecido na fase de concepção do processamento. Se não forem encontrados motivos legítimos para
prosseguir com o tratamento, esse tratamento não poderá ser realizado.

Nas seções anteriores deste documento, foram listadas várias etapas do ciclo de vida de uma solução
baseada em IA que podem envolver processamento de dados pessoais. Cada uma dessas etapas tem
objetivos diferentes. Eles poderiam processar dados do titular dos dados aos quais o serviço relevante
está sendo prestado, e também é possível processar dados de terceiros.

Devido à própria natureza dos sistemas de IA, em cada fase dos seus ciclos de vida podem ser utilizados diferentes
fundamentos jurídicos para:
• Treinamento e/ou validação de modelo
• Uso de dados de terceiros titulares de dados para fins de inferência
• A divulgação de dados implícita neste modelo
• O tratamento de dados do titular dos dados no âmbito do serviço prestado pela IA.

• Tratamento dos dados do titular dos dados para efeitos de evolução do modelo.
O artigo 6.º do RGPD estabelece as seis bases jurídicas em virtude das quais o tratamento de dados pessoais
pode ser considerado lícito. Os fundamentos jurídicos mais frequentes alegados para considerar que uma
atividade que envolve o tratamento de dados através de uma solução baseada em IA é lícita são:
• O tratamento dos dados relevantes é necessário para a execução de um contrato no qual
o titular dos dados é parte, ou para a implementação de medidas pré-contratuais a
pedido do referido titular dos dados. Este pode ser o caso de desenvolvedores que
Página: 19 de 49
subcontratar a fase de formação do sistema a terceiros que estejam autorizados a utilizar os seus
dados pessoais, ou que a organização que atua como responsável pelo tratamento dos dados e
que fornece a terceiros o serviço relevante, incluindo uma solução baseada em IA, utilize os dados
desses terceiros no âmbito de tal contrato de serviço.
• Interesse legítimo, desde que não prevaleça sobre direitos ou liberdades fundamentais
do titular dos dados que envolvam a proteção dos seus dados pessoais, especialmente
quando esse titular for uma criança.
• Consentimento do titular dos dados, que, conforme estabelecido no artigo 4.11 do RGPD, é
qualquer indicação dada livremente, específica, informada e inequívoca da vontade do titular dos
dados, pela qual este, por meio de uma declaração ou de uma ação afirmativa clara, manifesta
consentimento para o tratamento de dados pessoais que lhe digam respeito.

E, em alguns casos específicos, do ponto de vista da solução baseada em IA, o seguinte também pode
constituir fundamento jurídico.
• Proteção de interesse vital55.
• Motivos de interesse público ou de exercício ou autoridade pública56.
• Cumprimento das obrigações legais.

É muito importante ter em conta que os dois últimos fundamentos jurídicos devem estar enraizados no
quadro jurídico da União Europeia ou de um dos seus Estados-Membros, que estabelecerá os fundamentos
jurídicos para o tratamento de dados. Ou seja, uma entidade privada não pode invocar razões de interesse
público se tal não estiver previsto em lei.

Outro aspecto importante a ser considerado é o princípio do processamento limitado. Isto significa
que ter fundamentos legais para tratar dados não autoriza o tratamento desses dados para qualquer
finalidade e em qualquer momento.57Contrariamente, o tratamento relevante deverá limitar-se às
finalidades expressas, específicas e limitadas que tenham sido identificadas, devendo ser envidados
esforços para evitar qualquer tratamento incompatível com tais finalidades. Além disso, o titular dos
dados a tratar deve estar consciente das utilizações desses dados, o que está intimamente relacionado
com o princípio da informação e da transparência.

A extinção de fundamento jurídico legitimador, como a retirada do consentimento, não tem efeito retroativo
relativamente aos resultados obtidos numa atividade de tratamento já concluída. Por exemplo, quando dados
pessoais tenham sido utilizados para treinar uma componente de IA, os fundamentos legais aplicáveis não
invalidam o funcionamento deste modelo, mas o responsável pelo tratamento deve estar atento a quaisquer
pedidos de exercício de direitos no que diz respeito à proteção de dados.

Se o controlador de dados utilizar conjuntos de dados de terceiros para treinar um componente de IA,
deverá agir com a devida diligência para verificar se a fonte de dados original é legítima, incluindo o
contrato de compra ou serviço, ou as cláusulas contratuais correspondentes que reivindicam evidências e
compromissos de tal legitimidade.

Interesse legítimo

O Grupo de Trabalho do Artigo 29.ºParecer 06/2014 sobre a noção de interesses legítimos do responsável pelo
tratamento dos dados , desenvolveu em profundidade a forma como os fatores que legitimam o interesse do
responsável pelo tratamento de dados em processar dados pessoais devem ser avaliados e equilibrados com os
direitos e interesses também legítimos dos titulares dos dados. O interesse legítimo é uma alternativa legitimadora
para um tratamento, como podem ser alguns casos de BC, que podem necessitar de acesso a alguns dados de
formação, e quando cumprem as condições para serem lícitos.

55Artigo 9.2.c do RGPD “o tratamento é necessário para proteger os interesses vitais do titular dos dados ou de outra pessoa singular quando o titular dos
dados estiver física ou legalmente incapaz de dar consentimento”.
56É o caso das Smartcities ou dos controlos fronteiriços.
57Considerando as exceções previstas no artigo 5.1b “(..) o tratamento posterior para fins de arquivo de interesse público, para fins de investigação
científica ou histórica ou para fins estatísticos não deve, nos termos do artigo 89.º, n.º 1, ser considerado incompatível com o finalidade inicial”, e
por 6.4 no que diz respeito ao tratamento com finalidades compatíveis pelo coletor de dados.
Página: 20 de 49
Deve-se levar em conta que fundamentar a licitude de um tratamento em um interesse legítimo
exige da organização que atua como controladora um maior grau de comprometimento,
formalidade e competência. Requer uma avaliação criteriosa de que os seus legítimos interesses
prevalecem sobre o possível impacto nos direitos, liberdades e interesses dos titulares dos dados,
considerando, entre outras coisas, eventuais medidas compensatórias decorrentes da necessidade
de manter as atividades de tratamento continuamente supervisionadas, implementar um alto grau
de responsabilidade e medidas de privacidade padrão de design mais rigorosas ou a adoção de
melhores práticas, como dar uma opção de exclusão aos titulares dos dados58. Em qualquer caso, o
responsável pelo tratamento deve ser capaz de provar que a relevância do impacto correspondente
não é tal que não permita realizar o tratamento pretendido pelos motivos correspondentes,
devendo documentar todo o processo de análise e tomada de decisão em conformidade com o
princípio da responsabilização.
Se as atividades de tratamento se basearem no interesse legítimo, não é necessário recolher o
consentimento do titular dos dados, mas persistem as obrigações de informação previstas nos artigos
13.º e 14.º do RGPD.

Categorias especiais

Para estabelecer os fundamentos jurídicos da atividade de tratamento, é importante ter em


conta que categorias especiais de dados, conforme estabelecido no artigo 9.º do RGPD, incluem
requisitos especiais de tratamento. Nestes casos, e antes de analisar os fundamentos legais que
legitimam o tratamento nos termos do artigo 6.º do RGPD, deve ser eliminada a proibição
estabelecida no referido artigo 9.º com base em qualquer uma das circunstâncias nele incluídas,
ainda que tendo em conta as limitações adicionais estabelecidas no artigo 9.º do LOPDGDD59,
especificamente aquele que afirma que o consentimento não afasta a proibição de realizar qualquer
tratamento que tenha como objetivo principal identificar a ideologia, a situação sindical, a religião, a
orientação sexual, as crenças ou a origem racial ou ética do titular dos dados.
Além disso, Considerando que 7160do RGPD estabelece uma restrição adicional ao tratamento de
categorias especiais de dados quando se destinam a ser utilizados em decisões automatizadas e para
efeitos de definição de perfis, estabelecendo a limitação de que tais dados só podem ser utilizados em
condições específicas. Em particular, o artigo 22.4 estabelece que as decisões baseadas exclusivamente
no tratamento automatizado, incluindo a definição de perfis, pelas quais o titular dos dados possa estar
sujeito a consequências jurídicas ou ser igualmente afetado de forma significativa, não se basearão em
categorias especiais de dados pessoais, a menos que o titular dos dados deu o seu consentimento ou
esse tratamento é necessário por motivos de interesse público essencial com base nos quadros jurídicos
da União Europeia ou de qualquer Estado-Membro e estão em vigor medidas adequadas para
salvaguardar os direitos e liberdades e interesses legítimos do titular dos dados .

Essas limitações aplicam-se tanto aos dados recolhidos relativos aos titulares dos dados para efeitos de
desenvolvimento ou operação da componente de IA como aos dados pertencentes a categorias especiais que
podem ser inferidas no decurso das atividades de tratamento.

Processamento para fins compatíveis

Conforme estabelecido no artigo 6, seção 461, é possível, em determinadas circunstâncias, o tratamento de


dados pessoais para fins diferentes daqueles para os quais foram inicialmente recolhidos. A base jurídica para
esta nova finalidade poderá ser um novo consentimento por parte do titular dos dados, ou qualquer
fundamento jurídico que o permita, mas também o facto de ambas as finalidades, a original

58Parecer 7/2015 Enfrentar os desafios dos grandes volumes de dados. Autoridade Europeia para a Proteção de Dados. AEPD

59Lei Orgânica 3/2018, de 5 de dezembro, sobre a Proteção de Dados Pessoais e a garantia dos direitos digitais
60Considerando 71 A tomada de decisões automatizada e a definição de perfis com base em categorias especiais de dados pessoais só deverão ser permitidas em condições
específicas.
61O considerando 50 está relacionado com o artigo 6.4.
Página: 21 de 49
um e o novo são compatíveis. Naturalmente, o responsável pelo tratamento deve cumprir todos os
requisitos para garantir que o tratamento original foi lícito e deve avaliar essa compatibilidade,
considerando as relações entre a finalidade para a qual os dados foram originalmente recolhidos e
as finalidades subsequentemente pretendidas, o contexto em que foram recolhidos, a natureza dos
próprios dados, prestando especial atenção, entre outras coisas, a categorias especiais de dados
pessoais62, as potenciais consequências para os titulares dos dados e as garantias implementadas
no tratamento, a fim de gerir adequadamente esses riscos para os direitos e liberdades.

Em particular, as atividades de tratamento posterior para fins de preenchimento para fins de interesse
público, de investigação científica ou histórica ou para fins estatísticos devem ser consideradas atividades
de tratamento compatíveis e lícitas, com as garantias e exceções estabelecidas no artigo 89.º do RGPD.

B. EUINFORMAÇÃO

As informações devem ser fornecidas aos titulares dos dados pelo responsável pelo tratamento,
conforme estabelecido pelos artigos 13 e 14 do RGPD, e os conteúdos específicos devem ser
adaptados à fase do ciclo de vida da IA utilizada para fins de processamento. Para apoiar o
cumprimento desta obrigação, a AEPD publicou oGuia para cumprimento do dever de informar ,
que tem uma abordagem geral, bem como diretrizes mais específicas sobO dever de informar e
outras medidas de responsabilização em aplicações para dispositivos móveis . Como abordagem
geral, o artigo 11.º da LOPDGDD prevê ao responsável pelo tratamento a possibilidade de oferecer
esta informação num esquema de dois níveis ou de dois níveis: uma primeira camada, geral,
contendo informações gerais de processamento, e uma segunda camada que completa a
informação do primeira camada com maior nível de detalhe e acessível de forma fácil e
intermediária, inclusive por meio eletrônico:
• A primeira camada deve incluir:
• A identidade do responsável pelo tratamento dos dados ou do seu representante.
• A finalidade do processamento.
• A possibilidade de exercer os direitos previstos nos artigos 15 a 22 do RGPD.
• Se o processamento envolver definição de perfis ou decisões automatizadas:
• Esta circunstância deve ser claramente divulgada.
• Informar sobre o seu direito de se opor à tomada de quaisquer decisões individuais
automatizadas nos termos do artigo 22 do RGPD.
• Informações relevantes sobre a lógica implementada.
• Relevância e consequências previstas do tratamento relevante para o titular
dos dados.
• Quando os dados pessoais objeto de tratamento não tenham sido obtidos
diretamente do titular dos dados, a informação básica incluirá ainda:
• As categorias de dados sujeitos a tratamento.
• A fonte de origem dos dados.
• A segunda camada incluirá todas as outras informações estabelecidas pelos artigos 13 e 14
do RGPD.
Se a componente IA incluir dados pessoais que possam ser recuperados, esse facto deve ser
divulgado aos titulares dos dados e, quando apropriado, deve haver fundamentos jurídicos
legítimos para qualquer divulgação ou tratamento posterior de tais dados.

62Não só com as categorias especiais definidas no artigo 9.º, mas também com dados pessoais relativos a infracções penais e penas, nos termos do artigo 10.º.

Página: 22 de 49
Informações relevantes sobre a lógica implementada

Se o titular dos dados estiver sujeito a perfis ou decisões automatizadas, conforme previsto no
artigo 22 do RGPD, um aspecto importante estabelecido no artigo 13.2.f do RGPD é que o titular dos
dados deve ter “informações significativas sobre a lógica envolvida”bem como sobre“a importância e
as consequências previstas”.
O termo "significativo”, definido pelo dicionário Merriam-Webster como “tendo um significado ou
propósito”deve ser entendida como a informação que, uma vez fornecida ao titular dos dados, tem
por objetivo sensibilizar para o tipo de tratamento efetuado com os seus dados, e proporcionar
certeza e confiança nos resultados associados63.
O cumprimento desta obrigação através de uma referência técnica à implementação do
algoritmo pode ser obscuro, confuso ou excessivo e levar à fadiga da informação. No entanto,
devem ser fornecidas informações suficientes para compreender o comportamento do
tratamento relevante. Embora dependa do tipo de componente de IA utilizado, um exemplo do
tipo de informação que pode ser relevante para o titular dos dados seria:
• Informações detalhadas sobre os dados do titular utilizados para a tomada de decisões
independentemente da categoria, principalmente no que diz respeito à antiguidade dos dados do
titular em tratamento.
• A importância ou peso relativo de cada categoria de dados na tomada de decisão.
• A qualidade dos dados de treinamento e o tipo de padrões usados.
• Perfil das atividades realizadas e suas implicações.
• Valores de erro ou precisão, de acordo com as métricas apropriadas utilizadas para medir a
elegibilidade da inferência.
• Se a supervisão humana qualificada está envolvida ou não.
• Qualquer referência a auditorias, especialmente sobre o possível desvio de resultados de
inferência, bem como certificações ou certificações realizadas no sistema de IA. Para sistemas
adaptativos ou sistemas evolutivos, a última auditoria realizada.
• Se o sistema de IA incluir informações referentes a terceiros titulares de dados
identificáveis, proibição de tratamento dessas informações sem legitimação e das
consequências de o fazer.

C. GASPECTOS GERAIS RELACIONADOS COM O EXERCÍCIO DE DIREITOS

Quaisquer responsáveis pelo tratamento de dados que utilizem soluções baseadas em IA para processar dados pessoais,
realizar perfis ou tomar decisões automatizadas devem estar cientes de que o titular dos dados tem direitos relacionados com
a proteção dos seus dados pessoais que devem ser respeitados.

Portanto, na fase de concepção do processamento, os controladores de dados devem estar cientes de que
precisam incluir mecanismos e procedimentos apropriados para atender a quaisquer reclamações recebidas, e
que tais procedimentos devem ser adequadamente dimensionados à escala do processamento que estão
realizando.

Para os dados pessoais distribuídos por um conjunto de responsáveis pelo tratamento, por exemplo, se um
modelo baseado em IA incluir dados pessoais destinados à formação ou à evolução do sistema, é necessário, de
acordo com o princípio da responsabilização64, incluir um modelo eficaz de governação da informação que
permita a rastreabilidade das informações para efeitos de identificação do responsável pelo tratamento
relevante e de capacitar os titulares dos dados para exercerem os seus direitos. Este modelo de governação da
informação também deve ser fornecido quando um tratamento envolve um responsável pelo tratamento e
incluir no acordo relevante as tarefas que são atribuídas ao responsável pelo tratamento em relação ao
exercício de direitos.

63Isto está relacionado ao conceito de “explicabilidade” do processamento por meio de IA.


64Em particular, as obrigações estabelecidas nos artigos 24, 25, 26 e Considerando 66.
Página: 23 de 49
Por fim, há que considerar que o artigo 11.º do RGPD estabelece que, no exercício dos direitos de
acesso, apagamento ou limitação do tratamento, caso não seja possível identificar o titular dos
dados, o responsável pelo tratamento não terá o dever de conservar, obter ou manter informações
adicionais para identificar o titular dos dados com o único propósito de cumprir as disposições do
RGPD, embora o titular dos dados relevante tenha o direito de fornecer informações adicionais que
garantam a sua identificação e, assim, lhe permitam exercer os seus direitos.

D. RDIREITO DE ACESSO

O direito de acesso deve ser exercido pelo controlador de cada etapa do ciclo de vida da solução baseada
em IA que envolva dados pessoais. Isto inclui quaisquer dados de formação que possam estar incluídos nos
componentes de IA e que sejam suscetíveis de serem recuperados pelo responsável pelo tratamento que opera
a solução baseada em IA relevante.

E. RDIREITO DE APAGAR

O direito ao apagamento implica uma atitude pró-ativa por parte do responsável pelo tratamento dos
dados, a fim de, conforme estabelece o Considerando 3965, garantir que os dados sejam apagados quando não
forem mais necessários para a finalidade do tratamento e, principalmente, incluir procedimentos para a revisão
periódica dos conjuntos de dados relevantes e prazos para o seu apagamento.

O artigo 17.1 estabelece a obrigação de apagar sem demora injustificada quando ocorrerem as
seguintes situações:
• Os dados pessoais deixam de ser necessários relativamente às finalidades para as
quais foram recolhidos ou tratados;
• o titular dos dados retira o seu consentimento e esse consentimento é o único fundamento para
esse tratamento;
• o titular dos dados se opõe ao tratamento e não prevalecem outros métodos
legítimos
• o titular dos dados se opõe ao tratamento dos seus dados para efeitos de marketing
direto
• os dados pessoais foram processados ilegalmente;
• os dados pessoais devem ser apagados para cumprimento de determinada obrigação legal;
• Os dados pessoais foram obtidos no âmbito da prestação de qualquer serviço da sociedade
da informação.

Os dados recolhidos para a fase de formação, em conformidade com os aspectos previstos no artigo 11.º do
RGPD e com o princípio da minimização de dados, devem ser limpos ou higienizados de toda a informação que
não seja estritamente necessária para treinar o modelo.

Uma vez concluída a fase de formação de um sistema de IA, a organização deve proceder à sua remoção, a
menos que sejam necessários para o ajuste fino ou avaliação do sistema, ou sejam utilizados para outros fins
compatíveis com os fins originais, conforme o disposto no artigo 6.466do RGPD. Em qualquer caso, os princípios
de minimização de dados devem ser considerados. Se os pedidos de apagamento forem apresentados pelos
titulares dos dados, o responsável pelo tratamento dos dados deve adotar uma abordagem baseada em casos,
considerando quaisquer possíveis limitações a este direito previstas nos regulamentos relevantes.

65Considerando 39 (...) garantir que o período de conservação dos dados pessoais seja limitado ao mínimo estritamente necessário. Os dados pessoais só deverão ser
tratados se a finalidade do tratamento não puder ser razoavelmente alcançada por outros meios. (...) Os prazos deverão ser estabelecidos pelo responsável pelo tratamento
para o apagamento ou para a revisão periódica.
66Artigo 6.4 Quando o tratamento para uma finalidade diferente daquela para a qual os dados pessoais foram recolhidos não se basear no consentimento do titular dos
dados ou numa legislação da União ou de um Estado-Membro que constitua uma medida necessária e proporcionada numa sociedade democrática para salvaguardar os
objectivos a que se refere o artigo 23.º, n.º 1, o responsável pelo tratamento deve, a fim de verificar se o tratamento para outra finalidade é compatível com a finalidade para
a qual os dados pessoais são inicialmente recolhidos, ter em conta, nomeadamente (...)
Página: 24 de 49
Particularmente, quando a solução baseada em IA é disponibilizada a responsáveis pelo tratamento e a pessoas
singulares, se isso incluir dados de titulares de dados:

• Eles devem ser apagados ou avaliar que isso é parcial ou totalmente impossível
porque prejudicaria os sistemas,
• Devem ser estabelecidos os fundamentos jurídicos relevantes para a divulgação de dados a terceiros,
especialmente quando são incluídos dados de categorias especiais,

• Os titulares dos dados devem ser informados (conforme indicado acima),

• Deve ser apresentada prova de que as medidas relevantes de privacidade por defeito e por
conceção foram implementadas (mais especificamente, minimização de dados) e,

• Dependendo do risco envolvido para os titulares dos dados e do volume ou categorias de dados,
realizar uma avaliação do impacto na privacidade.

Caso o responsável pelo tratamento guarde os dados do titular dos dados para efeitos de
personalização do serviço que é oferecido por uma solução baseada em IA, uma vez terminada a relação
de prestação do serviço, os dados relevantes deverão ser apagados.

Limitações ao apagamento

O Artigo 17.3 do GDPR estabelece certas limitações ao apagamento. Além disso, o artigo 32 da
LOPDGDD estabelece a obrigação do responsável pelo tratamento de bloquear os dados que devem ser
retificados ou apagados.

F. BBLOQUEIO DE DADOS

O bloqueio constitui uma obrigação do responsável pelo tratamento que tem como única finalidade
dar resposta a eventuais responsabilidades decorrentes do tratamento dos dados, para efeitos de
obtenção de provas de eventual incumprimento e exclusivamente durante o seu prazo de validade.

O artigo 32.º da LOPDGDD estabelece como dados bloqueados o estatuto dos dados mantidos fora do
âmbito do tratamento, aplicando-se quaisquer medidas técnicas ou organizativas que impeçam qualquer
tipo de processo, incluindo a visualização, exceto para efeitos de disponibilização desses dados aos
tribunais ou juízes competentes, o Ministério Público ou a Administração Pública competente,
especialmente as autoridades de proteção de dados.

Por conseguinte, a necessidade de incluir as medidas acima referidas para bloquear quaisquer dados relacionados
com o processo de inferência (ou pelo menos dados de entrada e resultados) que possam ser necessários para
responder a um pedido ou reclamação do titular dos dados relevante deve ser considerada como um requisito ao
conceber o em processamento. Esses mecanismos também estão relacionados aos arquivos de log67que será discutido
abaixo.

G. RDIREITO DE RETIFICAÇÃO

O responsável pelo tratamento dos dados será obrigado a responder ao exercício pelos titulares dos dados
do seu direito de retificação, especialmente quando esse direito resultar de inferências e perfis criados pela
solução baseada em IA relevante.

Por outro lado, na medida em que o modelo inclui dados de formação imprecisos que não têm efeito sobre
o utilizador da componente de IA e que essas informações imprecisas não estão possivelmente ligadas a
qualquer titular de dados aquando da distribuição da solução baseada em IA, a alimentação de dados de
formação imprecisos pode ser aconselhável como parte das estratégias de abstração e ofuscação destinadas a

67Arquivos que registram todos os eventos executados em um sistema.


Página: 25 de 49
garantir que o princípio da minimização dos dados seja eficazmente aplicado68. Se tais estratégias
levarem a impedir a reidentificação de um indivíduo, fazendo referência ao artigo 11 do RGPD acima
mencionado, o direito à retificação não se aplicará.

Contudo, se o próprio modelo incluir dados pessoais inexatos de terceiros titulares de dados que
possam ser reidentificados e, portanto, lhes sejam associadas informações erradas, o direito à
retificação deverá ser atendido.

H. P.ORTABILIDADE

O artigo 20.º do RGPD estabelece que, quando o tratamento for realizado por meios automatizados, o titular
dos dados tem o direito de solicitar quaisquer dados que tenha fornecido ao responsável pelo tratamento
relevante, obtê-los num formato estruturado, de uso comum e legível por máquina, e transferi-los para outro
responsável pelo tratamento, quando o fundamento legitimador do tratamento for o consentimento do titular
dos dados ou o tratamento for necessário para a execução de um acordo.

O reconhecimento deste direito, tal como desenvolvido no artigo 29.º do Grupo de TrabalhoDiretrizes sobre o
direito à portabilidade de dados classifica os dados pessoais em: fornecidos ativamente e voluntariamente pelo titular
dos dados; observado em relação ao titular dos dados, em virtude da utilização do serviço ou dispositivo relevante; ou
inferidos, deduzidos ou criados pelo responsável pelo tratamento dos dados com base nas duas categorias anteriores.
O direito à portabilidade aplica-se aos dois primeiros tipos de dados pessoais.

Qualquer controlador de dados que inclua um componente de IA deve avaliar e documentar se o


seu processamento deve proporcionar portabilidade, considerando o disposto no referido artigo 20.
Nesse caso, o requisito de portabilidade deve ser considerado desde as fases iniciais de
conceituação e design, bem como como na seleção do componente de IA pelos desenvolvedores do
componente de IA.
O artigo 20.2 do RGPD estabelece o direito de transferência direta de dados de um responsável pelo
tratamento de dados para outro, mas apenas quando tal for tecnicamente viável. Caso existam limitações
ao direito de portabilidade, informar previamente os utilizadores de tais limitações é considerado um
exercício de transparência.

EU. DECISÃO-FAZER COM BASE NO PROCESSAMENTO AUTOMATIZADO

As aplicações que oferecem ou apoiam um serviço baseado em soluções de IA podem tomar certas
decisões que afetam os indivíduos, a sua vida privada, a sua segurança física, a sua posição social e a sua
interação com outras pessoas.

O GDPR garante o direito de não ser submetido a decisões automatizadas, incluindo criação de
perfis69quando:
• Não há intervenção humana. Para considerar que há intervenção humana, a
decisão relevante deve ser supervisionada por pessoa competente e autorizada
a reverter tal decisão por meio de uma ação significativa e não puramente
simbólica.
• Existem consequências jurídicas derivadas de tais decisões.
• Ou o titular dos dados for afetado de forma semelhante e significativa70.

Uma exceção ao acima exposto pode ser feita ao processar:

68Como a aplicação de técnicas diferenciais de privacidade.


69Decisões automatizadas podem ser tomadas com ou sem criação de perfil; a criação de perfil pode ocorrer sem a tomada de decisões automatizadas. Contudo, a definição
de perfis e a tomada de decisões automatizada não são necessariamente atividades separadas. Algo que começa como um simples processo automatizado de tomada de
decisões pode se tornar baseado em perfis, dependendo de como os dados são usados. (wp 251)
70Dependendo do caso relevante, podem ser considerados como tendo um impacto significativo os seguintes aspectos: monitorizar pessoas em
diferentes websites, dispositivos e serviços, modificar as expectativas e desejos das pessoas envolvidas, modificar a forma como um anúncio é
apresentado ou utilizar os seus conhecimento das vulnerabilidades dos titulares dos dados. (wp 251)
Página: 26 de 49
• Baseia-se no consentimento explícito e são implementadas garantias para proteger direitos e
liberdades.
• É necessário para celebrar ou executar um acordo, não afeta categorias
especiais de dados e, além disso, inclui garantias para proteger os direitos e
liberdades relevantes.
• Baseia-se no quadro jurídico da União Europeia ou do Estado-Membro e não
envolve categorias especiais de dados pessoais.
• Baseia-se no quadro jurídico da União Europeia ou do Estado-Membro e é
necessário para proteger um interesse público fundamental.
A secção “informação” acima e, em particular, a subsecção “Informação relevante sobre
a lógica implementada”, bem como a secção “Transparência” abordam os requisitos de
informação de tais atividades de tratamento.
Quando o fundamento jurídico para o tratamento for o consentimento explícito, o responsável pelo
tratamento deve conceber o tratamento de forma a proteger a livre escolha dos utilizadores. Isto é feito, em
primeiro lugar, fornecendo alternativas viáveis e equivalentes às soluções automatizadas no momento em que
o seu consentimento é necessário. Além disso, é garantido que, caso o titular dos dados opte por não ser sujeito
a decisões automatizadas, a decisão relativa a esse titular não será tendenciosa e vai contra os interesses do
titular dos dados. Se as condições acima não forem satisfeitas, o consentimento não pode ser considerado
como tendo sido dado livremente71. Essas alternativas devem ser implementadas desde a fase de projeto do
processamento.

Como boas práticas, e para além de qualquer requisito decorrente da proteção de dados, a supervisão
humana pode ser uma opção que pode ser escolhida no âmbito do processamento de dados baseado em IA e,
em geral, no que diz respeito a decisões automatizadas. A abordagem de “interrupção de homem morto” deve
ser evitada no projeto do sistema72: os usuários humanos devem ter a opção de ignorar o algoritmo em um
determinado momento em todos os casos, e de documentar as situações em que este curso é privilegiado. Por
este motivo, recomenda-se documentar qualquer incidência ou qualquer contestação a decisões automatizadas
por parte do titular dos dados em causa, para que a sua análise permita detetar situações que requeiram
intervenção humana, porque o tratamento não está a funcionar como esperado.

No que diz respeito ao tratamento de dados relativos a menores, Considerando que o 71 estabelece que as
decisões baseadas exclusivamente no tratamento automatizado, incluindo a definição de perfis73, com
consequências jurídicas ou significativamente semelhantes, não deve ser aplicada a menores. No entanto, uma
vez que esta proibição não está refletida nos artigos relevantes, não é considerada absoluta, e podem ser
consideradas exceções quando são inevitáveis para proteger o bem-estar do menor em questão e garantias
adequadas e específicas da criança.

71O “Relatório Automatizado da Sociedade 2019” descreve um método automático de seleção de candidatos com base no consentimento que exige que o
titular dos dados tenha acesso ao seu endereço de e-mail para que um algoritmo avalie o seu tráfego de correio e, assim, obtenha um perfil como futuro
funcionário. Caso não haja alternativa, ou a mera apresentação do currículo imponha penalidade no processo seletivo, o consentimento não será válido.
72Interruptor do homem morto

73O Parecer 02/2013 do WP29 sobre aplicações em dispositivos inteligentes (WP 202), adotado em 27 de fevereiro de 2013, na sua secção 3.10 especificamente sobre
crianças, especifica, na página 26, que «Especificamente, os responsáveis pelo tratamento de dados não devem processar dados de crianças para fins de publicidade
comportamental , nem direta nem indiretamente, pois isso estará fora do alcance da compreensão de uma criança e, portanto, excederá os limites do processamento legal».
Página: 27 de 49
4. GESTÃO DE RISCOS DE PRIVACIDADE
A gestão dos riscos de privacidade é uma atividade contínua que pertence ao âmbito de
responsabilização estabelecido no GDPR.
Ao tratar dados pessoais e de forma proporcional às atividades de tratamento, a organização deve
adotar uma Política de Proteção de Dados conforme estabelecido no artigo 24 do RGPD. Esta política deve
ser integrada na sua política de qualidade, nos seus sistemas de informação seguros e na sua política de
tomada de decisão (entre outros).

Embora o RGPD não estabeleça especificamente quais os elementos de responsabilização que devem ser
implementados obrigatoriamente ou como implementá-los, mas apenas forneça um quadro altamente flexível,
a fim de permitir que abordagens de processamento muito diferentes estejam em conformidade com a norma
relevante, o RGPD estabelece que tais medidas deve ser selecionado de acordo com uma abordagem baseada
em risco (RBT74) que considera especificamente os riscos colocados pelo processamento e definição de perfis de
dados pessoais no que diz respeito aos seus direitos e liberdades75.

O RBT inclui duas fases fundamentais: uma primeira fase que consiste na identificação de
ameaças e na avaliação do nível de risco inerente existente, e uma segunda fase que consiste na
gestão deste risco através de medidas técnicas e organizacionais adequadas e proporcionais, a fim
de remover ou pelo menos mitigar tal risco , com o objetivo de reduzir a probabilidade de impacto
da ameaça identificada. Uma vez implementadas as medidas escolhidas, o risco residual restante76
devem ser avaliados e controlados.
Para determinar o risco e estabelecer as medidas adequadas para geri-lo, o tratamento
deve ser avaliado e dividido em etapas. Portanto, os requisitos e riscos especiais de cada
etapa devem ser geridos do ponto de vista da proteção de dados.
Para determinar o nível de risco de um tratamento, que se baseia ou inclui etapas que
apresentam uma componente de IA, deve ter-se em conta:
• Quaisquer riscos decorrentes do próprio tratamento, nomeadamente os decorrentes dos
preconceitos presentes nos sistemas de tomada de decisão e da discriminação de pessoas
singulares (discriminação algorítmica77).

• Quaisquer riscos decorrentes do processamento no que diz respeito ao contexto social e efeitos
colaterais que possam ser derivados do processamento, mesmo aqueles que estejam indiretamente
relacionados com a finalidade do processamento.

A. RAVALIAÇÃO DO ISK

Avaliar o nível de risco de um tratamento é o primeiro passo para estabelecer quais são as medidas
necessárias para eliminar ou minimizar esse risco, especialmente quando as condições estabelecidas no
regulamento estabelecem que se trata de um tratamento de alto risco, especialmente:
• Artigo 35.3 do RGPD.
• Artigo 28.2 da LOPDGDD.
• Listas de tipos de processamento de dados que exigem uma PIA (Art. 35.4) emitida pela AEPD.

As listas e artigos acima estabelecem certas condições que os tratamentos devem cumprir para serem
considerados de alto risco, algumas dessas condições devem ser cumpridas simultaneamente. As listas
acima não devem ser consideradas exaustivas, mas apenas diretrizes para

74Pensamento Baseado em Risco

75Existem muitos tipos de riscos: continuidade de negócios, fraude, financeiros, relacionados à imagem, oportunidade, confiabilidade tecnológica, segurança, etc.
76A ISO 31000 define risco residual como o risco que sobra depois de você implementar uma opção de tratamento de risco. As opções de tratamento são todas as medidas
preventivas, detectivas ou corretivas destinadas a minimizar os riscos.
77Permite transpor os preconceitos existentes na sociedade para a implementação da componente IA através de categorias espaciais de dados ou
outros atributos, como a nacionalidade. https://eticasfoundation.org/wp-content/uploads/2018/03/IG_AlgoritmicAFinal.pdf.
Página: 28 de 49
avaliação de risco. O responsável pelo tratamento deve ser capaz de identificar qualquer risco
adicional decorrente da nova componente de IA e da sua implementação, como, por exemplo, no
caso de a componente de IA ser divulgada a terceiros, incluindo dados pessoais. É preciso ressaltar
que esta análise ultrapassa os limites da organização controladora e tem como objetivo avaliar o
impacto que a atividade realizada pode ter no contexto social em que a aplicação é executada ou
implantada.
O controlador do desenvolvimento, manutenção e/ou lançamento de componentes de IA, bem como o
controlador de dados de qualquer processamento, incluindo componentes de IA, deve implementar as
medidas apropriadas para minimizar ou remover tais fatores de risco para cada etapa e responsabilidade
respectiva.

B. PRIVACIDADEEUMPACTAAVALIAÇÃO-(PIA)

A PIA é uma obrigação estabelecida pelo GDPR para processamento de alto risco. Esta
obrigação exige ir mais longe da mera gestão de riscos relacionados com o tratamento, e exige
uma seriedade adicional, uma responsabilização, no momento de gerir esse risco.
A necessidade de cada responsável pelo tratamento de dados realizar uma avaliação de impacto na proteção de
dados está prevista no artigo 35.º do RGPD quando, conforme estabelecido no n.º 1,“tratamento, é suscetível de
resultar num elevado risco para os direitos e liberdades das pessoas singulares”.

Mais precisamente, mas sem limitação, conforme estabelecido no Artigo 35.3 a78, é necessária a
realização de uma PIA sempre que esteja sendo realizado um perfil baseado em tratamento
automatizado (mas não necessariamente exclusivamente automatizado) e sejam tomadas decisões que
produzam efeitos jurídicos relativos à pessoa física ou afetem significativamente a pessoa física.

A PIA é realizada antes do efetivo tratamento dos dados pessoais, ou seja, antes da efetiva
operação do tratamento. Isto significa, nomeadamente, que a PIA não deve ser realizada durante a
fase de validação do processamento, que inclui a componente IA, ou simultaneamente com a fase
de operação. Por conseguinte, a validação deve ser realizada antes de conceber/selecionar e
implementar a solução de IA para um tratamento, para que a avaliação dos requisitos de
privacidade possa ser feita antecipadamente e as medidas de privacidade desde a conceção e as
medidas de privacidade por defeito possam ser efetivamente implementadas.
O artigo 35.2 do RGPD estabelece a obrigação do responsável pelo tratamento de procurar aconselhamento do
responsável pela proteção de dados, quando um responsável pela proteção de dados for nomeado.

É igualmente importante ter em conta que o artigo 35.9 do RGPD estabelece que, quando aplicável, o
responsável pelo tratamento solicitará a opinião dos titulares dos dados.

No caso das soluções de IA, esta opinião é particularmente importante para compreender não só a
tecnologia em si, mas o contexto preciso onde esta tecnologia será utilizada e os riscos específicos para
os direitos e liberdades dos titulares dos dados. Então, é uma boa prática alargar essa consulta a todas as
partes interessadas, incluindo os operadores humanos que tratam ou supervisionam os resultados da IA
e terceiros titulares de dados afetados pelo tratamento.

Mais precisamente, quando o processamento que é realizado de forma automatizada cria perfis
e toma decisões, todas essas decisões devem ser identificadas em todas as fases do processamento,
e os parâmetros operacionais devem ser analisados, como, por exemplo, taxas de erro, e os efeitos
que tais decisões têm sobre os titulares dos dados devem ser cuidadosamente analisados.

Artigo 35.3.uma avaliação sistemática e extensa dos aspectos pessoais relativos às pessoas singulares, que se baseia no tratamento
78

automatizado, incluindo a definição de perfis, e na qual se baseiam decisões que produzem efeitos jurídicos relativos à pessoa singular ou que
afectam significativamente a pessoa singular.
Página: 29 de 49
A PIA deve ser documentada e, quando for detetado um risco residual elevado, deve ser
objeto de consulta junto da autoridade de controlo nas condições estabelecidas no artigo 36.º
do RGPD.
Uma PIA deve resultar na adoção de uma série de medidas específicas de gestão de risco, algumas
delas destinadas a reforçar as obrigações de cumprimento em função desse risco e afetando:
• A concepção do próprio processamento, sua divisão em fases, procedimentos,
tecnologias e extensão do processamento.
• A implementação de medidas de privacidade por padrão e medidas de privacidade desde a
concepção no processamento de acordo com os princípios de:
ó Minimizandoa quantidade de dados que estão a ser tratados, tanto em
termos do volume de informação recolhida e da dimensão da população
que é objeto de análise, como ao longo das diferentes fases do
tratamento.
ó Agregandoos dados pessoais na medida do possível, de modo a reduzir
ao máximo o nível de detalhe que pode ser obtido.
ó Escondendodados pessoais e suas inter-relações para limitar a sua exposição e evitar a sua
visibilidade perante pessoas que não sejam titulares de dados.
ó Separandoos contextos do processamento para dificultar a correlação de fontes
independentes de informação, bem como a possibilidade de inferir informações.

ó Melhorando oInformaçãoaos titulares dos dados, em termos de tempo e canais


específicos, sobre as características e os fundamentos legais do tratamento,
aumentando assim a transparência e permitindo que os titulares dos dados tomem
decisões informadas sobre o tratamento dos seus dados.
ó Fornecer meios aos titulares dos dados para que possamao controlea forma
como os seus dados são recolhidos, tratados, utilizados e divulgados a terceiros,
implementando mecanismos adaptados ao nível de risco que lhes permite
exercer os seus direitos em termos de proteção de dados.
ó Cumprindocom uma política de privacidade consistente com as obrigações
legais e requisitos impostos pelo regulamento.
ó Provando,tal como estabelece o princípio da responsabilização, que está a ser
cumprida a política de proteção de dados aplicável, bem como todos os demais
requisitos e obrigações legais impostos pelo Regulamento, no que diz respeito
aos titulares dos dados e às autoridades de controlo. Isto inclui uma auditoria
dinâmica das saídas/resultados do processamento, avaliando as divergências e
desvios de precisão, incluindo os algoritmos que foram executados, a fim de
adotar medidas corretivas. Entre essas medidas estão o cancelamento de dados
e a documentação detalhada das análises realizadas e das medidas adotadas.

• A identificação dos requisitos de segurança para reduzir o risco em relação à


privacidade.
• A adoção de medidas específicas para implementar um sistema de governação
de dados pessoais que permita comprovar e rastrear o cumprimento dos
princípios, direitos e garantias de gestão do risco.
A AEPD fornece diretrizes para abordar os princípios listados acima para processamentos
genéricos:Diretriz para PIA, laDiretriz de privacidade desde o design, Modelo de PIA
documento de avaliação para administrações públicas e ferramentas que ajudam a executar o EIPD, como
comoGESTÃO .
Antes de repetir o que pode ser encontrado nessas diretrizes, aqui incorporadas como referência,
alguns aspectos específicos para soluções de IA serão desenvolvidos nas próximas seções.

Página: 30 de 49
C. TRANSPPARÊNCIA

Nos termos do considerando 78, o princípio da transparência é uma medida de privacidade por
defeito para permitir, nomeadamente, que os titulares dos dados supervisionem o tratamento a que
estão sujeitos.

O princípio da transparência é explicado no considerando 39 e no considerando 58. A obrigação


de informar os titulares dos dados é entendida nesses considerandos de uma forma que vai além
das disposições dos artigos 13.º e 14.º do RGPD. Mais precisamente, os considerandos estabelecem
a obrigação no sentido de que“qualquer informação e comunicação relativa ao tratamento desses
dados pessoais seja facilmente acessível e compreensível” “concisa”, “que seja utilizada uma
linguagem clara e simples” “quando apropriado, seja utilizada a visualização”, que “seja fornecida
eletronicamente”, “informações adicionais para garantir um processamento justo e transparente”ser
fornecido e que“titulares dos dados” “devem ser informados dos riscos, regras, salvaguardas e
direitos em relação ao tratamento de dados pessoais”.
No caso do processamento baseado em IA, a transparência pode ser considerada um aspecto
crítico, portanto, deve permitir que os titulares dos dados tomem consciência do impacto de tais
soluções. A transparência é dirigida tanto aos titulares dos dados como aos operadores de
tratamento. Mais precisamente, a transparência está ligada a informações precisas sobre a
eficiência, as capacidades reais e as limitações reais dos sistemas de IA para evitar falsas
expectativas entre os utilizadores e titulares dos dados, o que pode dar origem a uma interpretação
incorreta das inferências feitas pelo tratamento. . A transparência também está ligada à informação
sobre o contexto do tratamento, bem como à existência de terceiros, à localização física e virtual da
solução de IA, etc.
A transparência não se limita a um momento ou flashes, mas deve ser entendida como um
princípio em torno do qual o tratamento deve ser realizado e que afeta todos e cada um dos
elementos e partes interessadas do tratamento.

Durante o treinamento

Durante a formação, caso sejam utilizados dados pessoais, o titular dos dados deve ser claramente informado
sobre a possibilidade de tais dados serem reidentificáveis a partir dos dados de um modelo, ou, conforme
estabelecido no artigo 11.2 do RGPD, de que tal reidentificação não seja possível.

Certificação

Um dos problemas que surgem neste momento para proporcionar transparência no que diz respeito aos
algoritmos de IA é a questão da confidencialidade necessária para preservar a propriedade industrial.

Este problema não afeta apenas a IA, mas é um problema partilhado por outras soluções tecnológicas,
como módulos criptográficos em sistemas de segurança ou circuitos integrados em cartões de crédito. No
entanto, nos sectores onde a utilização de tais soluções é obrigatória, a confiança nos vendedores e
promotores não é suficiente, mas são estabelecidos mecanismos compulsórios baseados em terceiros de
confiança para garantir os níveis de qualidade e fiabilidade obrigatórios, seja através da concessão às
autoridades de controlo acesso aos aspectos internos dos produtos ou estabelecendo mecanismos de
certificação através de terceiros independentes79.

Da mesma forma, quando a IA evolui de um elemento experimental para um produto, é necessário


agregar as mesmas garantias que são solicitadas a qualquer outro serviço tecnológico. O
desenvolvimento e a aplicação de esquemas de certificação que estabeleçam quadros de referência (para
fabricantes, controladores de dados, autoridades e usuários) que permitam um terceiro independente

79É
o caso da certificação baseada em Critérios Comuns ou CC, e onde pode ser encontrada uma lista de produtos certificados https://
www.commoncriteriaportal.org/
Página: 31 de 49
parte deve certificar que tanto a IA em particular, como a implementação do processamento em termos
gerais, estão em conformidade com o GDPR e com o que foi declarado nestas diretrizes.

No que diz respeito aos esquemas de certificação, que podem abranger vários aspectos relativos à utilização de IA
e ser ferramentas para comprovar o cuidado, o RGPD estabelece no artigo 42.º a possibilidade de desenvolver
mecanismos de certificação específicos em termos de protecção de dados, selos e marcas de protecção de dados, bem
como ferramentas para comprovar a conformidade com o RGPD, conforme explicado no considerando 100, para
aumentar a transparência do tratamento de dados pessoais.

Decisões e perfis automatizados

Os responsáveis pelo tratamento devem fornecer informação suficiente aos titulares dos dados
relativamente ao tratamento a que estão sujeitos, bem como informação sobre os mecanismos que
permitem solicitar uma intervenção humana na avaliação ou questionamento da decisão adotada
pelo sistema de forma automática, sem prejuízo do disposto nos artigos 13.º e 14.º do RGPD e que
tenham sido descritos na secção “Informação” deste documento.

Pessoal do controlador de dados

Os responsáveis pelo tratamento de dados que adotam este tipo de soluções e sistemas devem fornecer
informações precisas e formação específica ao seu pessoal sobre as limitações do sistema de IA.

Sempre que o processamento é uma ferramenta que auxilia na tomada de decisões, é necessário adotar
medidas para gerenciar o risco de os humanos se comportarem como um mero elo às inferências feitas pela
solução de IA. Tais medidas incluem informações sobre o operador (conforme indicado acima), treinamento e
auditorias comportamentais.

Devem ser evitados erros de interpretabilidade por parte dos operadores. Os valores inferidos
devem ser apresentados de forma que reflitam a realidade da inferência e seus limites. Essas
informações devem ser fornecidas às fases subsequentes do tratamento, realizado por seres
humanos ou automático. No momento de operar o sistema, é necessário oferecer ao operador
informações em tempo real sobre os valores de precisão e/ou valores de qualidade da informação
inferida em cada momento. Além disso, quando a informação inferida não atinge os limites mínimos
de qualidade, deve ser explicitamente observado que tal informação não é válida ou não tem valor80.

Caso as soluções sejam disponibilizadas por terceiros, este deverá fornecer informações
suficientes ao responsável pelo tratamento para que este possa gerir tais riscos, bem como
informações sobre a melhor forma de proceder neste sentido.

O responsável pela proteção de dados como ferramenta de transparência

A nomeação de um DPO é uma das melhores medidas que podem ser adotadas pelo controlador
para orientar a implementação de políticas de transparência e, mais precisamente, para gerir um
canal de informação aos titulares dos dados. Permite ao titular dos dados obter informações sobre a
solução de IA diretamente do responsável pelo tratamento (seja sobre o desenvolvimento da IA, a
manutenção da IA ou o funcionamento da IA no âmbito de um tratamento).
Tanto o Artigo 37.1 do RGPD como o Artigo 34 do LOPDGDD estabelecem as condições que tornam
obrigatória para o responsável pelo tratamento/processador a nomeação de um Encarregado de Proteção de
Dados (DPO) em virtude da natureza do tratamento ou em virtude do tipo de atividade.

O facto de utilizar uma solução de IA não implica,por si só, que existe uma obrigação do
DPO, embora existam dois casos que aparecem detalhados no lit. (b) e (c) do referido artigo

80Por exemplo, no caso de sistemas que possam detectar comportamentos corporais suspeitos, nenhum sujeito deve ser apontado apenas porque não existe
outro sujeito com um risco avaliado mais elevado.
Página: 32 de 49
37.1 onde a presença de um EPD dentro da organização é obrigatória: o monitoramento regular e
sistemático dos titulares dos dados em grande escala ou o processamento em grande escala de
categorias especiais de dados ou dados pessoais relacionados a condenações criminais e infrações.

De acordo com oDiretrizes sobre responsáveis pela proteção de dados emitido pelo WP2981, o EPD é
um elemento fundamental para garantir o cumprimento e a gestão dos riscos para os direitos e
liberdades dos titulares dos dados.

Assim, o DPO, mesmo para os casos em que tal nomeação não seja solicitada, pode ser muito útil em
entidades que utilizem soluções baseadas em IA onde sejam tratados dados pessoais, ou onde sejam
desenvolvidas soluções de IA que utilizem dados pessoais para treinar modelos, tornando-se assim um
elemento-chave para gerir o risco e aplicar eficazmente os mecanismos de responsabilidade proativa. Mais
precisamente, o Artigo 35 identifica o Encarregado de Proteção de Dados como um papel fundamental no
desempenho da PIA e uma das ferramentas para implementar a transparência perante o usuário.

D. APRECISÃO

O termo “precisão” é definido no Artigo 5.1 do RGPD como um dos princípios dos princípios de
proteção de dados pessoais. No caso de um processamento que inclua soluções de IA, a existência
de vieses nos modelos de inferência está intimamente ligada à precisão ou à qualidade dos dados82.

Nos termos do segundo parágrafo do considerando 71 do RGPD, os dados ligados aos titulares dos
dados,83sejam eles coletados diretamente ou inferidos, devem ser precisos. Mais precisamente,
especifica-se que o responsável pelo tratamento dos dados deverá “usar procedimentos matemáticos ou
estatísticos apropriados para o perfil” que garantem que os dados vinculados ao titular dos dados são
exatos. Ou seja, é obrigatório comprovar e documentar que os procedimentos utilizados para a inferência
da informação sobre um titular de dados são precisos e, portanto, estáveis e previsíveis.

Quando um responsável pelo tratamento opta por utilizar uma componente de IA para um tratamento, deve garantir que
os dados que estão a ser tratados, gerados e ligados ao titular dos dados cumprem os requisitos acima mencionados.

Fatores que afetam a precisão

No que diz respeito à necessidade de que os dados inferidos sobre os titulares dos dados sejam precisos, existem
três fatores que podem afetar essa precisão:

• A própria implementação do sistema de IA. Existem IAs, como sistemas especialistas


baseados em regras, onde a própria concepção do sistema pode introduzir erros que podem
levar a inferências errôneas, ou sistemas baseados em ML, que são incapazes de modelar o
processamento desejado. Conforme afirmado anteriormente, erros podem ser introduzidos
porque elementos externos à IA, como leitores biométricos, podem introduzir erros nos
dados de entrada. Por outro lado, pode acontecer que existam erros de programação ou de
design que possam transferir erroneamente o modelo para a sua implementação prática.
Nesses casos, pode-se dizer que o viés está “programado” pelas decisões adotadas quando
um modelo de análise é construído (vieses de avaliação e agregação).

81“O DPO desempenha um papel fundamental na promoção de uma cultura de proteção de dados dentro da organização e ajuda a implementar elementos essenciais do
GDPR, como os princípios de processamento de dados, direitos dos titulares de dados, proteção de dados desde a concepção e por padrão, registros de processamento
atividades, segurança do processamento e notificação e comunicação de violações de dados.”
82O termo “qualidade dos dados” está contido no Artigo 47.2.d do GDPR.
83Todos os titulares dos dados têm os mesmos direitos no que diz respeito à protecção de dados, não apenas os grupos classificados como “grupos de risco”, e não é possível qualquer

“discriminação positiva”.
Página: 33 de 49
• O conjunto de dados de treinamento ou validação está corrompido por erros, informações
deliberadamente errôneas84ou preconceitos que impossibilitam que as inferências sejam
precisas. Tais vieses podem ser inerentes, como má qualidade dos dados, ausência de dados
ou amostragem seletiva. Também podem ser erros de representação e medição devido à
forma como o conjunto de dados é moldado.

• Evolução tendenciosa do modelo de IA. Para a implementação de técnicas adaptativas pela IA, deve ter-se
em conta que a IA pode ser utilizada principalmente por um grupo de titulares de dados cujas
características específicas podem introduzir novos enviesamentos de feedback.

Quanto à precisão exigida no caso de dados de treinamento, métricas e técnicas de saneamento e


rastreabilidade devem ser implementadas para garantir a fidelidade e a integridade dos conjuntos de
dados. Embora não sejam compartilhados por todas as soluções de IA, os dados de treinamento e
operação em alguns modelos podem ser classificados como dados “hard” e “soft”. Os primeiros são dados
objetivos, mensuráveis em termos gerais, como notas, porcentagem de frequência, valores analíticos,
resultados de testes, etc. Dados “soft” são dados qualitativos em termos gerais e contêm um componente
subjetivo ou um componente de incerteza. Alguns exemplos de dados “soft” são dados obtidos através do
processamento de linguagens naturais, opiniões, avaliações pessoais, inquéritos, etc. Embora os dados
“hard” não estejam isentos de erros ou preconceitos, o responsável pelo tratamento deve avaliar
cuidadosamente os problemas de precisão que possam surgir. de usar ou dar maior peso aos dados
“leves” como fonte de informação.

O preconceito não é um problema apenas para um sistema de IA, mas pode aparecer em
qualquer sistema de processamento automatizado/não automatizado que adote decisões ou
execute perfis. Existem técnicas conhecidas como a Avaliação de Impacto de Algoritmo (AIA)85que se
orientam para examinar e detectar a existência de possíveis vieses utilizados nas soluções de IA e
para garantir a equidade na implementação do modelo. Tais métricas devem analisar a lógica a ser
implementada para que tal lógica não origine imprecisões por design, e devem usar modelos de
teste maduros e verificações de implementação para detectar erros de design86.

Informações biométricas

A precisão é particularmente crítica quando o processamento é baseado em informações biométricas,


como IA no reconhecimento facial, impressões digitais, voz, etc. Nesse caso, fatores de desempenho
precisam ser levados em consideração (falsos positivos, falsos negativos e outros). bem como o impacto
na recolha de dados pessoais relativamente a qualquer deficiência ou singularidade física. Especialmente,
quando uma solução baseada em IA é incapaz de identificar o assunto como tal,87um perfil errôneo
ocorre antes mesmo do desempenho do processamento em si.88.

84Informações erradas também podem aparecer como resultado de um ataque realizado ao conjunto de dados ou como resultado da inclusão de backdoors
através de uma manipulação consciente dos dados.
85As Avaliações de Impacto Algorítmico são ferramentas que permitem uma avaliação por parte das partes interessadas para verificar se os componentes da IA cumprem
determinados parâmetros de qualidade e se são adequados para a tarefa pretendida. Uma referência ao mesmo pode ser encontrada, por exemplo, em https://
ainowinstitute.org/aiareport2018.pdf
86Artigos recentes levantaram preocupações sobre o risco de vieses não intencionais nestes modelos, originando um impacto negativo em certos indivíduos
dentro de vários grupos. Embora tenham sido sugeridas muitas métricas de parcialidade e definições de equidade, não existe consenso sobre as definições e
métricas que precisam de ser utilizadas na prática para efeitos de avaliação e auditoria de tais sistemas. No entanto, foram desenvolvidas diversas métricas
orientadas para a avaliação da discriminação algorítmica, como o Aequitas, um kit de ferramentas de auditoria de preconceitos com código aberto
desenvolvido peloCentro de Ciência de Dados e Políticas Públicas .
87No estudo Discriminação, inteligência artificial e tomada de decisão algorítmica publicado pelo Conselho Europeu, são listados os seguintes exemplos: O
software de rastreamento facial da Hewlett Packard não reconheceu rostos de cor escura como rostos. E o aplicativo Google Fotos rotulou a foto de um casal
afro-americano como “gorilas”. Uma câmera Nikon perguntava às pessoas de origem asiática: "Alguém piscou?" Um homem asiático teve sua foto de
passaporte rejeitada, automaticamente, porque “os olhos do sujeito estão fechados” – mas seus olhos estavam abertos. Buolamwini e Gebru descobriram que
“as mulheres de pele mais escura são o grupo mais mal classificado (com taxas de erro de até 34,7%). A taxa de erro máxima para homens de pele mais clara é
de 0,8%”.
88Há casos de pessoas cujas impressões digitais são fracas e quando sujeitas a um sistema de acesso através da identificação de impressões digitais
encontram problemas de acesso de forma contínua.
Página: 34 de 49
O responsável pelo tratamento deve ter em conta que, mesmo que esses utilizadores possam ser uma minoria,
devem ser implementados mecanismos alternativos para evitar a exclusão de um titular com o fundamento de que a
solução de IA não é capaz de captar as características biométricas dos titulares dos dados.89.

Combinação de perfil

Por vezes, uma componente de IA pode criar perfis ou adotar decisões sobre o mesmo assunto, mas
em circunstâncias diferentes e para finalidades diferentes. Por exemplo, alguns tipos de tratamento
criminal utilizam soluções de IA que permitem analisar o perfil de um titular de dados para
incumprimento de uma intimação judicial e, simultaneamente, inferir um perfil sobre o risco de o mesmo
titular de dados cometer uma infracção penal de novo. Nesse caso, a menos que seja comprovado por
documentação, é conveniente que tais perfis sejam realizados de forma independente. O perfil indicado
em um dos tópicos não deve ser considerado ou utilizado no processo de inferência do outro tópico.

Verificação vs. Validação

Os testes e/ou verificação de um componente de IA são parte fundamental no desenvolvimento


de tal componente, bem como um critério importante para o controlador optar por um ou outro
componente de outro desenvolvedor. O responsável pelo tratamento deve ter em conta que a
inclusão de um componente de IA verificado num tratamento não garante que o tratamento seja
validado nem confirma a adequação do componente de IA para esse tratamento específico. Os
testes do componente AI garantem que os resultados de design e desenvolvimento atendem aos
requisitos do componente. O âmbito da validação do processamento vai ainda mais longe. Deve
garantir que os produtos e serviços resultantes cumprem os requisitos relativos a uma aplicação
específica ou utilização prevista90. A validação garante que o processamento, juntamente com a
solução de IA em que se baseia, cumprem os resultados planeados para um determinado produto
ou serviço.
Ou seja, a validação do tratamento que inclui uma componente de IA deve ser realizada em
condições que reflitam o contexto real onde se espera que o tratamento seja implementado.91.
Ao mesmo tempo, o processo de validação exige uma revisão periódica, tendo em conta que
tal contexto ou o próprio tratamento podem mudar e evoluir.

Avaliação de precisão como processo contínuo

Caso as soluções de IA evoluam, nomeadamente quando são retroalimentadas quer com a sua
interação com o titular dos dados, quer com a interação com terceiros titulares dos dados, é
necessário realizar uma reavaliação do modelo.
O desvio na precisão do perfil feito pela solução baseada em IA devido ao “filtro de bolha”92ou outras
circunstâncias, podem ocorrer preconceitos de feedback que o usuário tem sobre si mesmo ou sobre outras
pessoas93.

89Em resumo, para evitar uma discriminação por não ser “biometricamente adequado”.
90ISO 9001:2015 Sistemas de gestão da qualidade. Requisitos
91O “Manual Prático de Inteligência Artificial no Contexto da Saúde”, referido na Bibliografia, descreve o caso de um sistema de
diagnóstico pediátrico de pneumonia que obteve uma precisão de 97%. No entanto, quando tal algoritmo foi aplicado a uma população
de Madrid, a precisão caiu para 64%. A análise dos dados da formação evidenciou que a população utilizada tinha entre 0 e 5 anos
enquanto o âmbito de aplicação do tratamento pediátrico em Madrid incluía crianças até aos 14 anos.
92Filtro bolha ou Echo Chamber é uma situação muito comum em buscadores de conteúdo, que aprendem os gostos do usuário e oferecem apenas o
conteúdo que acreditam ser do gosto do usuário e ignoram todas as outras informações de tal forma que o usuário fica preso em uma “bolha”. ”Isso os
impede de acessar todas as opções possíveis.
93Por exemplo, uma IA que avalia o estado psicológico de um sujeito pode retroalimentar a visão que o indivíduo tem sobre si mesmo, guiando-o
assim para um desvio da sua própria percepção.
Página: 35 de 49
E. MINIMIZAÇÃO

A minimização está implicitamente definida no Artigo 5.1. C do Regulamento como o processo


que visa garantir que os dados pessoais são exatos, pertinentes e limitados na medida necessária
relativamente às finalidades para as quais são tratados. Nos termos do considerando 59, os dados
pessoais só devem ser tratados se a finalidade do tratamento não puder ser razoavelmente
alcançada por outros meios.
Os titulares dos dados, as categorias de dados e o período de conservação dos dados que podem ser
tratados estão ligados aos fundamentos legais para tal tratamento.

Minimização é o processo de optimização do tratamento do ponto de vista da protecção de


dados, analisando as necessidades do tratamento de dados nas diferentes fases do processo e
no cumprimento dos requisitos anteriores para efeitos de:
• Limitando a extensão das categorias de dados94que são utilizados em cada fase do
processamento para categorias estritamente necessárias e relevantes.
• Limitar o nível de detalhe ou precisão das informações95, a granularidade da coleta
em termos de tempo e frequência e a data de coleta das informações utilizadas.

• Limitar a extensão do número de titulares de dados cujos dados estão sendo processados.

• Limitar a acessibilidade às diversas categorias de dados ao pessoal do responsável pelo tratamento/


subcontratante ou mesmo ao utilizador final (caso existam dados pertencentes a terceiros nos modelos
de IA) em todas as fases de processamento.

Portanto, é necessário avaliar como implementar tais princípios no momento de conceber a


solução de IA e o processamento, e descrever e analisar o ciclo de vida dos dados ao longo de
cada fase do processamento. Esta análise não se centra apenas na solução de IA do ponto de
vista técnico, mas sim no processamento global onde tal solução está incluída. Deve levar em
conta tanto os aspectos automatizados como os aspectos não automatizados de cada fase do
processamento.

Dados de treinamento

No caso do BC, é necessário equilibrar a necessidade dos dados para treinar os sistemas de BC no que
diz respeito ao risco para os direitos e liberdades dos titulares dos dados. O grau de qualidade dos dados
de treinamento não é medido apenas pela mera acumulação de dados, mas pela relevância, atualidade,
confiabilidade, solidez96e utilizar as categorias de dados que sejam relevantes para o tratamento
pretendido. Para aplicar tal critério de proporcionalidade, é aconselhável utilizar perfis profissionais com
experiência em ciência de dados97, uma disciplina que vai além da especialização em algoritmos de ML,
mas com competências nos princípios da proteção de dados, e em cooperação com os especialistas em
lógica de negócio e o responsável pela proteção de dados, caso tenha sido nomeado um responsável pela
proteção de dados98.

94A extensão da categoria de dados diz respeito ao número de campos de dados associados a uma pessoa física refere-se a: nome. endereços
físicos e lógicos, campos sobre sua saúde, situação de trabalho, status social, relações, gostos, crenças, ideologia... Quanto mais campos, maior a
precisão e mais a diversidade de um indivíduo, maior a extensão do categorias de dados que serão processadas.
95Algo tão simples como uma data de nascimento pode ser definido desde a especificação da década até a especificação do ano, do dia e da hora.
96A partir do momento é aplicável ao treinamento para diversos processamentos.
97Data Science é um campo interdisciplinar que envolve métodos, processos e sistemas científicos para extrair conhecimento e uma melhor compreensão dos
dados em suas diferentes formas, sejam eles estruturados ou não estruturados. Esta é uma continuação de alguns campos da análise de dados, como
estatística, mineração de dados, aprendizado de máquina e análise preditiva.
98A título de exemplo, no livro “Manual Prático de Inteligência Artificial no Contexto da Saúde”, estabelece-se que 80% do tempo de
desenvolvimento de um algoritmo tem a ver com a recolha, a limpeza e o pré-processamento de dados e que apenas 20% afeta o
treinamento do próprio algoritmo.
Página: 36 de 49
Técnicas de minimização

Existem várias técnicas de minimização de dados de soluções de IA99, alguns deles especificamente
para ML, e estão em contínuo desenvolvimento:
• Avaliação de dados para verificar sua alta qualidade e capacidade de previsão para a
aplicação relevante.
• Análise crítica da extensão das categorias de dados utilizadas em cada fase da solução
baseada em IA.
• Apagamento de dados não estruturados ou informações desnecessárias que foram coletadas
durante o pré-processamento da informação.
• Identificação e apagamento, durante o processo de treinamento, de tais categorias de dados
sem influência significativa no aprendizado ou no resultado da inferência.
• Supressão de conclusões não relevantes relacionadas com um titular de dados durante o
processo de formação, por exemplo, em caso de formação não supervisionada.
• Utilização de técnicas de verificação que requerem menor número de dados, como
validação cruzada100.
• Análise e configuração de hiperparâmetros101do algoritmo que possa influenciar
a quantidade ou extensão dos dados tratados, com o objetivo de minimizá-los.

• Uso de modelos de aprendizagem federados em vez de modelos de aprendizagem centralizados102.


• Aplicação de estratégias diferenciadas de privacidade.
• Treinamento com dados criptografados utilizando técnicas homomórficas.
• Agregação de dados.
• Anonimização e pseudonimização, não só na comunicação dos dados, mas também
nos dados de formação, possíveis dados pessoais no modelo103e durante o
processamento da inferência.
• Etc.

Extensão das categorias de dados em uma solução baseada em IA

Para cada fase de um tratamento, independentemente de a fase incluir ou não uma componente
de IA, é necessário tratar uma extensão diferente do total de dados pessoais relativos ao mesmo
titular dos dados. Em termos gerais, não é necessário aceder a toda a extensão dos recursos
disponíveis104dados pessoais em todas as fases. Portanto, as estratégias de minimização de dados
utilizadas para cada fase do processamento devem diferir, e também devem diferir em cada uma
das fases do ciclo de vida da solução baseada em IA: a fase de treinamento, a fase de inferência ou a
fase de evolução do modelo. Devem ser levadas em conta as limitações estabelecidas pela própria
base jurídica105.
Um aspecto que precisa ser justificado no momento de estabelecer a extensão das categorias de
dados a serem utilizadas no componente de IA é o uso de variáveis proxy. Uma variável proxy é

99Consulte o Guia de Design de Privacidade da Agência Espanhola de Proteção de Dados [AEPD].


100A validação cruzada envolve a divisão do banco de dados em treinamento e teste diversas vezes e com uma seleção de dados diferente em cada
subgrupo, comparando a saída global do treinamento e do teste do algoritmo em cada iteração.
101Hiperparâmetros são parâmetros que permitem configurar o funcionamento de um modelo específico de IA. Por exemplo, em redes neuronais, os
hiperparâmetros serão o número de camadas, o número de neurônios por camada, a taxa de aprendizagem, etc.
102Federated Learning ou FL é um modelo de ML distribuído que permite o treinamento de modelos em dispositivos finais (processo além da borda). É uma
aproximação para “trazer o processamento para os dados em vez dos dados para o processamento” e permite gerir a privacidade dos dados, a propriedade
dos dados e a localização dos dados.https://arxiv.org/pdf/1902.01046.pdf
103Liberando o classificador SVM com preservação de privacidade https://ieeexplore.ieee.org/document/4781198
104Este princípio está relacionado com o princípio da “necessidade de saber” que é utilizado em segurança, mas, neste caso, é entendido do ponto
de vista da privacidade. Por exemplo, se o conjunto de dados do tratamento tiver uma fase que submeta uma comunicação ao titular dos dados,
será necessário tratar os dados de contacto durante essa fase, mas não será necessário tratar toda a informação contida nos dados assunto.
Inclusive, para quem realiza a comunicação, não será necessário acessar o conteúdo de tal comunicação.
105A legitimação para processar um dado no âmbito de um processamento, por exemplo, o endereço de entrega de uma encomenda, não se estende à
utilização de tal endereço como um dado de entrada do componente de IA para realizar um perfil do cliente durante a fase de contratação.
Página: 37 de 49
um tipo de dados que parece não estar em estreita relação com o objetivo do processamento, mas que
pode estar fortemente correlacionado com o valor inferido106. Quando variáveis proxy estão em uso é
necessário avaliar a validade de tal correlação para legitimar o processamento.

Há dois aspectos importantes que precisam ser analisados em relação às variáveis proxy. A primeira
é que a sua utilização não deve estar ligada a qualquer preconceito no modelo de raciocínio, como, por
exemplo, utilizar a nacionalidade do titular dos dados como elemento para avaliar o seu perfil de fraude
ou o seu estatuto social para avaliar a possibilidade de reincidência. O segundo107, é auditar se a
correlação entre as variáveis proxy utilizadas e a finalidade do tratamento se mantém no tempo e no
âmbito de aplicação, uma vez que tal relação pode variar e estar sujeita a fraudes108.

Extensão do conjunto de treinamento

Um dos aspectos específicos do princípio da minimização em soluções baseadas em IA trata do


tamanho da população cujos dados serão coletados para treinar os modelos, principalmente quando tal
processamento é baseado no interesse legítimo.

Nesse caso, o número de titulares de dados afetados deve ser justificado com base:
• A precisão que a solução baseada em IA deve atingir nas suas inferências para o processamento
específico.
• O fator de convergência do algoritmo de treinamento para o valor de precisão
desejada exigida pelo processamento, e a relação com a quantidade de exemplos
fornecidos.
• O facto de a quantidade de dados solicitados pelo modelo poder introduzir enviesamentos na
inferência, por falta de disponibilidade de dados que cubram um espectro equilibrado da
população (por idade, género, estatuto, raça, cultura...) ou porque devido à antiguidade dos
dados coletados, esses dados refletem contextos sociais obsoletos109.

O fato de alimentar um modelo de aprendizagem de IA com dados sem controle ou análise


prévia, além de não se justificar, é fator que pode levar à perda de precisão e tornar-se um
multiplicador de vieses. O conjunto de dados a utilizar deve ser cuidadosamente analisado para
evitar tais riscos e a utilização desse conjunto de dados deve ser legitimada se, por exemplo, o
tratamento se basear no interesse legítimo.
Além disso, um excesso de dados de treino (overadjustment ou overfitting) pode resultar num modelo
muito ajustado a casos facilmente reidentificáveis,110sendo, portanto, mais vulnerável no caso de um
ataque à privacidade (veja abaixo os ataques de inversão do modelo).

Dados pessoais na solução baseada em IA

Caso a IA seja divulgada como componente de tratamento e que, como parte deste, sejam incluídos
dados de terceiros, deverá ser realizada uma análise formal para saber quais os dados pessoais dos
titulares dos dados que podem ser identificáveis.

106Variáveis proxy como o consumo de pizza em centros de decisão nos Estados Unidos ou a ocupação do estacionamento desses
centros revelaram a data precisa da operação Tempestade no Deserto em 1991, que levou a uma mudança nos procedimentos de
segurançahttps://www.army.mil/article/2758/army_releases_new_opsec_regulation
107Isto está relacionado ao princípio da precisão.
108No livro “Armas de Destruição Matemática” referido na Bibliografia, é descrito o caso da utilização da variável proxy “Seguidores do Twitter”
para avaliar a idoneidade dos candidatos para um cargo de Especialista em Mídias Sociais em vez de avaliar cuidadosamente as campanhas de
marketing realizadas. Uma vez detectada a variável proxy, é fácil enganar o sistema através da contratação de um serviço por pouco dinheiro que
aumente o número de seguidores do candidato no Twitter.
109Tal como utilizar informações sobre as preferências profissionais das mulheres, incluindo dados de há muitos anos ou fora do contexto cultural,
criando assim uma imagem obsoleta da população atual.
110Além de outros problemas como o baixo desempenho de uma população que não está incluída no conjunto de treinamento.
Página: 38 de 49
Além disso, devem ser adotadas medidas técnicas, bem como medidas organizacionais
ou legais para minimizar a identificação ou a extensão da identificação ao mínimo número
possível de dados.
Por outro lado, durante a fase de operação ou inferência, é conveniente utilizar estratégias de
eliminação antecipada dos dados do titular dos dados na solução baseada em IA, mesmo quando se
aplica a exceção relativa às atividades domésticas.

F. SSEGURANÇA

O RGPD estabeleceu no artigo 32.º que tanto o responsável pelo tratamento como o subcontratante devem
aplicar medidas técnicas e organizacionais adequadas para garantir um nível de segurança adequado no que
diz respeito aos direitos e liberdades dos titulares dos dados. Tais medidas serão adaptadas tendo em conta os
custos de implementação, a natureza, o âmbito, o contexto e as finalidades do tratamento, bem como os riscos
variáveis de probabilidade e gravidade. Não existe uma solução padrão para todos os processamentos e muito
menos para aqueles que incluem um componente de IA. A solução deve ser avaliada através de uma análise de
riscos que deve estar relacionada com os riscos para os direitos e liberdades dos titulares dos dados do ponto
de vista da proteção de dados.

Ameaças específicas em componentes de IA

Além da análise das medidas de segurança comuns a qualquer sistema, existem garantias
específicas para o processamento baseado em IA. Essas garantias devem abordar ameaças
específicas derivadas do facto de os componentes da AI serem desenvolvidos por terceiros ou da
divulgação de dados a terceiros.
Existem tipologias de ataque e defesa no que diz respeito aos componentes de IA que foram
analisados111. Entre as diferentes medidas de segurança, é aconselhável prestar especial atenção àquelas
que gerem os seguintes tipos de ameaças:
• Acesso e manipulação do conjunto de dados de treinamento, por exemplo, através de técnicas de
envenenamento com padrões adversos.
• Inclusão de Trojans e112portas dos fundos113durante o desenvolvimento da IA, seja no próprio
código ou nas ferramentas de desenvolvimento114.
• Manipulação da API do usuário que permite acessar o modelo, tanto no nível de caixa preta quanto
de caixa branca, para manipular parâmetros do modelo, vazamento do modelo para terceiros,
ataques de integridade ou disponibilidade das inferências115.
• Ataques por “aprendizado de máquina adversário”116para que uma análise sobre a robustez
e o controle da alimentação de dados para o modelo deve ser necessário.
117

• Ataques por imitação de padrões que são reconhecidos como admitidos pelo sistema118.

111Uma pesquisa sobre ameaças à segurança e técnicas defensivas de máquinas, Qiang Liu et al., IEEE Access, ISSN:2169-3536, fevereiro de 2018
112Trojans em IA, IARPA https://www.iarpa.gov/index.php?option=com_content&view=article&id=1150&Itemid=448
113Exemplo de manipulação de um algoritmo de reconhecimento de imagemhttps://www.bleepingcomputer.com/news/security/ai-training-
algorithmssusceptible-to-backdoors-manipulation/ também incorporação de backdoor em modelos de redes neurais convolucionais via perturbação invisível
https://arxiv.org/pdf/1808.10307.pdf
114Vulnerabilidade em uma biblioteca para desenvolvimento de modelos de ML:https://cyware.com/news/critical-vulnerability-in-numpy-could-allowattackers-
to-perform-remote-code-execution-33117832
115Com o propósito de aumentar a taxa de falsos positivos e a taxa de falsos negativos.
116Técnica de ataque que consiste em alimentar a IA com dados de exemplo, que podem ser indistinguíveis dos dados normais do ponto de vista
da percepção humana, mas podem incluir pequenas perturbações que obrigam a IA a fazer inferências erradas.
117Explorando a paisagem da robustez espacial, Logan Engstrom∗MIT https://arxiv.org/pdf/1712.02779.pdf
118Orientado para aplicações como reconhecimento facial ou detecção de intrusão e muitas vezes relacionado a técnicas de “aprendizado de máquina
adversária”.
Página: 39 de 49
• A reidentificação dos dados pessoais incluídos no modelo (pertencentes a
inferência ou119inversão do modelo120) por interno e externo121Usuários.
• Fraude ou engano à IA por parte dos titulares dos dados, especialmente nos casos em
que possa implicar danos para outros titulares dos dados122, o que implica a necessidade
de realizar uma análise de robustez à luz de tais ações e da realização de auditorias.

• Vazamento para terceiros dos resultados do perfil ou das decisões inferidas pela IA (também
relacionadas às APIs do usuário).
• Vazamento ou acesso aos logs resultantes das inferências geradas na interação com os
titulares dos dados.

Logs ou registros de atividades

A existência de ficheiros de registo ou registos de atividades, a realização de auditorias (sejam elas


automatizadas ou manuais) e a certificação do processo são inerentes às estratégias de “accountability”
ou estratégias de responsabilidade proativa, mas também decorrem dos requisitos legais que são
especificamente estabelecidos na regulamentação setorial.

Os arquivos de log serão necessários para apoiar os processos de auditoria e os mecanismos de segurança,
no que diz respeito à proteção de dados, os referidos arquivos de log devem fornecer evidências para:
• Estabelecer quem e em que circunstâncias acessa os dados pessoais que podem
ser incluídos no modelo.
• Fornecer rastreabilidade no que diz respeito à atualização dos modelos de inferência, às
comunicações da API do usuário com o modelo e à detecção de abusos ou tentativas de
intrusão.
• Fornecer rastreabilidade para permitir a governação na divulgação de dados entre todas as partes
intervenientes na solução baseada em IA no que diz respeito às obrigações decorrentes do considerando
66 do RGPD.
• Fornecer um acompanhamento dos parâmetros de qualidade da inferência quando a IA for
utilizada para tomada de decisão ou em processos de auxílio à tomada de decisão.

O interesse legítimo do responsável pelo tratamento como base legítima para o tratamento dos dados
pessoais dos ficheiros dos registos de atividades para fins de segurança é explicado no considerando 49.
123do RGPD,“na medida estritamente necessária e proporcional para garantir a segurança das redes e da

informação”.Nos restantes casos, a regulamentação sectorial estabelecerá obrigações sobre a


preservação e o tratamento de registos de actividades, tais como a Lei 10/2010 de prevenção do
branqueamento de capitais e combate ao financiamento do terrorismo124, e portanto, em

119Quando se pode estabelecer se determinado indivíduo, seus dados, fazem ou não parte do modelo de treinamento.
120O ataque por inversão do modelo ML ocorre quando o invasor tem acesso a determinados dados pessoais do usuário incluídos no modelo de IA
e pode inferir as informações pessoais adicionais de tais indivíduos através da análise das entradas e saídas do modelo.
121Mais precisamente, quando os modelos de IA são adquiridos por terceiros do desenvolvedor.
122Um exemplo típico de fraude em análises de CV por meio de IA é escrever méritos inexistentes na mesma cor do fundo do documento,
impossível de ler para um humano, mas não para uma máquina, de tal forma que um sistema de seleção de candidatos possa ser enganado em
detrimento de candidatos honestos. Este sistema já era utilizado para enganar o pesquisador do Google para que indexasse páginas através de
palavras-chave que não eram visíveis para o usuário e não tinham relação com o conteúdo real da página.
123Considerando 49 - O tratamento de dados pessoais na medida estritamente necessária e proporcional para efeitos de garantia da segurança das redes e da
informação será considerado um interesse legítimo do responsável pelo tratamento dos dados, ou seja, a capacidade de uma rede ou de um sistema de
informação resistir, a um determinado nível de confiança, eventos acidentais ou ações ilegais ou maliciosas que comprometam a disponibilidade,
autenticidade, integridade e confidencialidade dos dados pessoais armazenados ou transmitidos, e a segurança dos serviços relacionados oferecidos por, ou
acessíveis através dessas redes e sistemas, por parte do público autoridades, por equipas de resposta a emergências informáticas (CERT), por equipas de
resposta a incidentes de segurança informática (CSIRT), por fornecedores de redes e serviços de comunicações eletrónicas e por fornecedores de tecnologias e
serviços de segurança, constitui um interesse legítimo do responsável pelo tratamento em causa. Isto poderia, por exemplo, incluir a prevenção do acesso não
autorizado às redes de comunicações eletrónicas e da distribuição de códigos maliciosos e a cessação de ataques de «negação de serviço» e de danos nos
sistemas informáticos e de comunicações eletrónicas.
124Artigo 25. Preservação de documentos.
1. Os sujeitos obrigados conservam a documentação pelo prazo de dez anos a contar da execução do cumprimento das obrigações aqui
estabelecidas, sendo posteriormente apagada. Após cinco anos da cessação da relação comercial ou da execução do
Página: 40 de 49
nesse caso, a base legal para realizar o processamento seria o cumprimento de uma obrigação legal
aplicável ao controlador de dados. Da mesma forma, outras bases legais poderão ser utilizadas para
legitimar o tratamento de dados nos registros de log.
Em ambos os casos, o controlador deverá estar ciente das obrigações e dos limites estabelecidos na
regulamentação setorial, pois tais bases legais não permitem o tratamento de dados pessoais contidos no
arquivo de log para finalidades diversas, como avaliação de desempenho ou a evolução do sistema de IA.
Por conseguinte, o responsável pelo tratamento deve garantir a implementação de garantias para evitar
o acesso e a utilização de tais registos para fins para os quais não existam fundamentos legais.

Os desenvolvedores da componente IA sempre que utilizem soluções baseadas em ML devem


implementar outros registos para efeitos de documentação e cumprimento do princípio da
responsabilização para permitir a rastreabilidade da origem dos dados de formação e a validação
desses dados, bem como registros de análises realizadas sobre a validade de tais dados e seus
resultados.

G. AAVALIAÇÃO DA PROPORCIONALIDADE E DA NECESSIDADE DE TAL TRATAMENTO

O artigo 35.7 do RGPD estabelece que, no momento da realização de uma PIA, deve ser
realizada uma avaliação sobre a necessidade e a proporcionalidade do tratamento no que diz
respeito à finalidade do tratamento.
A utilização de soluções baseadas em IA coloca os responsáveis pelo tratamento e o
subcontratante numa posição em que o tratamento, pelas suas características e, mais precisamente,
pela tecnologia escolhida, pode implicar um elevado nível ou risco. Portanto, deve-se avaliar se o
objeto do tratamento não pode ser alcançado através da utilização de outro tipo de solução com a
mesma funcionalidade, com desempenho aceitável e menor risco.
Ou seja, a disponibilidade ou a novidade de uma tecnologia não justifica por si só o uso
de tal tecnologia. Essa tecnologia deve ser considerada e deve ser realizada uma análise
para determinar se o tipo de processamento proposto é uma solução equilibrada. Deve-se
avaliar que o interesse geral e a sociedade como um todo obterão vantagens e benefícios
suficientes em oposição às desvantagens. Essa avaliação deverá incidir sobre os direitos e
liberdades dos titulares dos dados afetados pelo tratamento.
ISO-3100 “Gestão de Risco. Princípios e Diretrizes” expõe na seção 5.5 “Gerenciamento de riscos”
as condições gerais necessárias para gerenciar o risco em qualquer tipo de escopo:
“TA SELEÇÃO DA OPÇÃO MAIS ADEQUADA PARA GERENCIAR O RISCO SIGNIFICA QUE É NECESSÁRIO OBTER UMA
COMPENSAÇÃO DOS CUSTOS E DOS ESFORÇOS DE IMPLEMENTAÇÃO NO QUE DIZ RESPEITO ÀS VANTAGENS QUE ESTÃO SENDO
OBTIDAS TENDO EM CONTA OS REQUISITOS LEGAIS, BEM COMO OS REQUISITOS DE REGULAÇÃO OU ENTÃO,TAIS COMO A
RESPONSABILIDADE SOCIAL E A PROTEÇÃO DO FUNDO NATURAL. TDECISÕES TAMBÉM SERÃO ADOTADAS NO QUE DIZ
RESPEITO AOS RISCOS CUJO TRATAMENTO NÃO SEJA JUSTIFICÁVEL DO PONTO DE VISTA ECONÔMICO,POR EXEMPLO,FORTE(
CONSEQUÊNCIAS ALTAMENTE NEGATIVAS)MAS RARO(BAIXA PROBABILIDADE)RISCOS.

de funcionamento ocasional, a documentação armazenada só poderá ser acedida pelos órgãos de controlo interno do sujeito obrigado, com a inclusão de
unidades técnicas de prevenção e, se for o caso, dos responsáveis pela sua defesa jurídica.
Mais precisamente, os sujeitos obrigados deverão preservá-los para uso em todas as pesquisas ou investigações, em termos de possível lavagem de dinheiro ou
financiamento do terrorismo pelo Serviço Executivo da comissão ou qualquer outra autoridade legalmente habilitada.
a) Cópia dos documentos que possam ser solicitados em aplicação das medidas de diligência por um período de dez anos após o
término da relação comercial ou conclusão da operação.
b) Documento original ou cópia com força probatória dos documentos ou registos que creditem devidamente as operações, os
intervenientes nessas operações e as relações comerciais pelo prazo de dez anos após a conclusão da operação ou cessação da relação
comercial.
2. Os sujeitos obrigados, com as excepções estabelecidas em regulamento, devem conservar as cópias dos documentos de identificação referidos no n.º 2 do
artigo 3.º em formato óptico, magnético ou electrónico, de modo a que a integridade dos dados, a leitura exacta dos dados, a impossibilidade de a
manipulação e a preservação e localização adequadas de tais dados são garantidas.
Em qualquer caso, o sistema de arquivo dos titulares dos dados obrigados garantirá uma adequada gestão e disponibilidade da documentação, tanto para
efeitos de controlo interno como para a devida atenção ao tempo e forma das exigências das autoridades.
Página: 41 de 49
Sempre que se trata de proteção de dados pessoais, os riscos a ter em conta são os
riscos relativos aos direitos e liberdades dos titulares dos dados. Se for a sociedade quem
assume tais riscos, as vantagens obtidas não devem ser avaliadas apenas do ponto de
vista da entidade, mas sim do ponto de vista da sociedade no âmbito onde o tratamento é
implementado.
Mais precisamente, no caso de processamento com recurso a soluções baseadas em IA para a
tomada de decisões ou para ajudar na tomada de decisões, recomenda-se que a PIA realize uma
análise comparativa entre o desempenho obtido por um operador humano qualificado e o resultado
apresentado pelos modelos capaz de prever cenários ou tomar decisões automaticamente125. Nesse
caso, as condições reais de entrada dos dados devem ser tidas em conta, juntamente com o
contexto onde o tratamento é realizado. Além disso, essa análise deverá abranger tanto os aspectos
estritos da tomada de decisões como os efeitos colaterais para os titulares dos dados.

H.A.Auditoria

O processo de auditoria sobre um processamento que inclui um componente de IA pode ter uma
extensão diferente: auditoria sobre o processo de desenvolvimento do componente, sobre a liberação do
modelo, sobre aspectos específicos do processamento, sobre a operação, a segurança, a robustez contra
o modelo ataques, etc. Além disso, a auditoria pode ser realizada externa ou internamente e pode ter
finalidade de supervisão ou de transparência.

Tal como estabelece o princípio da responsabilização, as garantias estabelecidas para gerir o


risco devem ser documentadas e recolher informação suficiente para permitir uma acreditação
satisfatória e verificável das ações realizadas. Essa documentação deve permitir a rastreabilidade
das decisões e verificações efetuadas de acordo com os princípios de minimização acima referidos.
Em resumo, não só o tratamento precisa de ser auditado, mas também o tratamento deve ser
auditável ao longo do seu ciclo de vida, incluindo aquando da sua retirada.
Mais precisamente, é necessário realizar uma auditoria para estabelecer a conformidade com o
GDPR, bem como para verificar a validade do processamento que se baseia em soluções de IA. Para
ser eficaz, o processo de auditoria deve ser realizado nas mesmas condições que num contexto
operacional real, mais precisamente, para avaliar:
• A existência de um processo documentado de análise, desenvolvimento e/ou
implementação incluindo, conforme o caso, as evidências de rastreabilidade relevantes.
• A existência ou ausência de dados pessoais, definição de perfis ou decisões
automatizadas sobre os titulares dos dados sem intervenção humana, bem como a
análise da eficiência da anonimização e dos métodos de pseudonimização.
• Análise sobre a existência e legitimação do tratamento de categorias especiais de dados, mais
precisamente no que diz respeito à informação inferida.
• Os fundamentos legais do tratamento e identificação de responsabilidades.
• Mais precisamente, quando o fundamento jurídico do tratamento for o interesse legítimo,
será necessária uma avaliação do equilíbrio entre os diferentes interesses e impactos nos
direitos e liberdades no que diz respeito às garantias adotadas.
• A informação e a eficácia dos mecanismos de transparência implementados.

• A aplicação do princípio da responsabilização e da gestão de riscos relativamente aos


direitos e liberdades dos titulares dos dados e, mais precisamente, se foi avaliada a
obrigação ou a necessidade de realizar AIP e, se for o caso, os resultados de tais AIP .

125Mais precisamente, em aplicações onde a complexidade do tratamento tem múltiplos aspectos e características colaterais que não podem ser simplificadas.
Uma reflexão sobre esse aspecto pode ser encontrada em: Por que não podemos confiar na inteligência artificial na medicina, Matthew DeCamp, Jon C Tilburt,
The Lancet, correspondência, volume 1, edição 8, 01 de dezembro de 2019
Página: 42 de 49
• No que diz respeito ao acima exposto, a aplicação de medidas de proteção de dados por defeito e
por conceção, entre outras:
ó A análise prévia da necessidade de tratamento de dados pessoais, em quantidade e
extensão, nas diversas fases de acordo com critérios de minimização.
ó A análise da exatidão, fidelidade, qualidade e preconceitos dos dados utilizados ou
recolhidos para o desenvolvimento ou operação da componente de IA, bem como os
métodos de saneamento de dados utilizados no que diz respeito aos dados.
ó A verificação e realização de testes e validação da precisão, exatidão,
convergência, consistência, previsibilidade e quaisquer outras métricas
sobre a elegibilidade dos algoritmos utilizados, perfis e inferências. Além
disso, a verificação de que tais parâmetros atendem aos requisitos
necessários ao processamento.
• A adequação das medidas de segurança para evitar riscos de privacidade.
• A formação e educação do pessoal responsável pelo tratamento de dados envolvido
no desenvolvimento e operação da componente de IA. Neste último caso, uma
atenção especial à interpretação precisa das inferências.
• A obrigação, a necessidade e, se for o caso, a qualificação do DPO.
• A adição de mecanismos que garantam o cumprimento dos direitos dos titulares dos dados,
mais precisamente, o apagamento ex officio dos dados pessoais, com grande atenção aos
direitos dos menores.
• O cumprimento das limitações às decisões automatizadas sem intervenção humana,
a avaliação, se for o caso, da qualidade da intervenção humana e dos mecanismos
de supervisão adotados. Mais precisamente, quando o fundamento jurídico é o
consentimento explícito, a identificação das garantias adotadas para verificar se tal
consentimento é dado gratuitamente.
• A aplicação de algumas das garantias estabelecidas no Capítulo V do RGPD no caso de
existirem transferências internacionais de dados.
• Em termos gerais, o cumprimento dos requisitos e obrigações do RGPD e, mais
precisamente, dos constantes deste documento.
Conforme estabelecido anteriormente, a solução baseada em IA deverá estar integrada num
processamento específico, com características específicas e num determinado contexto operacional. Uma
auditoria da solução isolada baseada em IA, sem levar em conta o contexto ou os antecedentes, será
incompleta e oferecerá resultados parciais e irrealistas126.

Um aspecto crítico da auditoria é garantir que a solução baseada em IA está a ser utilizada para o
fim para o qual foi concebida, com especial atenção à sua utilização pelos operadores do sistema.
Além disso, quando se trata de um componente que foi adquirido de terceiros, o outro
processamento colateral que poderia ser realizado por esse componente precisa ser avaliado, bem
como se as consequências legais ou regulatórias que podem surgir de tal uso127.
A utilização de soluções ou ferramentas de auditoria automatizadas em tempo real é aconselhável em
sistemas com tomada de decisão automatizada, a fim de garantir que os resultados sejam consistentes e
precisos, bem como para permitir que decisões erradas sejam abortadas ou canceladas antes que surjam
consequências irreversíveis. .

126Por exemplo, a utilização das curvas ROC para comprovar que o desempenho dos sistemas de reconhecimento facial deve ser realizado em contextos que
reflitam condições reais de operação.
127Para exemplo, o Google recaptcha componente também executa analítico funções:
https://developers.google.com/recaptcha/docs/analytics
Página: 43 de 49
V. TRANSFERÊNCIAS INTERNACIONAIS
O desenvolvimento ou implementação de um componente de IA baseado em serviços Cloud, a
divulgação de dados de utilizadores a terceiros, a fim de evoluir o modelo de IA ou a disponibilização do
componente de IA caso existam dados pessoais inerentes ao modelo, podem implicam fluxos de dados
transfronteiriços para países terceiros. Os fluxos de dados que ocorrem no âmbito do Espaço Económico
Europeu (membros da UE mais Islândia, Noruega e Liechtenstein) não se qualificam como transferências
internacionais.

As garantias constantes do Capítulo V do RGPD“Transferências de dados pessoais para países terceiros


ou organizações internacionais”devem ser aplicadas a essas transferências. É especialmente importante
estabelecer mecanismos que permitam uma boa gestão dos contratos celebrados neste contexto de
transferências internacionais, garantindo ao mesmo tempo que o cliente, enquanto responsável pelo
tratamento dos dados, dispõe de informação suficiente sobre os contratantes ou potenciais contratantes
e mantém os poder para adotar decisões. Quando existam transferências internacionais, os titulares dos
dados devem ser informados nos termos dos artigos 13.º e 14.º do RGPD e tais transferências
internacionais devem ser incluídas nos registos das atividades de tratamento.

Página: 44 de 49
VI. CONCLUSÕES
Comercialização, para entidades e consumidores em geral, de tratamentos incluindo soluções
baseadas em tecnologias disruptivas, como tecnologias baseadas em componentes de IA, pedidos de
implementação de garantias de qualidade e segurança128como em qualquer outro produto. A
disponibilidade ou novidade de uma tecnologia não é motivo suficiente para comercializar produtos que
não atendam a determinado nível de qualidade de serviço, principalmente quando tais requisitos são
estabelecidos por regulamentação. Os investigadores e a indústria baseada na IA necessitam de
orientações que os ajudem a obter conformidade e segurança jurídica nos seus projetos, produtos e
serviços.

No que diz respeito à proteção de dados pessoais, o cumprimento do disposto no RGPD


exige um certo nível de maturidade nas soluções de IA que permita avaliar objetivamente
a conformidade do tratamento e a implementação de garantias e medidas de gestão dos
riscos.
No que diz respeito a tais riscos, a tecnologia em geral,129e as tecnologias de IA em
particular, podem ter um efeito multiplicador das deficiências éticas já presentes na sociedade
ou daquelas que se perpetuam no passado e estão registadas em dados históricos. A aplicação
do RGPD e as garantias que incorpora permitem minimizar tais riscos.
A utilização de transparência, estratégias de gestão de riscos e mecanismos de auditoria e certificação
permitirá o cumprimento das disposições do RGPD, mas também aumentará a confiança dos utilizadores
em produtos e serviços baseados em IA e abrirá um novo mercado neste sector: engenheiros de
privacidade, cientistas de dados, auditores, esquemas de certificação, profissionais autorizados, etc. Estas
novas oportunidades de desenvolvimento incluem a criação de esquemas de portabilidade.

Mais ainda, as aplicações de IA podem ser uma ferramenta útil para implementar garantias que garantam a proteção de
dados130.

Este documento pretende ser uma mera introdução à conformidade do tratamento, incluindo
componentes de IA, e não cobre todas as possibilidades e riscos decorrentes da utilização de soluções
baseadas em IA no tratamento de dados pessoais.131.

Por último, importa realçar que um dos principais problemas das soluções baseadas em IA não é
a IA em si, mas sim a forma como a tecnologia de IA e os novos preconceitos psicológicos
decorrentes da sua utilização serão utilizados pelos indivíduos. Mais precisamente, é necessário
prestar muita atenção para não atribuir responsabilidades a componentes de IA não
supervisionados sem adotar uma posição racional, crítica e criteriosa. A delegação da tomada de
decisões em máquinas não é algo novo; já foi utilizado com algoritmos deterministas, mas o
preconceito de atribuir um tipo de autoridade ou reputação a um resultado apenas inferido por uma
solução baseada em IA pode aumentar os riscos decorrentes de tal delegação de responsabilidade.

128Segurança entendida como “segurança”, ou seja, que não prejudica nem causa danos.
129Como em situações de bullying, assédio ou notícias falsas.
130Como aplicações de IA para depuração de bancos de dados ou para análise da segurança dos sistemas.
131Existem outras questões pendentes, como os casos de hibridação homem-máquina, de privacidade de grupo, de desmutualização ou mesmo até que ponto
a decisão adotada por uma IA em aplicações militares se enquadra na categoria de decisões automatizadas com consequências jurídicas.
Página: 45 de 49
VII. REFERÊNCIAS
As referências abaixo foram organizadas de acordo com sua relevância no momento da
elaboração deste documento:

Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016,


relativa à proteção das pessoas singulares em relação ao tratamento de dados pessoais e à
livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a
Proteção de Dados).
Lei Orgânica 3/2018, de 5 de Dezembro, sobre Protecção de Dados Pessoais e Garantia de Dados Digitais
Direitos.

Big data, artificial, inteligência, aprendizado de máquina e proteção de dados. Informações da OIC
gabinete do comissário, setembro de 2017
Como os humanos podem manter a vantagem? As questões éticas levantadas por algoritmos e
inteligência artificial, CNIL, dezembro de 2017
Projeto de Diretrizes Éticas para IA Confiável, Grupo de Especialistas de Alto Nível em Inteligência Artificial,
Comissão Europeia, dezembro de 2018, Bruxelas
Inteligência Artificial para a Europa. Comunicação da Comissão à União Europeia
Parlamento, Conselho Europeu, Conselho, Comité Económico e Social Europeu e
Comité das Regiões -, Comissão Europeia, abril de 2018, Bruxelas.

Discriminação, inteligência artificial e tomada de decisão algorítmica, Prof. Frederik


Zuiderveen Borgesius, Consejo da Europa 2018
Robustez e explicabilidade da inteligência artificial. De soluções técnicas a políticas.
Comissão Europeia. 2020
I+D+I espanhol em Inteligência Artificial, Ministério da Ciência, Inovação e Universidades,
2019
Automatizando a Sociedade, Fazendo um Balanço da Tomada de Decisão Automatizada na UE, AW
AlgorithmWatch gGmbH, janeiro de 2019, Berlim
Parecer 7/2015 Enfrentar os desafios dos grandes volumes de dados. Autoridade Europeia para a Proteção de Dados.
AEPD, 19 de novembro de 2015.

Manual Práctico de Inteligencia Artificial en Entornos Sanitarios, Beunza Nuin JJ, Puertas
Sanz E., Emilia Condés Moreno E., Elsevier, janeiro de 2020
Recomendações sobre o tratamento de dados pessoais em Inteligência Artificial. Documento
ser objeto de consulta pública. Texto aprovado pelas Entidades Membros da Rede Ibero-
Americana de Proteção de Dados durante a reunião de 21 de junho de 2019 em
Naucalpan de Juarez, México.
Inteligência Artificial e Proteção de Dados em Tensão, Centro de Política de Informação
Liderança, outubro de 2018
IA e proteção de dados – Equilibrando tensões – Slaughter and May, PLC Magazine, agosto
2019
Inteligência Artificial em Finanças, Instituto Alan Turing, Hanken School of Economics, abril
2019, Finlândia
Relatório sobre ferramentas algorítmicas de avaliação de risco no sistema de justiça criminal dos EUA,
Parceria sobre IA (PAI), abril de 2019 https://www.partnershiponai.org/report-on-
machine-learning-in-risk-assessment-tools-in-the-us-criminal-justice-system/
Estrutura de colaboração Human-AI e estudos de caso, Parceria sobre IA (PAI), setembro
2019, https://www.partnershiponai.org/human-ai-collaboration-framework-case-
estudos/
Relatório Anual do AI Index 2018, Zoe Bauer et al., AI Index Steering Committee, Human-
Iniciativa de IA Centrada, Universidade de Stanford, Stanford, CA, dezembro de 2018
Página: 46 de 49
Inteligência Artificial e o Futuro dos Humanos, J. Anderson et al., Pew Research Center,
Dezembro de 2018
Série sobre Inteligência Artificial do blog da OIChttps://ico.org.uk/about-the-
ico/o que fazemos/tecnologia e inovação/blogs/

Segurança e cibersegurança da inteligência artificial: um cronograma de falhas de IA Roman V.


Yampolskiy, Universidade de Louisville 2018
Por que não podemos confiar na inteligência artificial na medicina, Matthew DeCamp, Jon C Tilburt, The
Lancet, correspondência, volume 1, número 8, 01 de dezembro de 2019
Explorando a paisagem da robustez espacial, Logan Engstrom, MIT
https://arxiv.org/pdf/1712.02779.pdf
Rumo à aprendizagem federada em escala: design de sistema Keith, Bonawitz et al.
https://arxiv.org/pdf/1902.01046.pdf
Qual é a sua pontuação no teste de ML? Uma rubrica para sistemas de produção de ML, Eric Breck, 2018, Google
Inc.https://www.eecs.tufts.edu/~dsculley/papers/ml_test_score.pdf
Uma Pesquisa sobre Ameaças à Segurança e Técnicas Defensivas de Máquinas, Qiang Liu et al., IEEE
Acesso, ISSN: 2169-3536, fevereiro de 2018
Parecer 05/2014 sobre técnicas de anonimização, Grupo de Trabalho do Artigo 29.º, 2014
Parecer 06/2014 sobre a noção de interesses legítimos do responsável pelo tratamento de dados nos termos do artigo 7.º do
Diretiva 95/46/CE, Grupo de Trabalho do Artigo 29.º, abril de 2014.

Orientações sobre o direito à portabilidade dos dados Grupo de Trabalho do Artigo 29.º - Adotado em 13
Dezembro de 2016, última atualização e adoção em 5 de abril de 2017

Diretrizes sobre tomada de decisões individuais automatizadas e criação de perfis para fins de
Regulamento 2016/679. Grupo de Trabalho do Artigo 29.º. Adotado em 03 de outubro de 2017, última
atualização e adotado em 06 de fevereiro de 2018

Diretrizes relativas aos encarregados da proteção de dados (RPD), Grupo de Trabalho do Artigo 29, adotado em 13
Dezembro de 2016, última atualização e adoção em 05 de abril de 2017
Diretrizes sobre privacidade desde a concepção, AEPD, outubro de 2019.

Guia prático para avaliação de impacto em matéria de proteção de dados pessoais, AEPD,
Outubro de 2018

“Orientações e garantias para os processos de anonimização de dados pessoais” (AEPD


2016)
Listas de tipos de tratamento de dados que requerem PIA (Art. 35.4), AEPD, 2019.
Modelo de Relatório sobre Avaliação do Impacto da Proteção de Dados Públicos
Administrações, AEPD, julho de 2019
ISO-3100 “Gestão de Risco. Princípios e Diretrizes”

Página: 47 de 49
VIII. ANEXO: SERVIÇOS ATUAIS BASEADOS EM IA
A lista apresentada neste anexo é ilimitada e procura apenas ser um exemplo para
ilustrar a extensão dos serviços que estão atualmente a ser prestados com base em IA:
• serviços da Internet

óCaptchas, chatbots, detecção de fraude, personalização de anúncios…


• Recursos Humanos

óSeleção de candidatos
• Serviços financeiros

ó Previsões sobre hipotecas baseadas na análise do perfil do cliente,


monitoramento de transações para detectar atividades fraudulentas baseadas
em hábitos de consumo, investimento financeiro automatizado...
• Saúde e cuidados de saúde ó

Diagnóstico baseado na análise de imagens, previsões de taxas de readmissão de


pacientes com base na análise de dados, mapas de saúde, análise de saúde mental,
prevenção de suicídio, chatbots de saúde mental, previsão de risco baseada em
parâmetros analíticos, diagnóstico através de análise da amostra patológica,
processamento de linguagem natural de prontuários médicos, análise genética,
eletrodiagnóstico, desenvolvimento de vacinas e medicamentos...

• Comércio e comunicação: ó
Recomendações de produtos com base no perfil do cliente e na análise de
compras, maximização do alcance dos produtos e serviços para um grupo de
clientes, agentes de viagens virtuais, monitoramento de mídias sociais...
• Serviços públicos e suprimentos: ó

Contadores inteligentes e previsão da procura de consumo dos clientes


estimativa do custo de determinados serviços de manutenção, atribuição de
processamento no sistema público de saúde, processamento automatizado de
multas, apoio à decisão da administração da justiça...
• Transporte:

ó Carros autônomos, semáforos inteligentes, otimização de rotas e horários de


transporte público...
• Educação:
ó Conteúdos e treinamentos customizados de acordo com as necessidades dos alunos,
correção em exames, detecção de plágio ou fraude em trabalhos, mentoria
automática, detecção de alunos anormais...

• Segurança:

ó Reconhecimento facial, impressões digitais, detecção de comportamento, patrulhamento


de fronteiras, análise de indícios de fraude, análise de registros de atividades, detecções
de intrusão, análise de comunicações...

• Doméstico:
óAssistentes inteligentes, espelhos inteligentes, eletrodomésticos, segurança...

• Outro

Página: 48 de 49
ó Ferramentas de desenho, assistência à criação artística, otimização de programas de treino
desportivo...

Página: 49 de 49

Você também pode gostar