Escolar Documentos
Profissional Documentos
Cultura Documentos
2
Machine Translated by Google
Conteúdo
SOBRE ESTE RELATÓRIO ................................................ .................................................. ................................................ 4
O viés algorítmico atende ao princípio da justiça .................................... .................................................. ...16 A inteligência artificial
atende ao princípio da limitação de finalidade ...................................... ..............................16 A inteligência artificial encontra a minimização
Avalie o impacto da proteção de dados – e crie privacidade em seu sistema!...................... ............... 25 Ferramentas e métodos para
uma boa proteção de dados em IA......................... .................................................. .............. 26 Recomendações para desenvolvimento
Este relatório desenvolve os pareceres jurídicos e as tecnologias A base para este relatório é o Regulamento Geral de Proteção
descritas no relatório de 2014 «Big Data – de Dados (GDPR) da UE. Este Regulamento será consagrado na lei
princípios de proteção de dados sob pressão»1 . Neste norueguesa sob a forma de uma Lei de Dados Pessoais que entrará em
descrição da inteligência artificial (IA), ao mesmo tempo que analisamos Também nos baseámos nos Considerandos do
mais de perto quatro desafios relevantes da IA associados aos princípios Regulamento para interpretar o conteúdo dos artigos.
de proteção de dados incorporados no GDPR: Os considerandos não são juridicamente vinculativos, mas
explicam o conteúdo dos artigos.
• Justiça e discriminação
Além disso, também citámos as declarações feitas pelo Grupo de
• Limitação da finalidade •
Minimização de dados Trabalho do Artigo 29.º e as directrizes que definiu para decisões e
perfis automatizados individualmente.3 O Grupo de
• Transparência e direito à informação
Trabalho do Artigo 29.º é o órgão consultivo mais graduado da Comissão
A lista acima não é exaustiva, mas representa uma seleção Europeia em matéria de protecção de dados e segurança da
de preocupações em matéria de proteção de dados que, na nossa informação.
opinião, são mais relevantes para a utilização da IA atualmente. Além disso,
1 https://www.datatilsynet.no/om-personvern/rapporter-og-
3 http://ec.europa.eu/newsroom/just/item-detail.cfm?item_id=50083
utredninger/temarapporter/big-data/
2
Texto do RGPD: http://eur-lex.europa.eu/
legal-content/EN/TXT/PDF/?uri=OJ:L:2016:119:FULL
Machine Translated by Google
Inteligência artificial (IA) é o conceito usado para descrever poder de processamento e acesso a capacidade de armazenamento
sistemas de computador que são capazes de aprender com suas maior e mais barata. Big Data refere-se frequentemente a vastos
próprias experiências e resolver problemas complexos em diferentes volumes de dados, extraídos de múltiplas fontes, muitas vezes em
situações – habilidades que antes pensávamos serem exclusivas da tempo real.4 Estes enormes fluxos de dados podem ser utilizados
humanidade. E são os dados, em muitos casos dados pessoais, que em benefício da sociedade através da análise e da descoberta
alimentam estes sistemas, permitindo-lhes aprender e tornar-se de padrões e ligações.
inteligentes.
É aqui que a IA pode fazer a diferença. Embora os métodos
O desenvolvimento da IA registou alguns avanços analíticos tradicionais precisem ser programados para
importantes nos últimos anos e o seu potencial parece ser promissor: encontrar conexões e links, a IA aprende com todos os dados que
um setor público melhor e mais eficiente, novos métodos de vê. Os sistemas informáticos podem, portanto, responder
proteção climática e ambiental, uma sociedade mais segura e continuamente a novos dados e ajustar as suas análises sem
talvez até uma cura para o cancro. intervenção humana.
Assim, a IA ajuda a remover as barreiras técnicas que os métodos
tradicionais enfrentam ao analisar Big Data.
Por outras palavras, estamos a embarcar num empreendimento
que terá, sem dúvida, um impacto considerável na sociedade.
Por conseguinte, é importante que nos envolvamos em discussão Maior demanda por dados, regulamentações mais rigorosas
agora. De que tipo de quadro regulamentar precisamos para aproveitar
as oportunidades oferecidas pela IA de uma forma segura e justa? Os novos regulamentos de proteção de dados que entrarão em
Pois não podemos escapar ao facto de que a utilização da IA levanta vigor em maio de 2018 reforçarão os nossos direitos de privacidade,
uma série de preocupações no que diz respeito à ética, segurança, ao mesmo tempo que intensificarão as exigências impostas a
responsabilidade legal, etc. Este relatório é dedicado a uma quem processa esses dados. As organizações terão mais
dessas preocupações: a utilização de dados pessoais na IA e a responsabilidade pelo tratamento de dados pessoais de
questão da privacidade. acordo com o regulamento e os requisitos de transparência serão
mais rigorosos.
Do inverno à primavera – porquê agora? Ao mesmo tempo que as exigências se intensificam, a procura
por dados cresce. Os sistemas baseados em IA só podem tornar-
O conceito de IA era conhecido já na década de 1950 como uma se inteligentes se tiverem dados relevantes suficientes para
tecnologia na qual as pessoas tinham grandes esperanças de sucesso. aprender.
O progresso inicial alcançado foi, no entanto, seguido por muitas
décadas que são frequentemente chamadas de IA Um chatbot inteligente (um programa de computador com o
Inverno porque as expectativas iniciais não foram satisfeitas. qual as pessoas podem interagir por meio da fala normal ou por meio
Nos últimos anos, porém, testemunhamos a chegada da de informações escritas) analisa todas as informações que lhe são
primavera. fornecidas – uma combinação de perguntas feitas pelos
clientes e respostas comunicadas pelo atendimento ao cliente. A partir
Hoje vemos que a IA é utilizada para resolver tarefas específicas da sua análise, o chatbot consegue “entender” o que
como, por exemplo, reconhecimento de imagem e fala. um cliente está a perguntar e, portanto, é capaz de dar uma resposta
Isso geralmente é chamado de IA especializada . IA geral refere-se significativa. Quanto maior for o volume de informação em que
a sistemas que são tão versáteis quanto os humanos quando se o chatbot puder basear a sua análise, melhor e mais precisa será
trata de aprendizagem e resolução de problemas. Mas a resposta que dará.
provavelmente serão necessárias várias décadas até que isto seja alcançado.
4 https://ico.org.uk/for-organisations/guide-to-data-protection/big-data/
Machine Translated by Google
5 https://iq.intel.com/artificial-intelligence-and-machine-learning/ 6 https://no.wikipedia.org/wiki/Nevralt_nettverk,
https://en.wikipedia.org/wiki/Deep_learning
Machine Translated by Google
Como funciona a
inteligência artificial?
Existem dois aspectos principais da inteligência artificial que são de 1. A aprendizagem começa com informações selecionadas
particular relevância para a privacidade. A primeira é que o próprio contendo padrões ou semelhanças.
software pode tomar decisões e a segunda é que o sistema se 2. Utilizando aprendizado de máquina, os padrões encontrados
nas informações são identificados.
desenvolve aprendendo com a experiência.
3. É gerado um modelo que pode reconhecer os padrões
Para que um sistema de computador aprenda, ele precisa que surgem quando novos dados são processados
de experiência, e obtém essa experiência a partir das pelo modelo.
informações que lhe fornecemos. Esta entrada pode estar em Modelo é um termo genérico para o resultado final da
vários formatos diferentes. Se for procurado um sistema que realize
aprendizagem. Existem muitos tipos diferentes de modelos e são
apenas reconhecimento e análise de imagens, a entrada de
estes que são usados em aplicações comerciais —
dados experienciais consistirá naturalmente em imagens. Para
como prever o tipo de série de TV transmitida que um
outras tarefas os dados de entrada consistirão em texto, fala ou
consumidor prefere. O que esses modelos têm em comum é que
números. Alguns sistemas utilizam dados pessoais, enquanto outros
contêm dados de treinamento essenciais. Como os dados que o
sistemas utilizam dados que não podem ser vinculados a indivíduos.
modelo irá processar no futuro raramente serão completamente
idênticos aos dados de treino, é necessária uma
generalização. Certos dados que se desviam do volume principal de
dados de treinamento serão, portanto, geralmente removidos do
Aprendizado de máquina modelo.
Para entender por que a IA precisa de enormes volumes de dados, O modelo funciona assim: (Ilustrado pela Figura 1, de cima para
é necessário entender como o sistema aprende. baixo)
Existem diversas formas de aprendizagem que podem ser utilizadas, outros gatos além dos mostrados originalmente. De forma semelhante,
dependendo se a informação foi rotulada ou não. Os dados rotulados são um modelo de aprendizado de máquina desenvolverá a mesma capacidade de
dados etiquetados: se os dados consistirem em imagens, os rótulos ou reconhecer objetos com base em imagens rotuladas.
etiquetas podem ser, por exemplo, género, etnia, cão ou gato.
Se estivermos trabalhando com um conjunto de dados e desejarmos separar
homens e mulheres, podemos usar diferentes recursos que sejam relevantes.
Abaixo listamos as principais formas de aprendizagem e descrevemos como Os recursos utilizados dependerão dos dados básicos disponíveis. Por
os dados são utilizados nelas. exemplo, as mulheres vivem mais do que os homens, em média, pelo
que a duração da vida é relevante na diferenciação entre géneros. Esta
Aprendizagem supervisionada característica irá, no entanto, revelar-se um tanto restrita na maioria
dos casos, e é mencionada aqui apenas como exemplo. Se a base de
A aprendizagem supervisionada envolve a utilização de dados rotulados, por dados consistir em imagens, então o comprimento do cabelo, ou o uso de
meio dos quais a supervisão é realizada. O conjunto de dados é maquilhagem ou jóias, podem ser características relevantes. O exemplo
dividido em dois, geralmente uma divisão 80/20, com 80% dos dados usados abaixo ilustra como dois recursos diferentes são usados na aprendizagem.
para treinar o modelo. Os 20% restantes são usados para verificar
a precisão com que o modelo processa dados desconhecidos. Não é bom se o
modelo funcionar com precisão usando os dados de treinamento e de
maneira imprecisa usando dados novos e desconhecidos. Se o modelo A aprendizagem ocorre da seguinte forma (Ilustrado pela figura 2, da
estiver muito bem ajustado aos dados de treinamento, o que chamamos de esquerda para a direita):
overfitting, ele não produzirá resultados satisfatórios utilizando novos
dados. Portanto, o modelo requer um certo grau de generalização. 1. Um conjunto de dados rotulados é usado.
Muitas vezes também saberemos quais características dos dados rotulados seria que esses dados, na medida do possível, fossem classificados em dois
são mais decisivos para a categorização correta ou para produzir o grupos – um composto por imagens de cães e outro por imagens de gatos.
resultado correto. É importante contar com pessoas com bons
conhecimentos na área em questão para identificar as características mais
relevantes. A seleção correta de características relevantes pode ser muito A aprendizagem prossegue da seguinte forma (Fig.3, da esquerda para a direita):
permitem uma fácil verificação da precisão do modelo. certo número de semelhanças, ou padrões, para que seja
significativo.
2. Os padrões são revelados.
Quando utilizamos o modelo, ocorre o seguinte (Fig. 2, de cima para baixo): 3. É construído um modelo que pode reconhecer e
diferenciar padrões.
10
Esta forma de aprendizagem baseia-se na tentativa e erro, bem como As árvores de decisão representam uma exceção, pois contêm um
na otimização, à medida que o modelo aprende quais ações são grau variável da base de dados do modelo. Os limites aqui
direcionadas ao objetivo. Isso significa que menos dados, ou nenhum dependem se a árvore é “podada” após o aprendizado ou se uma
dado, são necessários para o sistema aprender. limitação de nível é definida para o aprendizado. Normalmente será
escolhido um ou outro, pois o modelo deve generalizar e não
sobreajustar. Num modelo de aprendizagem profunda, os dados
básicos serão representados como valores numéricos na rede neural.
Portanto, não deverá ser possível recuperar quaisquer dados
Alfa Go Zero pessoais utilizados para treinar o modelo. Examinaremos esses
modelos mais de perto um pouco mais adiante, na seção intitulada
Anteriormente mencionamos AlphaGo como Caixa Preta.
7 http://www.telegraph.co.uk/technology/2016/03/24/microsofts-teen-girl-
ai-turns-into-a-hitler-loving-sex-robot-wit/
Machine Translated by Google
11
(Kilde:
A rotulagem correta é extremamente importante ao conduzir https://royalsociety.org/~/media/policy/projects/machine-
learning/publications/machine-learning-report.pdf)
o aprendizado supervisionado. Se os dados forem rotulados
incorretamente, haverá obviamente um impacto negativo no resultado
do treinamento. Como diz o ditado: entra lixo, sai lixo.
Assim como uma planilha, um conjunto de dados para aprendizado de Vale a pena mencionar aqui que o aprendizado profundo é uma
máquina pode consistir em linhas e colunas. Se houver dados exceção nesse aspecto. A seleção e o ajuste de recursos não são tão
relacionados a pessoas, as colunas poderão indicar a idade, o importantes como em outros métodos de aprendizagem. Por exemplo,
sexo, o endereço, o estado civil, a altura, o peso, a a seleção de recursos é conduzida por meio de pesos de valor em
nacionalidade de uma pessoa, etc. As linhas representarão uma rede neural. A desvantagem de não fazer seleções significa
pessoas individuais. Deve-se levar em consideração a quantidade de que é necessário um volume muito maior de dados de treinamento.
informações pessoais necessárias para treinar os modelos
desejados, bem como sua relevância para o modelo escolhido.
propósito.
Engenharia de recursos
Ao selecionar características relevantes, muitas vezes haverá
necessidade de pessoas que sejam especialistas nas áreas relevantes. Um fator importante para alcançar bons resultados é a forma como o
Nem sempre os dados básicos contam toda a história. conjunto de dados é apresentado. Correlações relevantes podem
ser ocultadas se os dados não forem utilizados adequadamente.
Uma boa seleção é importante, caso contrário corre-se o risco de acabar Em muitos casos, há muito mais a ganhar com a utilização
com muitas funcionalidades, ou o que os especialistas chamam de “A inteligente de dados do que com o aumento da quantidade de dados.
Maldição da Dimensionalidade”. Simplificando, isso significa que um
número excessivo de recursos resultará na perda de correspondências As datas são um exemplo. Consideremos a data 1.10.2017,
entre todos os dados não correspondentes. Isto significará que serão que nos indica que é o primeiro dia do mês e o décimo mês do ano.
necessários enormes volumes de dados a título de compensação. Poderia muito bem acontecer que a informação fosse mais útil se
pudéssemos
Machine Translated by Google
12
converta-o para mostrar que dia da semana é: um domingo neste A caixa preta
caso.
8 https://www.coursera.org/learn/machine- http://www.ritchieng.com/machinelearning-learning-curve/
aprendizagem/palestra/Kont7/curvas de aprendizagem
Machine Translated by Google
13
Esta declaração da NTA sublinha a relevância da questão da caixa negra. Árvores de decisão
Neste caso são utilizadas apenas 30 funcionalidades diferentes,
mas é possível que um sistema utilize muito mais do que isso. Seria então Uma árvore de decisão é um dos modelos mais simples. Na sua forma mais
ainda mais difícil identificar o que era relevante para o resultado. Na forma básica, todos os dados são divididos de forma que possam ser
colocados na árvore. Começa-se no topo e em cada nível seleciona-se
um ramo com base no valor de um recurso específico. Continua-
Como entender e explicar o que está por trás disso se até à base da árvore, onde se encontra o resultado final – a decisão
– (ver figura abaixo).
Quando o aprendizado de máquina é empregado, o produto final é um
modelo. Quando se trata de modelos de aprendizado de máquina, a
facilidade com que seus resultados podem ser verificados varia
Este tipo de modelo proporciona um alto grau de
muito, mesmo que sejam usados os mesmos dados de treinamento. transparência, pelo menos quando a árvore é baseada em uma
quantidade gerenciável de dados. É possível subir na árvore para ver
A aprendizagem profunda e as redes neurais são frequentemente os os critérios nos quais o resultado se baseia. Com quantidades crescentes
primeiros elementos a serem mencionados quando são discutidas
de dados, contudo, chegar-se-á a um ponto em que será difícil para
questões de caixa negra, sem que a definam completamente. uma pessoa obter uma visão geral e compreensão.
14
Redes neurais
As redes neurais são usadas em uma metodologia que é Se houver mais de uma camada oculta, isso será
amplamente inspirada pela nossa compreensão do modo considerado aprendizado profundo. Na figura acima temos uma
como o cérebro humano funciona. Essas redes são construídas única rede neural na qual todos os dados de entrada se movem
por um componente basicamente muito simples (um da esquerda para a direita e emergem como resultado. Existem
perceptron), mas muitos desses componentes podem ser usados diversas variantes dessas redes neurais. Alguns formam loops e
para criar redes grandes e complexas. também enviam os dados da direita para a esquerda dentro da
rede antes que o resultado final seja produzido.
Um perceptron, ilustrado aqui abaixo, possui um número
variável de entradas e uma saída: Um dos desafios aqui é que os dados de entrada são vistos
isoladamente. Em muitas situações trabalhamos com
Cada «perna» do perceptron tem um valor de peso. Este valor informações que possuem um contexto. Por exemplo,
determina quão grande será a influência do recurso de entrada algumas palavras têm significados diferentes dependendo
no resultado final. Esses valores são ajustados quando a do contexto. Este contexto não precisa ser formado pela mesma
rede é treinada para fornecer os resultados desejados. Isso frase. Esta é parte da razão pela qual algumas redes neurais
geralmente é realizado trabalhando de trás para frente na rede têm uma forma de memória de curto prazo.
para ajustar os valores dos perceptrons relevantes para Isto permite-lhes produzir resultados diferentes com base nos
que o resultado final seja correto dados que foram processados anteriormente, o que obviamente
torna mais difícil determinar como um resultado foi obtido. Isto
também significa que pode ser muito difícil simplesmente
examinar os algoritmos para descobrir como funcionam e que
decisões tomam.
9 https://blogs.microsoft.com/ai/2015/12/10/microsoft-researchers-win-
imagenet-computer-vision-challenge/
Machine Translated by Google
15
• coletados para fins específicos, expressamente declarados e (artigo 4.º (2) do RGPD)
finalidades justificadas e não tratadas de uma nova forma
incompatível com essas finalidades (princípio da
limitação da finalidade)
• adequado, relevante e limitado ao que é
necessários para cumprir as finalidades para as quais são Controlador de dados
tratados (princípio da minimização dos dados)
16
Além disso, o responsável pelo tratamento dos dados é responsável e O princípio da equidade foi salvaguardado no tratamento de dados
deve ser capaz de provar o cumprimento dos princípios (princípio da pessoais. Estas investigações podem incluir uma revisão da documentação
responsabilização). que sustenta a seleção dos dados, um exame de como o algoritmo foi
desenvolvido e se foi devidamente testado antes de entrar em uso.
A seguir, analisaremos os desafios mais importantes em matéria de proteção
de dados associados ao desenvolvimento e utilização da inteligência
artificial. Analisamos estes desafios à luz dos princípios de proteção de
dados que são mais relevantes para a inteligência artificial –
nomeadamente os princípios de justiça, limitação de finalidade,
minimização de dados e transparência.
Exemplo
Uma alegação de discriminação baseada na IA foi
O viés algorítmico atende apresentada contra um sistema dos EUA para estabelecer
17
18
Quando o modelo concluído é estático (offline), o não é possível prever o que o algoritmo aprenderá. A finalidade
desenvolvimento e o uso podem ser claramente diferenciados. também pode ser alterada à medida que a máquina aprende e se
Um modelo desenvolvido usando dados de treinamento é testado desenvolve. Isto desafia o princípio da minimização de
em dados semelhantes antes de ser usado. Uma vez colocado em dados, pois é difícil definir quais dados são
uso o modelo, os dados de treinamento são removidos do necessário.
algoritmo e o modelo processará apenas os dados pessoais aos
quais são aplicados, como informações sobre solicitantes de empréstimos. Contudo, a minimização de dados é mais do que um princípio
Como o algoritmo é estático, ele não aprenderá nada que limita a quantidade de detalhes incluídos no treinamento ou
além dos dados pessoais que está atualmente processando. na utilização de um modelo. O princípio também estipula
Conseqüentemente, nem desenvolverá inteligência depois de a proporcionalidade, que restringe a extensão da
colocada em uso. intervenção na privacidade do titular dos dados que a utilização
de dados pessoais pode envolver. Isto pode ser conseguido
Outros modelos desenvolvem-se e melhoram continuamente à dificultando a identificação dos indivíduos contidos nos dados
medida que são alimentados com mais dados pessoais. Estes básicos. O grau de identificação é limitado tanto pela
incluem modelos que fornecem suporte à decisão para os médicos. quantidade como pela natureza da informação utilizada, uma
O modelo aprende algo novo sobre cada paciente sobre o vez que alguns detalhes revelam mais sobre uma pessoa do que
qual recebe dados ou sobre cada artigo científico que lê. outros. A utilização de técnicas de pseudonimização ou de
Este novo conhecimento pode então ser usado no próximo paciente. encriptação protege a identidade do titular dos dados e ajuda a
limitar a extensão da intervenção.
Quando um modelo se desenvolve continuamente, é difícil
diferenciar entre desenvolvimento e utilização e, portanto, onde Este princípio também obriga os desenvolvedores a examinar
termina a investigação e começa a utilização. minuciosamente a área pretendida de aplicação do modelo para
Assim, é difícil chegar a uma conclusão sobre até que ponto o facilitar a seleção dos dados relevantes necessários para o
desenvolvimento e a utilização destes modelos constituem ou não propósito. Além disso, o criador deve considerar a forma de atingir
investigação científica. Os limites do que constitui investigação o objetivo de uma forma que seja menos invasiva para os titulares
científica terão de ser revistos assim que os novos regulamentos de dos dados. As avaliações realizadas precisam ser documentadas,
protecção de dados entrarem em vigor. para que possam ser apresentadas à Autoridade de Proteção de
Dados em caso de inspeção, ou em conexão com uma discussão
preliminar.
Ressaltamos que a utilização de dados pessoais para investigação
científica é regida por regras específicas do RGPD (artigo
89). A utilização nesses casos deve estar sujeita às salvaguardas
adequadas para garantir os direitos e liberdades do titular
dos dados. As salvaguardas devem garantir a existência de Avaliação de
medidas técnicas e organizacionais para proteger, em particular,
o princípio da minimização de dados. impacto na proteção de dados
Antes de as informações pessoais serem processadas,
A inteligência artificial encontra os impactos na proteção de dados devem ser avaliados
19
Embora seja difícil estabelecer antecipadamente as informações exatas 63) o direito de acesso deve evitar. A consideração dos direitos de
que serão necessárias e relevantes para o desenvolvimento de um terceiros, como os segredos comerciais de uma organização, não
algoritmo – e isso pode mudar durante o projeto – é essencial que o pode, no entanto, ser utilizada para negar ao titular dos dados o acesso
princípio da minimização de dados seja respeitado por meio a todos os dados que lhe digam respeito. A resposta é encontrar uma solução
de avaliação contínua de os requisitos reais. Isto não só protege os pragmática. Na maioria dos casos, fornecer ao titular dos dados as
direitos dos titulares dos dados, mas também minimiza o risco de informações informações de que necessita para proteger os seus interesses, sem
irrelevantes levarem o algoritmo a encontrar correlações que, em vez de ao mesmo tempo divulgar segredos comerciais, não será problemático.
serem significativas, são coincidentes e às quais não deve ser atribuído
qualquer peso.
Embora a IA seja complexa e difícil de compreender e explicar, o princípio
do tratamento transparente de dados pessoais aplica-se com força
total no desenvolvimento e utilização da inteligência artificial.
A pressão para utilizar dados pessoais está a intensificar-se à medida que
análises baseadas em IA são utilizadas para promover maior eficiência
e melhores serviços. A Autoridade de Proteção de Dados acredita A seguir discutiremos o dever de informar e os direitos dos titulares dos
que o princípio da minimização de dados deve desempenhar dados.
um papel importante no desenvolvimento da inteligência
artificial, para que os direitos dos titulares dos dados sejam protegidos e a informações gerais
confiança geral nos modelos seja mantida.
Quando são recolhidos dados pessoais, o responsável pelo tratamento
deve sempre fornecer algumas informações gerais, como
A proteção de dados consiste, em grande parte, na salvaguarda dos direitos • e o direito dos titulares dos dados de inspecionar os dados
dos indivíduos de decidirem como as informações sobre si
próprios são utilizadas. Isto exige que os responsáveis pelo tratamento Devem também ser fornecidas informações sobre riscos, regras,
sejam abertos quanto à utilização de dados pessoais e que essa salvaguardas e direitos dos titulares dos dados em relação ao
utilização seja transparente. processamento, bem como sobre a forma como esses direitos podem ser
exercidos.
A transparência é alcançada fornecendo aos titulares dos dados
detalhes do processo. Os titulares dos dados devem ser informados Além disso, aplicar-se-á um dever alargado de informação quando forem
sobre a forma como a informação será utilizada, quer esta informação recolhidos dados pessoais para a tomada de decisões
seja recolhida pelos próprios titulares dos dados ou por terceiros (artigos automatizadas. O uso da inteligência artificial é uma forma de
13.º e 14.º do RGPD). Além disso, a informação deve estar facilmente processamento automatizado e, além disso, em alguns casos a decisão é
disponível, numa página inicial, por exemplo, e ser escrita numa linguagem tomada pelo modelo. É importante esclarecer o que é necessário para
clara e compreensível (artigo 12.º do RGPD). Esta informação permitirá que uma decisão seja qualificada de automatizada, antes de analisarmos
aos titulares dos dados exercer os seus direitos nos termos do RGPD. mais de perto o dever alargado de informação.
É também um desafio que as informações sobre o modelo possam revelar Essencialmente, decisões individuais automatizadas não são
segredos comerciais e direitos de propriedade intelectual, que de acordo permitidas. No entanto, aplicam-se excepções se a decisão automatizada
com o prefácio do GDPR (Considerando for uma condição necessária para a celebração de um acordo.
Machine Translated by Google
20
contrato, seja permitido por lei ou seja baseado na explícita Nem a alternativa de que a decisão automatizada afecte de forma
consentimento do titular dos dados. O regulamento não define o semelhante e significativa uma pessoa também não é definida de forma mais
que constitui consentimento explícito em oposição ao consentimento de perto. Assumimos que a decisão deve ter o potencial de
ordinário, mas a frase indica que é necessário um gesto afetar as circunstâncias, o comportamento ou as escolhas da
expresso por parte do titular dos dados. pessoa que está sujeita à decisão automatizada. No entanto, é
difícil afirmar com precisão onde deve ser traçada a linha divisória,
Para cumprir os requisitos do Regulamento, a decisão deve basear-se uma vez que existem elementos subjetivos consideráveis
exclusivamente no tratamento automatizado e deve numa tal avaliação.
produzir efeitos jurídicos ou afetar significativamente uma
pessoa de forma semelhante. Quando são aplicadas decisões automatizadas, devem ser
implementadas medidas para proteger os direitos, liberdades e
O facto de uma decisão automatizada se basear exclusivamente interesses legítimos do titular dos dados. O titular dos dados deve
no tratamento automatizado significa que não pode haver qualquer poder exigir que um ser humano tome a decisão final e deve ter
forma de intervenção humana no processo de tomada de decisão. direito de recurso.
“Intervenção humana” significa que uma pessoa singular deve ter
realizado uma avaliação independente dos dados pessoais Decisões automatizadas que envolvam categorias especiais de
subjacentes e estar autorizada a reexaminar as recomendações dados pessoais ( dados pessoais sensíveis) são permitidas
que o modelo produziu. As regras que regem a tomada de apenas se o titular dos dados tiver consentido ou se forem legalmente
decisão automatizada não podem ser contornadas pela fabricação justificadas.
de intervenção humana.
É importante estar ciente de que o alinhamento de diferentes
tipos de dados pessoais pode revelar informações sensíveis
O que se entende por efeito jurídico não está definido no sobre os indivíduos. Operar com estes dados envolverá o
prefácio. Seria natural entender esta frase no sentido de que a decisão processamento de categorias especiais de dados pessoais.
automatizada deve ter impacto nos direitos ou deveres do titular
dos dados, tais como direitos legais, ou os direitos estabelecidos num
contrato. Veja os exemplos listados na caixa de fatos. Por exemplo, um estudo combinou “curtidas” no Facebook com
informações de uma pesquisa simples e previu a orientação sexual
dos usuários do sexo masculino com uma precisão de 88%. Além disso,
eles previram a etnia com 95 por cento
21
precisão e se o usuário era cristão ou muçulmano com 82 por cento de definir os seus prémios de seguro automóvel com base nos padrões de
precisão.11 Um estudo desta natureza está sujeito às mesmas condução dos tomadores de seguros, deverá informar os seus clientes
obrigações legais de acordo com o GDPR como se dados pessoais sobre os possíveis impactos desta situação e que uma condução
sensíveis tivessem sido processados desde o início. descuidada pode levar a prémios mais elevados.
11 12
Michael Kosinski, David Stilwell e Thore Graepel. «Traços e atributos privados Ver, por exemplo, Andre Burt, «Existe um direito à explicação para a máquina
são previsíveis a partir de registros digitais do comportamento humano. Anais aprendendo no GDPR?»: https://iapp.org/news/a/is-there-a-right-to-
da Academia Nacional de Ciências dos Estados Unidos da explaination-for-machine-learning-in-the-gdpr/ cf. Sandra Wachter, Brent
América»: http://www.pnas.org/content/110/15/5802.full.pdf Mittelstadt, Luciano Floridi, Lei Internacional de Privacidade de Dados, a
publicar, «Por que não existe um direito à explicação da tomada de decisão
automatizada no Regulamento Geral de Proteção de
Dados», disponível em https://papers.ssrn.com/ sol3/papers.cfm?abstract_id=2903469
Machine Translated by Google
22
mudança para que uma decisão diferente seja tomada. 13 não concede o direito de receber uma explicação da decisão.
O titular dos dados deve ser informado sobre a forma como
pode opor-se à decisão, quer recorrendo, quer solicitando intervenção
humana. Embora não haja direito a uma explicação quando uma decisão não
é automatizada, o princípio da transparência exige que o
Alguém tem direito a uma explicação quando um ser responsável pelo tratamento de dados forneça uma
humano toma uma decisão com base na recomendação explicação semelhante às fornecidas para decisões
do modelo? automatizadas.
23
Controlando os Algoritmos
supervisão da DPA que existem medidas para garantir um tratamento justo; e que os
titulares dos dados sejam informados conforme exigido por lei.
24
25
Soluções e
recomendações
Um princípio de proteção de dados que sustenta todo o rotinas e no uso diário. As configurações padrão devem proteger
desenvolvimento e aplicações de IA é a responsabilização. Este tanto quanto possível a privacidade e os recursos de proteção de
princípio é central para o GDPR e atribui maior responsabilidade dados devem ser incorporados na fase de concepção.15 O
ao controlador de dados para garantir que todo o processamento seja princípio da minimização de dados é expressamente mencionado na
conduzido em conformidade com as regras. disposição relativa à privacidade desde a concepção.
Os processadores de dados também estão sujeitos ao princípio da
responsabilidade. Avaliação de impacto na proteção de dados
Neste capítulo apresentaremos exemplos de ferramentas e Qualquer pessoa que processe dados pessoais tem o dever de avaliar
soluções que podem ajudar o responsável pelo tratamento de os riscos envolvidos. Se uma empresa acreditar que um processo
dados a cumprir as regras. Mas primeiro discutiremos dois planeado poderá representar um elevado risco para os direitos e
dos requisitos do GDPR que são especialmente importantes em liberdades das pessoas singulares, tem o dever de realizar
conexão com o desenvolvimento e aplicação da IA; avaliação de uma avaliação de impacto na proteção de dados (AIPD). Isto está
impacto na proteção de dados (DPIA) e privacidade desde a descrito no Artigo 35 do RGPD.
dados – e crie privacidade no seu sensíveis) são utilizadas numa base grande escala. A
monitorização sistemática e em grande escala das áreas públicas
sistema! também requer documentação que comprove que foi realizada
uma AIPD.
Os novos regulamentos de proteção de dados reforçarão os
direitos dos indivíduos. Ao mesmo tempo, os deveres das A avaliação de impacto deve incluir, no mínimo, o seguinte:
organizações serão reforçados. Dois novos requisitos
que são especialmente relevantes para organizações
que utilizam IA são os requisitos de privacidade por • uma descrição sistemática do processo, sua
design e DPIA. finalidade e qual o interesse justificado que protege
• uma avaliação sobre se o processo é
Privacidade desde o design necessária e proporcional, dada a sua finalidade
• uma avaliação do risco que o processamento
O responsável pelo tratamento dos dados deve incorporar a
envolve os direitos das pessoas, incluindo o direito à
proteção da privacidade nos sistemas e garantir que a
privacidade
proteção dos dados seja salvaguardada nas configurações
• as medidas selecionadas para gerenciar os riscos
padrão do sistema. Estes requisitos estão descritos no Artigo 25 identificados
do RGPD e aplicam-se ao desenvolvimento de software,
encomenda de novos sistemas, soluções e serviços, bem
A DPA estará envolvida nas discussões preliminares caso uma
como ao desenvolvimento destes.
análise de impacto revele que o processo planejado pode
representar um alto risco para os titulares dos dados, e
As regras exigem que a protecção de dados seja dada a
devida atenção em todas as fases do desenvolvimento do sistema, em
26
que o risco não pode ser reduzido pelo responsável pelo tratamento dos modelo para uma unidade cliente, por exemplo um telefone celular. O
dados (artigo 36 do RGPD). modelo é então melhorado localmente no cliente, com base em dados
locais. As alterações no modelo são então enviadas de volta ao
servidor, onde são consolidadas com as informações de alterações
de modelos em outros clientes. Uma média das informações
Ferramentas e métodos para uma boa
alteradas é então usada para melhorar o modelo centralizado.
proteção de dados em IA O novo e aprimorado modelo centralizado agora pode ser
baixado por todos os clientes. Isto proporciona uma oportunidade
A inteligência artificial é uma tecnologia em rápido desenvolvimento. de melhorar um modelo existente, com base num grande número
O mesmo se aplica às ferramentas e métodos que podem ajudar a de utilizadores, sem ter de partilhar os dados dos utilizadores.
enfrentar os desafios de proteção de dados colocados pela utilização
da IA. Reunimos vários exemplos para ilustrar algumas das opções
disponíveis. Estes métodos não foram avaliados na prática, mas Cápsulas matriciais 18
avaliados de acordo com o seu possível potencial. Isto significa As cápsulas matriciais são uma nova variante de redes neurais e
que, tecnicamente, talvez sejam hoje inadequados, mas os conceitos requerem menos dados para aprendizagem do que o que é atualmente
são estimulantes e têm potencial para futuras pesquisas e a norma para aprendizagem profunda. Isso é muito vantajoso porque
utilização futura. são necessários muito menos dados para o aprendizado de máquina.
A solução ideal seria poder usar tantos dados quantos desejasse para
• Métodos para reduzir a necessidade de dados de treinamento.
aprendizado de máquina, sem comprometer a privacidade. O
• Métodos que defendem a proteção de dados sem reduzir o
campo da criptologia oferece algumas possibilidades promissoras
conjunto de dados básico.
nesta área:
• Métodos concebidos para evitar o problema da caixa negra.
16 https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf 18 https://openreview.net/pdf?id=HJWLfGWRb
17 https://research.googleblog.com/2017/04/federated-learning- 19 https://www.cis.upenn.edu/~aaroth/Papers/privacybook.pdf,
colaborative.html https://arxiv.org/abs/1412.7584
Machine Translated by Google
27
A Microsoft, por exemplo, publicou um documento técnico sobre um foram, a fim de garantir a qualidade e melhorar seus produtos.
sistema que utiliza criptografia homomórfica em conexão com o
reconhecimento de imagens.20 Esforços ativos também
estão em andamento para padronizar soluções de criptografia IA explicável (XAI)24
homomórfica.21 XAI é a ideia de que todas as decisões automatizadas tomadas
deveria ser explicável. Com pessoas envolvidas num processo, muitas
Transferir aprendizagem22 vezes é desejável que seja dada uma explicação para o resultado.
Não é sempre necessário desenvolver modelos do zero. Outra Existem algumas possibilidades interessantes em duas áreas. Haverá
possibilidade é utilizar modelos existentes que resolvam tarefas também a necessidade de poder controlar sistemas que não
semelhantes. Ao basear o processamento nestes modelos tenham isso incorporado. Provavelmente também será atraente para
existentes, muitas vezes será possível alcançar o mesmo desenvolvedores que empregam aprendizagem por transferência.
resultado com menos dados e num tempo mais curto. Existem
bibliotecas contendo modelos pré-treinados que podem ser
usados. Há também um projeto em andamento nesta área, administrado pela
Defense Advanced Research Projects Agency (DARPA), onde o
INVESTIMENTO objetivo é obter mais conhecimento sobre como fornecer explicações
O Statistics Norway (SSB) e o Centro Norueguês de Dados de compreensíveis para decisões automatizadas. Eles
Pesquisa (NSD) desenvolveram um sistema chamado RAIRD23 patrocinaram a Oregon State University, concedendo uma quantia de
que permite a realização de pesquisas sobre dados sem ter acesso US$ 6,5 milhões ao longo de quatro anos para pesquisas neste tópico.
direto ao conjunto de dados completo. O objetivo é criar uma IA que possa explicar suas decisões de
uma forma que seja compreensível e promova confiança no uso
Resumindo, este sistema funciona por meio de uma interface que do sistema. Em qualquer caso, existem boas razões para acreditar que
permite aos pesquisadores acessar apenas os metadados do conjunto esta investigação irá impulsionar o campo.
de dados subjacente. O conjunto de dados pode, por exemplo, ser
um registo de diagnóstico de cancro contendo campos para
idade, sexo, data e local de nascimento. O pesquisador pode então LIMÃO25
enviar consultas com base nos metadados e obter um relatório contendo LIME é uma abordagem para XAI. É uma solução independente
apenas dados agregados. de modelo que produz explicações que as pessoas comuns podem
compreender. No caso do reconhecimento de imagens, por
Esta solução foi concebida para evitar a recuperação de dados relativos exemplo, será capaz de mostrar quais partes da imagem são
a grupos muito pequenos e pessoas individuais. Este tipo de relevantes para o que ele pensa que é a imagem. Isso torna mais fácil
sistema pode, portanto, ser usado quando são necessários dados para para qualquer pessoa compreender a base de uma decisão.
aprendizado de máquina. Em vez de receber um relatório como resultado
final, pode-se obter um modelo do sistema.
20
https://www.microsoft.com/en-us/research/publication/cryptonets-applying-neural-networks-to-encrypted- 23 http://raird.no/
data-with-high-throughput-and-accuracy/
24 https://www.darpa.mil/program/explainable-artificial-intelligence
21
http://homomorphicencryption.org/ 25 https://www.oreilly.com/learning/introduction-to-local-interpretable-model-agnostic-explanations-lime
22
http://www.cs.utexas.edu/~ml/publications/area/125/transfer_learning
Machine Translated by Google
29
Recomendações para usuários finais motivos imperiosos e justificáveis para o tratamento dos
dados, e que esses motivos pesam mais do que os
Estas recomendações destinam-se aos utilizadores finais. Um utilizador
seus interesses, direitos e liberdades.
final é o titular dos dados que utiliza um serviço ou cujos dados pessoais • Direito de exigir processamento limitado. Se você considerar
são tratados através de IA. que alguns dados estão incorretos ou estão sendo
processados ilegalmente, ou se você exerceu seu direito
• Direito à informação. Você tem direito a de protestar contra o processamento, a organização pode ser
informações compreensíveis e prontamente disponíveis sobre obrigada a interromper o uso dos dados, mas continuar a
o processamento dos seus dados pessoais. Este direito se armazená-los até que o desacordo seja resolvido. foi resolvido.
aplica tanto quando as organizações recuperam
informações diretamente de você, quanto quando elas • Portabilidade de dados. Se, seja contratualmente ou
são recuperadas de outras fontes. Você deve saber para
tendo dado o seu consentimento, você teve seus dados
que a informação está sendo usada (a finalidade) e a pessoais processados, você pode solicitar que esses
base legal na qual a organização está processando a detalhes lhe sejam entregues pela organização em
informação. • Consentimento. Em muitas situações, um formato estruturado, de aplicação geral e legível por
o responsável pelo tratamento deve obter o seu consentimento máquina.
antes do início do processamento.
O responsável pelo tratamento de dados é Recomendações para autoridades
responsável por documentar que foi dado o consentimento
adequado, o que significa que você deu uma declaração Estas recomendações destinam-se a legisladores e decisores
voluntária, específica, informada e inequívoca de que aprova políticos, uma vez que estabelecem os termos e condições para o
o processamento dos seus dados pessoais. Você desenvolvimento e utilização da IA.
também tem o direito de retirar qualquer consentimento
que tenha dado anteriormente. • Garantir que o setor público dê um bom exemplo na utilização da
• Direito de acesso à informação. Você tem o direito de entrar IA. Isto requer uma consciência aguda das consequências
em contato com organizações e perguntar se elas estão éticas e de privacidade dos sistemas que utilizam, bem
processando detalhes sobre você e, em caso afirmativo, o como conhecimentos especializados como compradores
que foi registrado. Em regra, tem direito a uma cópia para garantir que os sistemas adquiridos têm privacidade
dos dados registados. Existem, no entanto, algumas desde a conceção e que cumprem os requisitos
excepções ao direito de acesso à informação, por legislativos.
exemplo no sector judicial. • Alocar fundos para pesquisas que garantam que a
tecnologia processe os dados pessoais em
• Direito de retificação e exclusão de informações. conformidade com os regulamentos. A proteção de
Você tem o direito de solicitar que detalhes dados pessoais não é apenas um requisito legal, mas
incorretos ou desnecessários sobre você sejam retificados também pode ser uma vantagem competitiva
ou excluídos. para a indústria norueguesa.
• Direito de se opor ao processamento de dados sobre • Garantir que as autoridades responsáveis pela aplicação da lei
você. Você pode ter o direito de protestar contra o possuem os conhecimentos especializados relevantes e
processamento de detalhes que lhe digam respeito. providenciar a partilha de experiências e
Se você protestar contra o marketing direto, ele deverá ser conhecimentos
interrompido sem que você precise fornecer outros através das fronteiras sectoriais. • Garantir que a lei acompanhe
motivos. Noutras situações, poderá ter de justificar o seu desenvolvimentos tecnológicos. Isto aplica-se a toda a
direito de oposição explicando as circunstâncias legislação que tenha relevância para a utilização de
que afetam a sua situação. A organização deve então dados pessoais.
cessar o processamento, a menos que possa provar
que
Machine Translated by Google
Endereço de visita:
Tollbugata 3, 0152 Oslo, Noruega
Endereço postal:
PO Box 8177 Dep.,
0034 Oslo, Noruega
postkasse@datatilsynet.no
Telefone: +47 22 39 69 00
datatilsynet.no
personvernbloggen.no
twitter.com/datatilsynet