Escolar Documentos
Profissional Documentos
Cultura Documentos
: Dado pessoal sobre origem racial ou étnica, convicção religiosa, opinião política,
filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida
sexual, dado genético ou biométrico, quando vinculado a uma pessoa física.
QualidadeDo Cenário Atual• Garantia, aos titulares, de exatidão, clareza, relevância e atualização dos dados, de
dos dados acordo com a necessidade para cumprimento da finalidade do tratamento.
• Garantia, aos titulares, de informações claras, precisas e facilmente acessíveis sobre o
Transparência tratamento de dados.
CONTROLADOR OPERADOR
Responsável por realizar o
Responsável pelas decisões tratamento de dados
referentes ao tratamento de pessoais em nome do
dados pessoais controlador
(art. 5º, VI da LGPD) (art. 5º, VII da LGPD)
Co-controladores: controladores vinculados
por decisões comuns sobre as finalidades e
meios de tratamento.
Suboperador: aquele contratado pelo
operador para auxiliá-lo a realizar o
tratamento de dados pessoais em nome do
controlador, sendo recomendável que o
operador obtenha autorização formal
(genérica ou específica) do controlador.
https://www.gov.br/anpd/pt-br/documentos-e-publicacoes/2021.05.27GuiaAgentesdeTratamento_Final.pdf. Acesso em 22.Jun.2023.
Encarregado de proteção de dados pessoais (DPO)
Art. 5º da LGPD:
Execução ou Execução de
Apenas para Dados Pessoais Sensíveis políticas
Tutela da procedimentos Exercício regular Legítimo
preliminares de públicas pela
Saúde de direitos administração
Interesse
contrato
Apenas para Dados Pessoais pública
1181
reclamações
iniciaram
processos de
fiscalização
Bytedance Brasil Tecnologia Ltda. (TikTok) Verificação de conformidade do tratamento de dados pessoais de crianças e adolescentes 000297/2021-75
Não identificado Verificação de conformidade do tratamento de dados pessoais de 223 milhões de cidadãos brasileiros 000050/2021-59
Verificação de conformidade do tratamento de dados pessoais - compartilhamento de dados pessoais entre órgãos
Serviço Federal de Processamento de Dados - Serpro 000704/2021-44
públicos
WhatsApp LLC. Verificação de conformidade do tratamento de dados pessoais - Compartilhamento de dados com as Empresas do 001296/2022-29
Grupo Meta (Facebook)
Verificação de conformidade do tratamento de dados pessoais - compartilhamento para oferta de empréstimos
Instituto Nacional do Seguro Social (INSS) e Dataprev 001688/2022-98
consignados
Verificação de conformidade do tratamento de dados pessoais de crianças e adolescentes por plataformas digitais de
Centro de Mídias da Educação de São Paulo, Descomplica, Escola Mais, 001328/2023-77
ensino
Estude em Casa, Explicaê, Manga High e Stoodi
RaiaDrogasil S.A., Stix Fidelidade e Inteligência S.A. e Febrafar (Federação
Verificação de conformidade do tratamento de dados pessoais
Brasileira das Redes Associativistas e Independentes de Farmácias) 001371/2023-32
Não-
Completos Licença livre
proprietário
Processável Não-
por máquinas discriminatório
IA tem saltos em
Evolução Algoritmos
iniciais 1950 intervalos de 20 anos
da IA Poder de Processamento
Corrida do Chip 1970
Hardware
Singularidade 2030
Ada Lovelace
Início ponto em que a IA alcançará ou ultrapassará a 2040/45
capacidade humana de compreendê-la e controlá-la.
Alan Turing da IA
Matemático inglês,
Superinteligência + Supervida
conhecido como o pai da Transparência Honestidade
computação, que “quebrou”
a criptografia do Enigma, Avatares
durante a II Guerra Mundial.
QUAIS SÃO OS TIPOS DE INTELIGÊNCIA ARTIFICIAL?
Inteligência Artificial Limitada (ANI) Inteligência Artificial Geral (AGI) SuperInteligência Artificial (ASI)
Conhecida como “IA fraca” (Narrow Este tipo de inteligência artificial é a Dentre os tipos de Inteligência
AI), são sistemas que possuem um “IA forte ou Geral”, ou “nível Artificial, a superinteligência é a
único objetivo: armazenar um grande humano” (Artificial General mais evoluída e complexa, porém
volume de dados e realizar tarefas Intelligence), devido ao fato de que continua sendo uma incógnita
complexas, de acordo com o que foi são capazes de realizar tarefas muito para o futuro ainda estando em
programado. similares às realizadas por nós seres estudo. Porém, os especialistas
Esta classe de inteligência artificial humanos. acreditam que ela será superior à
consegue fazer diversas atividades A IA AGI aprende por meio de inteligência humana, capaz de
incluindo cálculos complexos com técnicas de machine learning, tomar decisões extremamente
muita rapidez. Todavia não vão muito compreendendo e reagindo a complexas e também armazenar
além destas funcionalidades. estímulos específicos. Junto disso, dados de maneira rápida e ágil.
esse modelo pode ser aplicado a
tarefas que não são executadas pela
Inteligência Artificial Limitada.
Escolas de pensamento de inteligência artificial para
desenvolvimento de soluções de machine learning
✓Escola Simbolista;
✓Escola Conexionista;
✓Escola Evolucionista;
✓Escola Bayesiana;
✓Escola Analogista.
Esta Foto de Autor Desconhecido está licenciado em CC BY
Desenv. Código
Aprendizado de
Input de dados
máquina
𝑨𝑰𝑻𝑽 = 𝒗𝒃𝒂𝒔𝒆 × 𝒏𝒄𝒂𝒎 × 𝒏𝒆𝒙 × 𝒕𝒇𝒆𝒅 × 𝒈𝒃𝒅 × 𝒄𝒕𝒅 × 𝒄𝒊𝒏𝒕 × 𝒄𝒆𝒏𝒔 − 𝒇𝒓𝒊𝒔𝒄𝒐
(*) Tese
(*) Tese de doutorado Pinheiro, Patricia deOdoutorado
Peck. Pinheiro,
direito internacional Patricia Peck.
da propriedade O direito
intelectual internacional
aplicado à inteligênciada propriedade
artificial. São Paulo:intelectual aplicado
USP / Faculdade à 2018.
de Direito,
inteligência artificial. São Paulo: USP / Faculdade de Direito, 2018.
https://www.economist.com/technology-
quarterly/2017/06/08/the-future-of-drones-depends-
on-regulation-not-just-technology. Acesso em
13.Jun.2023.
https://noticias.uol.com.br/ultimas-
noticias/rfi/2023/06/12/europa-sera-pioneira-no-
mundo-a-regulamentar-a-inteligencia-artificial.htm.
Acesso em 13.Jun.2023.
https://g1.globo.com/tecnologia/noticia/2023/06/13/p
or-que-garantir-seguranca-da-inteligencia-artificial-
nao-e-tao-facil-como-se-pensa.ghtml. Acesso em
13.Jun.2023.
Da gestão de riscos
Avaliação de impacto algorítmico dos sistemas desenvolvidos pela empresa ou contratados junto a terceiros, com o
mapeamento dos riscos e benefícios associados à sua implementação.
Riscos envolvendo IA
Riscos de Privacidade
Riscos de Cibersegurança
Riscos de Direitos Autorais/PI
Riscos Éticos e de viés algorítmico
Riscos relacionados a Decisões Algorítmicas
3 Níveis de Viés
ALGORÍTMICAS F1 F2 F3 F4 F5
F3 - Relacionado com atividades reguladas pelo Estado
Exemplo: Autoridades Setoriais Reguladoras e Fiscalizadoras
D5 na Saúde, Telecomunicação e Sistema Financeiro.
https://news.mit.edu/2023/large-language-models-are-biased-can-logic-help-save-them-0303. Acesso em
13.Jun.2023.
Segredo de negócio
Privacidade
https://www.engadget.com/three-samsung-employees-reportedly-leaked-sensitive-data-to-chatgpt-
190221114.html. Acesso em 13.Jun.2023.
https://www.bbc.com/news/technology-65139406. Acesso em
13.Jun.2023.
INTELIGÊNCIA ARTIFICIAL GENERATIVA
Uso e popularização
https://chat.openai.com/share/3705048e-dac6-4612-a29f-252504ca769c. Acesso em
13.Jun.2023.
Quando há decisão por IA (autônoma), como fica a questão da
RESPONSABILIDADE?
Qual o modelo de escolha foi adotado na programação (set up ético da IA):
a) sempre proteger o usuário ou b) salvar maior número de humanos com
menor impacto possível (teoria utilitarista)?
Mitigação de
Responsabilização
Vieses
Pilares – Risk Assessment Chatbots
Metodologia
Após apresentação da plataforma pela DASA e testes de navegação (Peck), enviamos ao cliente um Q&A
abordando os dois pilares do risk assessment de chatbot:
❑Segurança de Informação (“SI”): com base em ISO 27001 e 27002;
❑Legal: com base na LGPD, Constituição Federal, Propriedade Intelecutal e legislações setoriais (como, por
exemplo, CDC, resoluções CFM, dentre outros); e
Enforcement
Conflito de Escolha da lei
extraterritorial
jurisdição aplicável
da lei
➢ direito de buscar informações quando forem afetadas por decisões e resultados assistidos por
IA;
➢ direito de registrar uma reclamação junto a uma autoridade nacional, caso seus direitos tenham
sido violados pelo uso de um sistema de IA, seja como pessoa física ou por meio de organização
de interesse público.
IA em Compliance desde a concepção
Comitê de Ética da IA
Código de Conduta da IA
O sistema de IA deve ser
desenvolvido com “políticas de
Cláusulas contratuais para desenvolvimento de IA consequência”, ou seja, previsão
das consequências nos casos da
Modelo Avaliação Impacto Algorítmico (AIA)
IA apresentar más condutas,
alucinação e desvio de
Cláusula do conhecimento aprendido pela IA
comportamento de IA.
▪ Projeto de Lei (PL) 21/2020 - Marco legal do desenvolvimento e uso da Inteligência Artificial (IA).
▪ Projeto de Lei (PL) 2.338/2023 - Dispõe sobre o uso da Inteligência
Artificial seguindo o que foi trazido no Substitutivo da CJSUBIA
O desafio de conceituar a IA é grande haja vista que a adoção de termos amplos tem o potencial de abarcar
tecnologias e sistemas não diretamente associados à IA
PL 21/2020 Substitutivo
PL 2.338/23 OCDE
CJSUBIA
As definições adotadas pela Comissão Europeia na proposta de regulação de 2021 (Artificial Intelligence Act) tem sido alvo de
críticas pela adoção de duas conceituações controversas, levando à adoção de um sistema de listagem das aplicações, de
forma insatisfatória, haja vista o amplo leque de possibilidade de implementação.
Concordamos com as opiniões coletadas no âmbito das atividades do Senado, pela adoção da definição usada pela OCDE, que
é mais voltada à funcionalidade associada ao aprendizado de máquina. Outro ponto em comum é a massificação no uso de
dados.
Pontos de Atenção com a discussão atual
de Marcos Legais (e a prever nos Códigos de Conduta):
✓ Categorização de Riscos – em especial artigos 13, 14, 15, 16 e 17
✓ O artigo 14, inciso I e inciso III, artigo 17, inciso V – pode afetar sobremaneira o modelo atual vigente no país de utilização de
“Score de Crédito” bem como também afetar a Lei do Cadastro Positivo. Ou seja, o maior impacto será social e econômico,
podendo haver um retrocesso na oferta de crédito e no custo e distribuição de crédito, afetando inclusive políticas públicas
relacionadas.
✓ O artigo 15 – quando fala do reconhecimento facial – e diz que tem que ter lei específica + autorização judicial + revisão da
inferência algoritimica antes de medidas tomadas com relação a pessoa gera um grande impacto nas rotinas operacionais de
polícia e segurança pública, retirando a possibilidade de ação em situação de prevenção e em flagrante delito (ainda mais na
necessidade de se tomar medidas para prevenir condutas delituosas, riscos como atentados, como os protocolos de
segurança em escolas, grandes arenas – ex: jogos olímpicos, copa do mundo, etc).
✓ Há um impacto elevado em se manter o conceito aberto de “risco excessivo”. O artigo 17 – afeta diversos setores econômicos,
podendo causar aumento expressivo de custos e inviabilizar o uso de aplicações tecnológicas nestes setores relacionadas a
soluções de IA, em especial:
• Educação – inciso II
• Processo seleção – inciso III
• Saúde – inciso VI e IX
• Veículos autônomos – inciso VIII
• todos setores com uso de Autenticação Biométrica (especialmente Mercado financeiro, varejo, escolas) –– inciso X.
Pontos de Atenção com a discussão atual
de Marcos Legais (e a prever nos Códigos de Conduta):
✓ Artigos 22 e 24 trazem grande impacto de tempo e burocracia ao criar um modelo que exige consulta a órgão
regulador, audiência pública e análise de impacto da IA o que pode provocar paralização da indústria e perda de
competitividade, com aumento do custo Brasil e fuga de investidores.
✓ Todas as situações enquadradas em alto risco precisarão prever a supervisão/intervenção humana dentro do
modelo de governança de IA, o que gera uma inviabilização operacional, ainda mais em setores como Cidades
Inteligentes – conforme verifica-se na análise do parágrafo ùnico, inciso V, artigo 20 e medidas previstas pelo artigo
19.
✓ Os artigos 9, 10 e 21 tratam da revisão humana da decisão automatizada alterando a regra do Artigo 20 da LGPD –
da revisão da decisão automatizada (sem necessidade de haver revisão humana.
✓ A previsão de criação de uma nova Autoridade para regular e fiscaliar a IA nos artigos 32, 33 e 34 mostra-se um
grande desafio, considerando a experiência recente enfrentada com a ANPD na pauta de Proteção de Dados
Pessoais (LGPD) tanto em termos orçamentários como de capacitação técnica e de articulação e integração com
demais agentes regulatórios e de mercado.
✓ A conceituação conferida a Mineração de Dados mostra-se equivocada na medida que gera restrição ao tratamento
excessivo de dados, sendo que há necessidade na instrução de algoritmos (IA – machine learning) de uso de Big Data
(modelos de grande volumetria de informações – excessivos por natureza) – artigos 42 e 43
✓ Tratamento de dados de alto risco (públicos vulneráveis): criança, adolescente e idoso.
COMO COMPROVAR A ÉTICA ALGORÍTMICA EM UMA
POSSÍVEL AUDITORIA?
• O algoritmo possui algum viés estatístico (sub amostragem ou super amostragem, por exemplo)?
• O algoritmo possui algum viés social que reflita em vantagens sistemáticas para um ou mais grupos
ou desvantagens aos demais?
• Há transparência quanto a arquitetura algorítmica utilizada?
• Há transparência quanto aos critérios e métricas para a tomada de decisão automatizada?
• Como é a estrutura do algoritmo e de que forma ele atua?
É necessário ainda que se realize uma avaliação dos impactos do algoritmo utilizado nos direitos e
interesses das partes envolvidas com a identificação das situações e ou características que poderão dar
origem a um possível desvio ético ou discriminatório (exigência dos marcos regulatórios).
Modelo europeu de ethics by design
Direitos humanos
Transparência
Não-discriminação
Justiça
Beneficência
Desenvolvimento da
Inteligência artificial
➢ Princípio da Autonomia
➢ Princípio da Justiça (“BE FAIR”)
▪ Preservar a liberdade, não subordinação a ou
▪ Imparcialidade para os indivíduos e grupos
coerção por Sistemas de IA
incluindo minorias
▪ Completa autodeterminação
Representação
Autenticidade de
substancial no Justiça substancial Republicanismo Benefício social
datasets
desenvolvimento
Precaução com os
Transparência Segurança Responsabilização Cooperação
vulneráveis
Ajuste permanente
Privacidade dos
Proteção e garantia de Solidariedade Não Discriminação
dados
continuidade
PEIXOTO, Fabiano Hartmann. Inteligência Artificial e Direito. Convergência Ética e Estratégica. Vol. 05 – Alteridade Editora. 2020, p. 155 – 156.
Política de governança de IA
Documento contendo a PGA, a partir dos riscos identificados, a descrição da estrutura de governança para gestão,
desenvolvimento, emprego e monitoramento dos sistemas de IA existentes, além da proposição de controles e alinhamento à
estrutura geral de governança da organização;
Códigos de conduta, que incluem boas práticas a serem adotadas no ciclo de vida dos sistemas de IA para gestão dos
riscos mapeados e das medidas de segurança da informação a serem adotadas em relação aos sistemas;
Estruturação da governança, principais atores, funcionamento e procedimentos a serem adotados para gestão dos
sistemas de IA;
Definição e estruturação das medidas de transparência de sistemas de IA, tais como, operação do sistema, dados coletados e
tratados no treinamento, teste e implementação dos sistemas, quanto ao modelo empregado e critérios relevantes
(explicabilidade) e quanto à relação ser humano/máquina nos processos de decisões automatizadas, predições e
recomendações por sistemas de IA desenvolvidos pelo Serpro ou contratados junto a terceiros.
Implementação Programa de Governança Ética da IA
Patricia Peck
patriciapeck@peckadv.com.br
CEO e Sócia Fundadora
Privacy and Data Protection Law in Brazil
Wolters Kluwer - 2023
LinkedIn Instagram
/peckadvogados @peckadvogados
OBRIGADA!
Lattes
LinkedIn Instagram Patricia Peck
https://br.linkedin.com/in/
@patricia.p.peck http://lattes.cnpq.br
patriciapeckpinheiro
/0172053105577577