Você está na página 1de 61

Patricia Peck, PhD

Patricia Peck, PhD


Resumo Profissional
https://www.linkedin.com/in/patriciapeckpinheiro/
CV: http://lattes.cnpq.br/0172053105577577
• Advogada especialista em Direito Digital, Propriedade Intelectual, Proteção de Dados e Cibersegurança.
• Graduada e Doutorada pela Universidade de São Paulo, PhD em Direito Internacional.
• Conselheira Titular nomeada para o Conselho Nacional de Proteção de Dados e da Privacidade – CNPD.
• Membro do Comitê Consultivo do Movimento Transparência 100% do Pacto Global ONU.
• Membro do Conselho da Iniciativa Smart IP Latin América do Max Planck Munique para o Brasil.
• Membro da Comissão de Proteção de Dados do Conselho Federal da OAB.
• Professora de Direito Digital da ESPM.
• Professora convidada da Universidade de Coimbra em Portugal e da Universidade Central do Chile.
• Professora convidada de Cibersegurança da Escola de Inteligência do Exército Brasileiro. Patricia Peck
• Foi Presidente da Comissão Especial de Privacidade e Proteção de Dados da OAB-SP.
patriciapeck@peckadv.com.br
• Pesquisadora convidada do Instituto Max Planck de Hamburgo e Munique e da Universidade de Columbia nos EUA.
• Advogada Mais Admirada em Propriedade Intelectual desde 2007 a 2023 pela Análise Advocacia. PhD, CEO e sócia-fundadora
• Recebeu o prêmio Best Lawyers 2020/2021/2022, Leaders League 2021/2020/2019, Compliance Digital pelo LEC em
2018, Security Leaders em 2012 e 2015, a Nata dos Profissionais de Segurança da Informação em 2006 e 2008, o
prêmio Excelência Acadêmica – Melhor Docente da Faculdade FIT Impacta em 2009 e 2010.
• Condecorada com 5 medalhas militares, sendo a Medalha da Ordem do Mérito Ministério Público Militar em 2019,
Ordem do Mérito da Justiça Militar em 2017, Medalha Ordem do Mérito Militar pelo Exército em 2012, a Medalha
Tamandaré pela Marinha em 2011, a Medalha do Pacificador pelo Exército em 2009.
• Árbitra do Conselho Arbitral do Estado de São Paulo – CAESP.
• Nomeada como Membro Consultora para a Comissão Especial de Proteção de Dados do CFOAB.
• Autora/coautora de 42 livros de Direito Digital.
• CEO e Sócia Fundadora do Peck Advogados
• Presidente do Instituto iStart de Ética Digital.
• Programadora desde os 13 anos.
• Certificada em Privacy e Data Protection pela EXIN.
LinkedIn
42 Obras Publicadas
Dra. Patricia Peck Nova obra - Lançamento
Nova obra - Internacional
Panorama: 5 anos da Lei nº 13.709/2018 (LGPD)

Agosto/2018 Setembro/2020 Novembro/2020 Agosto/2021 Setembro/2021 Outubro/2021 Janeiro/2022


Promulgação LGPD entra em Nomeação Diretoria Vigência das sanções Consulta pública Regulamentação do Regulamento de
da LGPD vigor ANPD + administrativas da sobre aplicação da processo de aplicação da LGPD
LGPD + LGPD para agentes fiscalização e do para agentes de
Criação do tratamento de
regimento interno Nomeação do CNPD de tratamento de processo
pequeno porte +
da ANPD pequeno porte administrativo
Guia LGPD Eleitoral
sancionador

Abril/2022 Maio-Junho/2022 Julho-Agosto/2022 Agosto-Setembro/2022 Outubro/2022 Novembro/2022


Fevereiro/2022 Junho /2022
Reuniões técnicas sobre Tomada de subsídios Tomada de subsídios Tomada de subsídios Prorrogadas as Tomada Tomada de subsídios
Decreto de alteração Medida
a atuação do para transferência para definição da sobre tratamento de de subsídios (alto risco de registro
da estrutura Provisória para
Encarregado pelo Internacional + Agenda Regulatória Dados Pessoais de alto e crianças e simplificado de
regimental da ANPD + ANPD se tornar
Tratamento de Dados ANPD 2023-2024 risco + adolescentes) operações de
EC 115 inclui a Pesquisa de Autarquia
Pessoais + mapeamento + Consulta Pública Tomada de subsídios Aprovada na Câmara a tratamento
“proteção dos Dados Federal Especial
Nomeação dos grupos assuntos para ações Dosimetria sobre tratamento de MP 1124/22 Recondução de
Pessoais” como direito
fundamental no artigo de trabalho do CNPD educativas pela ANPD Dados Pessoais de Tomada de subsídios Miriam Wimmer para
crianças e adolescentes sobre incidentes de a Diretoria da ANPD
5º da CRFB
segurança

Novembro/2022 Dezembro/2022 Fevereiro/2023


Janeiro/2023 Março/2023 Abril/2023 Maio/2023 Maio/2023
Publicação da Publicação do relatório de Publicação da norma ANPD prorroga prazo da consulta pública
Divulgação do Balanço Publicação da relatório ANPD divulga nova ANPD divulga lista de processos
agenda regulatória atividades do CNPD de dosimetria para sobre o Regulamento de Comunicação
de acompanhamento e de atividades da ANPD – página para o envio de de fiscalização em andamento de Incidente de Segurança com Dados
da ANPD Biênio Novo formulário de aplicação das sanções
execução da agenda Resolução CD/ANPD nº5 denúncias e petições ANPD divulga enunciado sobre o Pessoais
2023/2024 Comunicados de pela ANPD – Resolução tratamento de dados pessoais ANPD publica editais de seleção de
regulatória da ANPD de titulares de crianças e adolescentes
incidentes de segurança CD/ANPD nº4 representantes da sociedade civil para
compor o CNPD
DEFINIÇÕES E CONCEITOS
: Toda e qualquer informação relativa à uma pessoa física identificada ou identificável. Uma pessoa
identificável é um indivíduo que pode ser identificado, direta ou indiretamente, particularmente por referência a um
número de identificação ou por um ou mais elementos específicos da sua identidade física, fisiológica, mental, econômica,
cultural ou social.
Do
Nome
Cenário Atual Dados
Placa de
Foto
E-mail carro
bancários

: Dado pessoal sobre origem racial ou étnica, convicção religiosa, opinião política,
filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida
sexual, dado genético ou biométrico, quando vinculado a uma pessoa física.

Dados sobre saúde e


Origem racial ou Convicções religiosas Filiação a sindicato ou Opinião Política Dados Genéticos e orientação sexual
étnica entidades filosóficas e Biométricos
religiosas
CICLO DE VIDA

COLETA ARMAZENAMENTO DESCARTE

FUNDAMENTO USO COMPARTILHAMENTO

PORTA DE SEGURANÇA TÉRMINO


ENTRADA
Os dados pessoais podem O descarte dos dados
Início do ciclo de vida, ser armazenados pessoais pode ser feito
a coleta é a porta de entrada localmente ou em rede, por término da finalidade
dos dados pessoais, pode ser em servidores de e-mail para os quais foram
física ou digital, vindo do ou armazenamento físico, coletados, decorrer do
titular ou de outras fontes. como pendrives, entre tempo, solicitação do
BASE LEGAL FINALIDADE outros. NECESSIDADE titular etc.
Hipótese legal Análise de como se dá Os dados são transmitidos ou
que fundamenta a utilização dos dados disponibilizados para outros
o tratamento do pessoais dentro departamentos internos,
dado pessoal. da organização. empresas do grupo,
fornecedores terceirizados etc.
Princípios da LGPD – Art. 6º
Finalidade • Tratamento para propósitos legítimos, específicos, explícitos e informados ao titular.

Adequação • Compatibilidade do tratamento com as finalidades informadas ao titular.

Necessidade • Limitação do tratamento ao mínimo necessário para a realização de suas finalidades.

Livre Acesso • Consulta facilitada e gratuita sobre a forma e duração do tratamento.

QualidadeDo Cenário Atual• Garantia, aos titulares, de exatidão, clareza, relevância e atualização dos dados, de
dos dados acordo com a necessidade para cumprimento da finalidade do tratamento.
• Garantia, aos titulares, de informações claras, precisas e facilmente acessíveis sobre o
Transparência tratamento de dados.

Segurança • Utilização de medidas técnicas e administrativas aptas a proteger os dados pessoais.

• Adoção de medidas para prevenir a ocorrência de danos em virtude do tratamento de


Prevenção dados pessoais.
• Impossibilidade de realização de tratamento para fins discriminatórios ilícitos ou
Não discriminação abusivos.

Responsabilização e Prestação de Contas • Demonstração, pelo agente, da adoção de medidas eficazes.


Direitos dos Titulares ART. 18º
I - confirmação da existência de tratamento;

II - acesso aos dados;

III - correção de dados incompletos, inexatos ou desatualizados;

IV - anonimização, bloqueio ou eliminação de dados excessivos;

V - portabilidade dos dados a outro fornecedor de serviço ou produto;

VI - eliminação dos dados pessoais;

VII - informação sobre o uso compartilhado de dados;


VIII - informação sobre a possibilidade de não fornecer consentimento e
sobre as consequências da negativa;
IX - revogação do consentimento.
Agentes de Tratamento

CONTROLADOR OPERADOR
Responsável por realizar o
Responsável pelas decisões tratamento de dados
referentes ao tratamento de pessoais em nome do
dados pessoais controlador
(art. 5º, VI da LGPD) (art. 5º, VII da LGPD)
Co-controladores: controladores vinculados
por decisões comuns sobre as finalidades e
meios de tratamento.
Suboperador: aquele contratado pelo
operador para auxiliá-lo a realizar o
tratamento de dados pessoais em nome do
controlador, sendo recomendável que o
operador obtenha autorização formal
(genérica ou específica) do controlador.
https://www.gov.br/anpd/pt-br/documentos-e-publicacoes/2021.05.27GuiaAgentesdeTratamento_Final.pdf. Acesso em 22.Jun.2023.
Encarregado de proteção de dados pessoais (DPO)

Art. 5º da LGPD:

VIII - encarregado: pessoa (física ou


jurídica) indicada pelo controlador e
operador para atuar como canal de
comunicação entre o controlador, os
titulares dos dados e a Autoridade
Nacional de Proteção de Dados (ANPD);
Bases Legais
Todo tratamento de dados pessoais deverá ter uma base legal que
o justifique:

Estudo por Prevenção à


órgãos de Obrigação Legal Consentimento Proteção ao fraude e à
Proteção a vida
pesquisa crédito segurança do
titular

Execução ou Execução de
Apenas para Dados Pessoais Sensíveis políticas
Tutela da procedimentos Exercício regular Legítimo
preliminares de públicas pela
Saúde de direitos administração
Interesse
contrato
Apenas para Dados Pessoais pública

Para tratamento de ambos


Fiscalização da ANPD
7332 demandas recebidas desde 2021

1181
reclamações
iniciaram
processos de
fiscalização

https://app.powerbi.com/view?r=eyJrIjoiNWMxMGYwYTAtZTE3Ni00ZTA3LTg1NGYtZGVhODE3OGE4NzQ4IiwidCI6IjFjYzNjNTA4LTAxYzctNDQ2MC1iZDJiLWFmZTk1ZTgwYjhhZiJ9. Acesso em 12.Jun.2023.


Alguns processos primeiros instaurados pela ANPD envolvem o
setor de saúde
Ministério da Saúde. Setor Público. Instaurado Secretaria de Estado da Saúde de Santa Catarina. Setor
Instituto de Assistência ao Servidor Público
em 12/09/2022. Com o intuito de investigar as Público. Instaurado em 14/09/2022. Com o intuito de
Estadual de São Paulo – IAMSPE. Setor Público.
condutas: ausência de comunicação a titulares investigar as condutas: ausência de comunicação a
Instaurado em 30/09/2022. Com o intuito de
de incidente de segurança; ausência de medidas titulares de incidente de segurança; ausência de
investigar as condutas: ausência de
de segurança. Atualmente se encontra na fase medidas de segurança; não atendimento a
comunicação a titulares de incidente de
de instrução processual. Processo nº determinações da ANPD. Atualmente se encontra na
segurança; ausência de medidas de segurança.
00261.001882/2022-73. fase de instrução processual. Processo nº
Atualmente se encontra na fase de instrução
00261.001886/2022-51.
processual. Processo nº 00261.001969/2022-41.

Telekall. Setor Privado. Instaurado em


Ministério da Saúde. Setor Público.
Secretaria de Desenvolvimento Social, Criança
10/03/2022. Com o intuito de investigar as
Instaurado em 07/03/2022. Com o intuito
e Juventude-PE. Setor Público. Instaurado em condutas: ausência de comprovação de hipótese
de investigar as condutas: não atendimento
07/10/2022. Com o intuito de investigar as legal; ausência de registro de operações; não envio
à requisição da ANPD; ausência de
condutas: ausência de comunicação a titulares de Relatório de Impacto de Proteção de Dados;
encarregado de dados pessoais; ausência
de incidente de segurança; ausência de medidas ausência de encarregado de dados pessoais; não
de comunicação de incidente de segurança.
de segurança. Atualmente se encontra na fase atendimento à requisição da ANPD. Atualmente se
de instrução processual. Processo nº Atualmente se encontra na fase de
encontra na fase de instrução processual. Processo
00261.001963/2022-73. instrução processual.
nº 261.000489/2022-62.

Instituto de Pesquisas Jardim Botânico do


Secretaria de Educação do Distrito Federal.
Rio de Janeiro. Setor Público. Instaurado
Setor Público. Instaurado em 10/06/2022.
em 22/03/2022. Com o intuito de investigar
Com o intuito de investigar as condutas:
as condutas: não comunicação de incidente
não atendimento à requisição da ANPD.
de segurança; não atendimento à
Atualmente se encontra na fase de
requisição da ANPD. Atualmente se
instrução processual. Processo nº
encontra na fase de instrução processual.
00261.001192/2022-14.
Processo nº 00261.000574/2022-21.

https://www.jota.info/executivo/lgpd-7-dos-8-processos-instaurados-pela-anpd-envolvem-o-setor-publico-23032023. Acesso em 18.Jun.2023.


Processos de Fiscalização divulgados pela ANPD
Nº do Processo
Agente de Tratamento Escopo da Análise (00261)

Bytedance Brasil Tecnologia Ltda. (TikTok) Verificação de conformidade do tratamento de dados pessoais de crianças e adolescentes 000297/2021-75
Não identificado Verificação de conformidade do tratamento de dados pessoais de 223 milhões de cidadãos brasileiros 000050/2021-59
Verificação de conformidade do tratamento de dados pessoais - compartilhamento de dados pessoais entre órgãos
Serviço Federal de Processamento de Dados - Serpro 000704/2021-44
públicos

Verificação de conformidade do tratamento de dados pessoais 001028/2021-26


Ministério da Justiça e Segurança Pública
Unitfour Tecnologia da Informação Ltda. Verificação de conformidade do tratamento de dados pessoais 008253/2021-54
Zappo Tecnologia da Informação e Publicidade Ltda.-ME (Contact Pró) Verificação de conformidade do tratamento de dados pessoais 001709/2021-94
Telegram Messenger Inc. Verificação de conformidade do tratamento de dados pessoais 000298/2022-09
Claro S.A. e Serasa S.A. Verificação de conformidade do tratamento de dados pessoais 000227/2022-06
Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira Verificação de conformidade do tratamento de dados pessoais - Mudanças na política de publicação de dados do
000730/2022-53
(INEP) ENEM

WhatsApp LLC. Verificação de conformidade do tratamento de dados pessoais - Compartilhamento de dados com as Empresas do 001296/2022-29
Grupo Meta (Facebook)
Verificação de conformidade do tratamento de dados pessoais - compartilhamento para oferta de empréstimos
Instituto Nacional do Seguro Social (INSS) e Dataprev 001688/2022-98
consignados

Governo do Estado do Paraná, Companhia de Tecnologia da Informação e


Verificação de conformidade do tratamento de dados pessoais 002036/2022-71
Comunicação do Paraná (Celepar) e Algar Soluções em TIC S.A. (Algar
Telecom)
Secretaria Municipal da Segurança Cidadã (Sesec) do Município de Verificação de conformidade do tratamento de dados pessoais - compartilhamento de dados pessoais entre órgãos
002211/2022-20
Fortaleza/CE públicos
Verificação de conformidade do tratamento de dados pessoais - compartilhamento de dados pessoais entre órgãos
Ministério da Gestão e Inovação – Secretaria de Governo Digital 002620/2022-26
públicos

Verificação de conformidade do tratamento de dados pessoais de crianças e adolescentes por plataformas digitais de
Centro de Mídias da Educação de São Paulo, Descomplica, Escola Mais, 001328/2023-77
ensino
Estude em Casa, Explicaê, Manga High e Stoodi
RaiaDrogasil S.A., Stix Fidelidade e Inteligência S.A. e Febrafar (Federação
Verificação de conformidade do tratamento de dados pessoais
Brasileira das Redes Associativistas e Independentes de Farmácias) 001371/2023-32

https://www.gov.br/anpd/pt-br/assuntos/noticias/anpd-divulga-lista-de-processos-de-fiscalizacao-em-andamento. Acesso em 18.Jun.2023.


MAIOR EXPOSIÇÃO A RISCO FISCALIZATÓRIO
DADOS DE IDOSOS GRUPO ECONÔMICO CONSUMIDOR TRABALHISTA

• Mudança na • Risco de caracterização de • Prejuízo reputacional: • Das 4 mil ações na


classificação de grupo econômico entre Denúncias no Reclame Aqui Justiça 45% são
risco e gravidade empresas → valor da multa e Consumidor.gov.br sobre trabalhistas, riscos:
de dados de idosos calculado sobre não atendimento de • Tratamento
pela Res. faturamento do grupo requisições de titulares; excessivo de dados
CD/ANPD nº 02/22; econômico, considerando • Não atendimento pedido pessoais sensíveis,
• Falta de adequação (art. 52 LGPD): apagamento e excesso do não minimização
dos fluxos do RoPA • DPO único e uso de CSC; telemarketing, decisão • Discriminação
e Relatórios de • Programa de Privacidade automatizada (Score); • Vazamento interno
Impacto; único para todas, sem a • Política de Privacidade (acesso dados
• Falta de adequação existência de comitês desatualizada, pessoais sensíveis
das cláusulas próprios para cada principalmente em relação pessoas não
contratuais junto a empresa; e ao tratamentos de dados justificadas/
parceiros e • Compartilhamento de para INSTRUÇÃO autorizadas.
terceirizados. Datalake entre as empresas ALGORÍTMICA.
Agenda regulatória ANPD 2023-2024
Eixo Temático Tema
Direito dos Titulares Peticionamento do Titular de Dados Pessoais
Governança e Boas Práticas Regras de boas práticas e de governança
Tratamento de Dados Pessoais Crianças e Adolescentes
Fiscalização Termos de compromisso com Agentes de Tratamento
Regulação Boas Práticas Regulatórias
Segurança da Informação Medidas de segurança, técnicas e administrativas (incluindo
padrões técnicos mínimos de segurança)
Tratamento de Dados Pessoais Registro de Operações
Tratamento de Dados Pessoais Dados Pessoais Sensíveis – Dados biométricos
Tratamento de Dados Pessoais Adequação progressiva de banco de dados
Direito Digital e Tecnologias Inteligência Artificial
https://www.gov.br/anpd/pt-br/assuntos/noticias-periodo-eleitoral/a-agenda-regulatoria-da-anpd-para-o-bienio-2023-2013-2024-ja-esta-em-fase-de-planejamento. Acesso em 18.Jun.2023.
Os 8 Princípios dos dados abertos
(Open Data)

Primários Oportunidade Acessibilidade


(Raw)

Não-
Completos Licença livre
proprietário

Processável Não-
por máquinas discriminatório
IA tem saltos em
Evolução Algoritmos
iniciais 1950 intervalos de 20 anos

da IA Poder de Processamento
Corrida do Chip 1970
Hardware

Bases de Dados Internet


Corrida da Internet
1990
Recompensa imediata
Provedores/Plataformas/Aplicativos
(Big Data + Algoritmos avançados) Facebook
A primeira programadora da história, escreveu o
primeiro algoritmo a ser processado por uma Corrida das Mídias 2010/20
máquina. Filha de um grande escritor Lord Byron.

Superalgoritmos / IA Generativa 2023/24


Corrida Robótica 2029 - CRISE

Singularidade 2030
Ada Lovelace
Início ponto em que a IA alcançará ou ultrapassará a 2040/45
capacidade humana de compreendê-la e controlá-la.
Alan Turing da IA

Matemático inglês,
Superinteligência + Supervida
conhecido como o pai da Transparência Honestidade
computação, que “quebrou”
a criptografia do Enigma, Avatares
durante a II Guerra Mundial.
QUAIS SÃO OS TIPOS DE INTELIGÊNCIA ARTIFICIAL?

Inteligência Artificial Limitada (ANI) Inteligência Artificial Geral (AGI) SuperInteligência Artificial (ASI)

Conhecida como “IA fraca” (Narrow Este tipo de inteligência artificial é a Dentre os tipos de Inteligência
AI), são sistemas que possuem um “IA forte ou Geral”, ou “nível Artificial, a superinteligência é a
único objetivo: armazenar um grande humano” (Artificial General mais evoluída e complexa, porém
volume de dados e realizar tarefas Intelligence), devido ao fato de que continua sendo uma incógnita
complexas, de acordo com o que foi são capazes de realizar tarefas muito para o futuro ainda estando em
programado. similares às realizadas por nós seres estudo. Porém, os especialistas
Esta classe de inteligência artificial humanos. acreditam que ela será superior à
consegue fazer diversas atividades A IA AGI aprende por meio de inteligência humana, capaz de
incluindo cálculos complexos com técnicas de machine learning, tomar decisões extremamente
muita rapidez. Todavia não vão muito compreendendo e reagindo a complexas e também armazenar
além destas funcionalidades. estímulos específicos. Junto disso, dados de maneira rápida e ágil.
esse modelo pode ser aplicado a
tarefas que não são executadas pela
Inteligência Artificial Limitada.
Escolas de pensamento de inteligência artificial para
desenvolvimento de soluções de machine learning

✓Escola Simbolista;
✓Escola Conexionista;
✓Escola Evolucionista;
✓Escola Bayesiana;
✓Escola Analogista.
Esta Foto de Autor Desconhecido está licenciado em CC BY

DOMINGOS, Pedro. O Algoritmo Mestre. São Paulo: Novatec, 2015. p. 19.


Quero instruir a IA com dados, primeiro passo:
preciso entender:

1. Qual o tipo de informação irá alimentar a base?


2. De onde ela vem?
3. Qual perfil (volumetria) será utilizado?
4. Para que finalidade será utilizada?
Alimentando a IA: aprendizado de máquina

https://solvimm.com/blog/o-que-e-machine-learning/. Acesso em 18.Jun.2023.


Ciclo de Funcionamento da IA

Desenv. Código

Aprendizado de
Input de dados
máquina

Esta Foto de Autor Desconhecido está licenciado em CC BY


Treinamento /
Output Interação com
usuários
Passo a passo:
1. Quais Regulamentações se aplicam a minha
modelagem de Base de Dados?
2. Vou usar Datalake? Onde vai ficar?
3. Há dados de origem externa? Estão em Domínio
Público?
4. É aplicável a exceção de Fair Use (uso justo)?
5. Posso usar anonimização (se dados pessoais)?
6. Gera algum tipo de aproveitamento parasitário
(concorrência desleal)?
✓ DADOS INDUSTRIAIS DE QUEM É A PROPRIEDADE
✓ DADOS GERAIS INTELECTUAL DOS DADOS?
✓ DADOS PESSOAIS

CONHECIMENTO I.A. APRENDIZADO RESULTANTE PATRIMÔNIO INTELECTUAL


(inclui conhecimento clientela
FILTROS: Parte do fundo de comércio)
Consentimento | Tratamento

Eliminar Transparência Reter


JUSTIFICATIVA LEGAL

Perda Dado Pessoal ANONIMIZAÇÃO


ATIVOS INTELECTUAIS DA IA
1. ALGORITMO (programa de software com inteligência artificial – composto por códigos
fontes e algoritmo aprendiz+ atualizações futuras + camadas novas de aprendizado
dinâmico)
2. MARCA (NOME)
3. METODOLOGIA (framework de gerenciamento de dados)
4. BASE DE DADOS PRIMÁRIA (ALIMENTAR APRENDIZAGEM)
5. BASE DE DADOS SECUNDÁRIA (CONHECIMENTO APRENDIDO) (precisa separar a base
PRIMÁRIA que pode ter contaminação de privacy risk da BASE SECUNDÁRIA relacionada ao
MACHINE LEARNING – consiste no conhecimento aprendido a partir das bases de dados
primárias e que geram base de dado secundária já com camada de aprendizado) e que
permite também extrair BASES DE DADOS DE PESQUISAS OU ANALYTICS (bases de dados
que receberão tratamento de anonimização ou pseudoanonimazação não sendo mais
consideradas com dados pessoais)
6. DESIGN (interface da aplicação)
7. KNOW-HOW e SEGREDO DE NEGÓCIOS
Valuation / Due Dilligence de Algoritmos
Modelo Peck(*) de avaliação da propriedade
intelectual da inteligência artificial
Equação 1:

𝑨𝑰𝑻𝑽 = 𝒗𝒃𝒂𝒔𝒆 × 𝒏𝒄𝒂𝒎 × 𝒏𝒆𝒙 × 𝒕𝒇𝒆𝒅 × 𝒈𝒃𝒅 × 𝒄𝒕𝒅 × 𝒄𝒊𝒏𝒕 × 𝒄𝒆𝒏𝒔 − 𝒇𝒓𝒊𝒔𝒄𝒐

AITV : valor da tecnologia de IA.


vbase : valor do algoritmo de machine learning inicial (base).
ncam : número de camadas de aprendizado.
nex : número de exemplos (capacidade de amostragem – feedbacks).
tfed : quantidade de tempo de aplicação com feedbacks.
gbd: : geração de bases de dados novas de conhecimento resultante.
ctd : capacidade de tomada de decisão (por dedução inversa, retropropagação, inferência bayesiana, predição estatística, julgamentos por
semelhança, analogia e vetores de suporte).
cint : capacidade de interação direta com humano (uso de linguagem natural, uso de assistente conversacional, uso de assistente
transacional).
cens : capacidade de ensinar outros aprendizes de IA (aprendizado compartilhado em rede com outros IA).
frisco : fator de risco (desvios de aprendizado e probabilidade de falhas éticas no comportamento da IA – avaliação sobre o perfil da equipe
desenvolvedora(*)do algoritmo).
Tese de doutorado Pinheiro, Patricia Peck. O direito internacional da propriedade intelectual aplicado à
(*) Tese de doutorado Pinheiro,inteligência artificial.
Patricia Peck. O São Paulo:
direito internacional daUSP / Faculdade
propriedade de Direito,
intelectual aplicado à2018.
inteligência artificial. São Paulo: USP / Faculdade de Direito, 2018.
Valuation / Due Dilligence de Algoritmos
Modelo Peck(*) de avaliação da propriedade
intelectual da inteligência artificial
Equação 2:

𝑷𝑰𝑰𝑨 = 𝒗𝒔𝒆𝒄 + 𝒍𝒂𝒂 × 𝒏𝒖 × 𝒇𝒑 + 𝒏𝒖 × 𝒇𝒄𝒃𝒅𝒑𝒑 − 𝒇𝒓𝒃𝒅𝒑𝒑


Dados:
PIIA : valor da propriedade intelectual da inteligência artificial.
vsec : valor da licença de uso da base de conhecimento secundária.
laa : licença de uso do algoritmo aprendiz.
nu : número de usuários.
fp : fator de anonimização.
fcbdpp: : fator de consentimento da base de dados pessoal primária.
frbdpp : fator de contaminação/risco de privacidade da base de dados pessoal primária.

(*) Tese
(*) Tese de doutorado Pinheiro, Patricia deOdoutorado
Peck. Pinheiro,
direito internacional Patricia Peck.
da propriedade O direito
intelectual internacional
aplicado à inteligênciada propriedade
artificial. São Paulo:intelectual aplicado
USP / Faculdade à 2018.
de Direito,
inteligência artificial. São Paulo: USP / Faculdade de Direito, 2018.
https://www.economist.com/technology-
quarterly/2017/06/08/the-future-of-drones-depends-
on-regulation-not-just-technology. Acesso em
13.Jun.2023.
https://noticias.uol.com.br/ultimas-
noticias/rfi/2023/06/12/europa-sera-pioneira-no-
mundo-a-regulamentar-a-inteligencia-artificial.htm.
Acesso em 13.Jun.2023.
https://g1.globo.com/tecnologia/noticia/2023/06/13/p
or-que-garantir-seguranca-da-inteligencia-artificial-
nao-e-tao-facil-como-se-pensa.ghtml. Acesso em
13.Jun.2023.
Da gestão de riscos
Avaliação de impacto algorítmico dos sistemas desenvolvidos pela empresa ou contratados junto a terceiros, com o
mapeamento dos riscos e benefícios associados à sua implementação.

Riscos envolvendo IA

Riscos de Privacidade
Riscos de Cibersegurança
Riscos de Direitos Autorais/PI
Riscos Éticos e de viés algorítmico
Riscos relacionados a Decisões Algorítmicas
3 Níveis de Viés

1º Nível - Base de Dados - reflete distorções históricas

2º Nível - Equipe de Desenvolvimento - reflete a falta de


diversidade e viés de opiniões de um grupo

3º Nível - Interações Sociais de Usuários - reflete comportamentos


preconceituosos – desafio do machine learning com democratização de dados
Riscos relacionados a Decisões Algorítmicas
Categoria de decisão
D1 - Decisões de algoritmos que não tratam dados
algorítmica
relacionados às pessoas
D3 - Por Escolha com Confirmação Humana
Sistemas de IA que cumpram, cumulativamente, os
seguintes requisitos: a) Input: dados que não estejam Também chamado de “Information Gathering and
Monitoring”, tipo de decisão em que a programação do D5 - Por Regulação
relacionados com informações sobre pessoas, Também chamado de “Behaviour
individualmente ou uma coletividade; e b) Output: o algoritmo assume um pouco mais de autonomia na
tomada de decisão, se comparado à categoria anterior. Modification”, o comportamento humano
resultado da IA (decisão algorítmica incapaz de
Na decisão do tipo “Escolha”, o algoritmo não é modulado conforme a decisão (output)
influenciar tomada de decisões que possam impactar
as pessoas, individualmente ou em uma coletividade. apresenta alternativas de resultados ao usuário, do algoritmo, ou seja, há uma mudança de
realizando a escolha em seu lugar. comportamento. São exemplos de decisões
D2 - Por Recomendação algorítmicas aquelas capazes de interferir
D4 - Por Escolha sem Confirmação Humana nos direitos autorais ou no tratamento de
Também chamado de “Standard Setting”, tipo de IA Subclassificação do item “D3”, mas neste a autonomia
aonde a decisão algorítmica consiste no fato de que ao dados biométricos, como o
da IA é ainda maior, pois o sistema não é programado reconhecimento facial.
analisar o conjunto de dados à sua disposição, o para solicitar confirmação do usuário quanto ao
algoritmo elenca e sugere ao usuário os principais resultado escolhido pelo algoritmo.
resultados conforme os critérios definidos em sua
programação. A sua aplicação é notada, por exemplo,
nos serviços de streaming de música e filmes,
recomendando os títulos que possivelmente sejam de
preferência do usuário, mas a decisão final ainda é do
usuário.
Matriz de Riscos de IA FINALIDADES DE USO
F1 - Sem interferência direta aos seres humanos
Exemplo: Agricultura, geologia, astronomia etc.

F2 - Relacionado com atividades dos setores não regulados


CATEGORIA DE (F) Finalidades / Aplicações da IA
pelo Estado.
Exemplo: Uso de dados pessoais exclusivamente para
DECISÕES criação de perfis de consumo.

ALGORÍTMICAS F1 F2 F3 F4 F5
F3 - Relacionado com atividades reguladas pelo Estado
Exemplo: Autoridades Setoriais Reguladoras e Fiscalizadoras
D5 na Saúde, Telecomunicação e Sistema Financeiro.

(D) Cat. Decisões Algorítmicas


D1 - Decisões de algoritmos que não tratam F4 - Afeta o desenvolvimento e relações em sociedade
dados relacionados às pessoas
D4 Exemplo: Componentes de segurança na gestão e no
controle do trânsito rodoviário e das redes de
D2 - Por Recomendação abastecimento de água, gás, aquecimento e eletricidade;
D3 Determinação do acesso de pessoas a instituições de ensino
D3 - Por Escolha com Confirmação Humana e de formação profissional; Recrutamento ou seleção de
candidatos a vagas de emprego.
D4 - Por Escolha sem Confirmação Humana D2
F5 - Situações em que é provável que a IA possa contribuir
com a perpetuação de viés discriminatórios Exemplo:
D5 - Por Regulação D1 Sistemas Criminais e/ou Penitenciários.
Níveis de Riscos de IA
RISCOS INACEITÁVEIS
Permitida a utilização apenas
em ambiente restrito para fase
RISCOS ELEVADOS de testes devido aos efeitos
colaterais sabidamente
IA que processa dados com discriminatórios (sandbox
finalidade de salvaguardar a regulatório).
RISCOS RELEVANTES vida, a integridade física,
psíquica e moral. EXEMPLO: Situações que
IA com capacidade de tomada possam perpetuar viés
EXEMPLO: Caso de internação discriminatório como em
de decisão que interfere na
liberdade de escolha e acesso a em UTI (justificável), caso de sistemas criminais e/ou
RISCOS MITIGADOS uso de reconhecimento facial penitenciários.
produtos / serviços.
Casos em que não se trata de na segurança pública.
setor regulado e se aplicam leis EXEMPLO: Caso de score de
suplementares, como a LGPD / crédito e outras decisões
RISCOS BAIXOS automatizadas.
Lei de Direitos Autorais.
Resultados exclusivamente
positivos ou sem interferência EXEMPLO: Análises preditivas.
direta nos usuários ou na
comunidade. Efeitos positivos
para a comunidade em que foi
aplicado.
EXEMPLO: IA destinada a
agricultura .
Direitos Autorais
Vieses

https://www.wired.com/story/andy-warhol-fair-use-prince-generative-ai/. Acesso em 13.Jun.2023.

https://news.mit.edu/2023/large-language-models-are-biased-can-logic-help-save-them-0303. Acesso em
13.Jun.2023.

Segredo de negócio
Privacidade

https://www.engadget.com/three-samsung-employees-reportedly-leaked-sensitive-data-to-chatgpt-
190221114.html. Acesso em 13.Jun.2023.

https://www.bbc.com/news/technology-65139406. Acesso em
13.Jun.2023.
INTELIGÊNCIA ARTIFICIAL GENERATIVA
Uso e popularização

https://forbes.com.br/forbes-tech/2023/05/brasil-ja-e-o-5o-pais-que-mais-usa-chatgpt-homens-representam-89-de-acessos/. Acesso em 13.Jun.2023.


https://exame.com/tecnologia/entrevista-com-chatgpt-inteligencia-artificial-e-novo-aluno-da-sala-de-aula/. Acesso em 13.Jun.2023.
https://www.terra.com.br/byte/chatgpt-passa-em-prova-de-mba-oab-dos-eua-e-de-capacitacao-medica,9b884393b116e0c0bc5bf35b5e066d63wj7tf4rv.html.
Acesso em 13.Jun.2023.
O que o ChatGPT realmente “sabe”?

A base de conhecimento do ChatGPT,


segundo a OpenAI, é formada por dados
disponíveis na internet e limitada aos
acontecimentos até 2021.

Apesar da gigantesca base de dados, nem


sempre as informações fornecidas são
corretas.
ChatGPT não é repositório
acadêmico!
SEMPRE valide a
informação recebida! https://www.uol.com.br/tilt/noticias/redacao/2023/05/28/advogado-chatgpt.htm. Acesso em 13.Jun.2023.
O que o ChatGPT sabe sobre Patricia Peck?

https://chat.openai.com/share/3705048e-dac6-4612-a29f-252504ca769c. Acesso em
13.Jun.2023.
Quando há decisão por IA (autônoma), como fica a questão da
RESPONSABILIDADE?
Qual o modelo de escolha foi adotado na programação (set up ético da IA):
a) sempre proteger o usuário ou b) salvar maior número de humanos com
menor impacto possível (teoria utilitarista)?

1. Do Fabricante (programador ou quem


desenvolveu a IA);
2. Do Proprietário (o dono da IA);
3. Do Usuário (aquele que usa a IA);
4. Da própria IA (responsabilizar o Robô).
Responsabilidade e transparência no uso da IA

Avaliação de Classificação dos


Segurança Jurídica
impacto sistemas de IA

Mitigação de
Responsabilização
Vieses
Pilares – Risk Assessment Chatbots

MITIGAÇÃO DE RISCOS JURÍDICOS E EXPERIÊNCIA DO USUÁRIO


TÉCNICOS
Do Cenário Atual - Forma de atendimento
- Segurança da Informação - Respostas que podem ser aprimoradas
- Consumidor e demais normas - Canais que podem ser otimizados
setoriais - Linguagem utilizada
- Proteção de Dados
- Propriedade Intelectual
- Gestão de terceiros/contratos
O pilar de Legal
O pilar Técnico
❖ Evidências de compliance: evidências que comprovam o
cumprimento da legislação aplicável;
❖ Propriedade Intelectual: identificam a proteção da
propriedade intelectual da plataforma enquanto ativo ❖ Infraestrutura: uso de ferramentas técnicas
intangível; utilizadas para garantir a segurança da
informação;
❖ Gestão Contratual: práticas contratuais estabelecidas ❖ Governança: medidas administrativas
entre o cliente e seus parceiros e fornecedores adotadas pela empresa para promover o
envolvidos no desenvolvimento e utilização da tema de SI aos seus colaboradores; e
plataforma; ❖ Cultura: práticas relacionadas a
❖ Direitos dos titulares: observem os direitos dos titulares treinamento, a promoção da adequação das
nos termos do artigo 18 da LGPD e do ponto de vista práticas diárias do corpo interno da
consumerista; companhia para estar em conformidade
❖ Princípios: observância dos princípios legais previstos, com práticas que resguardem a informação.
por exemplo, no CC, CDC, LGPD, dentre outras
legislações
Entregáveis - Risk Assessment de Chatbot
1- Q&A: Planilha com perguntas sobre o Chatbot, ser respondido pelo cliente.
2- RELATÓRIO DE ASSESSMENT: Elaboração de relatório, com base nas respostas do Q&A,
contendo matriz de risco, com os resultados do assessment realizado, a descrição dos
riscos e as medidas mitigadoras de risco recomendadas.

Metodologia
Após apresentação da plataforma pela DASA e testes de navegação (Peck), enviamos ao cliente um Q&A
abordando os dois pilares do risk assessment de chatbot:
❑Segurança de Informação (“SI”): com base em ISO 27001 e 27002;
❑Legal: com base na LGPD, Constituição Federal, Propriedade Intelecutal e legislações setoriais (como, por
exemplo, CDC, resoluções CFM, dentre outros); e

As perguntas do questionário é o que chamamos de “Controles”


Metodologia de Risk assessment de Chatbots
O sistema de cores presente na matriz define a classificação dos
ricos, contribuindo com a priorização das medidas mitigadoras de
riscos recomendadas.
Pessoas afetadas por sistemas de IA
Grandes desafios:

Enforcement
Conflito de Escolha da lei
extraterritorial
jurisdição aplicável
da lei

➢ direito de buscar informações quando forem afetadas por decisões e resultados assistidos por
IA;
➢ direito de registrar uma reclamação junto a uma autoridade nacional, caso seus direitos tenham
sido violados pelo uso de um sistema de IA, seja como pessoa física ou por meio de organização
de interesse público.
IA em Compliance desde a concepção
Comitê de Ética da IA

Código de Conduta da IA
O sistema de IA deve ser
desenvolvido com “políticas de
Cláusulas contratuais para desenvolvimento de IA consequência”, ou seja, previsão
das consequências nos casos da
Modelo Avaliação Impacto Algorítmico (AIA)
IA apresentar más condutas,
alucinação e desvio de
Cláusula do conhecimento aprendido pela IA
comportamento de IA.

Cláusula de Limitação de responsabilidade de IA


REGULAMENTAÇÃO DA IA NO BRASIL – Propostas (PLs) e Leis aplicáveis

▪ Projeto de Lei (PL) 21/2020 - Marco legal do desenvolvimento e uso da Inteligência Artificial (IA).
▪ Projeto de Lei (PL) 2.338/2023 - Dispõe sobre o uso da Inteligência
Artificial seguindo o que foi trazido no Substitutivo da CJSUBIA

▪ Lei nº 14.129/2012 - Lei do Governo Digital. Estabelece regras e


instrumentos para a prestação digital de serviços públicos, que
deverão estar acessíveis também em aplicativos para celular;

▪ Lei nº 13.709/2018 - Lei Geral de Proteção de Dados Pessoais;


▪ Lei n° 12.965/2014 - Marco Civil da Internet. Disciplina o uso da
Disponível em: https://brasilpaisdigital.com.br/ia-no-brasil-como-equilibrar-a-regulacao-e-a-atuacao-do-
governo/ Acessado em 01/02/2023

Internet no Brasil por meio da previsão de princípios, garantias,


direitos e deveres para quem faz uso da rede, bem como da
determinação de diretrizes para a atuação do Estado.
DEFINIÇÕES NOS NORMATIVOS
O que é Inteligência Artificial

O desafio de conceituar a IA é grande haja vista que a adoção de termos amplos tem o potencial de abarcar
tecnologias e sistemas não diretamente associados à IA

PL 21/2020 Substitutivo
PL 2.338/23 OCDE
CJSUBIA

As definições adotadas pela Comissão Europeia na proposta de regulação de 2021 (Artificial Intelligence Act) tem sido alvo de
críticas pela adoção de duas conceituações controversas, levando à adoção de um sistema de listagem das aplicações, de
forma insatisfatória, haja vista o amplo leque de possibilidade de implementação.
Concordamos com as opiniões coletadas no âmbito das atividades do Senado, pela adoção da definição usada pela OCDE, que
é mais voltada à funcionalidade associada ao aprendizado de máquina. Outro ponto em comum é a massificação no uso de
dados.
Pontos de Atenção com a discussão atual
de Marcos Legais (e a prever nos Códigos de Conduta):
✓ Categorização de Riscos – em especial artigos 13, 14, 15, 16 e 17
✓ O artigo 14, inciso I e inciso III, artigo 17, inciso V – pode afetar sobremaneira o modelo atual vigente no país de utilização de
“Score de Crédito” bem como também afetar a Lei do Cadastro Positivo. Ou seja, o maior impacto será social e econômico,
podendo haver um retrocesso na oferta de crédito e no custo e distribuição de crédito, afetando inclusive políticas públicas
relacionadas.
✓ O artigo 15 – quando fala do reconhecimento facial – e diz que tem que ter lei específica + autorização judicial + revisão da
inferência algoritimica antes de medidas tomadas com relação a pessoa gera um grande impacto nas rotinas operacionais de
polícia e segurança pública, retirando a possibilidade de ação em situação de prevenção e em flagrante delito (ainda mais na
necessidade de se tomar medidas para prevenir condutas delituosas, riscos como atentados, como os protocolos de
segurança em escolas, grandes arenas – ex: jogos olímpicos, copa do mundo, etc).
✓ Há um impacto elevado em se manter o conceito aberto de “risco excessivo”. O artigo 17 – afeta diversos setores econômicos,
podendo causar aumento expressivo de custos e inviabilizar o uso de aplicações tecnológicas nestes setores relacionadas a
soluções de IA, em especial:
• Educação – inciso II
• Processo seleção – inciso III
• Saúde – inciso VI e IX
• Veículos autônomos – inciso VIII
• todos setores com uso de Autenticação Biométrica (especialmente Mercado financeiro, varejo, escolas) –– inciso X.
Pontos de Atenção com a discussão atual
de Marcos Legais (e a prever nos Códigos de Conduta):
✓ Artigos 22 e 24 trazem grande impacto de tempo e burocracia ao criar um modelo que exige consulta a órgão
regulador, audiência pública e análise de impacto da IA o que pode provocar paralização da indústria e perda de
competitividade, com aumento do custo Brasil e fuga de investidores.
✓ Todas as situações enquadradas em alto risco precisarão prever a supervisão/intervenção humana dentro do
modelo de governança de IA, o que gera uma inviabilização operacional, ainda mais em setores como Cidades
Inteligentes – conforme verifica-se na análise do parágrafo ùnico, inciso V, artigo 20 e medidas previstas pelo artigo
19.
✓ Os artigos 9, 10 e 21 tratam da revisão humana da decisão automatizada alterando a regra do Artigo 20 da LGPD –
da revisão da decisão automatizada (sem necessidade de haver revisão humana.
✓ A previsão de criação de uma nova Autoridade para regular e fiscaliar a IA nos artigos 32, 33 e 34 mostra-se um
grande desafio, considerando a experiência recente enfrentada com a ANPD na pauta de Proteção de Dados
Pessoais (LGPD) tanto em termos orçamentários como de capacitação técnica e de articulação e integração com
demais agentes regulatórios e de mercado.
✓ A conceituação conferida a Mineração de Dados mostra-se equivocada na medida que gera restrição ao tratamento
excessivo de dados, sendo que há necessidade na instrução de algoritmos (IA – machine learning) de uso de Big Data
(modelos de grande volumetria de informações – excessivos por natureza) – artigos 42 e 43
✓ Tratamento de dados de alto risco (públicos vulneráveis): criança, adolescente e idoso.
COMO COMPROVAR A ÉTICA ALGORÍTMICA EM UMA
POSSÍVEL AUDITORIA?

• O algoritmo possui algum viés estatístico (sub amostragem ou super amostragem, por exemplo)?
• O algoritmo possui algum viés social que reflita em vantagens sistemáticas para um ou mais grupos
ou desvantagens aos demais?
• Há transparência quanto a arquitetura algorítmica utilizada?
• Há transparência quanto aos critérios e métricas para a tomada de decisão automatizada?
• Como é a estrutura do algoritmo e de que forma ele atua?

É necessário ainda que se realize uma avaliação dos impactos do algoritmo utilizado nos direitos e
interesses das partes envolvidas com a identificação das situações e ou características que poderão dar
origem a um possível desvio ético ou discriminatório (exigência dos marcos regulatórios).
Modelo europeu de ethics by design

Direitos humanos

Transparência

Não-discriminação

Justiça

Beneficência

Desenvolvimento da
Inteligência artificial

https://ec.europa.eu/info/funding-tenders/opportunities/docs/2021-2027/horizon/guidance/ethics-by-design-and-ethics-of-use-approaches-for-artificial-intelligence_he_en.pdf. Acesso em 29/01/2023.


PRINCÍPIOS ÉTICOS NO CONTEXTO DA IA

➢ Princípio da Autonomia
➢ Princípio da Justiça (“BE FAIR”)
▪ Preservar a liberdade, não subordinação a ou
▪ Imparcialidade para os indivíduos e grupos
coerção por Sistemas de IA
incluindo minorias
▪ Completa autodeterminação

➢ Princípio da NÃO Maleficência (“DO NO ➢ Princípio da Explicabilidade


HARM”) ▪ Garantir a Transparência da tecnologia
▪ Garantir a dignidade, integridade, liberdade, ▪ Sistemas auditáveis, compreensíveis e
segurança no trabalho e na sociedade inteligíveis aos humanos

➢ Princípio da Beneficência (“DO GOOD”)


▪ Geração de prosperidade e criação de valor,
▪ Na direção de sociedade justa e pacífica com igualdade de oportunidades.
OUTROS PRINCÍPIOS ÉTICOS NO CONTEXTO DA IA

Representação
Autenticidade de
substancial no Justiça substancial Republicanismo Benefício social
datasets
desenvolvimento

Precaução com os
Transparência Segurança Responsabilização Cooperação
vulneráveis

Ajuste permanente
Privacidade dos
Proteção e garantia de Solidariedade Não Discriminação
dados
continuidade

PEIXOTO, Fabiano Hartmann. Inteligência Artificial e Direito. Convergência Ética e Estratégica. Vol. 05 – Alteridade Editora. 2020, p. 155 – 156.
Política de governança de IA
Documento contendo a PGA, a partir dos riscos identificados, a descrição da estrutura de governança para gestão,
desenvolvimento, emprego e monitoramento dos sistemas de IA existentes, além da proposição de controles e alinhamento à
estrutura geral de governança da organização;

Códigos de conduta, que incluem boas práticas a serem adotadas no ciclo de vida dos sistemas de IA para gestão dos
riscos mapeados e das medidas de segurança da informação a serem adotadas em relação aos sistemas;

Estruturação da governança, principais atores, funcionamento e procedimentos a serem adotados para gestão dos
sistemas de IA;

Definição e estruturação das medidas de transparência de sistemas de IA, tais como, operação do sistema, dados coletados e
tratados no treinamento, teste e implementação dos sistemas, quanto ao modelo empregado e critérios relevantes
(explicabilidade) e quanto à relação ser humano/máquina nos processos de decisões automatizadas, predições e
recomendações por sistemas de IA desenvolvidos pelo Serpro ou contratados junto a terceiros.
Implementação Programa de Governança Ética da IA

✓ Análise de Riscos e Medidas de Proteção – aplicação modelo de avaliação / indicadores


✓ Modelagem da Base de Dados (origem, legitimidade, propriedade intelectual /
patenteabilidade, conformidade regulamentações de proteção de dados)
✓ Análise de Bias e aplicação de abordagem de explicabilidade
✓ Documentação e Repositório de Modelos (Código de Conduta, Políticas, Contratos,
Disclaimers, Avaliação de Impacto Algorítmico (AIA)
✓ Implementação da Governança da Ética Algorítmica e Governança de Dados
✓ Implementação do Comitê
✓ Suporte com acompanhamento legislativo (Advocace e Relgov)
✓ Aplicação de frameworks de Ethics by Design, Privacy by Design, Cyber Security by
Design
✓ Aplicação de testes e monitoramento (Sandbox, MVP)
✓ Treinamento de IA / Bots
✓ Capacitação equipes
METODOLOGIA PARA ANÁLISE DA ÉTICA
ALGORÍTMICA E DEMONSTRAÇÃO DE POSSÍVEL VIÉS

Know your Know your


Customer Algorithm
TESE DE DOUTORADO O direito internacional da propriedade
intelectual aplicado à inteligência artificial

Patricia Peck
patriciapeck@peckadv.com.br
CEO e Sócia Fundadora
Privacy and Data Protection Law in Brazil
Wolters Kluwer - 2023

Coordenado por Patricia Peck e derivado da renomada


International Encyclopaedia of Laws, este guia prático sobre
privacidade e proteção de dados no Brasil aborda todos os aspectos
do assunto, incluindo a proteção da vida privada como um direito
fundamental – constitucional, a aplicação de leis internacionais e/
ou convenções regionais que protegem o direito à privacidade, os
direitos à privacidade no contexto das comunicações eletrônicas ou
no local de trabalho e a proteção dos indivíduos relativamente ao
tratamento dos dados pessoais.

Disponível em: https://law-store.wolterskluwer.com/s/product/privacy-and-data-protection-in-brazil/01t4R00000P46LyQAJ.


CONTATOS
Conecte-se conosco!

LinkedIn Instagram
/peckadvogados @peckadvogados
OBRIGADA!

CEO e Sócia Fundadora: Patricia Peck Pinheiro


patriciapeck@peckadv.com.br
+55 11 9 8696 3999

Lattes
LinkedIn Instagram Patricia Peck
https://br.linkedin.com/in/
@patricia.p.peck http://lattes.cnpq.br
patriciapeckpinheiro
/0172053105577577

Você também pode gostar