Você está na página 1de 14

SOBRE O PROJETO

O Projeto de Lei (PL) 2.338/23 visa instituir no Brasil


o Marco Regulatório da Inteligência Artificial. Embora
o texto ainda esteja em tramitação, a repercussão da
iniciativa já se manifesta, por exemplo, na ampliação
do debate nacional sobre o tema e na divulgação de
pareceres elaborados por autoridades e entidades
sobre a proposta. Além disso, o PL já recebeu
propostas de emenda e texto substitutivo.
Essa não é a primeira proposta legislativa sobre o
tema. Antes dele, o Projeto de Lei 21/20 e outras
propostas também abordaram a temática de
inteligência artificial, o que levou o Senado Federal
a criar uma Comissão de Juristas em 2022 para
aprofundamento dos estudos. Foi o relatório final
dessa comissão que originou o PL 2.338/23.

AVANÇOS NO LEGISLATIVO

2019 Senador Styvenson Valentim (PODEMOS/RN) apresenta a PL 5051/2019, primeira


proposta de regulamentação do tema.

2020 Deputado Federal Eduardo Bismarck (PDT-CE) apresenta o PL 21/2020, marcado


pela sua abordagem principiólogica.

Senador Veneziano Vital do Rêgo (MDB/PB) apresenta o PL 872/2021, indicando


2021
diretrizes para soluções de IA.

2022 Instalada a CJSUBIA no Senado Federal, Comissão de Juristas responsável por


subsidiar a elaboração de minuta de substitutivo para instruir a apreciação
dos Projetos de Lei anteriores, que têm como objetivo estabelecer princípios,
regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da
inteligência artificial no Brasil.

2023 Após estudos conduzidos pela CJSUBIA, é apresentada pelo Senador Rodrigo
Pacheco (PSD/MG), a PL 2338/23. A PL recebe 3 emendas: A primeira (substitutiva)
em 27 de novembro, pelo Senador Astronauta Marcos Pontes (PL/SP) e as demais,
no dia 12 de dezembro, pelo Senador Carlos Viana (PODEMOS/MG).

O que esperar da regulação de Inteligência Artificial no Brasil? 2


CONCEITOS
SISTEMA DE IA
Sistema computacional, com graus diferentes de autonomia, desenhado para inferir
como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em
aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio
de dados de entrada provenientes de máquinas ou humanos, com o objetivo de
produzir previsões, recomendações ou decisões que possam influenciar o ambiente
virtual ou real.

FORNECEDOR DE SISTEMA DE INTELIGÊNCIA ARTIFICIAL


Pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva um sistema
de inteligência artificial, diretamente ou por encomenda, com vistas a sua colocação
no mercado ou a sua aplicação em serviço por ela fornecido, sob seu próprio nome ou
marca, a título oneroso ou gratuito.

OPERADOR DE SISTEMA DE INTELIGÊNCIA ARTIFICIAL


Pessoa natural ou jurídica, de natureza pública ou privada, que empregue ou utilize,
em seu nome ou benefício, sistema de inteligência artificial, salvo se o referido sistema
for utilizado no âmbito de uma atividade pessoal de caráter não profissional.

MINERAÇÃO DE TEXTOS E DADOS


Processo de extração e análise de grandes quantidades de dados ou de trechos
parciais ou integrais de conteúdo textual, a partir dos quais são extraídos padrões e
correlações que gerarão informações relevantes para o desenvolvimento ou utilização
de sistemas de inteligência artificial.

FUNDAMENTOS
I – A centralidade da pessoa humana
II – O respeito aos direitos humanos e aos valores democráticos
III – O livre desenvolvimento da personalidade
IV – A proteção ao meio ambiente e o desenvolvimento sustentável
V – A igualdade, a não discriminação, a pluralidade e o respeito aos direitos trabalhistas
VI – O desenvolvimento tecnológico e a inovação
VII – A livre iniciativa, a livre concorrência e a defesa do consumidor
VIII – A privacidade, a proteção de dados e a autodeterminação informativa
IX – A promoção da pesquisa e do desenvolvimento com a finalidade de estimular a inovação
nos setores produtivos e no poder público
X – O acesso à informação e à educação, e a conscientização sobre os sistemas de inteligência
artificial e suas aplicações

O que esperar da regulação de Inteligência Artificial no Brasil? 3


PRINCÍPIOS
I – Crescimento inclusivo, desenvolvimento sustentável e bem-estar
II – Autodeterminação e liberdade de decisão e de escolha
III – Participação humana no ciclo da inteligência artificial e supervisão humana efetiva
IV – Não discriminação
V – Justiça, equidade e inclusão
VI – Transparência, explicabilidade, inteligibilidade e auditabilidade
VII – Confiabilidade e robustez dos sistemas de inteligência artificial e segurança da informação
VIII – Devido processo legal, contestabilidade e contraditório
IX – Rastreabilidade das decisões durante o ciclo de vida de sistemas de inteligência artificial
como meio de prestação de contas e atribuição de responsabilidades a uma pessoa natural ou
jurídica
X – Prestação de contas, responsabilização e reparação integral de danos
XI – Prevenção, precaução e mitigação de riscos sistêmicos derivados de usos intencionais ou
não intencionais e de efeitos não previstos de sistemas de inteligência artificial
XII – Não maleficência e proporcionalidade entre os métodos empregados e as finalidades
determinadas e legítimas dos sistemas de inteligência artificial

DIREITOS
DIREITO À INFORMAÇÃO PRÉVIA
Pessoas expostas a sistemas de reconhecimento de emoções ou a sistemas de categorização
biométrica devem ser informadas sobre a utilização e o funcionamento do sistema no ambiente em
que ocorrer a exposição. Deve ser conferido tratamento diferenciado a grupos vulneráveis, como
crianças, adolescentes, idosos e pessoas com deficiências.

Os esclarecimentos devem contemplar:


O caráter automatizado do sistema.
Descrição geral.
Identificação dos operadores.
Medidas de governança, segurança, não
discriminação e confiabilidade aplicadas.
Papel do sistema e dos seres humanos envolvidos.
Categorias de dados pessoais utilizados.

O que esperar da regulação de Inteligência Artificial no Brasil? 4


DIREITO À EXPLICAÇÃO

Devem ser apresentados:


Os critérios e, quando aplicável, sua ponderação
nos sistemas de IA.
Principais fatores que afetam o resultado.
Racionalidade/lógica do sistema.
Significado e consequência do resultado.
Grau e nível de contribuição da IA para a tomada
de decisões.
Quais são os dados processados e sua fonte (o texto
aborda dados de forma geral, e não apenas pessoais).
Meios para contestação.
Possibilidade de solicitar intervenção humana.

DIREITO DE CONTESTAÇÃO
Pessoas afetadas por sistemas de IA têm o direito de contestar decisões ou previsões que produzam
efeitos jurídicos ou que impactem de maneira significativa seus interesses. Além da correção de dados
incompletos, inexatos ou desatualizados, esse direito também contempla decisões amparadas em
inferências discriminatórias, irrazoáveis ou que atentem contra a boa-fé objetiva, como aquelas:
Fundadas em dados inadequados ou abusivos para a finalidade do tratamento.
Baseadas em métodos imprecisos ou estatisticamente não confiáveis.
Que não considerem de forma adequada a individualidade e as características pessoais dos
indivíduos.

DIREITO À DETERMINAÇÃO E À PARTICIPAÇÃO HUMANA


Quando a decisão, previsão ou recomendação de sistema de IA produzir efeitos jurídicos relevantes
ou que impactem de maneira significativa os interesses da pessoa, inclusive por meio da geração de
perfis e da realização de inferências, ela poderá solicitar a intervenção ou revisão humana. O exercício
desse direito deve levar em conta o contexto e o estado da arte do desenvolvimento tecnológico, de
modo que o atendimento não seja obrigatório se comprovadamente impossível. Contudo, nesse caso,
devem ser adotadas medidas alternativas eficazes para:
Reanálise da decisão contestada, levando em consideração os argumentos suscitados pela
pessoa afetada; e
Reparação de eventuais danos gerados.
Em caso de impacto irreversível, de difícil reversão ou que possa gerar riscos à vida ou à integridade
física de indivíduos, deverá haver envolvimento humano significativo no processo decisório e
determinação humana final.
O texto prevê expressamente a revisão mediante intervenção humana, diferentemente da Lei Geral de
Proteção de Dados Pessoais (Lei Federal 13.709/18 ou LGPD), que prevê o direito à revisão de decisões
exclusivamente automatizadas, mas não exige participação humana.

O que esperar da regulação de Inteligência Artificial no Brasil? 5


DIREITO À NÃO DISCRIMINAÇÃO
A proposta veda a implementação e o uso de sistemas de IA que possam acarretar discriminação
direta, indireta, ilegal ou abusiva, inclusive:
Em decorrência do uso de dados pessoais sensíveis ou de impactos desproporcionais em razão
de características pessoais como origem geográfica, raça, cor ou etnia, gênero, orientação sexual,
classe socioeconômica, idade, deficiência, religião ou opiniões políticas. O texto não se restringe
aos dados pessoais sensíveis definidos na LGPD, ampliando o rol ao qual a previsão é aplicável; e
Em função do estabelecimento de desvantagens ou agravamento da situação de vulnerabilidade
de pessoas pertencentes a um grupo específico, ainda que se utilizem critérios aparentemente
neutros.
A vedação mencionada não impede a adoção de critérios de diferenciação entre indivíduos ou
grupos, desde que essa diferenciação se baseie em objetivos ou justificativas demonstradas, razoáveis
e legítimas considerando o direito à igualdade e os demais direitos fundamentais.

AVALIAÇÃO E
CLASSIFICAÇÃO
DE RISCOS
A proposta determina que, antes de lançar sistemas de IA no
mercado ou de usá-los em serviços, os fornecedores devem
realizar uma análise preliminar desses sistemas. Essa análise,
que deve ser documentada, visa mapear e classificar os riscos
associados ao sistema. Ela pode ser solicitada pela autoridade
competente e é diferente da avaliação de impacto algorítmico,
a qual será necessária sempre que um sistema de inteligência
artificial for considerado de alto risco, conforme abordado adiante.
Um dos pontos cruciais do Projeto de Lei 2.338/23 consiste na
classificação de riscos associados aos sistemas de IA, que podem
ser altos ou excessivos.

RISCO EXCESSIVO:
Art. 14. São vedadas a implementação e o uso de sistemas de inteligência artificial:
Que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir
a pessoa natural a se comportar de forma prejudicial ou perigosa à sua saúde ou
segurança ou contra os fundamentos desta Lei.
Que explorem quaisquer vulnerabilidades de grupos específicos de pessoas naturais,
tais como as associadas a sua idade ou deficiência física ou mental, de modo a
induzi-las a se comportar de forma prejudicial a sua saúde ou segurança ou contra os
fundamentos desta Lei.
Pelo poder público, para avaliar, classificar ou ranquear as pessoas naturais, com base
no seu comportamento social ou em atributos da sua personalidade, por meio de
pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma
ilegítima ou desproporcional.

O que esperar da regulação de Inteligência Artificial no Brasil? 6


RISCO ALTO:
Art. 17. São considerados sistemas de inteligência artificial de
alto risco aqueles utilizados para as seguintes finalidades:

I. Aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas


críticas, tais como controle de trânsito e redes de abastecimento de água e de
eletricidade.
II. Educação e formação profissional, incluindo sistemas de determinação de acesso a
instituições de ensino ou de formação profissional ou para avaliação e monitoramento
de estudantes.
III. Recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre
promoções ou cessações de relações contratuais de trabalho, repartição de tarefas e
controle e avaliação do desempenho e do comportamento das pessoas afetadas por
tais aplicações de inteligência artificial nas áreas de emprego, gestão de trabalhadores e
acesso ao emprego por conta própria.
IV. Avaliação de critérios de acesso, elegibilidade, concessão, revisão, redução ou revogação
de serviços privados e públicos que sejam considerados essenciais, incluindo sistemas
utilizados para avaliar a elegibilidade de pessoas naturais quanto a prestações de serviços
públicos de assistência e de seguridade.
V. Avaliação da capacidade de endividamento das pessoas naturais ou estabelecimento de
sua classificação de crédito.
VI. Envio ou estabelecimento de prioridades para serviços de resposta a emergências,
incluindo bombeiros e assistência médica.
VII. Administração da justiça, incluindo sistemas que auxiliem autoridades judiciárias na
investigação dos fatos e na aplicação da lei.
VIII. Veículos autônomos, quando seu uso puder gerar riscos à integridade física de pessoas.
IX. Aplicações na área da saúde, inclusive as destinadas a auxiliar diagnósticos e
procedimentos médicos.
X. Sistemas biométricos de identificação.
XI. Investigação criminal e segurança pública, em especial para avaliações individuais de
riscos pelas autoridades competentes, a fim de determinar o risco de uma pessoa cometer
infrações ou de reincidir, ou o risco para potenciais vítimas de infrações penais ou para
avaliar os traços de personalidade e as características ou o comportamento criminal
passado de pessoas singulares ou grupos.
XII. Estudo analítico de crimes relativos a pessoas naturais, permitindo às autoridades policiais
pesquisar grandes conjuntos de dados complexos, relacionados ou não relacionados,
disponíveis em diferentes fontes de dados ou em diferentes formatos de dados, no intuito
de identificar padrões desconhecidos ou descobrir relações escondidas nos dados.
XIII. Investigação por autoridades administrativas para avaliar a credibilidade dos elementos
de prova no decurso da investigação ou repressão de infrações, para prever a ocorrência
ou a recorrência de uma infração real ou potencial com base na definição de perfis de
pessoas singulares.
XIV. Gestão da migração e controle de fronteiras.

O que esperar da regulação de Inteligência Artificial no Brasil? 7


O texto apresenta os critérios a serem avaliados e os desdobramentos de acordo com a classificação:

Avaliação de impacto algorítmico


Alto risco Risco excessivo
providências complementares Sistema vedado Medidas adicionais de governança

De acordo com a proposta, a lista dos sistemas de risco excessivo ou de alto risco poderá ser
atualizada pela autoridade competente. Esse processo incluirá consultas ao órgão regulador
específico do setor, se existir, além de audiências públicas, consultas públicas e análises de
impacto regulatório. Os critérios para essa atualização abrangem, entre outros, situações em
que o sistema possa afetar pessoas de um grupo vulnerável específico ou causar danos irreversíveis
ou de difícil reversão.
Uma vez identificado risco alto associado a determinado sistema de IA, será necessário conduzir uma
avaliação de impacto algorítmico, um processo contínuo a ser executado ao longo de todo o ciclo
de vida do sistema em questão. A proposta apresenta orientações metodológicas para essa avaliação
e estabelece que a autoridade competente poderá definir outros critérios e elementos para sua
condução, incluindo a participação dos diferentes segmentos sociais afetados, conforme risco e porte
econômico da organização.
A proposta estabelece que as conclusões da avaliação de impacto algorítmico serão públicas e
inseridas em uma base de dados de inteligência artificial de alto risco, acessível ao público, a ser
criada e mantida pela autoridade competente. As conclusões da avaliação deverão conter, no mínimo,
uma descrição da finalidade pretendida para o sistema, contexto de uso, escopo territorial e temporal,
medidas de mitigação e risco residual, bem como descrição da participação de diferentes segmentos
afetados no processo de avaliação, caso tenha ocorrido. Ainda, caso tomem conhecimento de risco
inesperado a direitos de pessoas naturais após a introdução do sistema no mercado ou utilização
em serviço, os agentes deverão comunicar o fato imediatamente às autoridades competentes e às
pessoas afetadas pelo sistema de inteligência artificial.

BIOMETRIA EM SEGURANÇA PÚBLICA


O texto prevê a possibilidade de uso de sistemas de identificação
biométrica a distância em atividades de segurança pública, de forma
contínua em espaços acessíveis ao público, quando houver previsão em
lei federal específica e autorização judicial em conexão com a atividade de
persecução penal individualizada, nos seguintes casos:
Persecução de crimes passíveis de pena máxima de reclusão
superior a dois anos;
Busca de vítimas de crimes ou pessoas desaparecidas; ou
Crime em flagrante.
A lei em questão preverá medidas proporcionais e estritamente necessárias
ao atendimento do interesse público. Esssas medidas devem respeitar o
devido processo legal e o controle judicial, além dos princípios e direitos
previstos na lei, especialmente a garantia contra a discriminação e a
necessidade de revisão da inferência algorítmica pelo agente.

O que esperar da regulação de Inteligência Artificial no Brasil? 8


MEDIDAS DE
GOVERNANÇA
A proposta apresenta medidas de governança aplicáveis
a todos os sistemas de IA, independentemente dos riscos
associados. São elas:
Transparência quanto ao emprego de IA na
interação e aplicação de medidas de governança no
desenvolvimento e emprego do sistema.
Medidas para mitigação e prevenção de potenciais
vieses discriminatórios.
Legitimação do tratamento de dados conforme a
legislação de proteção de dados, inclusive Privacy by
Design e Privacy by Default.
Adoção de parâmetros adequados de separação
e organização dos dados para treinamento, teste e
validação dos resultados do sistema.
Security by Design aplicado à IA.

Se verificado alto risco associado ao sistema, será preciso implementar medidas de governança
adicionais, que incluem:
Documentação do funcionamento do sistema e das decisões envolvidas em sua construção,
implementação e uso, considerando todo o ciclo de vida, como estágio de design,
desenvolvimento, avaliação, operação e descontinuação do sistema.
Uso de ferramentas de registro automático da operação do sistema, para permitir a avaliação de
sua acurácia e robustez e apurar potenciais discriminatórios, e implementação das medidas de
mitigação de riscos adotadas, com especial atenção para efeitos adversos.
Realização de testes para avaliação de níveis apropriados de confiabilidade, conforme o setor e
o tipo de aplicação do sistema de inteligência artificial, incluindo testes de robustez, acurácia,
precisão e cobertura.
Medidas de gestão de dados para mitigar e prevenir vieses discriminatórios. Isso inclui a
avaliação dos dados com medidas apropriadas de controle de vieses cognitivos humanos que
possam afetar a coleta e organização dos dados. Serão tomadas medidas também para evitar
a geração de vieses por problemas na classificação, falhas ou falta de informação em relação a
grupos afetados, falta de cobertura ou distorções em representatividade, conforme a aplicação
pretendida. Além disso, serão implementadas medidas corretivas para evitar a incorporação de
vieses sociais estruturais que possam ser perpetuados e ampliados pela tecnologia. A equipe
responsável pela concepção e desenvolvimento do sistema será inclusiva e orientada pela busca
da diversidade.
Adoção de medidas técnicas para tornar os resultados dos sistemas compreensíveis, além de
medidas para fornecer aos operadores e às partes potencialmente afetadas informações gerais
sobre o funcionamento do modelo de inteligência artificial empregado. Isso inclui a clareza sobre
a lógica e os critérios relevantes para a produção de resultados. Além disso, mediante requisição
do interessado, serão fornecidas informações adequadas para interpretação dos resultados
concretamente produzidos, respeitado o sigilo industrial e comercial.

O que esperar da regulação de Inteligência Artificial no Brasil? 9


A supervisão humana de sistemas de inteligência artificial de alto risco buscará prevenir ou
minimizar os riscos para direitos e liberdades das pessoas que possam decorrer de seu uso normal
ou de seu uso em condições de utilização indevida razoavelmente previsíveis, viabilizando que as
pessoas responsáveis pela supervisão humana possam:
Compreender as capacidades e limitações do sistema de inteligência artificial e
controlar devidamente o seu funcionamento, de modo que sinais de anomalias,
disfuncionalidades e desempenho inesperado possam ser identificados e resolvidos
o mais rapidamente possível;
Ter ciência da possível tendência para confiar automaticamente ou confiar excessivamente
no resultado produzido pelo sistema de inteligência artificial;
Interpretar corretamente o resultado do sistema de inteligência artificial tendo em conta
as características do sistema e as ferramentas e os métodos de interpretação disponíveis;
Decidir, em qualquer situação específica por não usar o sistema de inteligência artificial de
alto risco ou ignorar, anular ou reverter seu resultado; e
Intervir no funcionamento do sistema de inteligência artificial de alto risco ou interromper
seu funcionamento.

PROGRAMAS DE GOVERNANÇA
O texto ainda estabelece que os desenvolvedores e operadores de sistemas de IA podem implementar programas
de governança, demonstrando comprometimento em adotar processos e políticas internas que assegurem o
cumprimento abrangente de normas e boas práticas relacionadas à não maleficência e proporcionalidade entre
os métodos empregados e as finalidades determinadas e legítimas dos sistemas.
A proposta também prevê que o programa de governança deve ser adaptado à estrutura, escala e volume de
operações e ter como objetivo estabelecer uma relação de confiança com as pessoas afetadas. O programa
deve integrar a estrutura geral de governança, prever planos de resposta para reversão de possíveis resultados
prejudiciais do sistema e ser constantemente atualizado com base em informações obtidas a partir de
monitoramento contínuo e avaliações periódicas. A adesão voluntária a códigos de boas práticas e governança
pode ser considerada um sinal de boa-fé e levada em consideração pela autoridade competente para fins de
aplicação de sanções administrativas.
A autoridade competente também poderá estabelecer um procedimento para analisar se o código de conduta é
compatível com a legislação vigente, visando sua aprovação, divulgação e atualização periódica.

INCIDENTES
A proposta também aborda a gestão de incidentes envolvendo os sistemas
de IA e estabelece que os agentes deverão comunicar à autoridade
competente a ocorrência de graves incidentes de segurança em prazo
razoável. Embora os detalhes específicos sobre a comunicação de incidentes
sejam reservados para regulamentação futura, o texto apresenta diretrizes
sobre o que caracteriza um incidente grave, o que inclui:
Risco à vida e integridade física de pessoas.
Interrupção de funcionamento de operações críticas de infraestrutura.
Graves danos à propriedade ou ao meio ambiente.
Graves violações aos direitos fundamentais.

O que esperar da regulação de Inteligência Artificial no Brasil? 10


RESPONSABILIZAÇÃO
O texto estipula sanções administrativas para casos de
descumprimento da lei, que vão desde advertências e multas
até divulgação pública da infração, proibição ou restrição para
participar de regime de sandbox regulatório, suspensão parcial
ou total do desenvolvimento, fornecimento ou operação do
sistema de IA, proibição de tratamento de determinadas bases
de dados, entre outras.
As sanções serão aplicadas após procedimento administrativo
que garanta a oportunidade da ampla defesa. A aplicação se
dará de forma gradativa, isolada ou cumulativa, considerando
diversos parâmetros e critérios, como gravidade e natureza das
infrações, a vantagem auferida pelo infrator, a cooperação do
infrator, a adoção de políticas de boas práticas e governança.
O fornecedor ou operador de sistema de IA que cause dano
patrimonial, moral, individual ou coletivo é obrigado a repará-
lo integralmente, não importa o grau de autonomia do sistema.
Em relação aos sistemas classificados como de alto risco ou risco excessivo, o fornecedor ou operador
respondem objetivamente pelos danos causados, na medida de sua participação no dano. Para os demais
casos, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em
favor da vítima.

INCENTIVO À INOVAÇÃO
A proposta também discorre sobre medidas de incentivo à
inovação associadas ao uso de sistemas de IA, que incluem
a autorização do funcionamento de ambiente regulatório
experimental para inovação em inteligência artificial
(sandbox regulatório) por parte da autoridade competente.
O texto estabelece ainda que não constitui ofensa a
direitos autorais a utilização automatizada de obras,
como extração, reprodução, armazenamento e
transformação, em processos de mineração de dados e
textos em sistemas de inteligência artificial. Isso se aplica
a atividades feitas por organizações e instituições de
pesquisa e jornalismo, além de por museus, arquivos e
bibliotecas, desde que:

Não tenha como objetivo a simples reprodução,


exibição ou disseminação da obra original em si.
O uso ocorra na medida necessária para o objetivo a
ser alcançado.
Não prejudique de forma injustificada os interesses
econômicos dos titulares.
Não concorra com a exploração normal das obras.

O que esperar da regulação de Inteligência Artificial no Brasil? 11


REPERCUSSÃO DO
PROJETO DE LEI 2.338/23
Dada a afinidade e correlação entre o uso e desenvolvimento de
inteligência artificial e o direito à proteção de dados pessoais, a ANPD
tem também adotado providências e se posicionado nesse debate.
Foram emitidos pareceres, que incluem a Análise Preliminar do Projeto de
Lei 2.338/23 e a Nota Técnica 16/2023/CGTP/ANPD, as quais abordam a
necessidade de compatibilização do Projeto de Lei 2.338/23 com a LGPD,
bem como recomendam a atuação da ANPD como autoridade-chave na
regulação da IA no Brasil.

A nota técnica apresenta sugestão de modelo institucional para regulação de IA baseado em quatro
instâncias, que devem atuar de forma articulada e coordenada:

Autoridade competente (órgão regulador central), que seria a ANPD.


Poder Executivo, responsável pela elaboração de políticas públicas para o desenvolvimento de
sistemas de IA.
Órgãos reguladores setoriais, que atuariam de forma coordenada com o órgão regulador central.
Conselho consultivo, órgão de natureza consultiva que garantiria a participação da sociedade nos
processos decisórios das demais instâncias.

Além disso, o documento propõe a criação de um Fórum de Órgãos Reguladores Setoriais para
institucionalizar e tornar permanente a cooperação entre o órgão central e os órgãos setoriais, bem
como a criação de um conselho consultivo nos moldes do Conselho Nacional de Proteção de Dados
(CNPD) para garantir a participação ativa de diversos grupos e setores da sociedade nas decisões
relacionadas à IA.
Destaca-se, também, a iniciativa da ANPD relativa ao sandbox regulatório de IA, com relação ao qual
emitiu estudo técnico e consulta à sociedade. O objetivo do sandbox regulatório proposto pela ANPD
é promover a transparência algorítmica, fomentar a inovação responsável em IA, estabelecer um
ambiente multissetorial e auxiliar no desenvolvimento de parâmetros para intervenção humana em
sistemas de IA de alto risco.
Esses objetivos visam garantir que os sistemas de IA sejam compreensíveis e explicáveis, promover
melhores práticas de privacidade e proteção de dados, criar um espaço para o diálogo entre
diferentes partes interessadas e estabelecer diretrizes para a intervenção humana em decisões
automatizadas. O sandbox busca contribuir para o estabelecimento de legislação, regulamentação e
estruturas éticas adequadas para a IA, alinhando-se com a Estratégia Nacional Brasileira de Inteligência
Artificial e promovendo o uso responsável e transparente da IA.
Outras organizações também se posicionaram a respeito da proposta. A Central Única dos
Trabalhadores e demais centrais sindicais manifestaram apoio ao projeto, solicitando sua aprovação.
Já a Coalizão Direitos na Rede emitiu nota técnica com sugestões de ajuste no texto da proposta, que
incluem, por exemplo, o banimento de tecnologias de reconhecimento facial, policiamento preditivo,
armas autônomas e de sistemas para reconhecimento de emoções.

O que esperar da regulação de Inteligência Artificial no Brasil? 12


QUAIS SÃO OS
PRÓXIMOS PASSOS?
Atualmente, o Projeto de Lei 2.338/23 está sendo avaliado pela Comissão
Temporária sobre Inteligência Artificial no Senado. Um texto substitutivo foi
apresentado em 28 de novembro, juntamente com duas emendas em 12 de
dezembro. O texto substitutivo incluiu disposições para promover a pesquisa
e o desenvolvimento de sistemas de IA, além de alterar a forma como o risco
é avaliado, propondo critérios objetivos para classificar e remover os sistemas
de IA considerados de alto risco. Também foram retiradas as previsões sobre a
comunicação de incidentes graves à autoridade competente.
As emendas propostas em 12 de dezembro sugerem:
Remover a possibilidade de a autoridade competente atualizar a lista dos
sistemas de IA de alto risco; e
Retirar a avaliação da capacidade de endividamento das pessoas naturais
ou sua classificação de crédito como sistemas de IA de alto risco, além
de ajustar o texto relacionado aos sistemas biométricos de identificação
para incluir o uso pelo poder público para investigação criminal e
segurança pública.
O texto original do PL 2.338/23 tem inspiração no AI Act europeu, especialmente
ao estabelecer os sistemas de IA de alto risco, cuja implementação e uso são
proibidos, assim como o rol de risco inaceitável. Embora o rol brasileiro seja
mais limitado que o europeu, a estratégia adotada no Brasil é similar à da União
Europeia.
Durante as negociações do AI Act, um dos principais impasses foi o uso de
sistemas de IA que envolvem o reconhecimento facial, que foi parcialmente
proibido devido ao risco inaceitável. Essas discussões devem ter repercussões
no Brasil, como a emenda apresentada em 12 de dezembro, que visa limitar a
classificação de alto risco dos sistemas biométricos de identificação apenas aos
usados pelo poder público para investigação criminal e segurança pública.
Vale ressaltar que a Estratégia Nacional Brasileira de Inteligência Artificial (EBIA)
passará por uma revisão conduzida pelo Ministério da Ciência, Tecnologia e
Inovação em 2024. Essa revisão será uma oportunidade para reavaliar objetivos,
eixos, metas e ações da EBIA para alinhá-la aos interesses e prioridades nacionais.
Sendo assim, essa atualização poderá também demandar a revisão do Projeto de
Lei 2.338/23.

O que esperar da regulação de Inteligência Artificial no Brasil? 13


Paralelamente ao processo legislativo em curso e à atualização da EBIA, medidas de
governança e avaliações de risco e impacto relativas aos sistemas de IA já se tornam
essenciais, como:

Realização de workshops e treinamentos para conscientização sobre o uso


responsável de IA;

Elaboração de materiais, manuais, cartilhas sobre uso responsável de IA.

Mapeamento de fluxos e riscos associados ao uso de IA e elaboração de matriz para


registro e monitoramento.

Criação de statement (Carta de Princípios) em relação à IA, a qual orientará todas as medidas
e processos corporativos no segmento.

Suporte à estruturação de um comitê de ética em IA, mediante assessoria para sua inclusão
na atual governança do cliente, responsabilidades (matriz RACI) e interação com demais
partes interessadas.

Sugestão de cláusulas para inserção nos contratos que disponham sobre IA e revisão de
contratos que tenham como escopo seu desenvolvimento, uso e/ou implementação.

Elaboração de Programa de Governança de IA Responsável, com um framework específico


para o cliente, considerando um modelo e metodologia para avaliação de impacto
algorítmico e riscos dos sistemas de IA; a Revisão de política/procedimento/processo de
avaliação de fornecedores e/ou desenvolvedores, tendo em vista os riscos especificamente
relacionados à IA; a Elaboração de política interna para desenvolvimento interno de sistemas
de IA ou mediante participação de terceiros e a Análise e desenvolvimento de políticas
setorizadas dentro do segmento de IA, a exemplo de IA generativa, reconhecimento facial,
decisões automatizadas no setor bancário, etc.

Suporte à identificação de controles aplicáveis à mitigação dos riscos associados ao uso e


desenvolvimento de IA, especialmente para segurança da informação, proteção de dados e
preservação de propriedade intelectual.

JULIANA ABRUSIO
PARA ESSAS E OUTRAS Sócia

DEMANDAS, PODE jabrusio@machadomeyer.com.br


+55 (11) 3150.3311

CONTAR COM NOSSO


TIME DE DIREITO DIGITAL CHIARA BATTAGLIA TONIN
Advogada

E PROTEÇÃO DE DADOS. cbtonin@machadomeyer.com.br


+55 (11) 3150.7004

PORTAL INTELIGÊNCIA JURÍDICA


Nossa visão para as questões que impactam seus negócios
Acesse nosso conteúdo: www.machadomeyer.com.br/inteligenciajuridica

MACHADO, MEYER, SENDACZ E OPICE ADVOGADOS


O que
SÃO esperar
PAULO / RIO DE da regulação
JANEIRO / BRASÍLIAde Inteligência
/ BELO HORIZONTE /Artificial
NEW YORK no Brasil? .BR 14

Você também pode gostar