Escolar Documentos
Profissional Documentos
Cultura Documentos
AVANÇOS NO LEGISLATIVO
2023 Após estudos conduzidos pela CJSUBIA, é apresentada pelo Senador Rodrigo
Pacheco (PSD/MG), a PL 2338/23. A PL recebe 3 emendas: A primeira (substitutiva)
em 27 de novembro, pelo Senador Astronauta Marcos Pontes (PL/SP) e as demais,
no dia 12 de dezembro, pelo Senador Carlos Viana (PODEMOS/MG).
FUNDAMENTOS
I – A centralidade da pessoa humana
II – O respeito aos direitos humanos e aos valores democráticos
III – O livre desenvolvimento da personalidade
IV – A proteção ao meio ambiente e o desenvolvimento sustentável
V – A igualdade, a não discriminação, a pluralidade e o respeito aos direitos trabalhistas
VI – O desenvolvimento tecnológico e a inovação
VII – A livre iniciativa, a livre concorrência e a defesa do consumidor
VIII – A privacidade, a proteção de dados e a autodeterminação informativa
IX – A promoção da pesquisa e do desenvolvimento com a finalidade de estimular a inovação
nos setores produtivos e no poder público
X – O acesso à informação e à educação, e a conscientização sobre os sistemas de inteligência
artificial e suas aplicações
DIREITOS
DIREITO À INFORMAÇÃO PRÉVIA
Pessoas expostas a sistemas de reconhecimento de emoções ou a sistemas de categorização
biométrica devem ser informadas sobre a utilização e o funcionamento do sistema no ambiente em
que ocorrer a exposição. Deve ser conferido tratamento diferenciado a grupos vulneráveis, como
crianças, adolescentes, idosos e pessoas com deficiências.
DIREITO DE CONTESTAÇÃO
Pessoas afetadas por sistemas de IA têm o direito de contestar decisões ou previsões que produzam
efeitos jurídicos ou que impactem de maneira significativa seus interesses. Além da correção de dados
incompletos, inexatos ou desatualizados, esse direito também contempla decisões amparadas em
inferências discriminatórias, irrazoáveis ou que atentem contra a boa-fé objetiva, como aquelas:
Fundadas em dados inadequados ou abusivos para a finalidade do tratamento.
Baseadas em métodos imprecisos ou estatisticamente não confiáveis.
Que não considerem de forma adequada a individualidade e as características pessoais dos
indivíduos.
AVALIAÇÃO E
CLASSIFICAÇÃO
DE RISCOS
A proposta determina que, antes de lançar sistemas de IA no
mercado ou de usá-los em serviços, os fornecedores devem
realizar uma análise preliminar desses sistemas. Essa análise,
que deve ser documentada, visa mapear e classificar os riscos
associados ao sistema. Ela pode ser solicitada pela autoridade
competente e é diferente da avaliação de impacto algorítmico,
a qual será necessária sempre que um sistema de inteligência
artificial for considerado de alto risco, conforme abordado adiante.
Um dos pontos cruciais do Projeto de Lei 2.338/23 consiste na
classificação de riscos associados aos sistemas de IA, que podem
ser altos ou excessivos.
RISCO EXCESSIVO:
Art. 14. São vedadas a implementação e o uso de sistemas de inteligência artificial:
Que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir
a pessoa natural a se comportar de forma prejudicial ou perigosa à sua saúde ou
segurança ou contra os fundamentos desta Lei.
Que explorem quaisquer vulnerabilidades de grupos específicos de pessoas naturais,
tais como as associadas a sua idade ou deficiência física ou mental, de modo a
induzi-las a se comportar de forma prejudicial a sua saúde ou segurança ou contra os
fundamentos desta Lei.
Pelo poder público, para avaliar, classificar ou ranquear as pessoas naturais, com base
no seu comportamento social ou em atributos da sua personalidade, por meio de
pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma
ilegítima ou desproporcional.
De acordo com a proposta, a lista dos sistemas de risco excessivo ou de alto risco poderá ser
atualizada pela autoridade competente. Esse processo incluirá consultas ao órgão regulador
específico do setor, se existir, além de audiências públicas, consultas públicas e análises de
impacto regulatório. Os critérios para essa atualização abrangem, entre outros, situações em
que o sistema possa afetar pessoas de um grupo vulnerável específico ou causar danos irreversíveis
ou de difícil reversão.
Uma vez identificado risco alto associado a determinado sistema de IA, será necessário conduzir uma
avaliação de impacto algorítmico, um processo contínuo a ser executado ao longo de todo o ciclo
de vida do sistema em questão. A proposta apresenta orientações metodológicas para essa avaliação
e estabelece que a autoridade competente poderá definir outros critérios e elementos para sua
condução, incluindo a participação dos diferentes segmentos sociais afetados, conforme risco e porte
econômico da organização.
A proposta estabelece que as conclusões da avaliação de impacto algorítmico serão públicas e
inseridas em uma base de dados de inteligência artificial de alto risco, acessível ao público, a ser
criada e mantida pela autoridade competente. As conclusões da avaliação deverão conter, no mínimo,
uma descrição da finalidade pretendida para o sistema, contexto de uso, escopo territorial e temporal,
medidas de mitigação e risco residual, bem como descrição da participação de diferentes segmentos
afetados no processo de avaliação, caso tenha ocorrido. Ainda, caso tomem conhecimento de risco
inesperado a direitos de pessoas naturais após a introdução do sistema no mercado ou utilização
em serviço, os agentes deverão comunicar o fato imediatamente às autoridades competentes e às
pessoas afetadas pelo sistema de inteligência artificial.
Se verificado alto risco associado ao sistema, será preciso implementar medidas de governança
adicionais, que incluem:
Documentação do funcionamento do sistema e das decisões envolvidas em sua construção,
implementação e uso, considerando todo o ciclo de vida, como estágio de design,
desenvolvimento, avaliação, operação e descontinuação do sistema.
Uso de ferramentas de registro automático da operação do sistema, para permitir a avaliação de
sua acurácia e robustez e apurar potenciais discriminatórios, e implementação das medidas de
mitigação de riscos adotadas, com especial atenção para efeitos adversos.
Realização de testes para avaliação de níveis apropriados de confiabilidade, conforme o setor e
o tipo de aplicação do sistema de inteligência artificial, incluindo testes de robustez, acurácia,
precisão e cobertura.
Medidas de gestão de dados para mitigar e prevenir vieses discriminatórios. Isso inclui a
avaliação dos dados com medidas apropriadas de controle de vieses cognitivos humanos que
possam afetar a coleta e organização dos dados. Serão tomadas medidas também para evitar
a geração de vieses por problemas na classificação, falhas ou falta de informação em relação a
grupos afetados, falta de cobertura ou distorções em representatividade, conforme a aplicação
pretendida. Além disso, serão implementadas medidas corretivas para evitar a incorporação de
vieses sociais estruturais que possam ser perpetuados e ampliados pela tecnologia. A equipe
responsável pela concepção e desenvolvimento do sistema será inclusiva e orientada pela busca
da diversidade.
Adoção de medidas técnicas para tornar os resultados dos sistemas compreensíveis, além de
medidas para fornecer aos operadores e às partes potencialmente afetadas informações gerais
sobre o funcionamento do modelo de inteligência artificial empregado. Isso inclui a clareza sobre
a lógica e os critérios relevantes para a produção de resultados. Além disso, mediante requisição
do interessado, serão fornecidas informações adequadas para interpretação dos resultados
concretamente produzidos, respeitado o sigilo industrial e comercial.
PROGRAMAS DE GOVERNANÇA
O texto ainda estabelece que os desenvolvedores e operadores de sistemas de IA podem implementar programas
de governança, demonstrando comprometimento em adotar processos e políticas internas que assegurem o
cumprimento abrangente de normas e boas práticas relacionadas à não maleficência e proporcionalidade entre
os métodos empregados e as finalidades determinadas e legítimas dos sistemas.
A proposta também prevê que o programa de governança deve ser adaptado à estrutura, escala e volume de
operações e ter como objetivo estabelecer uma relação de confiança com as pessoas afetadas. O programa
deve integrar a estrutura geral de governança, prever planos de resposta para reversão de possíveis resultados
prejudiciais do sistema e ser constantemente atualizado com base em informações obtidas a partir de
monitoramento contínuo e avaliações periódicas. A adesão voluntária a códigos de boas práticas e governança
pode ser considerada um sinal de boa-fé e levada em consideração pela autoridade competente para fins de
aplicação de sanções administrativas.
A autoridade competente também poderá estabelecer um procedimento para analisar se o código de conduta é
compatível com a legislação vigente, visando sua aprovação, divulgação e atualização periódica.
INCIDENTES
A proposta também aborda a gestão de incidentes envolvendo os sistemas
de IA e estabelece que os agentes deverão comunicar à autoridade
competente a ocorrência de graves incidentes de segurança em prazo
razoável. Embora os detalhes específicos sobre a comunicação de incidentes
sejam reservados para regulamentação futura, o texto apresenta diretrizes
sobre o que caracteriza um incidente grave, o que inclui:
Risco à vida e integridade física de pessoas.
Interrupção de funcionamento de operações críticas de infraestrutura.
Graves danos à propriedade ou ao meio ambiente.
Graves violações aos direitos fundamentais.
INCENTIVO À INOVAÇÃO
A proposta também discorre sobre medidas de incentivo à
inovação associadas ao uso de sistemas de IA, que incluem
a autorização do funcionamento de ambiente regulatório
experimental para inovação em inteligência artificial
(sandbox regulatório) por parte da autoridade competente.
O texto estabelece ainda que não constitui ofensa a
direitos autorais a utilização automatizada de obras,
como extração, reprodução, armazenamento e
transformação, em processos de mineração de dados e
textos em sistemas de inteligência artificial. Isso se aplica
a atividades feitas por organizações e instituições de
pesquisa e jornalismo, além de por museus, arquivos e
bibliotecas, desde que:
A nota técnica apresenta sugestão de modelo institucional para regulação de IA baseado em quatro
instâncias, que devem atuar de forma articulada e coordenada:
Além disso, o documento propõe a criação de um Fórum de Órgãos Reguladores Setoriais para
institucionalizar e tornar permanente a cooperação entre o órgão central e os órgãos setoriais, bem
como a criação de um conselho consultivo nos moldes do Conselho Nacional de Proteção de Dados
(CNPD) para garantir a participação ativa de diversos grupos e setores da sociedade nas decisões
relacionadas à IA.
Destaca-se, também, a iniciativa da ANPD relativa ao sandbox regulatório de IA, com relação ao qual
emitiu estudo técnico e consulta à sociedade. O objetivo do sandbox regulatório proposto pela ANPD
é promover a transparência algorítmica, fomentar a inovação responsável em IA, estabelecer um
ambiente multissetorial e auxiliar no desenvolvimento de parâmetros para intervenção humana em
sistemas de IA de alto risco.
Esses objetivos visam garantir que os sistemas de IA sejam compreensíveis e explicáveis, promover
melhores práticas de privacidade e proteção de dados, criar um espaço para o diálogo entre
diferentes partes interessadas e estabelecer diretrizes para a intervenção humana em decisões
automatizadas. O sandbox busca contribuir para o estabelecimento de legislação, regulamentação e
estruturas éticas adequadas para a IA, alinhando-se com a Estratégia Nacional Brasileira de Inteligência
Artificial e promovendo o uso responsável e transparente da IA.
Outras organizações também se posicionaram a respeito da proposta. A Central Única dos
Trabalhadores e demais centrais sindicais manifestaram apoio ao projeto, solicitando sua aprovação.
Já a Coalizão Direitos na Rede emitiu nota técnica com sugestões de ajuste no texto da proposta, que
incluem, por exemplo, o banimento de tecnologias de reconhecimento facial, policiamento preditivo,
armas autônomas e de sistemas para reconhecimento de emoções.
Criação de statement (Carta de Princípios) em relação à IA, a qual orientará todas as medidas
e processos corporativos no segmento.
Suporte à estruturação de um comitê de ética em IA, mediante assessoria para sua inclusão
na atual governança do cliente, responsabilidades (matriz RACI) e interação com demais
partes interessadas.
Sugestão de cláusulas para inserção nos contratos que disponham sobre IA e revisão de
contratos que tenham como escopo seu desenvolvimento, uso e/ou implementação.
JULIANA ABRUSIO
PARA ESSAS E OUTRAS Sócia