Escolar Documentos
Profissional Documentos
Cultura Documentos
CURSO DE DIREITO
Guanambi - BA
2022
DELTON JULIO SANTOS SOUZA
Guanambi-BA
2022
SUMÁRIO
1. INTRODUÇÃO ............................................................................................................ 6
RESUMO: Tendo em vista que presenciamos a Revolução 4.0 na qual os dados são matéria-
prima para a economia, pesquisa-se sobre o viés algorítmico a fim de analisar as principais
condutas discriminatórias na órbita das plataformas de comércio eletrônico. Para tanto, faz-se
necessário identificar o comportamento dos algorítmicos, classificá-los para estabelecermos
uma concernência com as práticas abusivas e suas consequências na esfera do consumidor.
Realiza-se, então, uma pesquisa dedutiva de revisão bibliográfica com finalidade qualitativa, o
que permitirá fomentar o debate acadêmico de modo que seja possível analisar de maneira
crítica as ideias centrais acerca da inteligência artificial e os danos no âmbito consumerista.
Diante disso, verificou-se que o mau uso dessas ferramentas enseja a discriminação negativa
do usuário, especialmente pela geodiscriminação através da geo-precificação e do geo-
bloqueio, além do perfilamento para fins vedados na Lei Geral de Proteção de Dados (LGPD),
impondo o incremento na disparidade e hipervulnerabilidade nas relações de consumo.
ABSTRACT: Considering that we are witnessing the 4.0 Revolution in which data is a raw
material for the economy, research is carried out on the algorithmic bias to analyze the main
discriminatory behaviors in the orbit of e-commerce platforms. Therefore, it is necessary to
identify the behavior of algorithms, and classify them to establish a concern with abusive
practices and their consequences in the consumer sphere. A deductive bibliographic review is
then carried out with a qualitative purpose, which will allow us to foster academic debate so
that it is possible to critically analyze the central ideas about artificial intelligence and the
damages in the consumerist scope. Therefore, it was found that the misuse of these tools gives
rise to negative user discrimination, especially by geodiscrimination through geo-pricing and
geo-blocking, in addition to profiling for purposes prohibited in the General Data Protection
Law (LGPD), imposing an increase in disparity and hypervulnerability in consumer relations.
Endereço para correspondência: Travessa São Benedito, 10, Centro, Lagoa Real – BA, Cep. 46.425-000.
1
A busca por uma definição incontroversa sobre o que seja Inteligência Artificial não
se mostra uma tarefa das mais fáceis, isso porque, o seu centro de discussão irradia-
se para diversas outras áreas de pesquisa – tais como a biologia, a psicologia, a
filosofia a matemática e a engenharia –, o que faz com que alguns autores trabalhem
conceitos tidos como indiscutíveis quando na verdade não o são. (FLORES;
SANTOS, 2020, p. 6).
Deste modo, o termo recebeu ao longo dos anos diferentes concepções, atualmente reúne
um amplo campo de pesquisa. Nas palavras do cientista da computação John McCarthy (1990),
a Inteligência Artificial é “a ciência e a engenharia de construir máquinas inteligentes”.
Entretanto, a principal relutância encontra-se na indagação a respeito do que seria inteligência,
dependendo do campo de conhecimento selecionado podemos chegar a distintos resultados,
mas ao contrário do pensamento comum à maioria das pessoas, a noção de criar uma
inteligência artificial não é contemporânea, muito menos do emprego de algoritmos para
facilitar processos.
Sempre que se fala em algoritmo automaticamente surge a idéia de uma tecnologia
advinda da modernidade, no entanto, sua concepção é tão antigo quanto a matemática, inclusive,
desvinculado da necessidade de um computador, exemplificando, no Antigo Egito, eles eram
aplicados na resolução de fórmulas matemática cuja finalidade era contribuir no controle do
nível da água do rio Nilo. Na filosofia estavam presentes nos pensamentos de Aristóteles e René
Descartes a possibilidade de o homem desenvolver objetos autômatos. Na literatura, a escritora
inglesa Mery Shelley produziu a obra “Frankenstein”, considerada por muitos a primeira obra
de ficção científica (ALENCAR, 2022).
Para o matemático e cientista da computação Alan Turing, as máquinas seriam
inteligentes quando conseguissem encenar o comportamento humano. Dessa forma, ele
desenvolveu o chamado “teste de Turing”, no qual consiste em testar a capacidade de uma
máquina simular comportamentos tidos como inteligentes semelhantes aos humanos. Para esse
fim, de acordo com Ana Catarina de Alencar:
Para dar conta desse problema, Turing propôs um experimento. Por meio do chamado
“teste de Turing”, três interlocutores conversariam entre si por um sistema. O
interlocutor “A” seria um entrevistado, enquanto o interlocutor “B” seria um
entrevistado e o interlocutor “C” um algoritmo que se passa por um ser humano.
Em síntese, a pergunta que o teste se propõe a resolver é a seguinte: “quando uma
máquina pode ser considerada inteligente”? E a sua resposta é: “sempre que ela
consiga simular o comportamento humano, confundindo seus interlocutores”
(ALENCAR, 2022, p. 8).
Segundo Berlinski (2002) os algoritmos são instruções precisas, porém entre sua
característica está a finitude, ou seja, em algum momento chegará ao fim sua capacidade de
determinar ações coerentes. Logo, expressões como bom ou ruim possuem uma carga de
subjetivismo e valoração praticamente impossível de ser descritas em todas as suas formas
através de dados, visto que exigiria prever todas as diretrizes ou instruções para aquela situação.
Consoante Mendes e Mattiuzzo (2019), o indeterminismo de certas expressões dificulta a
análise concisa. Dessa forma, ao realizar uma compra na internet, um consumidor com a
intenção de adquirir o “melhor smartphone” se depara com uma série de hipóteses em torno
desse termo, “melhor”, ele pode ser o mais barato, o mais tecnológico, o que tem um excelente
custo-benefício. Apesar disso, nas últimas três décadas a evolução tecnológica vem
demonstrando ser viável a execução de tarefas complexas com alto grau de valoração.
Assim, decisões como escolha de um currículo entre vários para admissão de um
trabalhador, a probabilidade de reincidência de um condenado, a admissão de um recurso pelo
tribunal, já há relatos de seu emprego até mesmo com fins bélicos. Portanto, na
contemporaneidade, algumas máquinas possuem a Machine Learning, ou seja, capacidade de
aprender por imensos bancos de dados. A inteligência artificial é definida, de maneira sucinta,
como a aptidão de dispositivos computacionais executarem tarefas típicas da inteligência
humana, isto é, compreensão, raciocínio, aprendizado, reconhecimento, entre outras. Portanto,
essa categoria de algoritmo possui como diretriz preestabelecida a capacidade de
interpretar dados, semelhante ao cérebro humano, aliás, esse modelo de aprendizagem baseou-
se nesse órgão.
Para haver aprendizagem é fundamental um amplo banco de dados, se um algoritmo
busca aprender como identificar um cachorro por imagens, é indispensável os dados das
características do animal de maneira prévia. Isso é, cria-se um padrão que pode ser usado para
comparar os dados existentes com a situação fática. Todavia, esse modelo de aprendizagem
possibilita falhas, para ilustrar, em 2018 a empresa Uber estava testando seus carros autônomos
de entrega, estes utilizavam a tecnologia GPS para se localizar, e diversos sensores que
possibilitavam identificar os objetos ao redor em 360°, adicionalmente dispositivos lasers e
radares contribuíam para o sistema. A par de todos esses dados eram possíveis os algoritmos
identificarem obstáculos, distâncias, e realizarem ações para evitar acidentes. Contudo, nada
disso impediu o sinistro, uma senhora foi morta ao atravessar a rua fora da faixa de pedestre, o
algoritmo detectou a vítima antes de atropelá-la, mas decidiu não parar e não reagiu
imediatamente para evitar o acidente (G1, 2018).
Isso denota que mesmo com quantidade enorme de informações e recursos as máquinas
não conseguem ter a mesma capacidade de raciocínio humano. O emprego dessas ferramentas
movimenta um mercado multimilionário, a finalidade principal é a substituição das decisões
humanas pelas das máquinas, tendo em vista que seriam mais eficientes e justas. O anseio pelo
desenvolvimento frenético de tais tecnologias corroboram para seu emprego imediato.
A sociedade atual, geralmente centrada na visão utilitarista, acaba aceitando de forma
tácita questões de cunho ético e jurídicos ainda pouco discutidas. Consoante Alexandre de
Morais da Rosa, é fundamental uma transformação digital do direito, cuja finalidade seria a
introdução no ambiente forense de fontes de informações claras para auxiliar no processo
decisório. Para Ana Frazão (2018) é difícil julgar de maneira ética e juridicamente o que pouco
se conhece. Segundo ela, a falta ou insuficiência de informações sobre seu poder de ação e
predição constituem verdadeiras “caixas pretas”.
Nesse sentido, os usuários que sofrem as consequências da referida decisão têm direito
de conhecer esse procedimento, o segredo industrial não pode ser impeditivo para evitar a
transparência e o acesso à informação, muito menos alavanca para práticas ofensivas a direitos
fundamentais. Para esse propósito o legislador pátrio criou a Lei nº 13.709, de 14 de agosto de
2018 (Lei Geral de Proteção de Dados Pessoais - LGPD) buscando conceder mais transparência
e proteção aos dados dos consumidores.
Perfilização é uma palavra que deriva do termo em inglês profiling, cujo significado é
“o ato ou processo de extrapolar informação sobre uma pessoa baseado em traços ou tendências
conhecidas” (ZANATTA, 2019). A criação de perfil é definida como o registro e classificação
sistemática e intencional de dados relacionados a indivíduos, um perfil é, portanto, uma
compilação de dados referentes a uma pessoa. Na era do Bigdata houve uma expansão dos
metadados, isso fez com que os algoritmos explorassem padrões correlatos de dados, assim,
produzem novos conhecimentos a partir de uma fonte de informações existentes. Para Rafael
A. F. Zanatta (2019), esse processo envolve as seguintes etapas (i) registro de dados, (ii)
agregação e monitoramento de dados, (iii) identificação de padrões nos dados, (iv) interpretação
de resultados, (v) monitoramento dos dados para checar resultados e (vi) aplicação de perfis.
O Wall Street Journal, publicou um artigo em 2010 no qual seguradoras da cidade de
Nova York estavam definindo o preço de suas apólices através de análise dos perfis das redes
sociais dos clientes. Desse modo, aquelas pessoas que postam fotos fumando, praticando
esportes radicais, ou qualquer hábito de vida considerado arriscado para a IA teria um aspecto
considerado propenso a maiores gastos e menores lucros para essas companhias. Não obstante,
se a pessoa exibisse fotos na academia, com um dispositivo de rastreamento de
condicionamento físico ou comidas saudáveis, teriam um preço pelo serviço menor em relação
ao que tinha estilo de vida tido por mais arriscado.
Matthias Leese (2014) ao estudar as “caixas pretas dos algoritmos” e o fracasso das
salvaguardas antidiscriminatórias na União Europeia, sustenta que o crescente uso de sistemas
algorítmicos dinâmicos seriam menos visíveis e rastreáveis, levando à diminuição da
responsabilização, em outras palavras, essas ferramentas estão mais ocultas e sensíveis. Com a
internet das Coisas há um aumento dos metadados, seus dispositivos podem captar, armazenar
e compartilhar uma grande variedade de informações, o que permite a criação de perfis mais
detalhados dos usuários.
Com o avanço das decisões automatizadas, o regime jurídico buscou maneiras de
proteção dos consumidores. Consoante Rafael A. F. Zanatta “o direito de requerer uma
explicação, em segunda instância, sobre uma decisão automatizada e o direito de obter uma
auditoria externa sobre aspectos discriminatórios dos algoritmos, como os de credit scoring”.
Observou o autor que a nossa Lei Geral de Proteção de Dados Pessoais (Lei 13.709/2018) não
trouxe um conceito jurídico de perfilização, diferentemente dos conceitos de dados pessoais,
dados pessoais sensíveis, tratamento, titular, controlador, operador, encarregado, anonimização,
consentimento, bloqueio, transferência internacional. Vale lembrar, essa prática não é
considerada ilícita desde que não extrapole a finalidade, adequação e necessidade do uso dos
dados, nesse sentido a LGPD inovou com importantes institutos que reforçaram o sistema de
proteção, conforme o princípio da isonomia inseriu no seu art. 6, o princípio da não
discriminação vedando práticas de tratamento de dados para fins discriminatórios ilícitos ou
abusivos.
Nessa esteira, Rafael A. F. Zanatta (2019) identifica três obrigações derivadas da
perfilização. A primeira de índole informacional, caracterizada como a obrigação de dar ciência
da existência do perfil e garantir sua máxima transparência. A segunda de natureza
antidiscriminatórias, ligada à obrigação de não utilizar parâmetros de raça, gênero e orientação
religiosa como determinantes na construção do perfil. Por último, a dialógica, esta consiste na
obrigação de se engajar em um “processo dialógico” com as pessoas afetadas, garantindo a
explicação de como a perfilização funciona, sua importância para determinados fins e como
decisões são tomadas, já que esses são os destinatários da decisão.
A principal crítica sustentada pela doutrina é o aumento da vulnerabilidade das minorias
nas relações consumeristas. A exemplo das seguradoras nova-iorquinas, grupos como os idosos
podem ser identificados como mais predispostos a utilização de planos de saúde, levando assim
ao aumento do preço do serviço, assim dados etários, de locomoção em farmácias e ambientes
hospitalares podem ser processados durante a criação do perfil do usuário, inclusive, para uma
análise utilitarista que visa o lucro. Nesse diapasão, o direito constitucional à saúde e a não
discriminação do consumidor estaria afetado, violando os padrões mercadológicos de boa-fé
nas relações de consumo.
O viés algoritmo pode ser encontrado desde a origem do desenvolvimento do produto,
colocando grupos específicos em risco de vida. A vista disso, os cintos de segurança, apoios de
cabeça e airbags em carros são projetados mormente com base em dados coletados de testes em
manequins assimilados ao físico masculino. Desse modo, os seios das mulheres e o estado de
gravidez não entram nas medidas consideradas padrão. Como resultado, as mulheres têm 47%
mais chances de saírem seriamente feridas, 17% mais probabilidade de morrerem em relação
ao homem em um acidente semelhante (NIETHAMMER, 2020).
Nas plataformas digitais é comumente utilizado a perfilização para criar anúncios
personalizados por cookies, esses são ferramentas usadas para melhorar a experiência do
usuário porque deixa salvo na página acessada preferências do internauta, porém, permitir a
extração de informações e modulação do seu comportamento. O consentimento do usuário é a
manifestação livre, informada e inequívoca pela qual o titular concorda com o tratamento de
seus dados pessoais para uma finalidade determinada. A destinação desses dados para fins
diversos, de acordo com Ana Frazão, leva a uma perda de liberdade do consumidor. Assim
dizendo, há uma ausência de livre arbítrio do consumidor, já que seu comportamento nas redes
é moldado por algoritmos. Afirma Shoshana Zuboff (2018), o “capitalismo de vigilância” busca
modificar o comportamento humano como meio de produzir receitas e controle de mercado.
No século XIX, ao comprar um produto era comum o preço ser estipulado segundo as
vestes e feição do consumidor (KOGA,2021). Atualmente, os preços são expostos por etiquetas,
não exercendo mais qualquer influência no quantum as especificidades do comprador. Com a
ampliação dos mercados digitais, principalmente nas duas últimas décadas, as grandes
plataformas de comércio eletrônico delimitam os preços dos produtos e serviços ofertados
através de algoritmos de precificação, esses, consoante Ana Frazão e Carlos Goettenauer
(2022):
são aqueles que utilizam o preço no processo de geração contínua de conhecimento
computacional, seja a partir da coleta de dados relativos ao preço, seja por meio da
formulação de políticas de atribuição de preço a produtos como objetivo específico
ou seja, por fim, pela indução de comportamentos à adequação das ofertas
apresentadas.
Entendemos que a precificação por algoritmos não é nada ruim, como elucida Frazão e
Goettenauer, citando um estudo empírico realizado no início do século XIX, sobre o mercado
automotivo americano, constatou-se que minorias étnicas (afro-americanos, hispanos e nativos
norte-americano) pagavam aproximadamente 2% a mais por veículo comprados no varejo
tradicional, nas plataformas digitais essa desigualdade não ocorria. No nosso país, no campo da
saúde, o Google conseguiu detectar epidemias de gripe antes mesmo do Sistema Único de
Saúde, graças a análise de dados do buscador. Contudo, em certas conjunturas é inequívoco as
mazelas concebidas pela distorção da finalidade desses instrumentos.
Em 2012 o consumidor ao acessar o site da agência de viagens norte-americana Orbitz
com um aparelho da Apple pagava 30% a mais em suas compras em relação aos demais clientes
(WALKER, 2017). O algoritmo da plataforma tomava como parâmetro para a diferenciação os
dados obtidos por Cookies. Não negamos que a inteligência artificial possa beneficiar os
consumidores em algumas situações, há diversos mecanismos de busca na rede que ajudam a
escolher o melhor preço. Todavia, em concordância com Ezrachi e Stucke (2018), os
computadores em conluio é um perigo, embora as leis de longa data impeçam as empresas de
fixar preços, os algoritmos orientados por dados agora podem monitorar rapidamente os preços
dos concorrentes e ajustar seus próprios preços de acordo, isso, sob certas condições de
mercado, também levar a conluio tácito.
Então, o que é aparentemente benéfico, maior transparência de preços ironicamente
pode acabar prejudicando os consumidores. Um segundo perigo é a discriminação
comportamental, assim, as empresas rastreiam e traçam o perfil dos consumidores para levá-
los a comprar mercadorias pelo preço mais alto que estão dispostos a pagar. A ascensão das
superplataformas e seu relacionamento de inimizade com desenvolvedores de aplicativos
independentes levanta um terceiro perigo. Ao controlar as principais plataformas (como o
sistema operacional dos smartphones), os monopólios orientados por dados ditam o fluxo de
dados pessoais e determinam quem pode explorar potenciais compradores.
Os algoritmos podem alterar a dinâmica do mercado e facilitar o conluio tácito, preços
mais altos e maior desigualdade de riqueza. Em tal realidade, as empresas podem ter um
incentivo distinto para mudar as decisões de preços de humanos para algoritmos. Por isso que
políticas públicas precisam criar freios e contrapesos para diminuir os riscos de conluio
algorítmico tácito e impedir vantagem manifestamente excessiva, que nos termos do CDC é um
comportamento abusivo. O télos do diploma consumerista é a possibilidade de regular o
equilíbrio de interesses, principalmente o de índole patrimonial. Busca evitar circunstâncias que
colocam o consumidor em desvantagem exagerada, já que carrega potencial para ferir a boa-fé
objetiva e a equidade.
Temos atualmente como consumidores a falsa percepção que somos “cidadãos da rede”
global. Consequentemente, diferente do que ocorria antigamente, ficamos mais sensíveis à
precificação geográfica, principalmente as relacionadas a mídias digitais. Outrora conteúdos de
entretenimento, como filmes, músicas e livros, eram comercializados a preços definidos dentro
de determinada divisa, sem se importar o consumidor com o preço que o mesmo item era
comercializado para fora daqueles limítrofes, isso ainda é uma realidade, porém, cada vez mais
ameaçada pela internet.
Diz Justinm Malbon (2016) que “um e-mail para um vizinho exige o mesmo esforço
financeiro de alguém do outro lado do planeta”. Desse modo, o custo de produção, sobretudo
de transmissão dos entretenimentos digitais pela internet são mormente os mesmos para
diferentes localidades. Apesar da existência de inúmeros mercados, a rede mundial de
computadores transmite a ideia de unicidade.
A discriminação geográfica é geralmente implementada através de duas práticas
diferentes. A primeira forma ocorre pela manipulação da estrutura de código do algoritmo
utilizado para selecionar e disponibilizar ofertas aos consumidores na rede internacional de
computadores. As empresas de tecnologia da informação contam com esses algoritmos para
processar grandes quantidades de dados, a estrutura de código dos algoritmos contém instruções
programadas para que a tecnologia facilite a disponibilização de ofertas adequadas aos
consumidores de acordo com seu perfil. No entanto, em muitos casos as empresas registram
informações sobre a origem geográfica do consumidor, utilizam os proxy de origem nacional
para discriminar consumidores, bloqueando ofertas ou aumentando o preço dos produtos em
detrimento de consumidores de diferentes nacionalidades, bastante presente no mercado
hoteleiro.
A precificação geográfica é a precificação de diferentes ofertas com alicerce na gênese
geográfica do usuário. A literatura econômica cita como uma forma de discriminação de preços,
nada mais do que o exercício comercial de vender a mesma mercadoria a preços diferentes para
consumidores de diferentes localidades. O bloqueio geográfico ou geo-bloqueio é definido
como um grupo de práticas comerciais que impossibilitam determinados clientes de ter acesso
e/ou adquirir produtos ou serviços ofertados por meio de uma interface online com suporte na
localização do cliente. Acrescente-se que tal bloqueio pode ser executado de diversas formas,
como bloqueio direto de determinado conteúdo na interface online (bloqueio geográfico
estrito), redirecionar os consumidores para uma interface diferente, restrição de cadastro na
interface online, recusa de entrega de um produto em determinado local, recusa de pagamento
ou meio de pagamento de um determinado estado, ou localidade, entre outros (FORTES;
MARTINS; OLIVEIRA, 2021). Nesse sentido, são abusivas a elevação de preço sem justa
causa para produtos ou serviços, busca-se tutelar a relação pré-contratual ou produtos e serviços
tabelados. Quanto a alteração do preço do produto pelo critério de localização do comprador é
importante salientar que não se trata de frete.
Recentemente o Ministério Público acusou a empresa Decolar.com de priorizar
consumidores estrangeiros através do georreferenciamento (JOTA, 2018). Essas espécies de
discriminação, conforme o vanguardista Código de Defesa do Consumidor, art. 39, são
consideradas práticas abusivas, anticompetitiva, além do mais atenta conta o princípio da boa-
fé objetiva. Visando resguardar o interesse difuso dos consumidores o Ministério Público do
Estado do Rio de Janeiro ajuizou a Ação Civil Pública n.º 0111117-27.2019.8.19.0001, no qual
narra detalhadamente este tipo de prática, a tabela abaixo foi retirada dos autos da ação em
comento:
Hotel Preço (Brasil) Preço (Argentina) Diferença
Fasano (São Paulo) US$ 619,71 US$ 413,75 49 %
Tulip Inn Rio US$ 136,65 US$ 95,66 42 %
Belmond US$ 541,53 US$ 386 40 %
Copacabana Palace
Ramada (Recife) INDISPONÍVEL US$ 98,83 N/A
Best Western US$ 82,09 US$ 60,26 36 %
(Recife)
Safari (Natal) US$ 54,18 US$ 38,77 39 %
Petras (Curitiba) US$ 59,93 US$ 45,55 31 %
5. CONSIDERAÇÕES FINAIS
Pode-se inferir que a sociedade digital usufrui dos bons frutos da inteligência artificial,
a revolução tecnológica ocorreu em ritmo acelerado, em contrapartida, questões éticas e
jurídicas acabam sendo negligenciadas. Em alguns casos são utilizados uma perspectiva
utilitarista, desprezam-se os impactos negativos em prol dos positivos de modo tácito. Adota-
se a datificação, assim, experiências humanas se convertem em dados, decisões complexas com
alto nível de subjetividade viram números e operações aritméticas. Esse fenômeno pode levar
a discriminação algorítmica nas plataformas de consumo caso adotado um viés desproporcional
sem respeito a legislação e as boas práticas mercatórias.
A crescente subjetividade das decisões da AI não significa mais justiça em seu
julgamento, apenas maior discricionariedade. É notório que os algoritmos trouxeram inúmeras
benesses, porém isso não evita que em determinadas situações haja violação de direitos,
consequentemente colocam pessoas em circunstâncias ferrenhas, como visto, são modelos a
geodiscriminação, a precificação personalizada e a perfilização do consumidor de forma
desproporcional. Práticas essas que se não seguirem os limites impostos pela LGPD e o
ordenamento jurídico como um todo acarreta o desequilíbrio da relação contratual, ocasionando
atos ilícitos.
Por isso, mostra-se imprescindível o estudo dos seus impactos, não somente para
identificar e analisar novos danos e formas de proteção do consumidor, mas também para a
adequação das empresas que atuam no setor. Os algoritmos computacionais são recentes e estão
em constante expansão, há um campo fértil e virgem sobre as práticas abusivas decorrentes
dessa tecnologia. Se a Inteligência artificial é responsável por decidir algo que tenha impacto
nas nossas vidas, nada mais justo que tenhamos o direito de fiscalizar e sermos informados de
maneira transparente sobre o processo de tomada de decisão.
Assim, buscamos demonstrar como essas máquinas reproduzem discriminações
humanas negativas. Na sociedade de massa os efeitos desse fenômeno são incalculáveis. No
setor privado, as decisões podem afetar seriamente os consumidores pertencentes às camadas
mais vulneráveis da sociedade. A título individual não apresenta ser um grande problema a
pessoa pagar 5% a mais no preço de um smartphone comprado em uma plataforma de e-
commerce. Todavia, mostra-se de grande lesividade se as camadas mais vulneráveis da
sociedade pagam valores distintos simplesmente por pertencerem a esses grupos, são
inadmissíveis a diferenciação de preços por algoritmo e a criação de castas pelos mesmos.
A LGPD é o instrumento jurídico mais relevante para combater a discriminação ilegal,
se efetivamente aplicada pode ajudar a proteger as pessoas. Mas alguns tipos de decisões
algorítmicas escapam às leis atuais, principalmente aquelas originarias de algoritmos
complexos com capacidade de causar exclusões silenciosas, difíceis de serem comprovadas na
esfera judicial. Por isso seria interessante adotarmos leis específicas para cada área, como a
segurança do trabalho, proteção ao consumidor, meio ambiente, ente outas. Em diferentes
setores, os riscos mudam, e diferentes normas e valores estão em jogo. Portanto, a proteção
ideal deveria ser específica para cada setor.
6. REFERÊNCIAS BIBLIOGRÁFICAS
ALENCAR, Ana Catarina. Inteligência Artificial, Ética e Direito. Saraiva Educação SA,
2022.
Artificial intelligence beats eight world champions at bridge. The Guardian. Disponivel em:
<https://www.theguardian.com/technology/2022/mar/29/artificial-intelligence-beats-eight-
world-champions-at-bridge>. Acesso em 01 out. de 2022.
Atlas, 2010.
BAROCAS, Solon; SELBST, Andrew D. Big data's disparate impact. Calif. L. Rev., v. 104,
p. 671, 2016. Disponível em: <https://heinonline.org/hol-cgi-
bin/get_pdf.cgi?handle=hein.journals/calr104§ion=25>. Acesso em: 13 out. 2022.
BERLINSKI, David. O advento do algoritmo: a idéia que governa o mundo. Globo, 2002.
BRASIL. Lei nº 8.137, de 27 de dezembro de 1990. Define crimes contra a ordem tributária,
econômica e contra as relações de consumo, e dá outras providências. Disponível em: <
http://www.planalto.gov.br/ccivil_03/leis/L8137.htm#:~:text=L8137&text=LEI%20N%C2%
BA%208.137%2C%20DE%2027%20DE%20DEZEMBRO%20DE%201990.&text=Define%
20crimes%20contra%20a%20ordem,consumo%2C%20e%20d%C3%A1%20outras%20provi
d%C3%AAncias>. Acesso em 31 de out. 2022. BRASIL. Lei nº. 8.078, de 11 de setembro
de 1990. Código de Defesa do Consumidor. Dispõe sobre a proteção do consumidor e dá
outras providências. Disponível em: <http://www.planalto.gov.br/ccivil_03/Leis/L8078.htm>
. Acesso em 31 de out. 2022.
CAVALIERI FILHO, Sergio. Programa de Responsabilidade Civil . 15 ed. São Paulo: Atlas,
2022.
CONNOLLY, Daniel W. An evaluation of the world wide web as a platform for electronic
commerce. In: Readings in electronic commerce. 1997. p. 55-71. Disponível em:<
https://dl.acm.org/doi/abs/10.5555/247958.247961>. Acesso em 01 out. de 2022.
KELLER, G. M. F., Vaz, J. C., & da Silva SantAnna, L. Novos horizontes negociais nas
plataformas digitais baseados em: a concorrência desleal sob a prática do geoblocking e geo-
pricing. Revista Quaestio Iuris, v. 13, p. 1914-1938, 2020. .Disponível em:< https://www.e-
publicacoes.uerj.br/index.php/quaestioiuris/article/view/46034>. Acesso em: 15 maio 2022.
KOGA, Bruno Yudi Soares. Precificação personalizada na era digital consumo, dados e
concorrência. 2021. Disponível em: < http://191.232.186.80/handle/123456789/3371>.
Acesso em: 15 de out. de 2022.
LEESE, Matthias. The new profiling: Algorithms, black boxes, and the failure of anti-
discriminatory safeguards in the European Union. Security Dialogue, v. 45, n. 5, p. 494-511,
2014.. Disponível em: <https://journals.sagepub.com/doi/abs/10.1177/0967010614544204>.
Acesso em: 10 out. de 2022.
NERY JÚNIOR, Nélson. Princípios do processo civil à luz da Constituição Federal. São
Paulo: Revista dos Tribunais, 1999.
NIETHAMMER, Carmen. AI Bias Could Put Women’s Lives At Risk – A Challenge For
Regulators. Forbes. New York, 2-3-2020. Disponível em: <
https://www.academia.edu/download/62326629/AI_Bias_Could_Put_Womens_Lives_At_Ris
k_-_A_Challenge_For_Regulators20200310-84471-17clytw.pdf> . Acesso em: 11 de out. de
2022.
ROSA, Alexandre Morais da. A questão digital: o impacto da inteligência artificial no Direito.
Revista de Direito da Faculdade Guanambi, Guanambi, v. 6, n. 02, e259, jul./dez. 2019.
Disponível
em:<http://revistas.faculdadeguanambi.edu.br/index.php/Revistadedireito/article/view/259>.
Acesso em: 31 de maio 2022.
STUCKE, Maurice; EZRACHI, Ariel,. “eDistortions: How Data-Opolies are dissipating the
Internet's potencial”, em Guy Rolnik (ed.) Digital Platforms and Concentration , Stigler
Center, University of Chicago Booth School of Business, 2018. Disponível em:
<https://promarket.org/digital-platforms-concentration/ >. Acesso em: 12 out. 2022.
TEIXEIRA, Tarcísio. Comércio Eletrônico: conforme o Marco Civil da Internet e a
regulamentação do e-commerce no Brasil. São Paulo: Saraiva, 2015.
VESELOV, V. Computer AI passes Turing test in ‘world first’. BBC News. Disponivel em:
<https://www.bbc.com/news/technology-27762088>. Acesso em: 01 out. de 2022.
WALKER, Tim, How much …? The rise of dynamic and personalised pricing | Money | The
Guardian, disponível em: https://www.theguardian.com/global/2017/nov/20/dynamic-
personalised-pricing. Acesso em: 12 de out. de 2022.
ZUBOFF, Shoshana. Big other: capitalismo de vigilância e perspectivas para uma civilização
de informação. BRUNO, Fernanda et al, p. 17-68, 2015. Disponível em: <
https://www.researchgate.net/profile/Lucas-Melgaco-
2/publication/329444654_Tecnopoliticas_da_Vigilancia_Perspectivas_da_Margem/links/5f68
fc78299bf1b53ee96f86/Tecnopoliticas-da-Vigilancia-Perspectivas-da-Margem.pdf#page=18.
Acesso em: 11 de out. de 2022.