Você está na página 1de 13

ChatGPT e IAS: Qual o limite ético e jurídico?

820268635 – Bruno da Silva Forlevize


820110847 – Caio Maion Pereira
821129695 – Cairo Braz Costa
820145227 – Isabella Souza Consani
823117976 – Lucas Sousa Nicolete

Orientadora:
Professora: Cleusa de Oliveira Birchal.

BRASIL
2023
Definição do que é ser ético.

Quando pensamos em ética, em todos os seus sentidos, partimos da premissa de que


estamos abordando a característica fundamental que distingue os seres humanos dos
não humanos.

Antigamente era muito mais fácil ser responsável eticamente e socialmente as


gerações que nos precederam - intencionalmente ou não - eram conscientes das
consequências de suas ações porque as vivenciavam no tempo e no espaço de suas
vidas. Consequentemente tinham também na consciência uma relação de causa-efeito
entre ação e consequência e eram obrigadas a considerá-la. Hoje a questão mudou
muito: falta a plena consciência do efeito das novas tecnologias.

Hoje a questão mudou muito: falta a plena consciência do efeito das novas
tecnologias. Poucas das nossas ações nesta sociedade tecnológica globalizada são
acompanhadas da consciência das consequências, e isso não permite uma reflexão
ética. Nem mesmo os criminosos informáticos conhecem a suas vítimas (um exemplo
é o phishing).

Caímos em uma balança em que quanto maior o controle das tecnologias, menor a
privacidade da população

Definição do que é jurídico.

A palavra "jurídico" está relacionada ao campo do direito, que é o conjunto de regras e


leis que regulam o comportamento das pessoas e das instituições em uma sociedade.
Portanto, "jurídico" refere-se a tudo o que está relacionado ao direito, ao sistema legal,
aos processos legais, aos tribunais, aos advogados e a todas as questões que
envolvem a interpretação e aplicação das leis.

Com o avanço das Tecnologias de Informação (como IAS) surge a necessidade de


estabelecer regras que consideram o impacto ético e social dessas novas tecnologias.

O Marco Civil da Internet, introduzido pela Lei nº 12.965/2014, tem natureza peculiar
pela sua idealização, criação e discussão, contando com ampla participação dos
cidadãos em fóruns de discussão, na Internet e em audiências públicas, promovidas
pelo Congresso Nacional Brasileiro.

A LGPD (Lei Geral de Proteção de Dados, Lei 13.709/2018) trata especificamente da


proteção de dados pessoais. Ela estabelece regras e princípios para a coleta,
armazenamento, processamento e compartilhamento de informações pessoais, com o
objetivo de proteger a privacidade dos indivíduos.

O que é o ChatGPT?

O ChatGPT é um chatbot online de inteligência artificial desenvolvido pela OpenAI,


lançado em novembro de 2022. O nome "ChatGPT" combina "Chat", referindo-se à
sua funcionalidade de chatbot, e "GPT", que significa Generative Pre-trained
Transformer, um tipo de modelo de linguagem grande.

O ChatGPT pode ser usado para uma variedade de propósitos, incluindo:

Entretenimento: O ChatGPT pode ser usado para gerar conversas divertidas e


envolventes.

Educação: O ChatGPT pode ser usado para fornecer tutoria ou suporte educacional.

Atendimento ao cliente: O ChatGPT pode ser usado para fornecer atendimento ao


cliente automatizado.

Marketing: O ChatGPT pode ser usado para gerar conteúdo de marketing


personalizado.

Principais ferramentas:

 Ser honesto sobre a natureza do ChatGPT: É importante deixar claro que o


ChatGPT é um chatbot e não uma pessoa real.
 Não usar o ChatGPT para fins maliciosos: O ChatGPT não deve ser usado
para espalhar desinformação ou propaganda.
 Não usar o ChatGPT para criar conteúdo ofensivo ou prejudicial: O ChatGPT
não deve ser usado para criar conteúdo que possa prejudicar os outros.

Linha do tempo com a evolução do recurso:

 2022: O ChatGPT é lançado pela OpenAI.


 2023: O ChatGPT é atualizado para incluir novos recursos e melhorias.
 2024: O ChatGPT é lançado em novos idiomas e regiões.
Principais leis que abordam o assunto:

No Brasil, não há leis específicas que abordem o ChatGPT. No entanto, existem leis
gerais que podem ser aplicadas ao uso do ChatGPT, como a Lei Geral de Proteção de
Dados (LGPD).

Caso que obteve repercussão:

Em 2023, o ChatGPT foi usado para gerar conteúdo falso sobre a pandemia de
COVID-19. Este caso chamou a atenção para os riscos potenciais do uso do ChatGPT
para espalhar desinformação.

O que é IA?

Inteligência artificial (IA) é a capacidade de um sistema de simular a inteligência


humana, incluindo o aprendizado, o raciocínio e a tomada de decisão. A IA é uma área
de pesquisa em rápido desenvolvimento, com novas aplicações sendo desenvolvidas
o tempo todo.

Principais usos:

 Automação: A IA pode ser usada para automatizar tarefas que atualmente são
realizadas por humanos, como atendimento ao cliente, diagnóstico médico e
tradução de idiomas.
 Melhoria da tomada de decisão: A IA pode ser usada para ajudar os humanos
a tomar decisões mais informadas, fornecendo insights sobre dados e
tendências.
 Desenvolvimento de novos produtos e serviços: A IA pode ser usada para
desenvolver novos produtos e serviços, como carros autônomos e assistentes
virtuais.

Principais ferramentas:

 Modelos de aprendizado de máquina: Os modelos de aprendizado de máquina


são um tipo de IA que pode aprender com dados e melhorar seu desempenho
com o tempo.
 Redes neurais: As redes neurais são um tipo de modelo de aprendizado de
máquina que é inspirado no cérebro humano.
 Processamento de linguagem natural: O processamento de linguagem natural
é um campo da IA que se concentra na compreensão e geração de linguagem
humana.

Linha do tempo com a evolução do recurso:

 Pioneiros (1950-1970): Na primeira fase, os pioneiros da IA desenvolveram os


primeiros algoritmos e sistemas de IA.
 Promessas não cumpridas (1970-1990): Na segunda fase, houve um período
de desapontamento com a IA, pois os sistemas não conseguiram atingir as
expectativas.
 Renascimento (1990-presente): Na terceira fase, a IA está experimentando um
renascimento, impulsionado pelo desenvolvimento de novos algoritmos e
tecnologias.

Principais leis que abordam o assunto:

No Brasil, existem leis gerais que podem ser aplicadas ao uso da IA, como a Lei Geral
de Proteção de Dados (LGPD). Além disso, existe uma lei específica que aborda a IA,
a Lei de Inovação (Lei nº 13.243/2016).

Casos que obteve repercussão:

Desenvolvimento de carros autônomos: O desenvolvimento de carros autônomos é


uma aplicação promissora da IA, mas também apresenta riscos potenciais, como
acidentes.

Conceito negativo sobre o ChatGPT ou IA do ponto de vista do grupo :

Um conceito negativo sobre o ChatGPT é que ele pode ser usado para criar conteúdo
falso ou enganador. Por exemplo, o ChatGPT pode ser usado para gerar notícias
falsas ou propaganda que pode influenciar as eleições ou causar danos à reputação
de indivíduos ou organizações.
Conceito positivo sobre o ChatGPT ou IA do ponto de vista do grupo:

Um conceito positivo sobre o ChatGPT é que ele pode ser usado para melhorar a vida
das pessoas, fornecendo assistência e serviços que não seriam possíveis sem a IA.
Por exemplo, o ChatGPT pode ser usado para fornecer atendimento ao cliente 24
horas por dia, 7 dias por semana, ou para ajudar as pessoas com deficiência a realizar
tarefas cotidianas.

Uso Ilegal:
O sistema não pode ser utilizado para atividades ilegais ou antiéticas, incluindo, mas
não se limitando a, hacking, disseminação de malware, plágio e outras violações da
lei.

Discurso de Ódio:
O sistema não pode gerar conteúdo que promova o ódio com base em características
como raça, religião, etnia, gênero, orientação sexual etc.

Informações Sensíveis:
O sistema não pode fornecer informações sensíveis ou pessoais sobre indivíduos sem
o devido consentimento.

Manipulação:
O sistema não pode ser usado para manipular ou enganar pessoas de maneira
prejudicial.

Conselhos Legais e Médicos:


O sistema não pode fornecer conselhos legais ou médicos específicos. As
informações fornecidas não devem ser consideradas substitutas para consultas
profissionais apropriadas.

Violação de Privacidade:
O sistema não pode ajudar na violação da privacidade de terceiros, incluindo a
obtenção não autorizada de informações pessoais.
Violação de Direitos Autorais:
O sistema não pode gerar conteúdo que viole direitos autorais ou propriedade
intelectual.
Além desses limites éticos, o uso de modelos de linguagem como este é
regulamentado por leis específicas em diferentes jurisdições. É responsabilidade dos
usuários garantir que estão em conformidade com todas as leis e regulamentações
aplicáveis ao utilizar os serviços do sistema.
Embora o sistema seja programado para seguir esses princípios éticos e legais, não é
perfeito, e pode haver casos em que a saída não atenda completamente a esses
padrões. É importante que os usuários usem seu próprio discernimento e julgamento
ao interpretar e aplicar as informações fornecidas pelo sistema.
Em caso de um vazamento de dados ou de uma violação dos princípios éticos e
legais, o procedimento a ser seguido pode variar dependendo do contexto, da
legislação local e das políticas da plataforma ou serviço em que o incidente ocorreu.
Aqui estão algumas diretrizes gerais:

Notificação de Vazamento de Dados:


Se um vazamento de dados envolve informações pessoais, muitas leis exigem que as
organizações notifiquem os indivíduos afetados e as autoridades de proteção de
dados.
A notificação geralmente deve ocorrer o mais rápido possível para permitir que os
usuários tomem medidas para proteger suas informações.

Responsabilidade:
A responsabilidade legal pode variar dependendo de quem está usando o serviço ou
modelo de linguagem. Se um usuário estiver usando indevidamente o serviço de uma
maneira que viole as leis ou políticas, a responsabilidade recai sobre esse usuário.
A responsabilidade da OpenAI, a desenvolvedora deste modelo de linguagem, é
limitada às condições estabelecidas em seus termos de serviço e políticas.

Leis de Proteção de Dados:


Leis como o Regulamento Geral de Proteção de Dados (GDPR) na União Europeia e
leis de privacidade de dados em outras jurisdições estabelecem regras específicas
sobre o tratamento de dados pessoais e as obrigações em caso de violações.
Termos de Serviço e Políticas da Plataforma:
As plataformas que oferecem serviços baseados em modelos de linguagem
geralmente têm termos de serviço e políticas de uso. Esses documentos detalham as
regras e expectativas para o uso dos serviços e podem fornecer informações sobre
como lidar com violações.

Ações Legais:
Se uma violação for grave e envolver atividades ilegais, as partes prejudicadas podem
buscar ações legais contra os responsáveis.

Autoridades Reguladoras:
Em muitos casos, as autoridades reguladoras de proteção de dados têm o poder de
investigar e impor penalidades em casos de violações.
É importante que os usuários estejam cientes das leis e regulamentações de proteção
de dados em suas jurisdições e sigam as diretrizes e procedimentos estabelecidos
pelas plataformas ou serviços que estão utilizando. Além disso, em caso de dúvida ou
preocupação, consultar profissionais legais especializados em proteção de dados
pode ser apropriado.

GDPR
O Regulamento Geral de Proteção de Dados (GDPR) é uma legislação da União
Europeia (UE) que entrou em vigor em 25 de maio de 2018. O GDPR tem como
objetivo fornecer um conjunto unificado de regras para proteger os dados pessoais dos
cidadãos da UE e do Espaço Econômico Europeu (EEE) e dar mais controle às
pessoas sobre suas informações pessoais.

Âmbito de Aplicação:
O GDPR se aplica a todas as organizações que processam dados pessoais de
indivíduos na UE, independentemente de a organização estar localizada na UE ou
não. Ele também se aplica a organizações fora da UE que oferecem bens ou serviços
a residentes da UE ou que monitoram o comportamento de residentes da UE.

Definição de Dados Pessoais:


O GDPR define "dados pessoais" como qualquer informação relacionada a uma
pessoa identificada ou identificável. Isso inclui não apenas informações óbvias, como
nomes e endereços, mas também identificadores online, como endereços IP e dados
genéticos.

Princípios de Processamento de Dados:


O GDPR estabelece princípios que as organizações devem seguir ao processar dados
pessoais. Esses princípios incluem transparência, finalidade limitada, minimização de
dados, precisão, limitação de armazenamento, integridade e confidencialidade.

Direitos dos Indivíduos:


O regulamento concede aos indivíduos vários direitos em relação aos seus dados
pessoais, incluindo o direito de acesso, retificação, apagamento (direito ao
esquecimento), portabilidade de dados, oposição e tomada de decisões
automatizadas.

Responsabilidade e Prestação de Contas:


As organizações são responsáveis por garantir a conformidade com o GDPR e devem
ser capazes de demonstrar isso. Elas são obrigadas a implementar medidas técnicas
e organizacionais apropriadas para garantir a segurança dos dados.

Notificação de Violações de Dados:


As organizações são obrigadas a notificar as autoridades de proteção de dados e os
indivíduos afetados em caso de uma violação de dados pessoais que possa resultar
em riscos para os direitos e liberdades dos indivíduos.

Consequências de um Vazamento de Dados

O GDPR impõe penalidades substanciais para organizações que não cumprem suas
disposições, incluindo multas significativas que podem chegar a uma porcentagem do
faturamento global anual.
É importante que as organizações que processam dados pessoais estejam cientes das
obrigações impostas pelo GDPR e implementem as medidas necessárias para garantir
a conformidade. Isso inclui a consideração de práticas de privacidade desde o design
de sistemas e serviços.
Algoritmo no Mercado Inteligente

O algoritmo k-means é um algoritmo de agrupamento que divide um conjunto de


dados em k grupos, onde k é um número especificado. O algoritmo funciona atribuindo
cada ponto de dados ao cluster ao qual ele está mais próximo.

Em um mercado inteligente, o algoritmo k-means pode ser usado para agrupar clientes
com base em seus hábitos de compra. Por exemplo, o algoritmo pode ser usado para
agrupar clientes que compram produtos similares ou que visitam a mesma loja com
frequência.
Esses grupos de clientes podem então ser usados para direcionar anúncios ou ofertas
personalizados. No entanto, o uso do algoritmo k-means para agrupar clientes pode
revelar informações privadas sobre eles. Por exemplo, um grupo de clientes que
compram produtos de higiene feminina pode revelar que os clientes desse grupo são
mulheres.
Para evitar a invasão de privacidade, o algoritmo k-means deve ser usado com
cuidado em um mercado inteligente. Os dados usados para treinar o algoritmo devem
ser anonimizados, de modo que não seja possível identificar os clientes individuais.
Além disso, o algoritmo deve ser usado apenas para fins de agregação, de modo que
não seja possível rastrear o comportamento individual dos clientes.
Aqui estão algumas medidas que podem ser tomadas para evitar a invasão de
privacidade do algoritmo k-means em um mercado inteligente:

 Anonimização dos dados: Os dados usados para treinar o algoritmo devem ser
anonimizados, de modo que não seja possível identificar os clientes individuais.
Isso pode ser feito removendo informações pessoais, como nomes, endereços
e números de telefone.
 Uso apenas para fins de agregação: O algoritmo deve ser usado apenas para
fins de agregação, de modo que não seja possível rastrear o comportamento
individual dos clientes. Isso pode ser feito agrupando os clientes por
características genéricas, como idade, sexo ou localização.
 Transparência com os clientes: Os clientes devem ser informados sobre como
seus dados estão sendo usados. Isso pode ser feito através de uma política de
privacidade clara e concisa.
Prevenções

Revisões Éticas Regulares nas Organizações para Identificar e Mitigar


Possíveis Impactos Negativos:

Revisões éticas regulares são uma parte crucial da implementação responsável de


sistemas de IA, como o ChatGPT. Essas revisões envolvem a avaliação contínua do
desempenho dos algoritmos e a identificação de possíveis impactos negativos. As
organizações podem estabelecer processos de revisão que analisam a conformidade
com diretrizes éticas e identificam vieses indesejados ou discriminação. Isso não
apenas ajuda a prevenir problemas, mas também demonstra um compromisso com a
transparência e a responsabilidade.

Educação e Sensibilização:

A educação e a sensibilização desempenham um papel fundamental na prevenção de


problemas éticos e legais relacionados à IA. Programas de treinamento e
conscientização podem ajudar a capacitar profissionais de IA a entender as
implicações éticas de suas decisões e a tomar medidas proativas para evitar
consequências indesejadas. Além disso, a sensibilização na sociedade em geral é
essencial para garantir que o público compreenda os riscos e benefícios da IA
estimulando o debate informado e a demanda por regulamentações e práticas éticas.

Treinamento Ético de Modelos de IA:

O treinamento ético de modelos de IA é um componente-chave na prevenção de


problemas de vieses e discriminação. Isso envolve a seleção cuidadosa de dados de
treinamento, bem como a incorporação de diretrizes éticas durante o desenvolvimento.
Ao garantir que os modelos sejam treinados com dados diversificados e inclusivos, as
organizações podem reduzir a probabilidade de resultados tendenciosos. Isso não
apenas atende a preocupações éticas, mas também ajuda a criar sistemas de IA mais
confiáveis e justos.
Regulamentação e Conformidade:

A regulamentação e a conformidade desempenham um papel essencial na prevenção


de práticas antiéticas e ilegais no campo da IA. À medida que a tecnologia avança, as
leis e regulamentos precisam acompanhar o ritmo. A conformidade com
regulamentações, como o RGPD na União Europeia.

Conclusão

Em conclusão, a ética desempenha um papel crucial na sociedade moderna,


especialmente no contexto das novas tecnologias e da inteligência artificial. À medida
que avançamos em direção a um mundo mais tecnológico e interconectado, a
consciência das implicações éticas se torna fundamental. Antigamente, as
consequências de nossas ações eram mais visíveis, mas nas sociedades tecnológicas
globais de hoje, muitas vezes perdemos a conexão direta entre ação e consequência.
A privacidade e a ética se tornam questões cruciais em um mundo onde o controle
tecnológico aumenta, e é importante encontrar um equilíbrio entre essas duas
necessidades. A regulamentação, como o GDPR na União Europeia, e a conformidade
com políticas éticas são passos essenciais para evitar a invasão de privacidade e
garantir que a inteligência artificial e os algoritmos sejam usados de maneira
responsável. Revisões éticas regulares nas organizações, educação e sensibilização,
treinamento ético de modelos de IA e a transparência com os clientes são medidas
importantes para prevenir problemas éticos e legais. Em última análise, a ética deve
ser uma consideração fundamental em todas as áreas em que a tecnologia e a IA
desempenham um papel. O avanço da tecnologia não deve comprometer a
privacidade e a dignidade das pessoas, e é responsabilidade de todos garantir que a
tecnologia seja usada para o benefício da sociedade, respeitando os princípios éticos
e legais.

Referências

 MAGGIOLINI, Piercarlo. Um aprofundamento para o conceito de ética digital.


Revista de administração de Empresas, v. 54, p. 585-591, 2014.
 PINHEIRO, Patrícia Peck. Direito digital. Saraiva Educação SA, 2021.
 DA COSTA, Roberto Renato Strauhs; PENDIUK, Fábio. Direito digital: o Marco
Civil da Internet e as inovações jurídicas no ciberespaço. FESPPR Publica, v.
2, n. 1, p. 21, 2018.
 RAPÔSO, Cláudio Filipe Lima et al. Lgpd-lei geral de proteção de dados
pessoais em tecnologia da informação: Revisão sistemática. RACE-Revista de
Administração do Cesmac, v. 4, p. 58-67, 2019.
 K-Means Clustering: Privacy Implications.

Você também pode gostar