Escolar Documentos
Profissional Documentos
Cultura Documentos
Orientadora:
Professora: Cleusa de Oliveira Birchal.
BRASIL
2023
Definição do que é ser ético.
Hoje a questão mudou muito: falta a plena consciência do efeito das novas
tecnologias. Poucas das nossas ações nesta sociedade tecnológica globalizada são
acompanhadas da consciência das consequências, e isso não permite uma reflexão
ética. Nem mesmo os criminosos informáticos conhecem a suas vítimas (um exemplo
é o phishing).
Caímos em uma balança em que quanto maior o controle das tecnologias, menor a
privacidade da população
O Marco Civil da Internet, introduzido pela Lei nº 12.965/2014, tem natureza peculiar
pela sua idealização, criação e discussão, contando com ampla participação dos
cidadãos em fóruns de discussão, na Internet e em audiências públicas, promovidas
pelo Congresso Nacional Brasileiro.
O que é o ChatGPT?
Educação: O ChatGPT pode ser usado para fornecer tutoria ou suporte educacional.
Principais ferramentas:
No Brasil, não há leis específicas que abordem o ChatGPT. No entanto, existem leis
gerais que podem ser aplicadas ao uso do ChatGPT, como a Lei Geral de Proteção de
Dados (LGPD).
Em 2023, o ChatGPT foi usado para gerar conteúdo falso sobre a pandemia de
COVID-19. Este caso chamou a atenção para os riscos potenciais do uso do ChatGPT
para espalhar desinformação.
O que é IA?
Principais usos:
Automação: A IA pode ser usada para automatizar tarefas que atualmente são
realizadas por humanos, como atendimento ao cliente, diagnóstico médico e
tradução de idiomas.
Melhoria da tomada de decisão: A IA pode ser usada para ajudar os humanos
a tomar decisões mais informadas, fornecendo insights sobre dados e
tendências.
Desenvolvimento de novos produtos e serviços: A IA pode ser usada para
desenvolver novos produtos e serviços, como carros autônomos e assistentes
virtuais.
Principais ferramentas:
No Brasil, existem leis gerais que podem ser aplicadas ao uso da IA, como a Lei Geral
de Proteção de Dados (LGPD). Além disso, existe uma lei específica que aborda a IA,
a Lei de Inovação (Lei nº 13.243/2016).
Um conceito negativo sobre o ChatGPT é que ele pode ser usado para criar conteúdo
falso ou enganador. Por exemplo, o ChatGPT pode ser usado para gerar notícias
falsas ou propaganda que pode influenciar as eleições ou causar danos à reputação
de indivíduos ou organizações.
Conceito positivo sobre o ChatGPT ou IA do ponto de vista do grupo:
Um conceito positivo sobre o ChatGPT é que ele pode ser usado para melhorar a vida
das pessoas, fornecendo assistência e serviços que não seriam possíveis sem a IA.
Por exemplo, o ChatGPT pode ser usado para fornecer atendimento ao cliente 24
horas por dia, 7 dias por semana, ou para ajudar as pessoas com deficiência a realizar
tarefas cotidianas.
Uso Ilegal:
O sistema não pode ser utilizado para atividades ilegais ou antiéticas, incluindo, mas
não se limitando a, hacking, disseminação de malware, plágio e outras violações da
lei.
Discurso de Ódio:
O sistema não pode gerar conteúdo que promova o ódio com base em características
como raça, religião, etnia, gênero, orientação sexual etc.
Informações Sensíveis:
O sistema não pode fornecer informações sensíveis ou pessoais sobre indivíduos sem
o devido consentimento.
Manipulação:
O sistema não pode ser usado para manipular ou enganar pessoas de maneira
prejudicial.
Violação de Privacidade:
O sistema não pode ajudar na violação da privacidade de terceiros, incluindo a
obtenção não autorizada de informações pessoais.
Violação de Direitos Autorais:
O sistema não pode gerar conteúdo que viole direitos autorais ou propriedade
intelectual.
Além desses limites éticos, o uso de modelos de linguagem como este é
regulamentado por leis específicas em diferentes jurisdições. É responsabilidade dos
usuários garantir que estão em conformidade com todas as leis e regulamentações
aplicáveis ao utilizar os serviços do sistema.
Embora o sistema seja programado para seguir esses princípios éticos e legais, não é
perfeito, e pode haver casos em que a saída não atenda completamente a esses
padrões. É importante que os usuários usem seu próprio discernimento e julgamento
ao interpretar e aplicar as informações fornecidas pelo sistema.
Em caso de um vazamento de dados ou de uma violação dos princípios éticos e
legais, o procedimento a ser seguido pode variar dependendo do contexto, da
legislação local e das políticas da plataforma ou serviço em que o incidente ocorreu.
Aqui estão algumas diretrizes gerais:
Responsabilidade:
A responsabilidade legal pode variar dependendo de quem está usando o serviço ou
modelo de linguagem. Se um usuário estiver usando indevidamente o serviço de uma
maneira que viole as leis ou políticas, a responsabilidade recai sobre esse usuário.
A responsabilidade da OpenAI, a desenvolvedora deste modelo de linguagem, é
limitada às condições estabelecidas em seus termos de serviço e políticas.
Ações Legais:
Se uma violação for grave e envolver atividades ilegais, as partes prejudicadas podem
buscar ações legais contra os responsáveis.
Autoridades Reguladoras:
Em muitos casos, as autoridades reguladoras de proteção de dados têm o poder de
investigar e impor penalidades em casos de violações.
É importante que os usuários estejam cientes das leis e regulamentações de proteção
de dados em suas jurisdições e sigam as diretrizes e procedimentos estabelecidos
pelas plataformas ou serviços que estão utilizando. Além disso, em caso de dúvida ou
preocupação, consultar profissionais legais especializados em proteção de dados
pode ser apropriado.
GDPR
O Regulamento Geral de Proteção de Dados (GDPR) é uma legislação da União
Europeia (UE) que entrou em vigor em 25 de maio de 2018. O GDPR tem como
objetivo fornecer um conjunto unificado de regras para proteger os dados pessoais dos
cidadãos da UE e do Espaço Econômico Europeu (EEE) e dar mais controle às
pessoas sobre suas informações pessoais.
Âmbito de Aplicação:
O GDPR se aplica a todas as organizações que processam dados pessoais de
indivíduos na UE, independentemente de a organização estar localizada na UE ou
não. Ele também se aplica a organizações fora da UE que oferecem bens ou serviços
a residentes da UE ou que monitoram o comportamento de residentes da UE.
O GDPR impõe penalidades substanciais para organizações que não cumprem suas
disposições, incluindo multas significativas que podem chegar a uma porcentagem do
faturamento global anual.
É importante que as organizações que processam dados pessoais estejam cientes das
obrigações impostas pelo GDPR e implementem as medidas necessárias para garantir
a conformidade. Isso inclui a consideração de práticas de privacidade desde o design
de sistemas e serviços.
Algoritmo no Mercado Inteligente
Em um mercado inteligente, o algoritmo k-means pode ser usado para agrupar clientes
com base em seus hábitos de compra. Por exemplo, o algoritmo pode ser usado para
agrupar clientes que compram produtos similares ou que visitam a mesma loja com
frequência.
Esses grupos de clientes podem então ser usados para direcionar anúncios ou ofertas
personalizados. No entanto, o uso do algoritmo k-means para agrupar clientes pode
revelar informações privadas sobre eles. Por exemplo, um grupo de clientes que
compram produtos de higiene feminina pode revelar que os clientes desse grupo são
mulheres.
Para evitar a invasão de privacidade, o algoritmo k-means deve ser usado com
cuidado em um mercado inteligente. Os dados usados para treinar o algoritmo devem
ser anonimizados, de modo que não seja possível identificar os clientes individuais.
Além disso, o algoritmo deve ser usado apenas para fins de agregação, de modo que
não seja possível rastrear o comportamento individual dos clientes.
Aqui estão algumas medidas que podem ser tomadas para evitar a invasão de
privacidade do algoritmo k-means em um mercado inteligente:
Anonimização dos dados: Os dados usados para treinar o algoritmo devem ser
anonimizados, de modo que não seja possível identificar os clientes individuais.
Isso pode ser feito removendo informações pessoais, como nomes, endereços
e números de telefone.
Uso apenas para fins de agregação: O algoritmo deve ser usado apenas para
fins de agregação, de modo que não seja possível rastrear o comportamento
individual dos clientes. Isso pode ser feito agrupando os clientes por
características genéricas, como idade, sexo ou localização.
Transparência com os clientes: Os clientes devem ser informados sobre como
seus dados estão sendo usados. Isso pode ser feito através de uma política de
privacidade clara e concisa.
Prevenções
Educação e Sensibilização:
Conclusão
Referências