Você está na página 1de 406

Traduzido do Inglês para o Português - www.onlinedoctranslator.

com
Ética Informática e Responsabilidade Profissional
Para nossas esposas

Aline Bynum e Anne Rogerson


Material editorial e organização © 2004 por Blackwell Publishing Ltd

Rua Principal 350. Malden, MA 02148-5020, EUA 108


Cowley Road, Oxford 0X4 1JF, Reino Unido
550 Swanston Street, Carlton, Victoria 3053, Austrália

O direito de Terrell Ward Bynum e Simon Rogerson de serem identificados como os autores do
material editorial neste trabalho foi afirmado de acordo com a Lei de Direitos Autorais, Designs e
Patentes do Reino Unido de 1988.

Todos os direitos reservados. Nenhuma parte desta publicação pode ser reproduzida, armazenada em um
sistema de recuperação ou transmitida, de qualquer forma ou por qualquer meio, eletrônico, mecânico,
fotocópia, gravação ou outro, exceto conforme permitido pela Lei de Direitos Autorais, Designs e Patentes do
Reino Unido de 1988 , sem a prévia autorização do editor.

Publicado pela primeira vez em 2004 pela Blackwell Publishing Ltd

Dados de Catalogação na Publicação da Biblioteca do Congresso

Ética informática e responsabilidade profissional / editado com extensas introduções e


questões de estudo por Terrell Ward Bynum e Simon Rogerson.

pág. cm.

ISBN 1-85554-844-5—ISBN 1-85 5 54-845-3


1. Processamento eletrônico de dados – Aspectos morais e éticos. I. Bynum. Ala Terrel. II.
ROGERSON, Simão.

QA76.9.M65 C657 2004


174'.90904—dc21
2002153908

Um registro de catálogo para este título está disponível na Biblioteca Britânica.

Definir em pt Fotina
por Graphicgraft Limited, Hong Kong

Para mais informações sobre a Blackwell


Publishing, visite nosso site: http://
www.blackwellpublishing.com
Conteúdo

Notas sobre Contribuintes


Prefácio e Agradecimentos
Lista de Abreviaturas
Nota dos Editores: Diretrizes de Currículos de Computação 2001 do IEEE-CS e Introdução
dos Editores da ACM: Ética na Era da Informação

PARTE I: O que é Ética do Computador?


Introdução dos editores
1 Razão, Relatividade e Responsabilidade na Ética do Computador
James H. Moor
2 Problemas éticos únicos em tecnologia da informação
Walter Maner
3 Tomada de Decisões Éticas e Análise de Casos em Ética da Computação
Terrell Ward Bynum

Leituras Adicionais e Recursos da Web

PARTE II: Responsabilidade Profissional


Introdução dos editores
4 Poder não intencional no projeto de sistemas de computação
Chuck Huff
5 Informática e Responsabilidade Profissional
Donald Gotterbarn
6 A Ética do Gerenciamento de Projetos de Desenvolvimento de Software
Simon Rogerson

Caso a ser analisado: The London Ambulance Case


Leituras Adicionais e Recursos da Web
PARTE III: Códigos de Ética
Introdução dos editores
7 Não, PAPA: Por que códigos de ética incompletos são piores do que nenhum
N. Ben Fairweather

8 Sobre Licenciamento de Profissionais de Informática

Donald Gotterbarn

Caso a Analisar: O Caso Chemco Leituras


Adicionais e Recursos da Web

Apêndice: Exemplos de Códigos de Ética


A1 O Código de Ética e Prática Profissional da Engenharia de Software A
A2 Association for Computing Machinery Code of Ethics and Professional
Conduct
A3 O Código de Ética da Sociedade Australiana de Computação O
A4 Código de Conduta da Sociedade Britânica de Computação
A5 Código de Ética do Instituto de Engenheiros Elétricos e Eletrônicos
A6 Código de Ética do Instituto de Gestão de Sistemas de Informação

PARTE IV: Exemplos de Tópicos em Ética do Computador


Segurança do computador

Introdução dos editores


9 Segurança Informática e Valores Humanos
Peter G. Neumann
10 As invasões de hackers de computador são éticas?
Eugene H. Spafford

Caso a ser analisado: Um vôo de fantasia na


AeroWright Leituras adicionais e recursos da Web

Privacidade e computação
Introdução dos editores
11 Rumo a uma teoria da privacidade na era da informação
James H. Moor
12 Proteção de dados em um mundo em
mudança Elizabeth França
Caso a ser analisado: uma pequena questão de
privacidade Leituras adicionais e recursos da Web

Informática e Propriedade Intelectual


Introdução dos editores
Notas sobre Contribuintes

Terrell Ward Bynum: Professor de Filosofia e Diretor, Centro de Pesquisa em


Computação&Society, Southern Connecticut State University, New Haven, CT,
EUA; Co-Fundador da Série de Conferências ETHICOMP; Ex-presidente do
Comitê de Ética Profissional da Association for Computing Machinery

N. Ben Fairweather: Pesquisador e Filósofo Residente no Centro de Computação


e Responsabilidade Social, Universidade De Montfort, Leicester, Reino Unido;
Co-editor doRevista de Informação, Comunicação e Ética na Sociedade

Elizabeth França: Ombudsman de Telecomunicações do Reino Unido,


Wilderspool Park, Warrington, Reino Unido; anteriormente o Comissário de
Informação do Reino Unido, bem como o Registrador de Proteção de Dados do
Reino Unido

Krystyna Gorniak-Kocikowska: Professora de Filosofia e Pesquisadora Associada


Sênior no Centro de Pesquisa em Computação e Sociedade, Southern Connecticut
State University, New Haven, CT, EUA; Co-editor do primeiro livro didático de língua
polonesa em Ética da Computação

Donald Gotterbarn: Professor de Ciência da Computação e Diretor do


Software Engineering Ethics Research Institute, East Tennessee State
University, TN, EUA; Presidente do Comitê de Ética Profissional da
Association for Computing Machinery; Fellow no Centro de Filosofia Aplicada
e Ética Pública, Canberra, Austrália

Chuck Huff: Professor de Psicologia, St Olaf College, Northfield, MN, EUA; Editor
Associado da revistaComputadores e Sociedade;Editor Associado para
Psicologia da revistaRevisão do computador de ciências sociais

Deborah G. Johnson: Anne Shirley Carter Olsson Professora de Ética Aplicada,


Departamento de Tecnologia, Cultura e Comunicação, Universidade da Virgínia,
Charlottesville, VA, EUA: Presidente da INSEIT (Sociedade Internacional de Ética e
Tecnologia da Informação): autora do primeiro livro principal sobre Ética da
Computação

Walter Maner: Professor de Ciência da Computação, Bowling Green State University,


Bowling Green, OH, EUA; Fellow do Centro de Pesquisa em Computação e Sociedade;
pioneiro em Ética Informática (décadas de 1970 e 1980); autor e organizador de
conferências em Ética Informática e Ética Aplicada

James H. Moor: Professor de Filosofia, Dartmouth College, Hanover, NH, EUA;


Membro do Comitê Executivo, Associação Internacional de Computadores e
Filosofia; Ex-Presidente, Sociedade para Máquinas e Mentalidade; Editor associado,
Mentes e Máquinas;pioneiro em Ética da Computação (décadas de 1970 e 1980)

Peter G. Neumann: Cientista Principal, Laboratório de Ciência da Computação,


SRI International, Menlo Park, Califórnia, EUA; Co-Presidente da Comissão de
Informática e Políticas Públicas da Association for Computing Machinery;
Moderador do Fórum de Riscos da ACM; Cofundador da People for Internet
Responsibility

Simon Rogerson: Professor de Ética em Computação e Diretor do Centro de


Computação e Responsabilidade Social, Universidade De Montfort, Leicester,
Reino Unido; Co-Fundador da Série de Conferências ETHICOMP; Co-editor do
Revista de Informação, Comunicação e Ética na Sociedade;Membro do
Comitê Parlamentar de Tecnologia da Informação do Reino Unido

Eugene H. Spafford: Professor de Ciência da Computação e Diretor do CERIAS (Centro


de Educação e Pesquisa em Garantia e Segurança da Informação), Purdue University,
West Lafayette, Indiana, EUA: Co-Presidente do Comitê de Computadores e Políticas
Públicas da Associação para Máquinas de Computação; Destinatário da Medalha
William Hugh Murray para Segurança de Computadores

Richard Stallman: Fundador do Projeto GNU e da Free Software Foundation,


Boston, MA, EUA; Bolsista da Fundação Macarthur; Destinatário do
Prêmio Pioneiro da Electronic Frontier Foundation; Destinatário do Prêmio Takeda
para Melhoria Social/Econômica

John Weckert: Professor Associado de Estudos da Informação na Universidade


Charles Sturt, Wagga Wagga, Austrália; Cofundador do Australian Institute for
Computer Ethics; Corpo Acadêmico, Centro de Filosofia Aplicada e Ética Pública.
Camberra, Austrália; Fellow no Centro de Pesquisa em Computação e Sociedade da
Southern Connecticut State University, EUA
Prefácio e Agradecimentos

Este livro está há vários anos em gestação. Nosso plano original em 1995 era criar dois
livros; ou seja, um livro-texto de autoria única escrito por Terrell Ward Bynum e uma
coleção de artigos editados em conjunto por Simon Rogerson e Terrell Ward Bynum. À
medida que o projeto amadureceu, os dois livros planejados se fundiram em um
volume "híbrido" com componentes de ambos. Portanto, o leitor encontrará
introduções dos editores mais longas e extensas do que as típicas dos leitores
editados. Ao mesmo tempo, no entanto, há também 16 artigos de vários autores
importantes. Para complementar esses materiais, adicionamos uma série de recursos
relevantes, incluindo casos para analisar, questões básicas de estudo para cada artigo,
questões para estimular a reflexão e listas de leituras sugeridas e sites.

Além deste livro, nosso projeto gerou uma variedade de materiais e recursos
relacionados. Nós os publicamos nos sites do Research Center on Computing & Society
(RCCS) da Southern Connecticut State University (www.computerethics.org ou
www.computerethics.info) e o Centro de Computação e Responsabilidade Social (CCSR)
da Universidade De Montfort, no Reino Unido (www.ccsr.cse.dmu.ac.uk). Os leitores
deste volume são convidados a visitar esses sites para obter questões de estudo
adicionais, exemplos de trabalhos de alunos, novos casos para analisar, mais listas de
recursos da Internet e uma variedade de outros materiais. Gostaríamos de expressar
nossa gratidão aos mestres da web Margaret Tehan (no RCCS) e Jennifer Freeman (no
CCSR) por sua assistência especializada na criação dos materiais baseados na web para
este projeto.
O conteúdo do presente livro, juntamente com seus recursos on-line
relacionados, fornece todos os recursos necessários para cumprir as
recomendações curriculares "Questões Sociais e Profissionais" em "Computing
Curricula 2001", um relatório da Joint Task Force on Computing Curricula 2001 da
Sociedade de Computação do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE-
CS) e a Association for Computing Machinery (ACM). (Para detalhes, consulte Nota do
editor nas páginas xvi-xvii.)
Para desenvolver e melhorar os materiais de instrução para este livro, várias
leituras e exemplos de perguntas dos alunos foram testados nos cursos de Ética da
Computação na Southern Connecticut State University do outono de 1997 à primavera
de 2001. Como resultado, este livro se beneficiou das sugestões de muitos alunos,
especialmente os seguintes (em ordem alfabética): Jane Berling, Ray Bodine, Tanisha
Bolt, Richard Breisler, Diane Capaldo, Josh Cohen, Michael Conigliaro, Edward
D'Onofrio, Lisa Doubleday, Chris Fusco. Justine Giannotti, Nancy Graham, Bryan
Harms, Susan Heilweil, Mark Hussey, Russell C. Jennings, Emily Johns-Ahern, George
Koltypin, Hom Q. Keung Jr., Mark Lindholm, Tara Malley, Ben Schenkman, Ismat Virani,
Peter Winslow, e André Zychek. Além disso, Ray Bodine e Lisa Doubleday lideraram um
projeto especial para desenvolver questões de estudo dos alunos.

Vários colegas da Southern Connecticut State University, da De Montfort


University e da área de ética computacional ofereceram generosamente seus
conselhos e assistência durante o desenvolvimento deste projeto. Gostaríamos
de agradecer especialmente aos autores cujos artigos são publicados neste
livro, incluindo (em ordem alfabética): N. Ben Fairweather, Elizabeth France,
Krystyna Gorniak-Kocikowska, Donald Gotterbarn, Chuck Huff, Deborah
Johnson, Walter Maner, James H .Moor, Peter G. Neumann, Eugene Spafford,
Richard Stallman e John Weckert. Além disso, somos muito gratos a todos os
seguintes por sua assistência e incentivo: Jennifer Freeman, Ken W. Gatzke,
Richard Gerber, Frances Grodzinsky, FE Lowe, Paul Luker, Armen Marsoobian,
Keith Miller, J. Philip Smith, Margaret Tehan e Richard Volkman.
Nossas respectivas universidades apoiaram este projeto de várias maneiras e
gostaríamos de expressar nossa gratidão. A Southern Connecticut State University
forneceu uma licença sabática durante o semestre do outono de 2001, e o Connecticut
State University System forneceu duas bolsas de pesquisa. Os fundos de viagem e
pesquisa foram fornecidos pelo Centro de Pesquisa em Computação&Society, bem
como o Dartmouth College e a De Montfort University.
Os editores e a editora agradecem a permissão concedida para reproduzir o material
protegido por direitos autorais neste livro:

1 James H. Moor, "Razão, Relatividade e Responsabilidade na Ética do Computador".


Este capítulo foi originalmente apresentado como palestra principal na
ETHICOMP96 em Madri, Espanha e posteriormente publicado emComputadores e
Sociedade,28:1 (março de 1998), pp. 14–21. © 1998 por James H. Moor e
reimpresso com permissão do autor.
2 Walter Maner, "Problemas éticos únicos em tecnologia da informação". Este
capítulo foi originalmente apresentado como o discurso principal no
ETHICOMP95 em Leicester, Reino Unido. Posteriormente, foi publicado em
Ética da Ciência e Engenharia, 2:2(edição especial, ed. Terrell Ward Bynum e
Simon Rogerson, abril de 1996), pp. 137–154. © 1995 por Walter Maner e
reimpresso com permissão do autor.
4 Chuck Huff, "Poder não intencional no projeto de sistemas de computação".
Este capítulo foi originalmente um artigo apresentado na ETHIC0MP95 em
Leicester, Reino Unido e apareceu nos anais dessa conferência, editado por
Simon Rogerson e Terrell Ward Bynum e publicado pelo Centro de
Computação e Responsabilidade Social. Reimpresso com permissão do autor.
© 1995 por Chuck Huff.
5 Donald Gotterbarn, "Informática e Responsabilidade Profissional". Este
capítulo foi publicado pela primeira vez emÉtica da Ciência e Engenharia,
7:2(Abril de 2001), pp. 221–30. ©2001 por Donald Gotterbarn e reimpresso
com permissão do autor.
6 Simon Rogerson, "A Ética do Gerenciamento de Projetos de
Desenvolvimento de Software". Este capítulo é uma versão revisada de
"Software Project Management Ethics", publicada em C. Myers, T. Hall e D.
Pitt (eds.),O Engenheiro de Software Responsável(Springer-Verlag,
1996), cap. 11, pp. 100–6. Esta versão ©2002 por Simon Rogerson.
7 N. Ben Fairweather, "Não, PAPA: Por que códigos de ética incompletos são
piores do que nenhum." Este capítulo foi originalmente apresentado como
um artigo na Conferência sobre Ética do Computador, Universidade de
Linköping, Suécia, 1997 e mais tarde publicado em G. Collste (ed.),Ética na
Era da Tecnologia da Informação(Linköping University Press, 2000). © 2000
por N. Ben Fairweather e reimpresso com permissão do autor.
8 Donald Gotterbarn, "Sobre o licenciamento de profissionais de informática".
Partes deste capítulo foram publicadas anteriormente em Joseph M. Kizza
(ed.),Os efeitos sociais e éticos da revolução do computador(McFarland &
Company Inc., 1996). © 2001 por Donald Gotterbarn e reimpresso com
permissão do autor.
9 Peter G. Neumann, "Segurança do Computador e Valores Humanos". Este artigo foi
originalmente o "endereço da trilha" na trilha de segurança da Conferência Nacional
sobre Computação e Valores realizada no estado de Southern Connecticut
University, New Haven, CT em agosto de 1991. © por Research Center on
Computing and Society, Southern Connecticut State University e
reimpresso com permissão do autor.
10 Eugene H. Spafford, "As arrombamentos de hackers de computador são éticos?" este
capítulo foi publicado pela primeira vez emo Jornal de Sistemas e Software,
1992. Uma versão anterior apareceu emTecnologia da Informação Trimestral,
IX (1990). © 1991, 1997 por Eugene H. Spafford, todos os direitos reservados.
Reimpresso com permissão do autor.
11 James H. Moor, "Rumo a uma teoria da privacidade na era da informação".
Este capítulo foi publicado pela primeira vez emComputadores e Sociedade, 27(
Setembro de 1997), pp. 27-32. © 1997 por James H. Moor. Reimpresso com permissão
do autor.
12 Elizabeth France, "Proteção de dados em um mundo em mudança". © 2002 por
Elizabeth França. Impresso aqui com permissão do autor.
13 Deborah G. Johnson, "Direitos de Propriedade em Software de Computador:
Questões Individuais e Políticas". Este capítulo foi originalmente apresentado como
um artigo na Conferência Nacional sobre Computação e Valores realizada na
Southern Connecticut State University, New Haven. CT em agosto de 1991. © pelo
Centro de Pesquisa em Computação e Sociedade, Southern Connecticut State
University e reimpresso com permissão do autor.
14 Richard Stallman, "Por que o software deve ser gratuito". © 1991 por The Free
Software Foundation, Inc. A cópia e a redistribuição são permitidas sem
royalties; alteração não é permitida.
15 Krystyna Gorniak-Kocikowska, "A Revolução do Computador e a
Ética." Esta é uma versão abreviada de "The Computer Revolution and the
Problem of Global Ethics", apresentada no ETHICOMP95 e publicada nos
anais da conferência, ed. Simon Rogerson e Terrell Ward Bynum.
Reimpresso emÉtica da Ciência e Engenharia, 2:2(edição especial, 1996),
pp. 177-190. © 1995 por Krystyna Gorniak-Kocikowska e reimpresso com
permissão do autor.
16 John Weckert, "Giving Offense on the Internet." Este capítulo foi originalmente
apresentado como artigo na The Computer Ethics Conference, Linköping
University, Suécia. Foi publicado pela primeira vez em G. Collste (ed.),Ética e
Tecnologia da Informação(New Academic Publishers, 1998), pp. 104-18. ©
1997 por John Weckert. Reimpresso com permissão do autor.

"O Código de Ética e Prática Profissional da Engenharia de Software." © 1999


pelo Institute of Electrical and Electronics Engineers, Inc. e pela Association for
Computing Machinery, Inc.

"O Código de Ética e Conduta Profissional da ACM." © 1992 por ACM, Inc.
Incluído aqui com permissão.
"O Código de Ética da ACS." © Sociedade Australiana de Computadores. Incluído aqui por
permissão.
"O Código de Conduta BCS." © 2001 pela Sociedade Britânica de Computadores. Incluído
aqui com permissão.
"O Código de Ética IEEE." © 1997 por IEEE. Incluído aqui com permissão. "O
Código de Ética IMIS." © 2001 por IMIS. Incluído aqui com permissão.

Michael Gros e o rabino Dr. Asher Meir do Centro de Ética Empresarial e


Responsabilidade Social por nos permitir reimprimir materiais relacionados ao
caso Napster.
Todos os esforços foram feitos para rastrear os detentores de direitos autorais e obter sua
permissão para o uso de material protegido por direitos autorais. A editora pede desculpas por
quaisquer erros ou omissões na lista acima e ficaria grata se notificada sobre quaisquer
correções que devam ser incorporadas em futuras reimpressões ou edições deste livro.
Somos muito gratos à editora da Blackwell, Sarah Dancy, e ao nosso amigo e
colega Donald Gotterbarn, que leram o manuscrito com cuidado e ofereceram
inúmeras sugestões valiosas para melhorias.
Em conclusão, nós – “The Chester Boys” – gostaríamos de expressar um
agradecimento especial às nossas esposas, Aline W. Bynum e Anne Rogerson, a
quem este livro é dedicado. Sem seu incentivo e apoio incansáveis, este projeto
não poderia ter sido concluído.
lista de abreviações

INSTIGAR Conselho de Acreditação da Associação de Tecnologias de

ACM Engenharia para Máquinas de Computação

ACS Sociedade Australiana de Computadores

IA Sociedade Britânica de Computadores

BCS de Inteligência Artificial

CCPA Tribunal de Alfândega e Centro de Apelações de Patentes

CCSR para Informática e Responsabilidade Social

CCTV praticante de computação em

PC circuito fechado de televisão

CSAC/CSAB Comissão de Acreditação de Ciências da Computação/Conselho de


Acreditação de Ciências da Computação

DIFF ferramenta para encontrar diferenças entre dois arquivos de computador

EPR prontuário eletrônico do paciente

UE União Europeia

FSF Fundação de Software Livre

GNU um sistema operacional do tipo Unix ("GNU" significa "GNU


não é Unix")

TIC tecnologia da informação e Comunicação


EU IRIA algoritmo de criptografia de dados

IDÉIA internacionais de identificação (pessoal)

IEEE-CS Sociedade de Computação do Instituto de Engenheiros


Elétricos e Eletrônicos

IMIS Instituto de Gestão de Sistemas de Informação de

E/S entrada/saída

DPI direito de propriedade intelectual

É sistemas de informação

ISTO tecnologia da Informação

LASCAD Projeto de Despacho Auxiliado por Computador do Serviço de Ambulância de


Londres

LCM mínimo múltiplo comum

OCDE Organização para a Cooperação e Desenvolvimento


Económico

PAPA privacidade, precisão, propriedade, acessibilidade

RCCS Rede médica regional do Centro de Pesquisa em

RMN Computação e Sociedade

SIS declaração de impacto social

SoDIS Declaração de Impacto do Desenvolvimento de Software

SPM gerenciamento de projetos estruturados

SWEBOK Conhecimento em Engenharia de Software

TCP/IP protocolo de controle de transmissão/protocolo de internet

TQM gestão de qualidade Total

OMPI Organização Mundial da Propriedade Intelectual


Nota do Editor: Diretrizes de Currículos de Computação 2001
do IEEE-CS e do ACM

Em 1991, a Association for Computing Machinery (ACM) e a Computer Society of


the Institute for Electrical and Electronic Engineers (IEEE-CS) adotaram um conjunto
de diretrizes curriculares para programas de graduação em computação. Essas
orientações, intituladasCurrículos de Computação 1991(CC1991), recomendou a
inclusão de conteúdo "social e profissional" significativo em qualquer currículo de
graduação em computação:

Os alunos de graduação também precisam entender as questões básicas culturais,


sociais, legais e éticas inerentes à disciplina de computação. Eles devem entender
onde a disciplina esteve, onde está e para onde está indo. Eles também devem
entender seus papéis individuais nesse processo, bem como apreciar as questões
filosóficas, problemas técnicos e valores estéticos que desempenham um papel
importante no desenvolvimento da disciplina.
Os alunos também precisam desenvolver a capacidade de fazer perguntas sérias
sobre o impacto social da computação e avaliar as respostas propostas para essas
perguntas. Os futuros profissionais devem ser capazes de antecipar o impacto da
introdução de um determinado produto em um determinado ambiente. Esse produto
melhorará ou degradará a qualidade de vida? Qual será o impacto sobre indivíduos,
grupos e instituições?
Finalmente, os alunos precisam estar cientes dos direitos legais básicos dos
fornecedores e usuários de software e hardware, e também precisam apreciar os valores
éticos que são a base desses direitos. Os futuros profissionais devem entender a
responsabilidade que assumirão e as possíveis consequências do fracasso. Eles devem
entender suas próprias limitações, bem como as limitações de suas ferramentas. Todos
os profissionais devem assumir um compromisso de longo prazo em permanecer
atualizados em suas especialidades escolhidas e na disciplina de computação como um
todo. (ACM e IEEE-CS 1991)

Em 1998, uma força-tarefa conjunta das mesmas duas organizações profissionais


o trabalho de atualização e expansão do CC1991 para levar em conta os
desenvolvimentos relacionados à informática durante a década de 1990. As novas
diretrizes curriculares resultantes, intituladasCurrículos de Computação 2001(
CC2001), deu ainda mais ênfase às questões sociais e profissionais; e, pela primeira vez
na história, criou uma "Área" separada dentro do CS Body of Knowledge para o
subcampo de "Questões Sociais e Profissionais" (veracm.org/sigcse/cc2001 ). Esta Área
do Corpo de Conhecimento CS inclui dez "Unidades de Conhecimento" sociais e
profissionais - sete unidades "core" e três "eletivas" (ver IEEE-CS e ACM 2001):

SP1 História da computação (núcleo) Contexto social da computação


SP2 (núcleo) Métodos e ferramentas de análise (núcleo) Responsabilidades
SP3 profissionais e éticas (núcleo) Riscos e responsabilidades dos sistemas
SP4 baseados em computador (núcleo) Propriedade intelectual (núcleo)
SP5
SP6
SP7 Privacidade e liberdades civis (essencial) Crime de
SP8 computador (eletivo) Questões econômicas na
SP9 computação (eletivo)
SP10 Estruturas filosóficas (eletiva)

O presente livro, juntamente com seus recursos baseados na web, fornece materiais
pedagógicos (leituras, questões de estudo, exemplos de trabalhos de alunos, casos
para analisar, bibliografias e webliografias) para cobrir todas essas dez unidades de
conhecimento na área de questões sociais e profissionais do CC2001. (Consulte o site
do Centro de Pesquisa em Computação e Sociedade (www.computerethics.org ou
www.computerethics.info) e também o site do Centro de Computação e
Responsabilidade Social (www.ccsr.cse.dmu.ac.uk). Os leitores deste livro são
convidados a enviar e-mail ( bynum@computerethics.org ) com sugestões de adições e
correções aos materiais baseados na web ou ao próprio livro.)
Introdução dos Editores: Ética na Era da Informação

Assim, a nova revolução industrial é uma faca de dois gumes. Pode ser usado para o benefício da
humanidade. . . . Também pode ser usado para destruir a humanidade e, se não for usado de forma
inteligente, pode ir muito longe nessa direção.
Norbert Wiener

A revolução da informação

Tecnologias poderosas têm profundas consequências sociais. Considere, por


exemplo, o impacto no mundo da agricultura, impressão e industrialização. Cada
uma dessas tecnologias, quando criadas, trouxe revoluções sociais e éticas. A
tecnologia da informação e comunicação (TIC) não é exceção. De fato, como
observamos em outro lugar:

A tecnologia de computação é a tecnologia mais poderosa e flexível já criada. Por esta razão, a
computação está mudando tudo – onde e como trabalhamos, onde e como aprendemos,
compramos, comemos, votamos, recebemos cuidados médicos, passamos o tempo livre,
fazemos guerra, fazemos amigos, fazemos amor. (Rogerson e Bynum 1995, p. iv)

A revolução da informação, portanto, não é "meramente tecnológica"; istoé


fundamentalmente social e ético.
A razão pela qual as TIC são tão poderosas é bem explicada por James Moor em seu
artigo clássico "What Is Computer Ethics?" (ver Moor 1985, bem comocapítulo 1 abaixo de).
A tecnologia do computador, disse Moor, é quase uma "ferramenta universal" porque é
"logicamente maleável" e, portanto, pode ser moldada para executar praticamente
qualquer tarefa. Nas nações industrializadas, essa "ferramenta universal" alterou muitos
aspectos da vida, como bancos, comércio, emprego, medicina, defesa nacional, transporte
e entretenimento. As TIC tiveram, assim, efeitos profundos
– bons e maus – sobre a vida comunitária, vida familiar, educação, liberdade e
democracia (para citar apenas alguns exemplos). É claro que os formuladores de políticas públicas,
líderes empresariais e industriais, professores, pensadores sociais – na verdade, todos os cidadãos
– devem ter um grande interesse nos impactos sociais e éticos das tecnologias de
informação e comunicação.

Profissionais de informática e responsabilidade profissional

Os profissionais de computação e muitas de suas organizações profissionais


reconheceram por décadas que as TIC têm importantes implicações sociais e éticas.
Desde a década de 1970, por exemplo, várias organizações profissionais
estabeleceram códigos de ética, diretrizes curriculares e requisitos de credenciamento
para ajudar os profissionais de computação a entender e gerenciar suas
responsabilidades éticas especiais. Por exemplo, a Association for Computing
Machinery (ACM), a Computer Society of the Institute of Electrical and Electronic
Engineers (IEEE-CS), a British Computer Society (BCS), a Australian Computer Society
(ACS) e o Institute for the Gestão de Sistemas de Informação (IMIS) desenvolveram e
adotaram códigos de ética (veja oApêndice da Parte III abaixo de). Nos Estados Unidos,
o Accreditation Board for Engineering Technologies (ABET) exige há muito tempo um
componente de ética no currículo de engenharia da computação; e em 1991, a
Comissão de Acreditação de Ciências da Computação/Conselho de Acreditação de
Ciências da Computação (CSAC/CSAB) também adotou a exigência de que um
componente significativo de ética da computação seja incluído em qualquer programa
de graduação em ciências da computação que seja credenciado nacionalmente.
Também em 1991, uma força-tarefa conjunta da ACM e do IEEE-CS desenvolveu um
conjunto de diretrizes curriculares,Currículos de Computação 1991, para programas
universitários em computação (ACM e IEEE-CS 1991). Essas diretrizes recomendavam a
inclusão de conteúdo "social e profissional" significativo em qualquer currículo de
graduação em computação. Em 2001, uma nova força-tarefa conjunta das mesmas
duas organizações desenvolveu um conjunto atualizado de diretrizes (Currículos de
Computação 2001)com uma ênfase ainda mais forte em questões sociais e éticas
(IEEE-CS e ACM 2001). Pela primeira vez na história, as questões sociais e profissionais
da ética computacional foram atribuídas a uma área inteira do "CS Body of
Knowledge" (verNota do editor acima de).
Considerando todos os desenvolvimentos descritos acima, fica claro que as
organizações profissionais em ciência da computação reconhecem e insistem em padrões
de responsabilidade profissional para seus membros.
TIC e valores humanos

Hoje, nos primeiros anos da era da informação, olongo prazoimplicações sociais e éticas
das TIC ainda são desconhecidas. A tecnologia muda tão rapidamente que novas
possibilidades surgem antes que as consequências sociais possam ser compreendidas
(Rogerson e Bynum 1995). Novas políticas sociais/éticas para a era da informação,
portanto, são urgentemente necessárias para a rápida multiplicação de "vácuos
políticos" (Moor, 1985). Mas preencher esses vazios é um processo social complexo que
exige a participação ativa de indivíduos, organizações, governos – e, em última análise, da
comunidade mundial.

Relações humanas

Considere, por exemplo, o impacto da tecnologia da informação e comunicação nas


relações humanas. Como as famílias ou amizades serão afetadas por telefones celulares,
computadores palm-top e laptops, teletrabalho para o trabalho e a escola, conferências de
realidade virtual, sexo cibernético? A eficiência e a conveniência das TIC levarão a menos
horas de trabalho e mais "tempo de qualidade" com amigos e familiares? – Ou criará um
estilo de vida mais agitado e sem fôlego que separa a família e os amigos uns dos outros?
As pessoas ficarão isoladas, cada uma na frente de uma tela de computador hora após
hora, ou encontrarão novas amizades e relacionamentos em "comunidades virtuais" no
ciberespaço – relacionamentos baseados em interações que nunca poderiam ocorrer em
configurações regulares de espaço-tempo? Quão gratificantes e "genuínos" podem ser
esses relacionamentos, e eles irão excluir relacionamentos face a face melhores e mais
satisfatórios? O que tudo isso significa para a auto-realização e a satisfação com a vida de
uma pessoa? Que políticas, leis, regras e práticas devem ser implementadas? – e quem
deve colocá-los lá?

Privacidade e anonimato

Um dos primeiros tópicos de ética computacional a despertar o interesse público nos Estados Unidos foi
a privacidade. Por exemplo, em meados da década de 1960 o governo americano já havia criado grandes
bancos de dados de informações sobre cidadãos particulares (dados do censo, registros fiscais, registros
do serviço militar, registros de bem-estar e assim por diante). No Congresso dos Estados Unidos, foram
apresentados projetos de lei para atribuir uma identificação pessoal
(ID) para cada cidadão e, em seguida, reunir todos os dados do governo sobre cada cidadão sob o
número correspondente. Um clamor público sobre o "governo irmão mais velho" fez com que o
Congresso desistisse desse plano e levou o presidente dos EUA a nomear comitês para recomendar
legislação de privacidade. No início da década de 1970, as principais leis de privacidade de
computadores foram aprovadas nos EUA. Desde então, a privacidade ameaçada por computadores
permaneceu como um tópico de preocupação pública.
A facilidade e eficiência com que computadores e redes de computadores podem ser
usados para coletar, armazenar, pesquisar, comparar, recuperar e compartilhar informações
pessoais tornam a tecnologia de computador especialmente ameaçadora para quem deseja
manter vários tipos de informações "sensíveis" (por exemplo, registros médicos) fora do
domínio público ou fora das mãos daqueles que são percebidos como ameaças potenciais.
Desenvolvimentos como a comercialização e o rápido crescimento da Internet, o surgimento
da World Wide Web, o aumento da "facilidade de uso" e do poder de processamento dos
computadores e a diminuição dos custos da tecnologia de computador levaram a novos
problemas de privacidade, como mineração de dados, correspondência de dados, registro de
"trilhas de cliques" na web e assim por diante (ver Tavani 1999).
A variedade de questões relacionadas à privacidade geradas pela tecnologia do
computador, combinada com a crença de muitos pensadores de que a privacidade é vital
para a autoidentidade e autonomia humana, levou filósofos e outros pensadores a
reexaminar o próprio conceito de privacidade. Por exemplo, vários estudiosos elaboraram
uma teoria de privacidade definida como "controle sobre informações pessoais" (ver
Westin 1967, Miller 1971, Fried 1984 e Elgesem 1996). Por outro lado, os filósofos Moor e
Tavani argumentaram que o controle de informações pessoais é insuficiente para
estabelecer ou proteger a privacidade, e "o conceito de privacidade em si é melhor
definido em termos de acesso restrito, não de controle" (Tavani e Moor 2001; ver também
capítulo 11 abaixo de). Além disso, Nissenbaum argumentou que existe até uma sensação
de privacidade naespaços públicos,ou circunstâncias "além das íntimas". Uma definição
adequada de privacidade, portanto, deve levar em conta a "privacidade em
público" (Nissenbaum 1998). À medida que a tecnologia dos computadores avança
rapidamente – criando sempre novas possibilidades para compilar, armazenar, acessar e
analisar informações – os debates filosóficos sobre o significado da palavra "privacidade"
provavelmente continuarão.
Questões de "anonimato e computação" às vezes são discutidas no mesmo contexto com
questões de privacidade, porque o anonimato pode fornecer muitos dos mesmos resultados
desejados que a privacidade. Por exemplo, se alguém estiver usando a Internet para obter
aconselhamento médico ou psicológico ou para discutir tópicos delicados (como AIDS, aborto,
direitos dos homossexuais, doenças venéreas, dissidência política),
o anonimato pode proporcionar proteção semelhante à da privacidade. Além disso, tanto o
anonimato quanto a privacidade na Internet podem ser úteis na preservação de valores humanos,
como segurança, saúde mental, autorrealização e paz de espírito. Infelizmente, tanto a privacidade
quanto o anonimato também podem ser explorados para facilitar atividades auxiliadas por
computador indesejadas e indesejáveis, como lavagem de dinheiro, tráfico de drogas, terrorismo
ou exploração de pessoas vulneráveis. Por exemplo, a falta de correspondência de banco de dados
pode ter ocultado informações que poderiam ter evitado os ataques terroristas de 11 de setembro
nos EUA.

Propriedade intelectual e propriedade

Na era da informação, posse e controle da informação são chaves para riqueza, poder e
sucesso. Aqueles que possuem e controlam a infraestrutura de informação estão entre os
mais ricos e poderosos de todos. E aqueles que possuem propriedade intelectual
digitalizada – software, bancos de dados, música, vídeo, filmes, obras literárias e artísticas,
recursos educacionais – possuem grandes ativos econômicos. Mas a informação
digitalizada é, como Moor tão bem disse, “dados lubrificados” – facilmente copiados e
alterados, facilmente transferidos através das fronteiras. Como resultado, o acesso "livre",
na Internet, à propriedade intelectual protegida por direitos autorais ou patenteada
tornou-se uma questão social importante. Que novas leis, regulamentos, regras, acordos e
práticas internacionais seriam justos e justos, e quem deve formulá-los ou aplicá-los?
Informações como programas de computador devem ser de propriedade?
Uma questão relacionada diz respeito à criação e propriedade de obras
"multimídia" que misturam e combinam vários tipos de recursos digitalizados. Uma
única criação, por exemplo, pode fazer uso de fragmentos de fotografias, videoclipes,
trechos de som, arte gráfica, papel de jornal e trechos de várias obras literárias e
artísticas. Quão significativo deve ser um componente de tal trabalho antes que o
usuário pague royalties de direitos autorais? O criador de uma obra multimídia deve
identificar milhares de detentores de direitos autorais e pagar milhares de taxas de
direitos autorais para poder criar e divulgar sua obra? Quais devem ser as regras e
quem deve aplicá-las? Como eles podem ser aplicados no reino ilimitado do
ciberespaço?

Trabalhar
O trabalho e o local de trabalho estão sendo transformados pelas TIC. Mais
flexibilidade e escolha agora são possíveis, como "teletrabalho" em casa, na estrada, a
qualquer hora ou local. Além disso, novos tipos de trabalho e oportunidades de
trabalho estão sendo criados, como webmasters, mineradores de dados, conselheiros
cibernéticos e assim por diante. Mas esses benefícios e oportunidades são
acompanhados de riscos e problemas, como desemprego para humanos substituídos
por computadores, "desqualificação" de trabalhadores que só precisam apertar
botões, estresse para acompanhar máquinas de alta velocidade, lesões por
movimentos repetitivos, magnetismo e radiação de hardware de computador,
vigilância de trabalhadores por meio de software de monitoramento e "sweat shops"
computadorizados que pagam "salário de escravo". Uma ampla gama de novas leis,
regulamentos, regras,

Justiça social

À medida que mais atividades e oportunidades da sociedade entram no ciberespaço –


oportunidades de negócios, oportunidades educacionais, serviços médicos, emprego,
atividades de lazer e assim por diante – se tornará cada vez mais difícil para pessoas com
pouco ou nenhum acesso à tecnologia da informação compartilhar os benefícios e
oportunidades da sociedade. Alguém sem "identidade eletrônica" pode não ter nenhuma
identidade social. Portanto, a justiça social (para não mencionar a prosperidade
econômica) exige que a sociedade desenvolva políticas e práticas para incluir mais
plenamente as pessoas que, no passado, tiveram acesso limitado a recursos de
informática: mulheres, pobres, idosos, pessoas de cor, moradores rurais , pessoas com
deficiências.
Considere o exemplo de "tecnologia assistiva" para pessoas com deficiência. Vários
dispositivos de hardware e software foram desenvolvidos nos últimos anos para permitir
que pessoas com deficiência usem a tecnologia da informação de forma fácil e eficaz.
Como resultado, as pessoas que de outra forma seriam totalmente dependentes dos
outros para quase tudo, de repente, encontram suas vidas transformadas em vidas mais
felizes, produtivas e "quase normais". Deficiências visuais e cegueira, deficiências auditivas
e surdez, incapacidade de controlar os membros, mesmo paralisia quase total não
precisam mais ser grandes impedimentos para a participação social e produtividade.
Dados esses benefícios dramáticos da tecnologia assistiva, bem como os custos
decrescentes rapidamente, uma sociedade justa tem a obrigação ética de fornecer
tecnologia assistiva a seus cidadãos com deficiência?
Governo e democracia

A tecnologia da informação e comunicação tem o potencial de mudar significativamente


muitas relações entre cidadãos e governos – locais, regionais e nacionais. A votação eletrônica
e os referendos, bem como as mensagens por e-mail para legisladores e ministros, podem dar
aos cidadãos uma contribuição mais oportuna para as decisões do governo e a elaboração de
leis. Os otimistas apontam que a tecnologia da informação, usada adequadamente, pode
permitir uma melhor participação do cidadão nos processos democráticos, pode tornar o
governo mais aberto e responsável, pode fornecer fácil acesso do cidadão às informações
governamentais, relatórios, serviços, planos e legislação proposta. Os pessimistas, por outro
lado, temem que os funcionários do governo que são regularmente bombardeados com e-
mails de eleitores irritados possam ser facilmente influenciados por mudanças de curto prazo
no humor do público. que hackers podem interromper ou corromper processos eleitorais
eletrônicos, que governos ditatoriais podem encontrar maneiras de usar a tecnologia de
computador para controlar e intimidar a população de forma mais eficaz do que nunca. Que
políticas devem ser implementadas para levar em conta essas esperanças e preocupações?

Um objetivo principal da ética do computador

Os parágrafos acima identificam apenas uma pequena fração das questões sociais e éticas
que a tecnologia da computação começou a gerar na era da informação. A grande maioria
dessas questões ainda é desconhecida, e gradualmente se tornará visível à medida que as
TIC poderosas e flexíveis tornam possíveis coisas novas. Um dos principais objetivos da
ética computacional é identificar e analisar os "vazios políticos" resultantes, bem como
ajudar a formular novas políticas sociais/éticas para lidar com eles de maneira justa e
responsável.

Ética do computador: alguns marcos históricos

Alguns marcos importantes na história da ética do computador incluem o


seguinte.

anos 1940 e 1950


A ética computacional como campo de estudo acadêmico foi fundada pelo professor do
MIT Norbert Wiener durante a Segunda Guerra Mundial (início da década de 1940),
enquanto ajudava a desenvolver um canhão antiaéreo capaz de abater aviões de guerra
rápidos. O desafio de engenharia deste projeto fez com que Wiener e alguns colegas
criassem um novo campo de pesquisa que Wiener chamou de "cibernética" - a ciência dos
sistemas de feedback de informações. Os conceitos de cibernética, quando combinados
com computadores digitais em desenvolvimento na época, levaram Wiener a tirar algumas
conclusões éticas notavelmente perspicazes sobre a tecnologia que hoje chamamos de
TIC. Ele previu perceptivelmente consequências sociais e éticas revolucionárias. Em 1948,
por exemplo, em seu livroCibernética: ou Controle e Comunicação no Animal e na
Máquina,Wiener disse o seguinte:

Há muito ficou claro para mim que a moderna máquina de computação ultrarrápida
era, em princípio, um sistema nervoso central ideal para um aparelho de controle
automático: e que sua entrada e saída não precisavam estar na forma de números ou
diagramas, mas poderiam muito bem ser ser, respectivamente, as leituras de órgãos
sensoriais artificiais, como células fotoelétricas ou termômetros, e a atuação de
motores ou solenóides. . . . já estamos em condições de construir máquinas artificiais
com quase qualquer grau de elaboração de desempenho. Muito antes de Nagasaki e
da conscientização pública da bomba atômica, me ocorreu que estávamos aqui na
presença de outra potencialidade social de importância inédita para o bem e para o
mal. (pág.27 -8 )

Em 1950, Wiener publicou seu monumental livro de ética computacional,O Uso


Humano de Seres Humanos,que não apenas o estabeleceu como o fundador da ética
computacional, mas – muito mais importante – estabeleceu uma base abrangente de
ética computacional que permanece hoje (mais de meio século depois) uma base
poderosa para pesquisa e análise de ética computacional. (No entanto, Wiener não
usou o nome "ética do computador", que entrou em uso comum mais de duas décadas
depois.)
A base monumental da ética computacional de Wiener estava muito à frente de seu
tempo e foi praticamente ignorada por décadas. Em sua opinião, a integração da
tecnologia do computador na sociedade acabará por constituir a reconstrução da
sociedade – a "segunda revolução industrial". Exigirá um processo multifacetado que
levará décadas de esforço e mudará tudo radicalmente. Um projeto tão vasto incluirá
necessariamente uma grande diversidade de tarefas e desafios. Os trabalhadores devem
se ajustar às mudanças radicais no local de trabalho; os governos devem estabelecer
novas leis e regulamentos; a indústria e as empresas devem criar novas políticas e
práticas; organizações profissionais devem desenvolver novos códigos de conduta para
seus membros; sociólogos e psicólogos devem estudar e compreender novos
fenômenos sociais e psicológicos; e os filósofos devem repensar e redefinir
velhos conceitos sociais e éticos.

década de 1960

Em meados da década de 1960, o cientista da computação Donn Parker começou a


examinar usos antiéticos e ilegais de computadores por profissionais de informática.
"Parecia", disse Parker, "que, quando as pessoas entravam no centro de computação,
deixavam sua ética na porta." Ele coletou exemplos de crimes de computador e outras
atividades informatizadas antiéticas. Ele desenvolveu um código de ética profissional para
a ACM. Na década seguinte, Parker passou a produzir livros, artigos, discursos e
workshops que relançaram o campo da ética computacional, dando-lhe impulso e
importância entre cientistas da computação profissionais e formuladores de políticas
públicas. Parker é, nesse sentido, o segundo fundador da ética computacional depois de
Norbert Wiener (ver Parker 1968, 1979; Parker et al. 1990).

década de 1970

Durante o final dos anos 1960, o professor de ciência da computação Joseph Weizenbaum criou um
programa de computador que ele chamou de ELIZA. Em seu primeiro experimento com ELIZA, ele o
roteirizou para fornecer uma imitação grosseira de "um psicoterapeuta rogeriano envolvido em
uma entrevista inicial com um paciente". Weizenbaum ficou chocado com as reações que as
pessoas tiveram ao seu simples programa de computador. Alguns psiquiatras praticantes viram
isso como evidência de que os computadores logo estariam realizando psicoterapia automatizada,
e até mesmo os estudiosos da computação em sua universidade se envolveram emocionalmente
com o computador, compartilhando seus pensamentos íntimos com ele. Weizenbaum estava
preocupado que um "modelo de processamento de informação" de seres humanos estivesse
reforçando uma tendência já crescente entre os cientistas, e mesmo o público em geral, de ver os
humanos como meras máquinas. No início da década de 1970, Weizenbaum empreendeu um
projeto de redação de livros para defender a visão de que os humanos são muito mais do que
processadores de informação. O projeto resultou em seu livro,Poder do Computador e Razão
Humana(1976), que hoje é considerado um clássico da ética computacional. O livro de
Weizenbaum, mais seus cursos universitários e os muitos discursos que ele deu na década de 1970,
inspiraram vários pensadores e projetos em ética computacional. Ele está com Norbert Wiener e
Donn Parker como uma pessoa-chave no
história formativa do sujeito.
Em meados da década de 1970, o filósofo (e mais tarde professor de ciência da
computação) Walter Maner começou a usar o termo "ética da computação" para se referir
aaquele campo da ética aplicada que lida com problemas éticos agravados,
transformados ou criados pela tecnologia do computador.Maner ofereceu um curso
universitário experimental sobre o assunto e gerou muito interesse em cursos de ética da
computação em nível universitário, oferecendo uma variedade de workshops e palestras
em conferências de ciência da computação e conferências de filosofia em toda a América.
Em 1978, ele também publicou e divulgou seuKit de Iniciação em Ética Informática(
publicado dois anos depois pela Helvetia Press), que continha materiais curriculares e
conselhos pedagógicos para professores universitários desenvolverem cursos de ética na
computação. O percurso pioneiro de Maner, além de suaKit iniciantee as muitas oficinas
de conferência que ele conduziu, tiveram um impacto significativo sobre o ensino da ética
da computação em toda a América. Muitos cursos universitários foram criados por causa
dele, e vários estudiosos importantes foram atraídos para o campo.

anos 1980 e 1990

No início da década de 1980, uma série de consequências sociais e éticas da tecnologia da


informação estavam se tornando questões públicas na América e na Europa: questões como
crime habilitado por computador, desastres causados por falhas de computador,1invasões de
privacidade por meio de bancos de dados de computadores e grandes ações judiciais
relacionadas à propriedade de software. Por causa do trabalho de Parker, Weizenbaum, Maner
e outros, foram lançadas as bases para a ética da computação como uma disciplina acadêmica.
(Infelizmente, as realizações monumentais de Wiener nas décadas de 1940 e 1950 foram
essencialmente ignoradas.) Portanto, era a hora certa para uma explosão de atividades em
ética computacional.
Em 1985, James Moor publicou seu artigo agora clássico "What Is Computer
Ethics?"; e nesse mesmo ano, Deborah Johnson publicouÉtica Informática, o primeiro
livro didático – e por mais de uma década, odefinindolivro - no campo. Também em
meados da década de 1980 havia livros relevantes publicados em psicologia e
sociologia. Por exemplo, Sherry Turkle escreveuO segundo eu(1984), um livro sobre o
impacto da computação na psique humana; e Judith Perrolle produziram
Computadores e Mudança Social: Informação, Propriedade e Poder (1987), uma
abordagem sociológica da computação e dos valores humanos.
Durante o final da década de 1980 e ao longo da década de 1990, o campo da ética computacional
cresceu rapidamente. Foram criados congressos, cursos universitários, livros didáticos,
centros de pesquisa, periódicos e cátedras de pesquisa. Durante esse período, a
preocupação prática relacionada à ética do computador continuou a aumentar. As
organizações monitoram regularmente o uso e abuso das TIC. Por exemplo, desde 1983,
incidentes de abuso de TIC no Reino Unido têm sido relatados a cada três anos pela
Comissão de Auditoria. Os relatórios fornecem evidências do nível de abuso de TIC, os
motivos de sua ocorrência e os riscos que as organizações precisam enfrentar. Em meados
da década de 1990, os editores atuais notavam uma "segunda geração" de
desenvolvimentos da ética computacional (Rogerson e Bynum 1996).

Visão geral deste livro

Neste livro, o termo "ética do computador" é usado de forma muito ampla para incluir
áreas de estudo às vezes chamadas de "ética da informação", "ética das TIC", "ciberética" e
"ética da informação global".
O livro é dividido em quatro partes, cada uma das quais inclui (1) uma introdução dos
editores para fornecer antecedentes e contexto, (2) ensaios relevantes de pensadores da
ética da computação, (3) um caso específico para considerar e analisar, (4) um conjunto de
questões de estudo úteis e (5) uma pequena lista de leituras adicionais e recursos da web
para aprofundar o conhecimento do tópico. (Materiais complementares também podem
ser encontrados nos sites da RCCS (www.computerethics.org ou www.computerethics.info)
e o CCSR (www.ccsr.cse.dmu.ac.uk).)
Parte I , "O que é ética do computador?", discute a natureza da ética do computador
como um campo de estudo. Dentrocapítulo 1 , James H. Moor apresenta seu influente
relato da natureza, objetivos e métodos da ética computacional. DentroCapítulo 2 , Walter
Maner defende sua visão de que as TIC criam problemas éticos únicos que não teriam
ocorrido sem ela.Parte I conclui com uma discussão e análise de exemplo por Terrell Ward
Bynum de análise de caso em ética do computador.
parte II , "Responsabilidade Profissional", examina a ética do computador do ponto de
vista dos profissionais de TIC. DentroCapítulo 4 , Chuck Huff discute e ilustra o fato de que
os projetistas de sistemas de computador geralmente têm um impacto social e ético maior
do que imaginam ou pretendem. Dentrocapítulo 5 , Donald Gotterbarn argumenta que os
profissionais de TIC têm deveres e responsabilidades específicos à luz de seus
conhecimentos especiais e poderosos impactos sobre o mundo. Os códigos de ética e as
normas de boas práticas devem orientar os profissionais de informática em seus
julgamentos e ações? - e. em caso afirmativo, quais são os códigos e padrões apropriados?
O que os desenvolvedores de sistemas de informação podem fazer para garantir que
considerações são devidamente abordadas? No capítulo final departe II , Simon
Rogerson oferece um método específico para integrar considerações éticas no
gerenciamento de projetos de software.
Parte III , "Códigos de Ética", discute os vários papéis e funções dos códigos de ética
para profissionais de TIC. Ele também fornece seis exemplos de códigos de ética de
organizações profissionais na América, Reino Unido e Austrália. DentroCapítulo 7 . N. Ben
Fairweather examina as deficiências de uma lista popular de quatro "questões éticas" com
o acrônimo PAPA (privacidade, precisão, propriedade e acessibilidade) (ver Mason 1986), e
adverte sobre os perigos da crença equivocada de que um código de ética pode fornecer
um algoritmo ético completo ou uma lista de verificação. Dentrocapítulo 8 , Donald
Gotterbarn examina várias objeções ao licenciamento de profissionais de informática,
explica as vantagens éticas de tal licenciamento e oferece um plano de licenciamento
modelo que supera as objeções típicas ao licenciamento.
Parte IV , "Tópicos de amostra em ética do computador", explora quatro questões de
ética do computador que têm sido frequentemente noticiadas – segurança do
computador, privacidade, propriedade intelectual e globalização. Esses tópicos ilustram os
tipos de questões e métodos de análise que os pensadores da ética da computação
abordaram nos últimos anos:
"Segurança de Computadores" examina, em capítulos de Peter G. Neumann e Eugene
H. Spafford, uma variedade de questões associadas à segurança e crime de computadores,
incluindo, por exemplo, vírus, worms, cavalos de Tróia, hacking e cracking, e importantes
lacunas entre segurança ideal e real do sistema de computador.
"Privacidade e Computação" examina, em capítulos de James H. Moor e Elizabeth
France, as razões pelas quais as TIC geraram tantos problemas relacionados à privacidade,
várias definições de privacidade, o papel e a importância da privacidade na sociedade, a
relação da privacidade com valores humanos e diferenças importantes entre as formas
americanas e europeias de abordar questões de privacidade de computadores.

"Computação e Propriedade Intelectual", em capítulos de Deborah G. Johnson e


Richard Stallman, relaciona as teorias tradicionais de propriedade às principais
controvérsias sociais em torno de propriedades intelectuais digitalizadas, direitos
autorais, patentes e a relação entre ética e lei. Está incluída uma discussão sobre
"software livre" e as raízes do movimento "código aberto".
"Global Information Ethics", em capítulos de Krystyna Gorniak-Kocikowska e
John Weckert, examina várias questões éticas que surgem devido ao alcance global
da Internet. Porque a Internet ignora as fronteiras nacionais e atravessa as
fronteiras culturais, cujas leis e valores se aplicam, e como pode a cultura
confrontos e mal-entendidos sejam resolvidos? As informações disponíveis na Internet devem
ser censuradas e, em caso afirmativo, quem deve determinar o que é aceitável? As pessoas em
uma cultura devem se preocupar em ofender alguém em outra cultura? Deveria ser criada uma
nova ética "global" para resolver tais questões?

Referências

ACM e IEEE-CS (1991).Currículos de Computação 1991.Disponível em


http://www.computer.org/education/cc1991/
Elgesem, D. (1996). "Privacidade, Respeito às Pessoas e Risco". Em C. Ess (ed.),
Perspectivas filosóficas sobre comunicação mediada por computador.Imprensa da
Universidade Estadual de Nova York.
Fried, C. (1984). "Privacidade." Em F.D.Schoeman (ed.),Dimensões Filosóficas da
Privacidade.Cambridge University Press.
IEEE-CS e ACM (2001).Currículos de Computação 2001.Disponível em
http://www.acm.org/sigcse/cc2001/
Johnson, DG (1985).Ética do Computador.Prentice-Hall (2ª ed. 1994; 3ª ed. 2001). Maner,
W. (1980).Starter Kit em Ética do Computador.Helvetia Press (publicado em
cooperação com o Centro Nacional de Informação e Recursos para o Ensino de
Filosofia). (Originalmente auto-publicado por Maner em 1978.)
Mason, R. 0. (1986). "Quatro questões éticas da era da informação." SIMTrimestral,01/10:
5-12.
Miller, AR (1971).O Ataque à Privacidade: Computadores, Bancos de Dados e Dossiês.
Imprensa da Universidade de Michigan.
Moor, JH (1985). "O que é ética do computador?" Em TW Bynum (ed.),Computadores e
Ética.Oxford: Blackwell, pp. 266-75. (Publicado como a edição de outubro de 1985 da
Metafilosofia.)
Nissenbaum, H. (1998). "Protegendo a privacidade na era da informação: o problema da
Privacidade em Público".Direito e Filosofia,17: 559-96.
Parker, D. (1968). "Regras de Ética no Processamento de Informações".Comunicações do
ACM,11:198-201.
Parker, D. (1979).Conflitos Éticos em Ciência da Computação e Tecnologia.Imprensa
AFIPS. Parker, D., Swope, S., e Baker, BN (1990).Conflitos Éticos na Informação e
Ciência da Computação, Tecnologia e Negócios.QED Ciências da Informação. Perrolle,
JA (1987).Computadores e Mudança Social: Informação, Propriedade e
Poder.Wadsworth.
Rogerson, S. e Bynum, TW (1995). "Cyberspace: The Ethical Frontier."Horários
Suplemento ao Ensino Superior, The Times,9 de junho.
Rogerson, S. e Bynum, TW (1996). "Ética da Informação: A Segunda Geração".
Conferência The Future of Information Systems, UK Academy for
Information Systems, April. Disponível em http://www.ccsr.cse.dmu.ac.uk/
resources/general/discipline/ie_sec_gen.html
Tavani, HT (1999). "Privacidade Informacional, Mineração de Dados e Internet."Ética e
Tecnologia da Informação,1: 137-45.
Tavani, HT e Moor, JH (2001). "Proteção de privacidade, controle de informações e
Tecnologias que aumentam a privacidade." Em RA Spinello e HT Tavani (eds.),
Leituras em CiberÉtica.Jones e Bartlett, pp. 378-91.
Turklc, S. (1984).O Segundo Eu: Computadores e o Espírito Humano.Simão e
Schuster.
Weizenbaum, J. (1976).Poder do Computador e Razão Humana: Do julgamento ao
Cálculo.Homem livre.
Westin, AR (1967).Privacidade e Liberdade.Ateneu.
Wiener, N. (1948).Cibernética: ou Controle e Comunicação no Animal e no
Máquina.Imprensa de Tecnologia.
Wiener. N. (1950/1954).O Uso Humano de Seres Humanos: Cibernética e Sociedade.
Houghton Mifflin, 1950 (2ª rev. ed., Doubleday Anchor, 1954).

1 Em 1983, o presidente Ronald Reagan, dos EUA, fez seu discurso de "Guerra nas Estrelas",
que provocou uma reação negativa de profissionais de informática em todo o mundo. Uma
consequência importante foi a fundação da organização Computer Professionals for Social
Responsibility (CPSR).
Traduzido do Inglês para o Português - www.onlinedoctranslator.com

PARTE I

O que é Ética do Computador?

Não é suficiente que você entenda sobre ciência aplicada para que seu trabalho possa
aumentar as bênçãos do homem. A preocupação com o próprio homem e seu destino deve
sempre constituir o interesse principal de todos os esforços técnicos.
Albert Einstein
Albert Einstein

Introdução dos editores

Na década de 1940 e início da década de 1950, o campo de estudo que agora é chamado
de "ética do computador" recebeu uma base sólida do professor Norbert Wiener do MIT.
Infelizmente, os trabalhos do professor Wiener em ética computacional foram
essencialmente ignorados por décadas por outros pensadores. Nas décadas de 1970 e
1980, a ética computacional foi recriada e redefinida por pensadores que não percebiam
que Wiener já havia feito tanto trabalho na área. Hoje, mais de 50 anos depois de Wiener
ter criado a ética da computação, alguns pensadores ainda estão tentando definir a
natureza e os limites do assunto. Consideremos brevemente cinco definições diferentes
que foram desenvolvidas desde a década de 1970.

Definição de Maneira

O nome "ética do computador" não era comumente usado até meados da década de
1970, quando Walter Maner começou a usá-lo. Ele definiu esse campo de estudo como
aquele que examina "problemas éticos agravados, transformados ou criados pela
tecnologia do computador". Alguns velhos problemas éticos, disse ele, foram
agravados pelos computadores, enquanto outros surgiram por causa da tecnologia
dos computadores. Ele sugeriu que deveríamos usar as teorias éticas tradicionais dos
filósofos, como autilitário ética dos filósofos ingleses Jeremy Bentham e John Stuart
Mill, ou a racionalistaética do filósofo alemão Immanuel Kant.

Definição de Johnson

Em seu livro,Ética do computador(1985), Deborah Johnson disse que a ética computacional


estuda a maneira pela qual os computadores "apresentam novas versões de problemas morais
padrão e dilemas morais, exacerbando os velhos problemas e nos forçando a
aplicar normas morais comuns em reinos desconhecidos." Como Maner antes dela,
Johnson adotou a abordagem de "filosofia aplicada" de usar procedimentos e
conceitos do utilitarismo e do kantismo. Mas, ao contrário de Maner, ela não
acreditava que os computadores criassem problemas morais totalmente novos. , ela
achava que os computadores deram um "novo toque" a questões éticas que já eram
bem conhecidas.

Definição de Mouro

Em seu influente artigo "O que é ética no computador?" (1985), James Moor
forneceu uma definição de ética computacional que é muito mais ampla e
abrangente do que as de Maner ou Johnson. É independente da teoria de qualquer
filósofo específico; e é compatível com uma ampla variedade de abordagens para a
resolução de problemas éticos. Desde 1985, a definição de Moor tem sido a mais
influente. Ele definiu a ética do computador como um campo preocupado com
"vazios políticos" e "confusões conceituais" em relação ao uso social e ético da
tecnologia da informação:

Um problema típico em Ética da Computação surge porque há um vácuo de política sobre


como a tecnologia da computação deve ser usada. Os computadores nos fornecem novos
recursos e estes, por sua vez, nos dão novas opções de ação. Muitas vezes, ou não
existem políticas de conduta nessas situações ou as políticas existentes parecem
inadequadas. Uma tarefa central da Ética Informática é determinar o que devemos fazer
nesses casos, ou seja, formular políticas para orientar nossas ações. . . . Uma dificuldade é
que junto com um vácuo político há frequentemente um vácuo conceitual. Embora um
problema em Ética da Computação possa parecer claro inicialmente, uma pequena
reflexão revela uma confusão conceitual. O que é necessário nesses casos é uma análise
que forneça uma estrutura conceitual coerente para formular uma política de ação.
(Mouro 1985, p. 266)

Moor disse que a tecnologia do computador é genuinamente revolucionária porque é


"logicamente maleável":

Os computadores são logicamente maleáveis, pois podem ser moldados e moldados para realizar
qualquer atividade que possa ser caracterizada em termos de entradas, saídas e operações lógicas
de conexão. . . . Como a lógica se aplica a todos os lugares, as aplicações potenciais da tecnologia
de computador parecem ilimitadas. O computador é a coisa mais próxima que temos de uma
ferramenta universal. De fato, os limites dos computadores são em grande parte os limites de
nossa própria criatividade. (Ibid.)
Segundo Moor, a revolução do computador ocorrerá em duas etapas. A
primeira etapa é a da "introdução tecnológica" na qual a tecnologia do
computador é desenvolvida e refinada. Isso já ocorreu durante os primeiros 40
anos após a Segunda Guerra Mundial. A segunda etapa – na qual o mundo
industrializado só recentemente entrou – é a da “permeação tecnológica”, na
qual a tecnologia se integra às atividades humanas cotidianas e às instituições
sociais, alterando o próprio significado de conceitos fundamentais, como
“dinheiro”, “ educação", "trabalho" e "eleições justas".
A maneira de Moor definir a ética do computador é muito poderosa e sugestiva. É
amplo o suficiente para ser compatível com uma ampla gama de teorias e
metodologias filosóficas, e está enraizado em uma compreensão perceptiva de como
as revoluções tecnológicas ocorrem.

Definição de Bynum

Em 1989 Terrell Ward Bynum desenvolveu outra definição ampla de ética computacional
seguindo uma sugestão do artigo de 1985 de Moor. De acordo com essa visão, a ética do
computadoridentifica e analisa os impactos da tecnologia da informação em valores
sociais e humanos como saúde, riqueza, trabalho, oportunidade, liberdade,
democracia, conhecimento, privacidade, segurança, autorrealização, etc.Essa visão
muito ampla da ética da computação emprega ética aplicada, sociologia da computação,
avaliação de tecnologia, direito da computação e áreas afins. Ele emprega conceitos,
teorias e metodologias dessas e de outras disciplinas relevantes. Essa concepção de ética
computacional é motivada pela crença de que – eventualmente – a tecnologia da
informação afetará profundamente tudo o que os seres humanos prezam.

Definição de Gotterbarn

Na década de 1990, Donald Gotterbarn tornou-se um forte defensor de uma abordagem


diferente à ética do computador. De sua perspectiva, a ética computacional deve ser vista
como um ramode ética profissional,preocupado principalmente com padrões de boas
práticas e códigos de conduta para profissionais de computação:

Há pouca atenção ao domínio da ética profissional – os valores que orientam o dia-a-


dia dos profissionais de computação em sua atuação como profissionais. Por
profissional de computação quero dizer qualquer pessoa envolvida no projeto
e desenvolvimento de artefatos de computador. . . . As decisões éticas tomadas durante o
desenvolvimento desses artefatos têm uma relação direta com muitas das questões
discutidas sob o conceito mais amplo de ética computacional. (Gotterbarn 1991, p. 26)

Com essa abordagem de "ética profissional" à ética computacional, Glotterbarn foi


coautor da versão de 1992 do Código de Ética e Conduta Profissional da ACM e liderou
uma equipe de estudiosos no desenvolvimento do Código de Ética e Prática
Profissional de Engenharia de Software ACM/IEEE de 1999. (Ambos esses códigos de
ética estão incluídos neste livro emParte III .)
Cada uma dessas definições de ética computacional influenciou até certo ponto este
livro.Parte I faz uso especial das idéias de Moor e Maner; partes posteriores do livro
trazem outras idéias também.

Referências

Gotterbarn, D. (1991). "Ética do Computador: Responsabilidade Recuperada."Fórum Nacional:


O jornal Phi Beta Kappa,71:26-31.
Johnson, DG (1985).Ética do Computador.Prentice-Hall (2ª ed. 1994; 3ª ed. 2001). Maner,
W. (1980).Starter Kit em Ética do Computador.Helvetia Press (publicado em
cooperação com o Centro Nacional de Informação e Recursos para o Ensino de
Filosofia). (Originalmente auto-publicado por Maner em 1978.)
Moor, JH (1985). "O que é ética do computador?" Em TW Bynum (ed.),Computadores e
Ética.Blackwell, pp. 266-75. (Publicado como a edição de outubro de 1985 da
Metafilosofia.)
CAPÍTULO 1

Razão, Relatividade e Responsabilidade no Computador


Ética
James H. Moor

James H. Moor. "Razão, Relatividade e Responsabilidade na Ética do Computador." Este capítulo foi
originalmente apresentado como palestra principal na ETHICOMP96 em Madri, Espanha e
posteriormente publicado emComputadores e Sociedade.28:1 (março de 1998), pp. 14–21. © 1998
por fames H. Moor e reimpresso com permissão do autor.

Buscando a Ética na Aldeia Global


À medida que a computação se torna mais prevalente, a ética do computador se torna mais
difícil e mais importante. Como Terry Bynum e Simon Rogerson colocaram,

Estamos entrando em uma geração marcada pela globalização e pela computação


ubíqua. A segunda geração da ética computacional, portanto, deve ser uma era de
"ética global da informação". As apostas são muito maiores e, consequentemente, as
considerações e aplicações da Ética da Informação devem ser mais amplas, mais
profundas e, acima de tudo, eficazes para ajudar a realizar uma tecnologia
democrática e empoderadora, em vez de escravizadora ou debilitante. (1996, pág.
135)

Concordo sinceramente com a preocupação que Bynum e Rogerson expressam sobre


o impacto global da computação. O número e os tipos de aplicações da computação
aumentam dramaticamente a cada ano e o impacto da computação é sentido em todo
o planeta. O uso ubíquo de correio eletrônico, transferência eletrônica de fundos,
sistemas de reservas, World Wide Web, etc. coloca milhões de habitantes do planeta
em uma aldeia eletrônica global. A comunicação e as ações à distância nunca foram
tão fáceis. Estamos definitivamente em uma revolução do computador. Estamos além
da fase de introdução da revolução em que os computadores são curiosidades de
poder limitado usado apenas por alguns. Agora, inteiro
populações de países desenvolvidos estão no estágio de permeação da revolução em que os
computadores estão se movendo rapidamente em todos os aspectos da vida cotidiana.
A revolução do computador tem vida própria. Recentemente [ou seja, em 1996], no norte
da Califórnia, cerca de um sexto das ligações telefônicas não foram conectadas devido ao uso
excessivo da Internet. As pessoas estão aumentando para obter acesso à tecnologia de
computador. Eles a veem não apenas como parte de suas vidas diárias, mas como um local
necessário para comunicação de rotina e transações comerciais. Na verdade, o aumento se
tornou tão grande que a America On Line, um importante provedor de serviços de Internet,
ofereceu reembolsos a seus clientes porque a demanda por conexão superou a própria
tecnologia de computador da empresa. O desejo generalizado de estar conectado deve nos
fazer refletir sobre o que nos espera à medida que a revolução do computador explode em
todo o mundo. O gênio digital está fora da garrafa em escala mundial.

A perspectiva de uma aldeia global em que todos no planeta estão conectados a todos em relação ao poder de

computação e comunicação é de tirar o fôlego. O que é difícil de compreender é o impacto que isso terá na vida humana.

Certamente, alguns dos efeitos serão bastante positivos e outros bastante negativos. A questão é até que ponto podemos

trazer a ética para a revolução do computador para nos guiar para um mundo melhor ou pelo menos evitar que caiamos em

um mundo pior. Com as vantagens recém-adquiridas da tecnologia do computador, poucos gostariam de colocar o gênio

completamente de volta na garrafa. E, no entanto, dada a natureza da besta revolucionária, não estou certo de que seja

possível controlá-la completamente, embora certamente possamos modificar sua evolução. Aspectos da revolução do

computador continuarão a surgir de maneiras imprevisíveis – em alguns casos causando-nos um sofrimento considerável.

Por isso, é extremamente importante estar atento ao que está acontecendo. Como a revolução do computador tem o

potencial de ter grandes efeitos sobre como conduzimos nossas vidas, a questão primordial de como devemos controlar a

computação e o fluxo de informações precisa ser abordada continuamente, a fim de moldar a tecnologia para nos servir.

nosso benefício mútuo. Devemos permanecer vigilantes e proativos para não pilharmos a aldeia global. a questão primordial

de como devemos controlar a computação e o fluxo de informações precisa ser abordada continuamente para moldar a

tecnologia para nos servir em benefício mútuo. Devemos permanecer vigilantes e proativos para não pilharmos a aldeia

global. a questão primordial de como devemos controlar a computação e o fluxo de informações precisa ser abordada

continuamente para moldar a tecnologia para nos servir em benefício mútuo. Devemos permanecer vigilantes e proativos

para não pilharmos a aldeia global.

Embora quase todos concordem que a computação está tendo um impacto


significativo, se não revolucionário, no mundo, e que as questões éticas sobre as
aplicações dessa tecnologia emergente devem ser levantadas, há discordância sobre a
natureza da ética do computador. Permitam-me descrever duas posições com as quais
discordo. Essas duas posições são populares, mas representam extremos opostos. Eu
acredito que eles nos enganam sobre a verdadeira natureza do computador
ética e minar o potencial de progresso no campo. A primeira visão eu chamarei de posição
de "Ética de Rotina". De acordo com a posição da Ética da Rotina, os problemas éticos na
computação não são considerados diferentes dos problemas éticos em qualquer campo.
Não há nada de especial neles. Aplicamos costumes, leis e normas estabelecidas e
avaliamos as situações de forma direta. Às vezes as pessoas roubam carros e às vezes as
pessoas roubam computadores. Qual é a diferença? A segunda visão é geralmente
chamada de "relativismo cultural". Nessa visão, os costumes e leis locais determinam o
que é certo e errado, mas, como a tecnologia de computação, como a World Wide Web,
cruza as fronteiras culturais, os problemas da ética do computador são intratáveis. A
liberdade de expressão é permitida nos Estados Unidos, mas não na China. Como
podemos justificar um padrão a favor ou contra a liberdade de expressão na World Wide
Web? A Ética de Rotina torna a ética do computador trivial e o Relativismo Cultural a torna
impossível.
Acredito que as visões da Ética da Rotina e do Relativismo Cultural são incorretas,
principalmente quando usadas para caracterizar a ética do computador. O primeiro
subestima as mudanças que ocorrem em nossa estrutura conceitual e o segundo
subestima a estabilidade de nossos valores humanos fundamentais. Os problemas da ética
computacional, pelo menos em alguns casos, são especiais e exercem pressão sobre nossa
compreensão. E, no entanto, nossos valores fundamentais, baseados em nossa natureza
humana comum, nos dão uma oportunidade de discussão racional mesmo entre culturas
com costumes diferentes. O objetivo deste capítulo é explicar como é possível ter razão e
relatividade na ética da computação. Somente com tal entendimento é possível a
responsabilidade na ética do computador.

Maleabilidade Lógica e Enriquecimento Informacional

Os computadores sãologicamente maleável.Esse é o recurso que torna os computadores tão


revolucionários. Eles são logicamente maleáveis, pois podem ser manipulados para realizar
qualquer atividade que possa ser caracterizada em termos de entradas, saídas e operações lógicas
de conexão. Os computadores podem ser manipulados sintaticamente e semanticamente.
Sintaticamente, pode-se alterar o que o computador faz alterando seu programa. E
semanticamente pode-se usar os estados de um computador para representar qualquer coisa que
se queira, desde as vendas de uma bolsa de valores até a trajetória de uma espaçonave. Os
computadores são máquinas de uso geral como nenhuma outra. É por isso que eles agora são
encontrados em todos os aspectos de nossas vidas e é por isso que uma revolução do computador
está ocorrendo.
Os computadores tambémenriquecedor informacional.Por causa de sua lógica
maleabilidade, os computadores têm muitos usos em diversas atividades. Uma vez
instalados, os computadores podem ser modificados para aprimorar os recursos e
melhorar ainda mais o desempenho geral. Muitas vezes, as atividades informatizadas
tornam-se informacionais; ou seja, o processamento da informação torna-se um
ingrediente crucial na realização e compreensão das próprias atividades. Quando isso
acontece, tanto as atividades quanto as concepções das atividades tornam-se
informacionalmente enriquecidas.
O processo de enriquecimento informacional é gradual e se manifesta mais em algumas
atividades do que em outras. O que chama a atenção é a frequência e a extensão com que isso
ocorre. Em um cenário típico, um computador é apresentado apenas como uma ferramenta para
realizar um trabalho ou auxiliar em uma atividade. Gradualmente, o computador torna-se parte
essencial da metodologia de fazer o trabalho ou realizar a atividade. Para fazê-lo corretamente é
usar um computador. Com o passar do tempo, o trabalho ou atividade é visto cada vez mais como
um fenômeno informacional, de modo que o processamento da informação é tomado como uma
característica saliente ou mesmo definidora.
Considere alguns exemplos de enriquecimento informacional. Ao mesmo tempo, nos Estados Unidos, o dinheiro era

lastreado em ouro. Houve uma troca de notas de papel, mas as notas eram apenas cupons que poderiam, pelo menos em

princípio, ser trocados por ouro ou talvez prata. Por algum tempo, os EUA permaneceram no padrão-ouro, de modo que as

notas de papel eram marcadores de dinheiro. As transações monetárias eram baseadas em ouro. Então o padrão ouro foi

abandonado e as notas de papel se tornaram o dinheiro. Ter dinheiro era ter o papel, presumivelmente respaldado pela boa-

fé e confiança no governo. Agora, o papel foi ampliado com cartões de crédito e cartões de débito que podem ser lidos por

computadores. Claro, esses cartões não são o dinheiro real porque sempre se pode trocar os créditos por papel-moeda.

Mas, é provável que o uso de papel-moeda diminua e os tokens eletrônicos nos cartões ou no computador de um banco se

tornem o dinheiro. Alguns cartões agora têm chips embutidos para que possam ser carregados com dinheiro eletrônico, que

é então transferido como informação para um comerciante no ponto de venda. Estamos caminhando para uma sociedade

sem dinheiro. As transações monetárias são cada vez mais baseadas em informações. O dinheiro pode vir a ser concebido

como uma função computável elaborada entre as pessoas. Na era do computador, o conceito de dinheiro está se tornando

informacionalmente enriquecido. As transações monetárias são cada vez mais baseadas em informações. O dinheiro pode

vir a ser concebido como uma função computável elaborada entre as pessoas. Na era do computador, o conceito de dinheiro

está se tornando informacionalmente enriquecido. As transações monetárias são cada vez mais baseadas em informações.

O dinheiro pode vir a ser concebido como uma função computável elaborada entre as pessoas. Na era do computador, o

conceito de dinheiro está se tornando informacionalmente enriquecido.

Como outro exemplo de enriquecimento informacional, considere a natureza


evolutiva da guerra. Tradicionalmente, na guerra, lados diferentes enviam pessoas para a
batalha que lutam entre si de perto até que um lado tenha matado ou capturado tantos
que o outro lado se renda. As pessoas ainda são enviadas para o campo de batalha, mas
a guerra está rapidamente se tornando informatizada. O bombardeiro furtivo usado pelos Estados Unidos durante a Guerra do Golfo

[em 1991] foi resultado da engenharia computadorizada. Os computadores projetaram a forma da aeronave para que ela fosse

quase invisível ao radar. O projeto da aeronave privou o Iraque de informações. A Guerra do Golfo foi sobre informação e a falta

dela. Bombas foram lançadas e guiadas por lasers e computadores. Mísseis foram lançados de navios e buscaram seus alvos lendo o

terreno usando sistemas de orientação por computador. O primeiro objetivo das forças armadas sob o comando do general H.

Norman Schwarzkopf era eliminar a capacidade do Iraque de se comunicar entre suas próprias forças ou usar seus sistemas de

detecção de aeronaves. Schwarzkopf observou depois da guerra que foi a primeira vez que um inimigo foi derrubado pela negação

de informações. À medida que a guerra se torna cada vez mais informatizada, pode ser menos necessário ou desejável enviar

homens e mulheres para o campo de batalha. Em última análise, as guerras serão sobre a destruição de informações ou a

introdução de informações enganosas. Um lado se rende quando não é capaz de obter e controlar certos tipos de informação. Isso

pode não ser um resultado ruim. Melhor que os dados morram, do que as pessoas. À medida que a guerra se torna cada vez mais

informatizada, nosso conceito de guerra se torna informacionalmente enriquecido. O modelo de processamento de informações

está conquistando terreno elevado. Um lado se rende quando não é capaz de obter e controlar certos tipos de informação. Isso pode

não ser um resultado ruim. Melhor que os dados morram, do que as pessoas. À medida que a guerra se torna cada vez mais

informatizada, nosso conceito de guerra se torna informacionalmente enriquecido. O modelo de processamento de informações

está conquistando terreno elevado. Um lado se rende quando não é capaz de obter e controlar certos tipos de informação. Isso pode

não ser um resultado ruim. Melhor que os dados morram, do que as pessoas. À medida que a guerra se torna cada vez mais

informatizada, nosso conceito de guerra se torna informacionalmente enriquecido. O modelo de processamento de informações

está conquistando terreno elevado.

O enriquecimento informacional também pode afetar práticas e


conceitos éticos e legais. Considere o conceito de privacidade como
evoluiu nos Estados Unidos como um exemplo (Moor 1990). A privacidade
não é explicitamente mencionada na Declaração de Independência ou na
Constituição dos Estados Unidos, embora existam partes desses
documentos que apóiam implicitamente uma noção de privacidade como
proteção contra intrusão governamental, particularmente a invasão física
das casas das pessoas. A noção de privacidade tem sido um conceito em
evolução nos EUA. Por exemplo, nas décadas de 1960 e 1970, o conceito
legal de privacidade foi expandido para incluir proteção contra
interferência do governo nas decisões pessoais sobre contracepção e
aborto. Hoje, o conceito de privacidade inclui esses elementos anteriores,
mas se concentra cada vez mais na privacidade informacional.

O computador, originalmente visto por muitos como pouco mais do que um arquivo eletrônico,
rapidamente revelou seu potencial. Uma vez que os dados são inseridos em um computador, eles
podem ser classificados, pesquisados e acessados de maneiras extraordinariamente fáceis que os
arquivos em papel não podem ser em quantidades práticas de tempo. A atividade de armazenamento e
a recuperação de informações foi aprimorada na medida em que todos nós agora temos
uma base legítima para preocupação com o uso indevido e a liberação de informações
pessoais por meio de computadores. A informatização de históricos de crédito e registros
médicos para uso em negócios normais oferece uma possibilidade contínua de uso
indevido e abuso. Devido à ampla aplicação da tecnologia de computadores, nossa
preocupação com a privacidade hoje vai muito além da preocupação original com a
intrusão física de forças governamentais em nossas casas. Agora, as preocupações com a
privacidade geralmente se referem ao acesso e manipulação impróprios de informações
pessoais pelo governo e muitos outros que têm acesso a registros computadorizados. O
conceito original de privacidade nos Estados Unidos tornou-se informacionalmente
enriquecido na era do computador.
Mesmo conceitos que começam como conceitos informacionais podem
ser enriquecidos informacionalmente. Como exemplo, considere o conceito
legal de copyright. A legislação que protege os produtos de autores e
inventores é autorizada pela Constituição dos Estados Unidos. As primeiras
leis de direitos autorais foram aprovadas para proteger obras literárias, e as
leis de patentes foram aprovadas para proteger invenções. As leis de direitos
autorais nos EUA foram alteradas ao longo dos anos para estender a
duração da proteção aos autores e para proteger uma gama cada vez maior
de materiais, incluindo músicas e fotografias. Mas, até a era do computador,
a concepção subjacente de copyright era que se destinava a proteger os
itens que podiam ser lidos e compreendidos por humanos. Por exemplo,

Na década de 1960, os programadores começaram a enviar cópias de impressões de seus


programas para proteção de direitos autorais. As impressões estavam em formato legível para
humanos. Mas o que os programadores queriam proteger não eram as impressões dos programas,
mas os programas tal como existiam nos computadores. No entanto, os programas, como existiam
em computadores, não estavam em forma legível por humanos. Se as impressões legíveis por
humanos fossem contar como substitutos para proteger as versões de máquina dos programas, a
lei de direitos autorais teria de ser ampliada. Além disso, se os programas legíveis por máquina
fossem protegidos por direitos autorais, então parece que os programas instanciados em chips de
computador também poderiam ser protegidos por direitos autorais. A proteção de direitos autorais
foi estendida. Com o desenvolvimento da computação, o conceito de copyright tornou-se
informacionalmente enriquecido. Os direitos autorais se estendem não apenas às linguagens de
computador, mas às linguagens de computador em formas legíveis apenas por máquinas. De fato,
o que é protegido por direitos autorais hoje às vezes parece mais uma invenção do que uma obra
literária.
Usei os conceitos de dinheiro, guerra, privacidade e direitos autorais como exemplos de
enriquecimento informacional. Há muitos mais. É difícil pensar em uma atividade agora sendo
feita extensivamente por computadores que não tenha sido enriquecida informacionalmente.
Em alguns casos, esse enriquecimento é tão saliente que nossos conceitos mudam um pouco.
Eles também se tornam informacionalmente enriquecidos. Na era do computador, vivemos em
um mundo diferente.

A Natureza Especial da Ética do Computador

Eu afirmo que a ética computacional é um campo especial de pesquisa e aplicação ética.


Deixe-me começar descrevendo a ética do computador e, em seguida, defendendo sua
natureza especial.
A ética informática tem duas partes: (i) a análise da natureza e do impacto
social da tecnologia informática e (ii) a correspondente formulação e
justificação das políticas para o uso ético dessa tecnologia. Uso a expressão
"tecnologia de computador" porque considero o assunto do campo
amplamente para incluir computadores e tecnologia associada, incluindo
software, hardware e redes (Moor, 1985).
Precisamos de análises criteriosas de situações em que os computadores têm impacto
e precisamos formular e justificar políticas para usá-los de forma ética. Embora precisemos
analisar antes de formular e justificar uma política, o processo de descoberta geralmente
ocorre na ordem inversa. Sabemos que a tecnologia de computação está sendo
empregada em uma determinada situação, mas estamos intrigados em como ela deve ser
usada. Existe umvácuo político.Por exemplo, um supervisor deve ter permissão para ler o
e-mail de um subordinado? Ou o governo deve ser autorizado a censurar informações na
Internet? Inicialmente, pode não haver políticas claras sobre tais assuntos. Eles nunca
surgiram antes. Há vazios políticos em tais situações. Às vezes pode ser simplesmente uma
questão de estabelecer alguma política, mas muitas vezes é preciso analisar mais a
situação. O e-mail no local de trabalho é mais como correspondência na empresa
estacionária nos arquivos da empresa ou mais como conversas telefônicas privadas e
pessoais? A Internet é mais como uma revista passiva ou mais como uma televisão ativa?
Muitas vezes a pessoa se encontra em umconfusão conceitual. As questões não são
questões triviais de semântica. Se o estado de saúde de alguém for descoberto por e-mail
ou uma criança impressionável for exposta a material angustiante na Internet, as
consequências podem ser muito prejudiciais. Obter uma concepção clara da situação a
partir da qual formular políticas éticas é o primeiro passo lógico na análise, embora
cronologicamente a incerteza sobre o
uma política apropriada pode preceder e motivar a busca de esclarecimento
conceitual. Dada uma compreensão provisória da situação, pode-se propor e avaliar
possíveis políticas para uma conduta adequada. A avaliação de uma política
geralmente exigirá um exame minucioso e talvez um refinamento de seus valores.
Essa avaliação de políticas pode levar a um esclarecimento conceitual adicional e, em
seguida, à formulação e avaliação de políticas adicionais. Eventualmente, algum
entendimento claro e uma política justificável deve emergir. É claro que, com a
descoberta de novas consequências e a aplicação de novas tecnologias à situação, o
ciclo de esclarecimento conceitual e formulação e avaliação de políticas pode ter que
ser repetido continuamente.
Como os computadores são logicamente maleáveis, eles continuarão a ser aplicados
de maneiras imprevisíveis e inovadoras, gerando vários vazios políticos no futuro próximo.
Além disso, como as situações computadorizadas muitas vezes se tornam
informacionalmente enriquecidas, continuaremos a nos encontrar em confusões
conceituais sobre como exatamente entender essas situações. Isso não quer dizer que não
possamos alcançar clareza conceitual e que não possamos formular e justificar políticas
razoáveis. Em vez disso, é apontar que a tarefa da ética do computador é, se não de Sísifo,
pelo menos contínua e formidável. Nenhum outro campo da ética tem essas
características no grau que a ética do computador tem. A ética computacional não é
simplesmente ética aplicada rotineiramente à computação. Tipicamente, problemas na
ética do computador exigem mais do que a aplicação direta de princípios éticos às
situações. É necessária uma interpretação considerável antes que as políticas apropriadas
possam ser formuladas e justificadas. É claro que dizer que a ética computacional é um
campo especial da ética não significa que todo problema ético envolvendo computadores
seja único ou difícil de entender. Roubar um computador pode ser um simples caso de
roubo. Uma aplicação direta de um princípio ético é apropriada. Em tal situação, não há
vazios políticos nem confusões conceituais. E dizer que a ética computacional é um campo
especial da ética não significa que outros campos da ética aplicada não tenham alguns
exemplos de vazios políticos e confusão conceitual. A tecnologia médica levanta questões
sobre qual política seguir para pacientes com morte cerebral e questões conceituais sobre
o que conta como vida. O que é especial sobre a ética computacional é que ela tem um
número continuamente grande de situações em evolução que são difíceis de conceituar
claramente e para as quais é difícil encontrar políticas éticas justificadas. Fazer ética no
computador não é impossível, mas fazê-lo normalmente envolve muito mais do que a
aplicação mecânica de normas existentes.

Argumentei que a ética computacional é especial, mas o assunto é verdadeiramente


único?A resposta depende do que se quer dizer com "o assunto". Se por "tema" se
quer dizer "tecnologia de computação", então a ética do computador é única, pois a
tecnologia de computação possui propriedades únicas (Maner, 1996). Acredito que sua
propriedade mais importante seja a maleabilidade lógica, o que explica a onda
contínua de revolução e geração de problemas éticos. Se por "objeto" se tem em
mente a ocorrência de algumas novas questões éticas, então a ética computacional
não é única porque outros campos da ética às vezes consideram novas situações que
requerem revisões de estruturas conceituais e nova formulação de políticas. Se por "o
assunto" se quer dizer "o alcance geral, profundidade e novidade das questões éticas
geradas por uma tecnologia", então a ética do computador é única. Nenhuma outra
tecnologia, por mais revolucionária que seja para uma determinada área, tem e terá o
alcance, profundidade e novidade de impacto que a tecnologia de computação tem e
terá. Não há mistério por que a ética do computador tem uma proeminência que a
ética da torradeira, a ética da locomotiva e a ética da máquina de costura não têm.

Em resumo, o que é único na ética da computação é a própria tecnologia da computação,


e o que torna a ética da computação diferente como campo da ética é o escopo, a
profundidade e a novidade das situações éticas para as quais são necessárias revisões
conceituais e ajustes de políticas. Deborah Johnson, em sua excelente introdução à ética
computacional, evita tomar partido na questão da singularidade da ética computacional e
sugere que as questões éticas relacionadas aos computadores são"novas espécies de velhas
questões morais."Johnson continua dizendo:

A metáfora de espécie e gênero engloba o elemento de verdade em cada lado do debate


em que uma nova espécie tem algumas características únicas que a tornam diferente de
qualquer outra espécie, mas ao mesmo tempo, a espécie tem características genéricas ou
fundamentais que são comuns a todos os membros do gênero. (1994, pág. 10)

Talvez, a ambiguidade na questão sobre a singularidade da ética do computador


sugira essa abordagem de meio-termo. Mas acredito que a caracterização de Johnson
de um problema de ética computacional como apenas mais uma espécie de um
gênero ético fixo é um tanto enganosa porque a incerteza conceitual gerada por
alguns problemas na ética computacional afeta não apenas nossa compreensão da
situação particular, mas também as questões éticas e legais. categorias que se aplicam
a ele. Como sugeri, categorias éticas e legais, como privacidade e direitos autorais,
podem mudar de significado à medida que se enriquecem informacionalmente. A
novidade da espécie às vezes contamina o gênero! Seja ou não um
considera a ética da computação como única, a ética da computação é definitivamente um
campo exigente da ética que requer mais do que a aplicação rotineira de princípios.

Razões dentro das Estruturas Relativas

Tenho argumentado contra a compreensão da ética do computador em termos de


Ética de Rotina porque a aplicação da tecnologia da computação produz regularmente
vazios políticos e enriquecimento informacional que promove mudanças conceituais,
se não confusões conceituais definitivas. A ética do computador não é mecânica. Mas,
a rejeição da Ética de Rotina deixa muitas pessoas desconfortáveis. Se a ética não é
rotina, como pode ser feita? Recuar para uma posição de Relativismo Cultural não
resolverá o problema. De acordo com o Relativismo Cultural, as questões éticas devem
ser decididas situacionalmente com base nos costumes e leis locais. Dois problemas
imediatamente nos confrontam com essa posição em relação à ética do computador.
Primeiro, porque a atividade de computação é globalmente interativa, apelar aos
costumes e leis locais, em geral, não nos fornecerá uma resposta sobre o que
devemos fazer quando os costumes e as leis entrarem em conflito. Na World Wide
Web, as informações fluem independentemente de costumes particulares. Que
costumes devemos aplicar para regulá-lo? Escolher os costumes de qualquer cultura
parece arbitrário. Escolhemos os costumes da cultura em que a informação aparece na
tela do computador ou os costumes da cultura da qual a informação se origina? Em
segundo lugar, todas as dificuldades com a Ética de Rotina continuam a se aplicar. Um
vácuo de política pode ocorrer para cada cultura. Uma situação de computação pode
ser tão nova que não há costumes ou leis estabelecidas em qualquer lugar para lidar
com isso. Inicialmente, um apelo ao Relativismo Cultural pode parecer uma tentativa
sofisticada e plausível de escapar dos limites paroquiais da Ética Rotineira,

As deficiências e dificuldades com a Ética de Rotina e o Relativismo Cultural podem


fazer com que alguém seja cauteloso ao fazer ética aplicada. Se as pessoas diferem em
seus julgamentos éticos, como as divergências podem ser evitadas ou resolvidas? É
por essa razão, eu acho, que os cientistas da computação e outros às vezes relutam
em ensinar a ética da computação. As questões éticas parecem ser muito evasivas e
vagas. É mais confortável falar sobre algoritmos, estruturas de dados, localizações de
memória e redes porque existem fatos sobre esses tópicos. O reino dos valores parece
irremediavelmente virtual, nunca tão substancial quanto o reino real dos fatos. Mas
um retiro seguro para um reino de fatos puros onde tudo é preto ou branco,
verdadeiro ou falso, não é possível. Toda ciência, incluindo computação
ciência, baseia-se em juízos de valor. Se, por exemplo, a verdade não for considerada um valor crítico
pelos cientistas, o empreendimento da ciência não pode começar.
Minha posição é que todos os empreendimentos humanos interessantes, incluindo
computação, são conduzidos dentro de estruturas de valores. Além disso, essas estruturas
podem ser racionalmente criticadas e ajustadas. Às vezes, eles são criticados
externamente do ponto de vista de outras estruturas e, às vezes, são criticados
internamente. Algumas estruturas de valor, como as de uma ciência emergente como a
ciência da computação, passam por uma rápida evolução. Outras estruturas de valor são
mais estáveis. As estruturas de valor nos fornecem os tipos de razão que consideramos
relevantes ao justificar julgamentos de valor específicos. Os valores humanos são relativos,
mas não simplesmente no sentido superficial do Relativismo Cultural. Nossos valores mais
básicos são relativos à nossa humanidade, que nos fornece uma estrutura compartilhada
na qual podemos conduzir argumentos racionais sobre o que devemos fazer.
Minha intenção não é buscar uma maneira de eliminar totalmente as disputas de
valor, o que não acho possível, mas mostrar como uma discussão fundamentada sobre
questões de valor é possível mesmo quando os costumes podem estar ausentes ou em
conflito. Dizer que os valores são relativos significa que eles não são absolutos; isso não
significa que sejam aleatórios, incomuns ou não passíveis de crítica. Talvez refletir sobre o
raciocínio com valores relativos seja como pensar em nadar pela primeira vez. Parece
impossível. Por que ninguém afunda no fundo? Como se pode mover se a água se move
quando empurrada? Por que ninguém se afoga? Mas nadar sem se afogar é possível,
assim como raciocinar com valores relativos. Na verdade, não só é possível; Nós fazemos
isso o tempo todo. Dada a relatividade dos valores, há alguma esperança de discussão
racional na ética do computador? Absolutamente!
Minha apresentação será em duas etapas. Primeiro, discutirei a onipresença de
valores não éticos e enfatizarei seu uso em todos os aspectos da atividade humana –
não podemos escapar da tomada de decisão de valor, mesmo que queiramos fazê-lo.
Usarei a própria ciência da computação como exemplo, embora qualquer
empreendimento humano interessante possa servir como ilustração. E, segundo,
discutirei o uso de valores na tomada de decisões éticas. Minha posição é que uma
acomodação entre argumento racional e relatividade de valores é possível. Podemos
reconhecer a diferença de valores entre as pessoas e entre as culturas e ainda nos
engajar em discussões racionais sobre as melhores políticas para o uso da informática.
Deixe-me começar enfatizando a onipresença dos valores em nossas vidas. Em toda
atividade humana razoavelmente complexa são tomadas decisões que exigem escolhas de
valor pelo menos implicitamente. Cozinheiros tomam decisões de valor sobre o que constitui
uma boa refeição. Empresários tomam decisões de valor sobre bons investimentos.
Advogados tomam decisões sobre bons jurados. Todos esses empreendimentos
utilizam fatos, mas os fatos estão sempre na escolta de valores. Cada disciplina tem
seu próprio conjunto de valores que os membros da disciplina usam para tomar
decisões. Mesmo os cientistas, que se orgulham de estabelecer fatos, devem utilizar
valores pelo menos implicitamente. Para reunir os fatos, os cientistas devem saber o
que conta como uma boa evidência, o que conta como uma boa metodologia e o que
conta como uma boa explicação. Os valores permeiam nossas vidas. Não estou
falando aqui principalmente de valores éticos. Em vez disso, esses são os valores das
atividades diárias que tornam nossas atividades propositais. Os valores são uma parte
tão grande do que fazemos que muitas vezes não refletimos sobre o fato de que os
valores estão em ação quando tomamos decisões comuns. Julgamentos de valor não
podem ser escapados por nenhum de nós no trabalho ou no lazer.

Mesmo que se concorde que valores não éticos não podem ser evitados nas
atividades comuns, ainda há a preocupação de que a relatividade dos valores impossibilita
disputas fundamentadas. Afinal, cozinheiros, empresários, advogados e cientistas
discordam entre si. Para examinar o problema da relatividade dos valores, usemos como
exemplo a atividade da ciência da computação. Ao fazer ciência da computação, como
outras atividades humanas sofisticadas, é preciso tomar decisões e essas decisões
utilizam, muitas vezes de forma implícita, conjuntos de valores não éticos. Esses são os
valores da disciplina. Por exemplo, um cientista da computação sabe o que torna um
programa de computador um bom programa. Aqui estou usando "bom" principalmente
em um sentido não ético. Um bom programa de computador é aquele que funciona, que
foi exaustivamente testado, que não tem bugs, que seja bem estruturado, bem
documentado, que funcione com eficiência, que seja fácil de manter e que tenha uma
interface amigável. Todas as propriedades de um bom programa refletem valores. São as
características que tornam um programa de computadorMelhordo que outro. Além disso,
esse conjunto de valores relacionados, que constitui um conjunto de padrões dentro da
ciência da computação, é amplamente compartilhado entre os cientistas da computação.
Dados esses padrões, discussões racionais podem ser conduzidas sobre como melhorar
um determinado programa de computador. Além disso, as políticas relativas às boas
técnicas de programação podem ser razoavelmente justificadas em relação ao conjunto de
padrões. Por exemplo, pode-se argumentar a favor de uma política de uso de
programação orientada a objetos alegando que isso leva a menos bugs e código de
computador mais fácil de manter.
Cientistas da computação, como todo mundo, podem ter discordâncias,
incluindo discordâncias sobre os padrões. Mas as divergências que podem parecer
sobre valores são às vezes meros desacordos sobre fatos. Se houver um desacordo
sobre a justificativa da política para usar programação orientada a objetos, o
verdadeiro desacordo pode ser sobre se a programação orientada a objetos realmente
leva a menos bugs e código mais fácil de manter. Tal disputa pode ser submetida a um
teste empírico. Nesta situação, não é uma disputa sobre a importância de um código
livre de bugs e de fácil manutenção, mas sobre quão bem a programação orientada a
objetos atinge esses objetivos valiosos. Assim, disputas que inicialmente podem nos
parecer disputas irreconciliáveis sobre valores podem realmente ser disputas sobre
os fatos da questão sujeitas à adjudicação empírica.
Naturalmente, os cientistas da computação também podem discordar sobre os valores
que compõem um bom programa de computador. Alguns podem classificar a documentação
como essencial e outros podem considerá-la um recurso opcional menos importante.
Dependendo da classificação dos diferentes valores, diferentes julgamentos podem ser feitos
sobre quais programas são melhores que outros e quais políticas sobre a construção de
programas de computador são as mais importantes. O que quero enfatizar, entretanto, é o
grau de consenso que existe entre os cientistas da computação sobre o que constitui um bom
programa de computador. As classificações específicas podem diferir um pouco de pessoa
para pessoa, mas surge um padrão de concordância sobre os tipos de programa que são os
melhores. Nenhum cientista da computação considera um sistema ineficaz, não testado, cheio
de bugs, não estruturado, não documentado, ineficiente, código insustentável com uma
interface hostil como um bom programa. Isso simplesmente não acontece. De certa forma, os
padrões compartilhados definem o campo e determinam quem é qualificado e, de fato, quem
está no campo. Se alguém prefere produzir programas de "código espaguete" cheios de bugs,
não está fazendo ciência da computação séria.
As discussões sobre a relatividade dos valores às vezes envolvem a "falácia de muitos/
qualquer". Essa falácia ocorre quando se raciocina do fato de que muitas alternativas são
aceitáveis para a afirmação de que qualquer alternativa é aceitável. Há muitas maneiras
aceitáveis para um agente de viagens encaminhar alguém entre Boston e Madri. Não se
segue que qualquer forma de enviar alguém entre essas cidades seja aceitável. Viajar pelo
centro da Terra e passar pela Estrela do Norte não estão incluídos. Muitos programas de
computador diferentes podem ser bons, mas não é qualquer programa de computador
que é bom.
Para resumir, os valores não éticos desempenham um papel em nossa tomada de decisão em
todas as atividades humanas interessantes, incluindo a ciência da computação. Nenhuma fuga para
um reino seguro de fatos puros, mesmo na ciência, é possível. Os padrões de valor de uma
disciplina podem ser amplamente compartilhados, implícitos e passar despercebidos, mas estão
sempre lá. Além disso, cada disciplina tem acordo suficiente sobre o que o
padrões são para conduzir seus negócios. Sem algum consenso sobre o que é valioso,
o progresso em uma disciplina é impossível.

Valores fundamentais

Dado que existe algum consenso sobre valores dentro de comunidades com
preferências compartilhadas, existe alguma base para consenso sobre valores entre
comunidades? Os julgamentos éticos são feitos além dos limites estreitos das
comunidades de interesse especial. Dadas as diferenças entre as comunidades, muito
menos as diferenças entre as culturas, como é possível fundamentar julgamentos
éticos? Julgamentos éticos sobre tecnologia de computação podem parecer ainda mais
duvidosos. Como a tecnologia de computação gera vazios políticos, ou seja, cria
situações em que não há políticas estabelecidas baseadas em costumes, leis ou
religião, somos confrontados com a difícil tarefa de justificar políticas éticas sobre
novas aplicações da tecnologia de computação mesmo dentro de uma comunidade.
Para enfrentar esses desafios, devemos começar perguntando se compartilhamos algum valor como seres humanos. O que temos em comum? Acredito que

há um conjunto de valores fundamentais que são compartilhados pela maioria, se não por todos os humanos. Eles são familiares para todos nós. A vida e a felicidade

são dois dos valores mais óbvios. No mínimo, as pessoas querem evitar a morte e a dor para si mesmas. É claro que em algumas situações as pessoas desistem de

suas vidas e sofrem dores para atingir determinados objetivos. Mas, de um modo geral, as pessoas não se machucam intencionalmente e se matam sem motivo. Há

um valor prima facie na vida e na felicidade para os seres humanos. Outros valores fundamentais (ou bens essenciais) para os seres humanos incluem habilidade,

liberdade, conhecimento, recursos e proteção. Esses valores são articulados de maneiras diferentes em diferentes culturas, mas todas as culturas dão importância a

esses valores até certo ponto. Obviamente, algumas culturas podem distribuir esses bens de forma desigual entre seus membros, mas nenhuma cultura desconsidera

completamente esses valores. Nenhuma cultura ou indivíduo humano poderia continuar a existir e desconsiderar completamente os valores centrais. Os humanos

precisam de nutrição e as culturas precisam criar seus filhotes para sobreviver. Esses tipos de atividade requerem pelo menos alguma habilidade, liberdade,

conhecimento, recursos e proteção. O fato de os humanos compartilharem alguns valores básicos não é surpreendente. Esses valores fornecem algumas vantagens

evolutivas. Indivíduos e culturas que negligenciam completamente os bens essenciais não existirão por muito tempo. Nenhuma cultura ou indivíduo humano poderia

continuar a existir e desconsiderar completamente os valores centrais. Os humanos precisam de nutrição e as culturas precisam criar seus filhotes para sobreviver.

Esses tipos de atividade requerem pelo menos alguma habilidade, liberdade, conhecimento, recursos e proteção. O fato de os humanos compartilharem alguns

valores básicos não é surpreendente. Esses valores fornecem algumas vantagens evolutivas. Indivíduos e culturas que negligenciam completamente os bens

essenciais não existirão por muito tempo. Nenhuma cultura ou indivíduo humano poderia continuar a existir e desconsiderar completamente os valores centrais. Os

humanos precisam de nutrição e as culturas precisam criar seus filhotes para sobreviver. Esses tipos de atividade requerem pelo menos alguma habilidade, liberdade,

conhecimento, recursos e proteção. O fato de os humanos compartilharem alguns valores básicos não é surpreendente. Esses valores fornecem algumas vantagens

evolutivas. Indivíduos e culturas que negligenciam completamente os bens essenciais não existirão por muito tempo.

Os valores fundamentais fornecem padrões para avaliar a racionalidade de nossas


ações e políticas. Eles nos dão razões para favorecer alguns cursos de ação
sobre outros. Eles fornecem uma estrutura de valores para julgar as atividades dos outros
também. À medida que nos familiarizamos com outras culturas, as diferenças muitas vezes nos
surpreendem. Os membros de outras culturas comem refeições diferentes, vestem roupas
diferentes e vivem em abrigos diferentes. Mas em um nível mais abstrato as pessoas são
notavelmente parecidas. Inicialmente, podemos achar os hábitos dos outros estranhos, tolos
ou bizarros, mas após a investigação não os consideramos ininteligíveis. As atividades que
podem parecer a princípio aleatórias ou sem propósito são, de fato, ordenadas e propositais.
Isso não torna as práticas dos outros não passíveis de crítica, assim como as nossas não são
passíveis de crítica, mas as torna compreensíveis.
As discussões sobre o relativismo na ética geralmente incluem exemplos da falácia
Muitos/Qualquer. Existem muitos costumes diferentes e, argumenta-se, qualquer costume
pode existir. Não tão! Algumas práticas possíveis são descartadas e outras práticas (de uma
forma ou de outra) são necessárias para que uma cultura exista. Os valores humanos
fundamentais são articulados de várias maneiras deliciosas, mas também restringem o reino
das possibilidades. "Relativo" não significa "aleatório".
Dizer que compartilhamos os valores centrais é apenas um primeiro passo no
argumento para fundamentar os julgamentos éticos. O vilão mais malvado e a sociedade
mais corrupta exibirão valores humanos fundamentais em uma base individual. Possuir
valores humanos fundamentais é sinal de ser racional, mas não é condição suficiente para
ser ético. Adotaro ponto de vista ético,deve-se respeitar os outros e seus valores
fundamentais. Todas as coisas sendo iguais, as pessoas não querem sofrer morte, dor,
deficiência, interferência, engano, perda de recursos ou intrusão.
Se tomarmos como diretriz ética evitar prejudicar os outros sem justificativa, os
valores centrais nos fornecerão um conjunto de padrões para avaliar ações e políticas. Os
valores centrais fornecem uma estrutura para análise em ética computacional. Ao usar a
estrutura de valor central, algumas políticas para aplicar a tecnologia de computador
podem ser consideradas melhores do que outras. Vamos considerar um conjunto de
políticas possíveis para as atividades de um navegador da web como exemplo.

Políticas possíveis para um site 1


Destrua informações no disco rígido do usuário deixando uma bomba-relógio no disco rígido
do usuário.
2 Remova informações do disco rígido do usuário sem o conhecimento do
usuário.
3 Deixar um cookie (informações sobre as preferências do usuário) no disco rígido do
usuário sem informar o usuário.
4 Deixe um cookie no disco rígido do usuário e informe o usuário.
5 Não deixe ou tire qualquer informação permanente do disco rígido do usuário. Dê
6 ao usuário as informações e a capacidade de aceitar ou recusar cookies.

Se respeitarmos os outros e seus valores fundamentais, ou seja, adotarmos o ponto de vista


ético, essas políticas podem ser classificadas pelo menos grosseiramente. As políticas 1 e 2 são
claramente inaceitáveis. Ninguém entra em contato com um site desejando ou esperando que
seu disco rígido seja apagado ou informações roubadas. A informação encontrada em um
disco rígido é um recurso do usuário que exige respeito e proteção. A política 3 é melhor do
que 1 ou 2. As pessoas podem se beneficiar de ter suas preferências registradas para que o
site possa adaptar suas respostas de forma mais eficaz na próxima vez que for visitado. No
entanto, as informações estão sendo deixadas nos discos rígidos dos usuários sem o seu
conhecimento. Algum engano está envolvido. A política 4 é melhor que a 3, pois o usuário é
informado sobre a atividade. A Política 6 é ainda melhor porque o usuário tem o conhecimento
e a capacidade de permitir ou recusar os cookies. Dadas essas vantagens, a política 6 é melhor
que a 5, embora a 5 seja uma política perfeitamente aceitável, pois nenhum dano está sendo
causado ao usuário.
Esta análise dos pontos fortes e fracos comparativos dessas políticas poderia ser
elaborada, mas já foi dito o suficiente para fazer vários pontos. As pessoas podem não
concordar exatamente como classificar essas políticas. Alguns podem acreditar que o
roubo de informações é pior do que sua destruição e, portanto, a política 2 é pior que a
política 1. Alguns podem acreditar que a política 6 cria alguns riscos devido a possíveis
mal-entendidos sobre o que está sendo colocado em um disco rígido e, portanto, a política
5 é melhor que a política 6. Mas ninguém argumentaria, de um ponto de vista ético, que a
política 1 ou 2 é aceitável. A maioria concordaria que algumas das outras políticas são
aceitáveis e que algumas são melhores que outras. Além disso, mesmo quando há
discordância sobre as classificações, as discordâncias podem ter tanto a ver com questões
factuais quanto com diferenças de valor. De fato, a perda de informação causa mais danos
do que sua destruição e, de fato, ocorrem mal-entendidos sobre o que é ou não é deixado
em um disco rígido? Diferenças de valor aparentes podem estar abertas à resolução
empírica.
A situação é paralela à avaliação de programas de computador. Os cientistas da
computação concordam substancialmente que alguns programas de computador são terríveis
e alguns são muito bons. Há divergências sobre os rankings de alguns no meio. Muitas vezes,
razões podem ser dadas sobre por que alguns são melhores do que outros. Da mesma forma,
algumas políticas de uso de computadores não são eticamente aceitáveis, enquanto outras
claramente o são. As pessoas podem ter rankings diferentes, mas esses rankings, assumindo
um ponto ético; de vista, terá resultados positivos significativos
correlação. Além disso, as pessoas podem dar razões pelas quais algumas políticas são
melhores do que outras. Os valores centrais fornecem um conjunto de padrões pelos quais
podemos avaliar diferentes políticas. Eles nos dizem o que procurar ao fazer nossas avaliações
sobre os benefícios e malefícios de diferentes políticas. Eles nos dão as razões para preferir
uma política a outra. Eles sugerem maneiras de modificar as políticas para torná-las melhores.

Responsabilidade, Resolução e Resíduo

Existem muitos níveis de relatividade nos julgamentos de valor. Alguns de


nossos valores são relativos ao nosso ser humano. Se fôssemos anjos ou
criaturas de outra dimensão, nossos valores centrais poderiam ser
diferentes. E então, é claro, culturas diferentes articulam os valores
humanos centrais de maneira diferente. E diferentes indivíduos dentro de
uma cultura podem diferir em suas avaliações de valores. De fato, alguns
valores de um indivíduo podem mudar ao longo do tempo. Tenho
argumentado que tal relatividade é compatível com a discussão racional
de questões éticas e a resolução de pelo menos algumas disputas éticas.
Afinal, somos seres humanos, não anjos ou criaturas de outra dimensão.
Compartilhamos valores fundamentais.

A responsabilidade ética começa pelo ponto de vista ético. Devemos respeitar os


outros e seus valores fundamentais. Se pudermos evitar políticas que resultem em danos
significativos a outras pessoas, esse seria um bom começo para uma conduta ética
responsável. Algumas políticas são tão obviamente prejudiciais que são prontamente
rejeitadas por nossos padrões de valores fundamentais. Vender software de computador
que é conhecido por apresentar mau funcionamento de uma maneira que provavelmente
resultará em morte é um exemplo óbvio. Outras políticas atendem facilmente aos nossos
padrões. Construir interfaces de computador que facilitem o uso por deficientes é um
exemplo claro. E, claro, algumas políticas de gerenciamento de tecnologia de computador
serão contestadas. No entanto, como venho enfatizando, algumas das políticas éticas em
disputa podem estar sujeitas a uma discussão e resolução mais racionais. A principal
técnica de resolução, que venho enfatizando, é a investigação empírica das consequências
reais das políticas propostas. Por exemplo, algumas pessoas podem propor uma limitação
à liberdade de expressão na Internet, alegando que tal liberdade levaria a uma sociedade
instável ou a graves danos psicológicos de alguns cidadãos. Advogados
da liberdade de expressão pode apelar para sua utilidade na transmissão de
conhecimento e sua eficácia em chamar a atenção para as falhas do governo. Até certo
ponto, são afirmações empíricas que podem ser confirmadas ou não confirmadas, o que,
por sua vez, pode sugerir compromissos e modificações de políticas.
Outra técnica de resolução é assumir uma posição imparcial ao avaliar as
políticas. Imagine-se como um estranho não sendo beneficiado ou prejudicado por
uma política. É uma política justa? É uma política que você defenderia se fosse
subitamente colocado em uma posição em que fosse afetado pela política? Pode
ser tentador ser vendedor de software defeituoso, mas ninguém quer ser
comprador de software defeituoso. E, finalmente, as analogias às vezes são úteis
para resolver desacordos. Se um profissional de computação não aprovaria o fato
de seu corretor reter informações sobre a volatilidade das ações que está
pensando em comprar, pareceria, por analogia, que ele deveria compartilhar
informações com um cliente sobre a instabilidade de um programa de computador
que o cliente está pensando em comprar.
Todas essas técnicas de resolução podem ajudar a formar um consenso sobre políticas aceitáveis. Mas quando as técnicas de

resolução forem tão longe quanto possível, algum resíduo de desacordo pode permanecer. Mesmo nessas situações, políticas

alternativas podem estar disponíveis e todas as partes podem aceitar. Mas, um resíduo de diferença ética não deve ser temido. As

disputas ocorrem em cada empreendimento humano e, no entanto, o progresso é feito. A ética do computador não é diferente a

esse respeito. A principal ameaça à ética da computação não é a possibilidade de que um resíduo de divergências sobre quais

políticas são melhores permaneça após a conclusão dos debates sobre as questões, mas uma falha em debater as questões éticas da

tecnologia da computação. Se ingenuamente considerarmos as questões de ética computacional como rotineiras ou, pior ainda,

como insolúveis, então corremos o maior perigo de sermos prejudicados pela tecnologia do computador. A responsabilidade exige

que adotemos o ponto de vista ético e nos envolvamos em análises conceituais contínuas e formulação e justificativa de políticas em

relação a essa tecnologia em constante evolução. Como a revolução do computador agora envolve o mundo inteiro, é crucial que as

questões da ética do computador sejam abordadas em nível global. A aldeia global precisa conduzir uma conversa global sobre o

impacto social e ético da computação e o que deve ser feito a respeito. Felizmente, a computação pode nos ajudar a conduzir

exatamente essa conversa. Como a revolução do computador agora envolve o mundo inteiro, é crucial que as questões da ética do

computador sejam abordadas em nível global. A aldeia global precisa conduzir uma conversa global sobre o impacto social e ético da

computação e o que deve ser feito a respeito. Felizmente, a computação pode nos ajudar a conduzir exatamente essa conversa.

Como a revolução do computador agora envolve o mundo inteiro, é crucial que as questões da ética do computador sejam

abordadas em nível global. A aldeia global precisa conduzir uma conversa global sobre o impacto social e ético da computação e o

que deve ser feito a respeito. Felizmente, a computação pode nos ajudar a conduzir exatamente essa conversa.

Referências
Bynum TW e Rogerson. S. (1996). "Introdução e Visão Geral: Informações Globais
Ética."Ética da Ciência e Engenharia, 2/2:131-6. Johnson,
DG (1994).Ética Informática,2ª ed. Prentice Hall, Inc.
Maner, W. (1996). "Problemas éticos únicos em tecnologia da informação."Ciência e
Ética da Engenharia. 2/2:137-54.
Moor, JH (1985). "O que é Ética do Computador?"Metafilosofia,16/4: 266–75. Moor, JH (1990).
"Ética da Proteção da Privacidade".Tendências da biblioteca,39/1 e 2: 69-82.

Perguntas básicas de estudo

1. Qual é a posição da "Ética de Rotina" em relação à natureza da ética do computador? Por


que Moor acredita que essa visão "reduz o potencial de progresso" na ética do
computador?
2. Qual é a posição do "relativismo cultural" em relação à natureza da ética do computador?
Por que Moor acredita que essa visão "reduz o potencial de progresso" na ética do
computador? Por que a natureza global da World Wide Web torna o Relativismo Cultural
uma abordagem ineficaz para a ética do computador?
3. O que é a "falácia de muitos/qualquer"? Como a posição do Relativismo Cultural comete
essa falácia?
4. Explique o significado de "maleabilidade lógica". Por que essa característica da
informática, segundo Moor, a torna revolucionária?
5. O que Moor quer dizer com o termo "enriquecimento informacional"?
6. Como o conceito de dinheiro se tornou informacionalmente enriquecido?
7. Como o conceito de guerra se tornou informacionalmente enriquecido?
8. Como o conceito de privacidade nos EUA se tornou informacionalmente enriquecido?
9. Como o conceito de copyright foi enriquecido informacionalmente?
10. Segundo Moor, a ética computacional tem duas partes. Quais são esses dois componentes da ética
do computador?
11. O que, segundo Moor, é um vácuo político? Como a tecnologia da computação
gera vazios políticos?
12. O que é uma confusão conceitual? Como o enriquecimento informacional está relacionado às confusões
conceituais?
13. O que, segundo Moor, é um "valor central"? Liste os valores fundamentais que Moor menciona.
14. De acordo com Moor, para fazer um julgamento ético é preciso fazer mais do que usar valores
fundamentais; deve-se também "tomar o ponto de vista ético". O que é "o ponto de vista ético"?
(Veja tambémpág. 66 abaixo de.)

Perguntas para reflexão


1. Qual é a diferença entre um desacordo sobre fatos e um desacordo sobre
valores? Dê três exemplos que ilustrem a diferença.
2. Com base na descrição de Moor sobre a natureza da ética computacional, descreva um passo a passo
procedimento passo a passo para tomar decisões de ética no computador sobre a coisa certa a fazer em um
determinado caso de uso do computador. Certifique-se de levar em conta o papel dos valores fundamentais.
3. Dado o relato de Moor sobre a natureza da ética computacional, por que a ética computacional é um
ramo especialmente importante da ética aplicada?
CAPÍTULO 2

Problemas éticos únicos em tecnologia da informação


Walter Maner

Walter Maner. "Problemas éticos únicos em tecnologia da informação." Este capítulo foi
originalmente apresentado como o discurso principal no ETHICOMP95 em Leicester, Reino
Unido. Posteriormente, foi publicado emÉtica da Ciência e Engenharia, 2:2(edição especial,
ed. Terrell Ward Bynum e Simon Rogerson, abril de 1996), pp. 137–154. © 1995 por Walter
Maner e reimpresso com permissão do autor.

Introdução

Um fator por trás do aumento da ética da computação é a suspeita persistente de que os


profissionais de computação podem estar despreparados para lidar efetivamente com as
questões éticas que surgem em seu local de trabalho. Ao longo dos anos, essa suspeita foi
reforçada por pesquisas principalmente anedóticas que parecem mostrar que os profissionais
de computação simplesmente não reconhecem quando as questões éticas estão presentes.
Talvez o primeiro trabalho desse tipo tenha sido feito por Donn Parker no final dos anos 1970
na SRI International (ver Parker 1978).
Em 1977, Parker convidou profissionais altamente treinados de várias áreas para avaliar o
conteúdo ético de 47 casos hipotéticos simples que ele havia criado com base em parte em seu
conhecimento especializado em abuso de computadores. Os participantes do workshop se
concentraram em cada ação ou não de cada pessoa que desempenhou um papel nesses
cenários de uma página. Para cada ato que foi realizado ou não, sua tarefa definida era
determinar se o comportamento era antiético ou não, ou simplesmente não levantava
nenhuma questão ética. Parker encontrou uma quantidade surpreendente de discordância
residual entre esses profissionais, mesmo após uma análise exaustiva e discussão de todas as
questões apresentadas em cada caso.
Mais surpreendentemente, uma minoria significativa de profissionais manteve sua crença de
que nenhuma questão ética estava presente, mesmo em casos de aparente abuso de computador.
Por exemplo, no Cenário 3.1, um representante da empresa recebe rotineiramente cópias dos
registros de prisão computadorizados de novos funcionários da empresa. Esses registros são
fornecidos como um favor por um arquivista da polícia que por acaso tem acesso a vários
bancos de dados locais e federais contendo informações de justiça criminal.

Dos 33 indivíduos que analisaram este caso, 9 acharam que a divulgação de históricos de
prisão não levantou questões éticas. A pesquisa de Parker não identifica as profissões
representadas por aqueles que não conseguiram detectar questões éticas, mas a maioria
os participantes deste estudo inicial1eram profissionais de informática. Isso deixou os
leitores casuais do Parker'sConflitos Éticos em Ciência da Computação e Tecnologialivre
para identificar os profissionais de informática como aqueles que carecem de sensibilidade
ética. Se alguns deles não conseguiam nem mesmo reconhecer quando as questões éticas
estavam presentes, é difícil imaginar como poderiam esperar lidar com elas de forma
responsável. Segundo Parker (1976), o problema pode ter sido fomentado por programas
de educação e treinamento em informática que encorajavam, ou pelo menos não
criminalizavam, certos tipos de conduta profissional antiética. Essa percepção de
inadequação profissional faz parte de uma agenda política amplamente oculta que
contribuiu para o desenvolvimento de vários currículos em ética computacional. Nos
últimos anos, a percepção tácita de que aqueles que se preparam para carreiras em
computação podem precisar de educação moral corretiva parece ter influenciado alguns
conselhos de acreditação. Como resultado, eles estão dispostos a exigir cada vez mais
conteúdo ético em programas de ciência da computação e engenharia da computação.
Eles também podem estar respondendo à crescente atenção da mídia dada a casos de
abuso de computador, fraude e crime. Outros exigem mais conteúdo ético porque
acreditam que falhas catastróficas de programas de computador são diretamente
atribuíveis ao comportamento imoral (Gotterbarn 1991c, p. 74).
O crescimento do interesse é gratificante, especialmente considerando que, em 1976,
achei difícil convencer alguém de que "ética computacional" era outra coisa que não
um oxímoro.2Sem dúvida, Norbert Wiener ficaria satisfeito em ver seu trabalho
dando frutos tardios (ver Wiener 1960). Ao mesmo tempo, fico muito perturbado
quando cursos de impacto social e ética computacional se tornam uma ferramenta
de doutrinação em padrões apropriados de conduta profissional. Donald
Gotterbarn, por exemplo, argumenta que um dos seis objetivos da ética
computacional é a "socialização" dos alunos em normas "profissionais" (1991a, p.
42). O fato de que essas normas são muitas vezes eminentemente razoáveis,
mesmo recomendadas cuidadosamente a nós por nossas organizações
profissionais, não torna a doutrinação menos repugnante. O objetivo não pode ser
simplesmente criminalizar ou estigmatizar os desvios das normas profissionais.
Considere uma analogia. Suponha que um curso de relações sexuais humanas
tenha como objetivo a socialização de estudantes universitários em
contradizer ou desacreditar qualquer um que viole esses padrões. A maioria das pessoas
reconheceria rapidamente que este currículo é mais político do que acadêmico, e que tal
abordagem tenderia a criar um ambiente de sala de aula onde o preconceito poderia
sobrecarregar a investigação.
Estamos hoje no limiar de uma época em que motivos políticos bem-intencionados
ameaçam remodelar a ética do computador em alguma forma de educação moral.
Infelizmente, é uma transição fácil da crença correta de que devemos ensinar aos futuros
cientistas e engenheiros da computação o significado de conduta responsável para a
crença errônea de que devemos treiná-los para se comportarem como profissionais
responsáveis. Quando Terrell Ward Bynum diz, por exemplo, que espera que o estudo da
ética do computador desenvolva "bom julgamento" nos alunos, ele não está defendendo a
socialização (1991, p. 24). Por "bom julgamento", ele quer se referir ao processo
raciocinado e baseado em princípios pelo qual os julgamentos morais reflexivos são
proferidos. A partir desta posição correta, é uma transição tentadora e sutil para a posição
equivocada de que a ética do computador deve fazer com que os alunos desenvolvam
bons julgamentos, significando que suas posições sobre questões morais particulares
estão de acordo com as normas da profissão. Esse erro auto-engano ocorre porque há
uma mudança não detectada na ênfase do processo para os produtos da deliberação
moral.
Meu ponto é que uma necessidade percebida de educação moral não fornece e não pode
fornecer uma justificativa adequada para o estudo da ética do computador. Pelo contrário,
deve existir como um campo digno de estudo por direito próprio e não porque no momento
pode fornecer meios úteis para certos fins socialmente nobres. Para existir e perdurar como
um campo separado, deve haver um domínio único para a ética computacional distinto do
domínio da educação moral, distinto até mesmo dos domínios de outros tipos de ética
profissional e aplicada. Como James Moor, acredito que os computadores são tecnologia
especial e levantam questões éticas especiais, portanto, a ética computacional merece um
status especial (ver Moor, 1985).
Minhas observações restantes sugerirão uma justificativa para a ética do computador com base em
argumentos e exemplos que mostram que uma das seguintes afirmações é verdadeira:

• que certas questões éticas são tão transformadas pelo uso de computadores que
merecem ser estudadas por conta própria, em sua forma radicalmente alterada; ou
• que o envolvimento de computadores na conduta humana pode criar questões éticas
inteiramente novas, exclusivas da computação, que não aparecem em outras áreas.

Vou me referir à primeira como a "visão mais fraca" e a segunda como a "visão mais forte".
Embora a visão mais fraca forneça uma justificativa suficiente, a maior parte de minha
atenção estará focada em estabelecer a visão mais forte. Isso é semelhante à posição
que tomei em 1980 e 1985, exceto que não acredito mais que os problemas
meramente agravados pela tecnologia do computador merecem status especial (ver
Maner 1980; Pecorino e Maner 1985).

Níveis de Justificativa para o Estudo da Ética do Computador

Do mais fraco ao mais forte, há pelo menos seis níveis de justificativa para o estudo da
ética computacional.

Nível 1Devemos estudar a ética do computador porque isso nos fará comportar como
profissionais responsáveis. Na pior das hipóteses, esse tipo de raciocínio é um chamado
disfarçado de doutrinação moral. Na melhor das hipóteses, é enfraquecido pela necessidade
de confiar em uma conexão elusiva entre conhecimento correto e conduta correta. Isso é
semelhante à afirmação de que devemos estudar religião porque isso nos tornará mais
espirituais. Para algumas pessoas, talvez possa, mas o mecanismo não é confiável.

Nível 2Devemos estudar a ética do computador porque isso nos ensinará como evitar o
abuso do computador e as catástrofes. Relatos de Parker (1989), Neumann (1995) e
Forester e Morrison (1990) deixam poucas dúvidas de que o uso do computador levou a
abusos significativos, travessuras, crimes, quase catástrofes e catástrofes reais. A questão
é: obtemos uma visão equilibrada da responsabilidade social apenas examinando a roupa
suja da profissão? É verdade que uma litania de "histórias de terror" de computador
fornece um veículo para infundir algum conteúdo ético no estudo da ciência da
computação e da engenharia da computação. Concedido, todos nós devemos trabalhar
para evitar catástrofes de computador. Mesmo assim, existem grandes problemas com o
uso da terapia de choque conceitual:

• Os casos comumente usados levantam questões de má conduta ao invés de boa conduta;


eles nos dizem quais comportamentos evitar, mas não nos dizem quais
comportamentos vale a pena modelar.
• Como argumentou Leon Tabak (1988), essa abordagem pode prejudicar os alunos,
impedindo-os de desenvolver uma visão saudável, positiva e construtiva de sua
profissão.
• A maioria das histórias de horror são reconhecidamente casos raros e extremos, o que as
faz parecer igualmente remotas e irrelevantes para a vida profissional diária.
• As pessoas que usam computadores para fins abusivos tendem a ser moralmente falidas
– há pouco que podemos aprender com elas.
• Muitas catástrofes de computador são o resultado de ações não intencionais e, como tal,
oferecem pouca orientação na organização do comportamento intencional.
• Uma ladainha de histórias de horror não fornece por si só um conceito coerente de ética
computacional.

Nível 3Devemos estudar a ética da computação porque o avanço da tecnologia da computação


continuará a criar vazios políticos temporários. O uso prolongado de teclados de computador
mal projetados, por exemplo, expõe os trabalhadores administrativos a lesões por esforço
repetitivo dolorosas, crônicas e eventualmente debilitantes. Claramente, os empregadores não
devem exigir que os trabalhadores usem equipamentos que provavelmente causarão
ferimentos graves. A questão é: Que políticas devemos formular para resolver problemas de
uso de teclado a longo prazo? A nova tecnologia telefônica para identificação automática de
chamadas cria um vácuo de política semelhante. Não é imediatamente óbvio o que a
companhia telefônica deveria fazer, se é que deveria fazer alguma coisa, para proteger a
privacidade dos chamadores que desejam permanecer anônimos.
Ao contrário das justificativas de primeiro e segundo níveis que considerei e
rejeitei, essa justificativa de terceiro nível parece ser suficiente para estabelecer a ética
computacional como uma disciplina importante e independente. Ainda assim, há
problemas:

• uma vez que os vazios de políticas são temporários e as tecnologias de computador evoluem
rapidamente, qualquer pessoa que estude a ética do computador teria a tarefa perpétua de
rastrear um alvo em movimento rápido e em constante mudança:
• também é possível que questões éticas práticas surjam principalmente quando as estruturas
políticas entram em conflito; não poderíamos resolver tais questões meramente formulando
mais políticas.

Nível 4Devemos estudar a ética da computação porque o uso da computação transforma


permanentemente certas questões éticas na medida em que suas alterações exigem
estudo independente. Eu argumentaria, por exemplo, que muitas das questões em torno
da propriedade intelectual foram radical e permanentemente alteradas pela intrusão da
tecnologia do computador. A simples pergunta: "O que eu possuo?" foi transformada na
pergunta: "O que exatamente possuo quando possuo alguma coisa?" Da mesma forma, a
disponibilidade de tecnologia de criptografia barata, rápida, indolor e transparente
transformou completamente o debate sobre privacidade. No passado, nos preocupávamos
com a erosão da privacidade. Agora nos preocupamos com o
parede impenetrável de privacidade gerada por computador oferecida a cada criminoso com
um computador e meio cérebro.

Nível5 Devemos estudar a ética da computação porque o uso da tecnologia da


computação cria e continuará a criar novas questões éticas que requerem estudo
especial. Voltarei a este tópico em instantes.

Nível6 Devemos estudar a ética da computação porque o conjunto de questões novas e


transformadas é grande e coerente o suficiente para definir um novo campo. Menciono
isso esperançosamente como uma possibilidade teórica. Francamente, depois de 15 anos,
não conseguimos reunir uma massa crítica de questões centrais autodefinidas. Joseph
Behar, um sociólogo, considera a ética do computador difusa e desfocada; Gary Chapman,
quando falou na Conferência de Computadores e Qualidade de Vida em 1990, reclamou
que nenhum avanço havia sido feito na ética da computação (ver Gotterbarn 1991b).
Existem várias explicações para esta aparente (ou real) falta de progresso (Behar 1993;
Chapman 1990):

• A ética do computador tem apenas quinze anos;3grande parte de sua geografia


intelectual permanece desconhecida.
• Até agora, ninguém forneceu um conceito completo e coerente do assunto
adequado para a ética do computador.
• Incluímos erroneamente no domínio da ética computacional qualquer ato
antiético que envolvesse um computador. No futuro, devemos ser mais
cuidadosos para nos restringir àqueles poucos atos em que os computadores
têm um envolvimento essencial e não incidental.
• Como a ética do computador está ligada a uma tecnologia em evolução, o campo muda
sempre que a tecnologia muda. Por exemplo, o uso de computadores em rede
apresenta problemas morais diferentes daqueles apresentados pelo uso de
computadores autônomos. O uso de interfaces acionadas por mouse levanta
questões diferentes daquelas levantadas por interfaces acionadas por teclado,
principalmente para pessoas cegas.
• Adotamos, de filósofos inteligentes, a dúbia prática de usar casos altamente
elaborados, bilaterais e dilemáticos para expor conflitos éticos interessantes,
mas insolúveis. Isso levou à falsa percepção de que não poderia haver progresso
e nenhuma semelhança na ética do computador. Novas pesquisas podem fazer
com que essa percepção desapareça (veja Leventhal et al. 1992).
• Permanecemos focados por muito tempo na roupa suja de nossos
profissão.

Em uma nota esperançosa, o Comitê Diretor do ImpactCS presidido por C. Dianne Martin está
[em 1995] na metade de um projeto de três anos financiado pela NSF que provavelmente
gerará uma imagem altamente coerente de como o currículo de ciência da computação pode
abordar questões sociais e éticas . ImpactCS pretende publicar diretrizes curriculares
específicas, juntamente com modelos concretos para a implementação
eles.4

O Status Especial da Ética do Computador

Passo agora à tarefa de justificar a ética computacional no Nível 5 estabelecendo, por


meio de vários exemplos, que existem questões e problemas exclusivos da área.
É necessário começar com algumas isenções de responsabilidade. Em primeiro lugar, não
afirmo que este conjunto de exemplos seja, em qualquer sentido, completo ou representativo.
Eu nem mesmo afirmo que os tipos de exemplo que vou usar são os melhores tipos de
exemplo para usar na ética do computador. Não afirmo que qualquer uma dessas questões
seja central para a ética do computador. Nem estou sugerindo que a ética do computador deva
se limitar apenas às questões e problemas que são exclusivos do campo. Eu apenas quero
afirmar que cada exemplo é, em um sentido específico, único para a ética do computador. Por
"único" quero me referir àquelas questões e problemas éticos que são caracterizados pelo
envolvimento primário e essencial da tecnologia computacional, exploram alguma propriedade
única dessa tecnologia e não teriam surgido sem o envolvimento essencial da tecnologia
computacional.
Quero deixar espaço para fazer uma afirmação forte ou fraca, conforme
apropriado. Para alguns exemplos, faço a forte afirmação de que a questão ou
problema não teria surgido. Para outros exemplos, afirmo apenas que a questão ou
problema não teria surgido em sua forma atual, altamente alterada.
Para estabelecer o envolvimento essencial da tecnologia da computação, argumentarei
que essas questões e problemas não têm um análogo moral satisfatório fora do computador.
Para meus propósitos, uma analogia "satisfatória" é aquela que (a) é baseada no uso de uma
máquina diferente de uma máquina de computação e (b) permite a pronta transferência de
intuições morais do caso analógico para o caso em questão. Em linhas gerais, minha linha de
argumento será que certas questões e problemas são exclusivos da ética computacional
porque levantam questões éticas que dependem de alguma propriedade única da tecnologia
computacional predominante. Minhas observações destinam-se a se aplicar ao conjunto de
instruções fixo de inter-rede de programa armazenado de estado discreto
máquinas da arquitetura von Neumann. É possível que outros projetos (como a
Máquina de Conexão) exibam um conjunto diferente de propriedades exclusivas.
A seguir, ofereço uma série de exemplos, começando com um caso simples que me
permite ilustrar minha abordagem geral.

Exemplo 1: armazenado exclusivamente

No Bank of New York, um contador semelhante de 16 bits estourou,


resultando em um saque a descoberto de US$ 32 bilhões. O banco teve
que pedir US$ 24 milhões por um dia para cobrir o cheque especial. Os
juros desse empréstimo de um dia custaram ao banco cerca de US$ 5
milhões. Além disso, enquanto os técnicos tentavam diagnosticar a
origem do problema, os clientes enfrentavam atrasos dispendiosos em
suas transações financeiras (ver ibid., p. 169).

Este gabinete tem um analógico não-computador satisfatório? Considere máquinas de


somar mecânicas. Claramente, eles são suscetíveis a estouro, então é provável que os
contadores que confiaram neles nos anos anteriores às vezes produzissem totais muito
grandes para a máquina armazenar. O mecanismo de armazenamento transbordou,
produzindo no aço o mesmo resultado que o computador produziu no silício. O problema
com essa "analogia" é que, em um sentido amplo e relevante, as máquinas de somar são
computadores, ainda que de tipo primitivo. As descrições lógicas de baixo nível de
máquinas de somar e computadores são fundamentalmente idênticas.
Talvez o hodômetro mecânico do seu automóvel forneça uma analogia melhor. Quando a
leitura do hodômetro excede um limite projetado, digamos 99.999,9 milhas, o medidor
transborda e retorna a todos os zeros. Aqueles que vendem carros usados tiraram vantagem
injusta desta propriedade. Eles usam um pequeno motor para transbordar o medidor
manualmente, com o resultado de que o comprador não sabe que está
compra de um veículo de alta quilometragem.
Isso fornece uma analogia não computacional, mas é uma analogia satisfatória?
Permite a pronta transferência de intuições morais para casos envolvendo excesso de
palavras em computadores? Acredito que fique aquém. Talvez fosse uma analogia
satisfatória se, quando o hodômetro transbordou, o motor, os freios, as rodas e todas as
outras partes do automóvel parassem de funcionar. Isso de fato não acontece porque o
hodômetro não é altamente acoplado a outros sistemas críticos para o funcionamento do
veículo. O que é diferente nas palavras de computador é que elas estão profundamente
inseridas em subsistemas altamente integrados, de modo que a corrupção de uma única
palavra ameaça derrubar a operação de todo o computador. O que exigimos, mas não
temos, é um análogo não computadorizado que tenha um modo de falha catastrófico
semelhante.
Assim, os incidentes no hospital em Washington, DC e no Bank of New York
atendem aos meus três requisitos básicos para um problema ou questão específica.
Eles são caracterizados pelo envolvimento primário e essencial da tecnologia
computacional, dependem de alguma propriedade única dessa tecnologia e não
teriam surgido sem o envolvimento essencial da tecnologia computacional. Mesmo
que a máquina de somar mecânica mereça ser considerada como um caso analógico,
ainda é verdade que a tecnologia da computação alterou radicalmente a forma e o
alcance do problema. Por outro lado, se a máquina de somar não fornece uma boa
analogia, então podemos ter direito a uma conclusão mais forte: que esses problemas
não teriam surgido se não houvesse computadores no mundo.

Exemplo 2: exclusivamente maleável

Outra característica única das máquinas de computação é que elas são máquinas de uso
geral. Como observou James Moor, eles são "logicamente maleáveis" no sentido de que
"podem ser moldados e moldados para realizar qualquer atividade que possa ser
caracterizada em termos de entradas, saídas e operações lógicas de conexão" (1985, p.
269). A adaptabilidade e versatilidade únicas dos computadores têm importantes
implicações morais. Para mostrar como isso acontece. Gostaria de repetir uma história
contada pela primeira vez por Peter Green e Alan Brightman (1990).

Alan (apelido "Stats") Groverman é um fanático por esportes e um gênio da análise de


dados.
Seus professores o descrevem como tendo uma "cabeça para números". Para Stats,
porém, é apenas o que ele faz; mantendo o controle, por exemplo, de jardas ganhas por cada
correndo de volta em sua amada equipe (San Francisco) 49ers. E, em seguida, a média desses
números nas estatísticas da temporada. Tudo feito em sua cabeça para números. Tudo sem
sequer um pedaço de papel na frente dele.
Não que o papel fizesse muita diferença. Stats nunca foi capaz de mover um
dedo, muito menos segurar um lápis ou caneta. E ele nunca foi capaz de pressionar
as teclas de uma calculadora. A tetraplegia tornou esse tipo de simplicidade
impossível desde o dia em que ele nasceu. Foi quando ele começou a fortalecer a
cabeça.
Agora. ele pensa, sua cabeça precisa de uma ajudinha. Com seu desejo por esportes
cada vez maior, seu campo de jogo mental está se tornando cada vez mais difícil de
negociar.
Stats sabe que ele precisa de um computador pessoal, o que ele chama de
"chuteiras para a mente". Ele também sabe que precisa ser capaz de operar aquele
computador sem poder mover nada abaixo do pescoço.

Como os computadores não se importam com a forma como obtêm suas entradas, o Stats deve ser
capaz de usar um ponteiro de cabeça ou um bastão de boca para operar o teclado. Se a entrada do
mouse for necessária, ele pode usar um mouse controlado pela cabeça junto com um tubo de gole
e sopro. Para tornar isso possível, precisaríamos carregar um novo driver de dispositivo para
modificar o comportamento do sistema operacional. Se o Stats tiver problemas com a repetição de
teclas, precisaríamos fazer outra pequena alteração no sistema operacional, uma que desative o
recurso de repetição do teclado. Se a entrada do teclado ou do mouse for muito tediosa para ele,
podemos adicionar um chip de processamento de fala, um microfone e um software de
reconhecimento de voz. Temos um dever claro de fornecer soluções de acesso ao computador em
casos como este, mas o que torna esse dever tão razoável e convincente é o fato de os
computadores serem facilmente adaptados às necessidades dos usuários.
Existe alguma outra máquina que nos obrigue a uma obrigação análoga de ajudar
pessoas com deficiência? Eu não acredito. A situação seria diferente, por exemplo, se o
Stats quisesse andar de bicicleta. Embora seja verdade que as bicicletas tenham vários
ajustes para acomodar a geometria variável de diferentes ciclistas, elas são
infinitamente menos adaptáveis que os computadores. Por um lado, as bicicletas não
podem ser programadas e não possuem sistemas operacionais. Meu ponto é que
nossa obrigação de fornecer acessibilidade universal à tecnologia de computador não
teria surgido se os computadores não fossem universalmente adaptáveis. A
generalidade da obrigação é proporcional à generalidade da máquina.
Embora esteja claro que devemos nos esforçar para adaptar outras máquinas –
elevadores, por exemplo – para uso de pessoas com deficiência, as intuições morais que temos
sobre a adaptação de elevadores não se transferem prontamente para os computadores.
Diferenças de escala bloqueiam a transferência. Elevadores só podem fazer elevadores
coisas, mas os computadores podem fazer qualquer coisa que possamos descrever em termos de
entrada, processo e saída. Mesmo que os elevadores fornecessem um caso comparável, ainda seria
verdade que a disponibilidade de uma máquina totalmente maleável transforma nossas obrigações
de tal forma que essa transformação merece um estudo especial.

Exemplo 3: exclusivamente complexo

Outra propriedade única da tecnologia do computador é sua complexidade sobre-humana. É verdade que os humanos programam

máquinas de computação, então, nesse sentido, somos mestres da máquina. O problema é que nossas ferramentas de programação

nos permitem criar funções discretas de complexidade arbitrária. Em muitos casos, o resultado é um programa cujo comportamento

total não pode ser descrito por nenhuma função compacta (ver também Huff e Finholt 1994, p. 184). Programas com bugs, em

particular, são notórios por evitar descrições compactas! O fato é que produzimos rotineiramente programas cujo comportamento

desafia a inspeção, desafia a compreensão – programas que nos surpreendem, encantam, entretêm, frustram e, por fim, nos

confundem. Mesmo quando entendemos o código do programa em sua forma estática, não significa que entendemos como o

programa funciona quando é executado. James Moor fornece um exemplo (1985, pp. 274-5). Um exemplo interessante de um cálculo

tão complexo ocorreu em 1976, quando um computador trabalhou na conjectura das quatro cores. O problema das quatro cores,

um quebra-cabeça em que os matemáticos trabalham há mais de um século, é mostrar que um mapa pode ser colorido com no

máximo quatro cores, de modo que nenhuma área adjacente tenha a mesma cor. Matemáticos da Universidade de Illinois dividiram

o problema em milhares de casos e programaram computadores para considerá-los. Depois de mais de mil horas de computador em

vários computadores, a conjectura das quatro cores provou-se correta. é mostrar que um mapa pode ser colorido com no máximo

quatro cores para que nenhuma área adjacente tenha a mesma cor. Matemáticos da Universidade de Illinois dividiram o problema

em milhares de casos e programaram computadores para considerá-los. Depois de mais de mil horas de computador em vários

computadores, a conjectura das quatro cores provou-se correta. é mostrar que um mapa pode ser colorido com no máximo quatro

cores para que nenhuma área adjacente tenha a mesma cor. Matemáticos da Universidade de Illinois dividiram o problema em

milhares de casos e programaram computadores para considerá-los. Depois de mais de mil horas de computador em vários

computadores, a conjectura das quatro cores provou-se correta.

O que é interessante sobre esta prova matemática, em comparação com as provas


tradicionais, é que ela é em grande parte invisível. A estrutura geral da prova é conhecida
e encontrada no programa, e qualquer parte específica da atividade do computador pode
ser examinada, mas na prática os cálculos são enormes demais para os humanos
examinarem todos.
É preocupante considerar o quanto confiamos em uma tecnologia que nos esforçamos e
esticamos para entender. No Reino Unido. por exemplo, a Nuclear Electric decidiu confiar
fortemente nos computadores como seu principal sistema de proteção para sua primeira usina
nuclear, Sizewell B. A empresa esperava reduzir o risco de catástrofe nuclear eliminando o
maior número possível de fontes de erro humano. Então Nuclear Elétrico
instalou um sistema de software de incrível complexidade, consistindo de 300–400
microprocessadores controlados por módulos de programa que continham mais de
100.000 linhas de código (ver Neumann 1995, pp. 80–1).
É verdade que os aviões, como existiam antes dos computadores, eram complexos e apresentavam comportamentos difíceis de entender. Mas os engenheiros aeronáuticos

entendem como os aviões funcionam porque os aviões são construídos de acordo com princípios conhecidos da física. Existem funções matemáticas que descrevem forças como

empuxo e sustentação, e essas forças se comportam de acordo com as leis físicas. Não existem leis correspondentes que regem a construção de software de computador. Essa falta

de lei reguladora é única entre todas as máquinas que usamos comumente, e essa deficiência cria obrigações únicas. Especificamente, ele atribui responsabilidades especiais aos

engenheiros de software para o teste e validação completos do comportamento do programa. Existe, eu diria, um imperativo moral para descobrir melhores metodologias de teste e

melhores mecanismos para provar que os programas estão corretos. É difícil exagerar a enormidade desse desafio. Testar uma rotina de entrada simples que aceita um nome de 20

caracteres, um endereço de 20 caracteres e um número de telefone de 10 dígitos exigiria aproximadamente 1.066 casos de teste para esgotar todas as possibilidades. Se Noah

tivesse sido um engenheiro de software e tivesse começado a testar essa rotina no momento em que saiu da arca, ele estaria menos de 1% concluído hoje mesmo se conseguisse

executar um trilhão de casos de teste a cada segundo (ver McConnell 1993). Na prática, engenheiros de software testam alguns valores de fronteira e, para todos os outros, usam

valores que se acredita serem representativos de vários conjuntos de equivalência definidos no domínio. É difícil exagerar a enormidade desse desafio. Testar uma rotina de entrada

simples que aceita um nome de 20 caracteres, um endereço de 20 caracteres e um número de telefone de 10 dígitos exigiria aproximadamente 1.066 casos de teste para esgotar

todas as possibilidades. Se Noah tivesse sido um engenheiro de software e tivesse começado a testar essa rotina no momento em que saiu da arca, ele estaria menos de 1%

concluído hoje mesmo se conseguisse executar um trilhão de casos de teste a cada segundo (ver McConnell 1993). Na prática, engenheiros de software testam alguns valores de

fronteira e, para todos os outros, usam valores que se acredita serem representativos de vários conjuntos de equivalência definidos no domínio. É difícil exagerar a enormidade

desse desafio. Testar uma rotina de entrada simples que aceita um nome de 20 caracteres, um endereço de 20 caracteres e um número de telefone de 10 dígitos exigiria

aproximadamente 1.066 casos de teste para esgotar todas as possibilidades. Se Noah tivesse sido um engenheiro de software e tivesse começado a testar essa rotina no momento

em que saiu da arca, ele estaria menos de 1% concluído hoje mesmo se conseguisse executar um trilhão de casos de teste a cada segundo (ver McConnell 1993). Na prática,

engenheiros de software testam alguns valores de fronteira e, para todos os outros, usam valores que se acredita serem representativos de vários conjuntos de equivalência

definidos no domínio. 066 casos de teste para esgotar todas as possibilidades. Se Noah tivesse sido um engenheiro de software e tivesse começado a testar essa rotina no momento

em que saiu da arca, ele estaria menos de 1% concluído hoje mesmo se conseguisse executar um trilhão de casos de teste a cada segundo (ver McConnell 1993). Na prática, engenheiros de software testam algu

Exemplo 4: excepcionalmente rápido

Na quinta-feira, 11 de setembro de 1986, a média industrial Dow-Jones caiu 86,61 pontos,


para 1.792,89, com volume recorde de 237,6 milhões de ações. No dia seguinte, o Dow
caiu 34,17 pontos adicionais em um volume de 240,5 milhões de ações. Três meses depois,
um artigo publicado naDescobrirA revista perguntou: Os computadores fizeram os preços
das ações despencarem? De acordo com o artigo,

[Muitos analistas acreditam que a queda foi acelerada (embora não iniciada) por arbitragem
assistida por computador. Os árbitros capitalizam o que é conhecido como spread: uma
diferença de curto prazo entre o preço dos futuros de ações, que são contratos para comprar
ações em um determinado momento e preço, e o preço das ações subjacentes. Os
computadores dos arbitradores monitoram constantemente a propagação e os informam
quando é grande o suficiente para que eles possam transferir suas participações de ações para
futuros de ações ou vice-versa, e obter um lucro que mais do que cobre o custo da transação. . . .
Com os computadores, os arbitradores estão constantemente cientes de onde um lucro pode ser
obtido. No entanto, multidões de arbitradores trabalhando com as informações mais recentes
podem criar perturbações no mercado. Como os arbitradores estão todos "massageando" as
mesmas informações básicas, é provável que um spread lucrativo apareça em muitos de seus
computadores de uma só vez. E como os arbitradores tiram proveito de pequenos spreads, eles
devem negociar em grande volume para que valha a pena. Tudo isso resulta em muitas
negociações em pouco tempo, o que pode alterar acentuadamente o preço de uma ação.(
Descobrir1986)

Depois de um tempo, os investidores regulares começam a perceber que os arbitradores


estão derrubando o valor de todas as ações, então eles começam a vender também.
Vender gera vendas gera mais vendas. De acordo com o presidente da NYSE, a negociação
informatizada parece ser uma influência estabilizadora apenas quando os mercados estão
relativamente calmos (Ciência1987). Quando o mercado está instável, a negociação
programada amplifica e acelera as mudanças já em andamento, talvez em até 20%. Hoje, o
problema é a arbitragem, mas. no futuro, é possível que investidores comuns
desestabilizem o mercado. Isso pode acontecer porque a maioria dos investidores usará o
mesmo tipo de programas computadorizados de negociação de ações conduzidos por
algoritmos muito semelhantes que prevêem pontos de compra/venda quase idênticos. A
questão é: esses efeitos desestabilizadores podem ocorrer em um mundo sem
computadores? Afinal, a arbitragem depende apenas da matemática elementar. Todos os
cálculos necessários podem ser feitos em um bloco de rascunho por qualquer um de nós.
O problema é que, quando terminamos de fazer a aritmética necessária para as ações da
nossa carteira de investimentos, o preço dos futuros e o preço das ações teriam mudado.
A oportunidade que existia se foi.

Exemplo 5: excepcionalmente barato

Como os computadores podem realizar milhões de cálculos a cada segundo, o custo de


um cálculo individual se aproxima de zero. Essa propriedade única dos computadores leva
a consequências interessantes na ética.
Vamos imaginar que eu estou andando de metrô na cidade de Nova York, voltando para casa
muito tarde depois de um longo dia no escritório. Já que já passou da minha hora de jantar, não
demorei muito para perceber que todos sentados no meu carro, exceto eu, tinham um pão fresco
de salame. Para mim, o trem cheira como o interior de uma boa delicatessen de Nova York, nunca
me deixando esquecer como estou com fome. Finalmente eu decido que devo terminar
essa prolongada tortura aromática, então peço a todos no carro que me dêem uma fatia
de seus próprios pães de salame. Se todos contribuírem, posso montar um pão meu.
Ninguém vê sentido em cooperar, então me ofereço para cortar uma fatia bem fina de
cada pão. Posso ver que isso ainda não é atraente para meus companheiros céticos, então
ofereço uma fatia arbitrariamente fina, fina o suficiente para cair abaixo do limite de
preocupação de qualquer um. "Você me diz o quão pequeno tem que ser para não
importar", eu digo a eles. "Vou levar isso e nem uma partícula a mais." Claro, só posso
obter fatias finas como papel de seda. Sem problemas. Como estou coletando várias
dúzias dessas fatias muito finas, ainda terei os ingredientes de um delicioso sanduíche de
delicatessen de Nova York. Por extensão, se todos em Manhattan tivessem um pedaço de
salame, Eu não teria que pedir uma fatia inteira. Seria suficiente para todos os amantes de
salame doar uma pequena partícula de seus pães de salame. Não lhes importaria que
tivessem perdido um pedacinho de carne tão pequeno. Eu, por outro lado, teria coletado
muitos milhões de partículas, o que significa que teria bastante comida na mesa

Esse esquema maluco nunca funcionaria para coletar salame. Custaria muito e levaria
muito tempo para transportar milhões de grãos de salame para algum local central.
Mas uma tática semelhante pode funcionar se meu trabalho envolver a programação
de sistemas bancários computadorizados. Eu poderia cortar uma quantia infinitesimal
de cada conta, uma quantia tão pequena que fica abaixo do limite de preocupação do
proprietário da conta. Se eu roubar apenas meio centavo por mês de cada uma das
100.000 contas bancárias, posso embolsar US$ 6.000 ao longo de um ano. Esse tipo de
oportunidade deve ter algum apelo para uma mente criminosa inteligente, mas muito
poucos casos foram relatados. Em um desses casos relatados, um funcionário do
banco usou uma técnica de salame para roubar US$ 70.000 de
clientes de uma agência bancária em Ontário, Canadá.5Processualmente falando, pode ser
difícil denunciar alguém por vários milhões de acusações de pequenos furtos. De acordo
com Donn Parker: "As técnicas de salame geralmente não são totalmente detectáveis
dentro dos gastos obtidos para investigação. As vítimas geralmente perdem tão pouco
individualmente que não estão dispostas a gastar muito esforço para resolver o
caso" (1989, p. 19). Mesmo assim, o fatiamento de salame foi imortalizado na música
country de John Foster, "The Ballad of Silicon Slim":

Na calada da noite ele acessava a conta de cada depositante E de


cada uma delas ele extraía a menor quantia. E como ninguém
nunca percebeu que houve um crime Ele roubou quarenta
milhões de dólares – um centavo de cada vez!
Lendário ou não, há pelo menos três fatores que tornam esse tipo de esquema
incomum. Primeiro, os cálculos de computador individuais são agora tão baratos que o
custo de mover meio centavo de uma conta para outra é muito inferior a meio
centavo. Para todos os efeitos práticos, o cálculo é gratuito. Portanto, pode haver lucro
tangível em valores móveis que são extremamente pequenos se o volume de tais
transações for suficientemente alto. Em segundo lugar, uma vez que o plano tenha
sido implementado, ele não requer mais atenção. É totalmente automático. Dinheiro
no banco. Finalmente, do ponto de vista prático, ninguém jamais é privado de
qualquer coisa em que tenha um interesse significativo. Em suma, parece que
inventamos um tipo de roubo que não requer nenhum roubo – ou pelo menos
nenhum roubo de nada que seja de grande valor ou preocupação.
Este esquema tem um analógico que não seja de computador? Um distribuidor de
óleo de aquecimento poderia reduzir a todos os seus clientes uma xícara de óleo em cada
entrega. Na primavera, o distribuidor pode ter acumulado alguns galões extras de óleo de
aquecimento para uso próprio. Mas pode não valer a pena. Ele pode não ter clientes
suficientes. Ou ele pode ter que comprar novos medidores sensíveis o suficiente para reter
exatamente um copo de cada cliente. E ele pode ter que arcar com os custos de limpeza,
operação, calibração e manutenção desse novo equipamento sensível. Todos esses fatores
tornarão toda a operação menos lucrativa. Por outro lado, se o distribuidor retiver
quantias suficientemente grandes para compensar suas despesas, corre o risco de
ultrapassar o limite de preocupação do cliente.

Exemplo 6: clonado exclusivamente

Talvez pela primeira vez na história, os computadores nos dão o poder de fazer uma
cópia exata de algum artefato. Se eu fizer uma cópia verificada de um arquivo de
computador, a cópia pode ser comprovadamente idêntica ao original. Utilitários de
disco comuns, como DIFF, podem facilmente fazer as comparações bit a bit
necessárias. É verdade que pode haver algumas diferenças físicas de baixo nível
devido ao posicionamento da trilha, tamanho do setor, tamanho do cluster, tamanho
da palavra, fatores de bloqueio e assim por diante. Mas em um nível lógico, a cópia
será perfeita. Ler o original ou sua cópia resultará exatamente na mesma sequência de
bytes. Para todos os efeitos práticos, a cópia é indistinguível do original. Em qualquer
situação em que tivéssemos usado o original, agora podemos substituir nossa cópia
perfeita, ou vice-versa. Podemos fazer qualquer número de cópias verificadas de nossa
cópia,
Isso possibilita que alguém "roube" software sem privar o proprietário original de forma alguma. O ladrão recebe uma cópia que é

perfeitamente utilizável. Ele não estaria melhor mesmo se tivesse o arquivo original. Enquanto isso, o proprietário não foi desapropriado de

qualquer propriedade. Ambos os arquivos são igualmente funcionais, igualmente úteis. Não houve transferência de posse. Às vezes não

tomamos nota adequada da natureza especial desse tipo de crime. Por exemplo, o vice-presidente assistente de computação acadêmica da

Brown University teria dito que "a pirataria de software é moralmente errada - na verdade, é eticamente indistinguível de furto ou

roubo" (citado em Ladd 1989). Isso está errado. Não é como pirataria. Não é como furto ou roubo simples. Faz uma diferença moral se as

pessoas são ou não privadas de propriedade. Considere quão diferente seria a situação se o processo de cópia de um arquivo destruísse

automaticamente o original. A cópia eletrostática pode parecer fornecer um análogo não computadorizado, mas as cópias fotocopiadas não

são perfeitas. Independentemente da qualidade da ótica, independentemente da resolução do processo, independentemente da pureza do

toner, as cópias eletrostáticas não são idênticas aos originais. As cópias de quinta e sexta geração são facilmente distinguidas das cópias de

primeira e segunda geração. Se "roubarmos" uma imagem fazendo uma fotocópia, ela será útil para alguns propósitos, mas não adquirimos

com isso todos os benefícios proporcionados pelo original. mas as cópias fotocopiadas não são perfeitas. Independentemente da qualidade da

ótica, independentemente da resolução do processo, independentemente da pureza do toner, as cópias eletrostáticas não são idênticas aos

originais. As cópias de quinta e sexta geração são facilmente distinguidas das cópias de primeira e segunda geração. Se "roubarmos" uma

imagem fazendo uma fotocópia, ela será útil para alguns propósitos, mas não adquirimos com isso todos os benefícios proporcionados pelo

original. mas as cópias fotocopiadas não são perfeitas. Independentemente da qualidade da ótica, independentemente da resolução do

processo, independentemente da pureza do toner, as cópias eletrostáticas não são idênticas aos originais. As cópias de quinta e sexta geração

são facilmente distinguidas das cópias de primeira e segunda geração. Se "roubarmos" uma imagem fazendo uma fotocópia, ela será útil para

alguns propósitos, mas não adquirimos com isso todos os benefícios proporcionados pelo original.

Exemplo 7: exclusivamente discreto

Em um artigo estimulante "Sobre a Crueldade de Realmente Ensinar Ciência da


Computação" (1989), Edger Dijkstra examina as implicações de uma suposição central e
controladora: que os computadores são radicalmente novos na história do mundo. Dada essa
suposição, segue-se que a programação dessas máquinas únicas será radicalmente diferente
de outras atividades intelectuais práticas. Este. Dijkstra acredita, é porque a suposição de
continuidade que fazemos sobre o comportamento da maioria dos materiais e artefatos não se
aplica aos sistemas de computador. Para a maioria das coisas, pequenas mudanças levam a
pequenos efeitos, mudanças maiores a efeitos proporcionalmente maiores. Se eu empurrar o
pedal do acelerador um pouco mais perto do chão, o veículo se move um pouco mais rápido.
Se eu pressionar o pedal com força no chão, ele se move muito mais rápido. À medida que as
máquinas vão, os computadores são muito diferentes.
Um programa é, como mecanismo, totalmente diferente de todos os dispositivos analógicos
familiares com os quais crescemos. Como toda informação codificada digitalmente, ela tem,
inevitavelmente, a propriedade desconfortável de que as menores perturbações possíveis
– ou seja, mudanças de um único bit – podem ter as consequências mais drásticas (ibid., p.
1400).
Essa propriedade essencial e única dos computadores digitais leva a um conjunto específico de problemas que dá origem a uma dificuldade ética única, pelo menos para

aqueles que defendem uma visão consequencialista da ética. Para um exemplo do tipo de problema em que pequenas "perturbações" têm consequências drásticas, considere a

missão Mariner 18, onde a ausência da única palavra NOT de uma linha de um grande programa causou um aborto (ver Neumann 1980, p. 5) . Em um caso semelhante, foi um hífen

ausente no programa de orientação para um foguete Atlas Agena que tornou necessário que os controladores destruíssem uma sonda Vênus no valor de US$ 18,5 milhões (ver

Neumann 1995, p. 26). Foi um único caractere omitido de um comando de reconfiguração que fez com que a sonda soviética Phobos 1 Mars caísse indefesa no espaço (ibid., p. 29).

Não estou sugerindo que os foguetes raramente falhavam antes de serem computadorizados. Suponho que o oposto seja verdadeiro: que no passado eles eram muito mais

suscetíveis a certas classes de fracasso do que são hoje. Isso não significa que o foguete V-2 alemão, por exemplo, possa fornecer uma analogia moral satisfatória não

computacional (ou pré-computador). O comportamento do V-2, sendo um dispositivo analógico, era uma função contínua de todos os seus parâmetros. Ele falhou da mesma forma

que os dispositivos analógicos normalmente falham - falhas localizadas para problemas localizados. Uma vez que os foguetes foram controlados por software de computador, no

entanto, eles se tornaram vulneráveis a modos de falha adicionais que poderiam ser extremamente generalizados mesmo para problemas extremamente localizados. que no

passado eles eram muito mais suscetíveis a certas classes de falhas do que são hoje. Isso não significa que o foguete V-2 alemão, por exemplo, possa fornecer uma analogia moral

satisfatória não computacional (ou pré-computador). O comportamento do V-2, sendo um dispositivo analógico, era uma função contínua de todos os seus parâmetros. Ele falhou da

mesma forma que os dispositivos analógicos normalmente falham - falhas localizadas para problemas localizados. Uma vez que os foguetes foram controlados por software de

computador, no entanto, eles se tornaram vulneráveis a modos de falha adicionais que poderiam ser extremamente generalizados mesmo para problemas extremamente

localizados. que no passado eles eram muito mais suscetíveis a certas classes de falhas do que são hoje. Isso não significa que o foguete V-2 alemão, por exemplo, possa fornecer

uma analogia moral satisfatória não computacional (ou pré-computador). O comportamento do V-2, sendo um dispositivo analógico, era uma função contínua de todos os seus

parâmetros. Ele falhou da mesma forma que os dispositivos analógicos normalmente falham - falhas localizadas para problemas localizados. Uma vez que os foguetes foram

controlados por software de computador, no entanto, eles se tornaram vulneráveis a modos de falha adicionais que poderiam ser extremamente generalizados mesmo para

problemas extremamente localizados. Ele falhou da mesma forma que os dispositivos analógicos normalmente falham - falhas localizadas para problemas localizados. Uma vez que

os foguetes foram controlados por software de computador, no entanto, eles se tornaram vulneráveis a modos de falha adicionais que poderiam ser extremamente generalizados mesmo para problemas extre

"No mundo discreto da computação", conclui Dijkstra, "não há métrica significativa na


qual pequenas mudanças e pequenos efeitos andem de mãos dadas, e nunca
haverá" (1989, p. 1400). Essa conexão descontínua e desproporcional entre causa e efeito é
exclusiva dos computadores digitais e cria uma dificuldade especial para as teorias éticas
consequencialistas. O procedimento de decisão comumente seguido pelos utilitaristas (um
tipo de consequencialista) exige que eles prevejam consequências alternativas para as
ações alternativas disponíveis a eles em uma situação particular. Um ato é bom se produz
boas consequências, ou pelo menos um excesso líquido de boas consequências sobre as
más. A dificuldade fundamental que os utilitaristas enfrentam, se Dijkstra estiver certo, é
que a ligação normalmente previsível entre atos e seus efeitos é severamente distorcida
pela infusão da tecnologia de computação. Em suma, simplesmente não podemos dizer
quais efeitos nossas ações terão nos computadores por analogia com os efeitos que
nossas ações têm em outras máquinas.
Exemplo 8: codificado exclusivamente

Os computadores operam construindo códigos sobre códigos sobre códigos – cilindros em cima de
trilhas, trilhas em cima de setores, setores em cima de registros, registros em cima de campos,
campos em cima de caracteres, caracteres em cima de bytes e bytes em cima. de dígitos binários
primitivos. Os "protocolos" de computador, como o TCP/IP, são compostos de camadas sobre
camadas de convenções de código obscuras que informam aos computadores como interpretar e
processar cada dígito binário passado a ele. Para computadores digitais, isso é normal. Em um
sentido muito real, todos os dados são "criptografados" várias vezes no curso normal das
operações do computador.
Segundo Charlie Hart (1990), repórter doRaleigh News e Observador,a convolução
de códigos resultante ameaça tornar a história americana tão ilegível quanto a Pedra de
Roseta. Dados históricos, científicos e de negócios correm o risco de se dissolver em uma
confusão sem sentido de letras, números e símbolos de computador. Por exemplo, 200
bobinas de fitas de 17 anos do Serviço de Saúde Pública tiveram que ser destruídas em
1989 porque ninguém conseguia determinar o que os nomes e números nelas
significavam. Muitas informações dos últimos 30 anos estão retidas em fitas de
computador gravadas por sistemas primitivos ou descartados. Por exemplo, os registros
de muitos veteranos da Segunda Guerra Mundial estão abandonados em 1.600 bobinas de
imagens de microfilme obsoletas que retratam cartões perfurados Hollerith ainda mais
obsoletos.
Esse problema crescente se deve à natureza degradável de certas mídias, à
rápida taxa de obsolescência dos dispositivos de E/S, à evolução contínua dos
formatos de mídia e à falha dos programadores em manter um registro
permanente de como eles escolheram empacotar os dados. É irônico que a
tecnologia computacional de última geração, durante o breve período em que é
atual, acelere muito a transmissão de informações. Mas quando se torna
obsoleto, tem um efeito reverso ainda mais forte. Nem todo registro merece ser
salvo, mas. no final das contas, parece provável que os computadores impeçam
o fluxo geracional normal de informações e cultura significativas. Os usuários
de computador obviamente não conspiram para colocar a história fora do
alcance de seus filhos, mas, dada a maneira única como os computadores
sobrepõem e armazenam códigos, o resultado pode ser o mesmo.
Isso levanta uma questão moral tão antiga quanto a própria civilização. É indiscutivelmente
errado prejudicar as gerações futuras da humanidade, privando-as de informações de que
precisarão e valorizarão. Isso atrapalha o progresso comercial e científico, impede que as pessoas
aprendam a verdade sobre suas origens e pode forçar as nações a repetir
amargas lições do passado. Concedido, não há nada de único sobre este problema. Ao
longo da longa história civilizada, culturas inteiras foram aniquiladas, grandes
bibliotecas foram saqueadas e destruídas, livros foram banidos e queimados, línguas
murcharam e morreram, tintas branquearam ao sol e rolos de papiro se
decompuseram em frágeis , memórias enigmáticas de tempos distantes.
Mas já houve na história do mundo uma máquina que pudesse enterrar a cultura
da mesma forma que os computadores podem? Praticamente qualquer dispositivo de
gravação de mídia moderno tem o potencial de engolir a cultura, mas o processo não
é automático e a informação não está escondida sob camadas complicadas de código
obscuro. Os computadores, por outro lado, devido à maneira única como armazenam
e processam informações, são muito mais propensos a enterrar a cultura. O aumento
do risco associado à dependência de computadores para armazenamento de dados de
arquivo transforma as questões morais em torno da preservação e transmissão da
cultura. A questão não é: "Algumas informações culturalmente importantes serão
perdidas?" Quando a mídia digital se torna o principal repositório de informações, a
pergunta se torna: "Algum registro armazenado será legível no futuro?" Sem
computadores,
Portanto, esse tipo de exemplo acaba contribuindo para uma lógica "mais fraca", mas
ainda suficiente para a ética do computador, conforme explicado anteriormente. É possível
assumir uma posição "mais forte" com este exemplo? Veremos. À medida que a tecnologia de
criptografia continua a melhorar, há uma chance remota de que os cientistas da computação
possam desenvolver um algoritmo de criptografia tão eficaz que o sol se extinga antes que
qualquer máquina consiga quebrar o código. Tal tecnologia poderia enterrar registros
históricos para o resto da história. Enquanto esperamos que essa tecnologia ideal seja
inventada, podemos usar o Algoritmo Internacional de Criptografia de Dados de 128 bits (IDEA)
já disponível. Para quebrar uma mensagem codificada pela IDEA, precisaremos de um chip que
possa testar um bilhão de chaves por segundo, jogá-las no problema e repetir esse ciclo pelas
próximas 10.000.000.000, 000 anos (ver Schneier 1993, p. 54). Uma matriz de 1.024 chips
poderia fazer isso em um único dia, mas o universo contém silício suficiente para construí-los?

Conclusão

Tentei mostrar que existem questões e problemas que são exclusivos da ética do
computador. Para todas essas questões, houve um envolvimento essencial da tecnologia
da computação. Exceto por essa tecnologia, esses problemas não teriam surgido, ou não
teriam surgido em sua forma altamente alterada. A falha em encontrar
analogias satisfatórias não computacionais atesta a singularidade dessas questões.
A falta de uma analogia adequada, por sua vez, tem consequências morais
interessantes. Normalmente, quando enfrentamos problemas éticos
desconhecidos, usamos analogias para construir pontes conceituais para situações
semelhantes que encontramos no passado. Então tentamos transferir intuições
morais através da ponte, do caso analógico para nossa situação atual. A falta de
uma analogia efetiva nos força a descobrir novos valores morais, formular novos
princípios morais, desenvolver novas políticas e encontrar novas maneiras de
pensar sobre as questões que nos são apresentadas. Por todas essas razões, o tipo
de questões que venho ilustrando merece ser tratado separadamente de outros
que possam parecer à primeira vista semelhantes. Pelo menos,

Concluo com um adorável quebra-cabeça sugerido por Donald


Gotterbarn (1991b, p. 27). Existem claramente muitos dispositivos que
tiveram um impacto significativo na sociedade ao longo dos séculos. A
invenção da imprensa foi um evento crucial na história da transmissão da
cultura, mas não existe ética da imprensa. A locomotiva revolucionou a
indústria de transporte, mas não existe ética da locomotiva. O telefone
mudou para sempre a forma como nos comunicamos com outros seres
humanos, mas não existe ética no telefone. O trator transformou a
agricultura em todo o mundo, mas não existe ética do trator. O automóvel
possibilitou que trabalhássemos a grandes distâncias de nossos bairros
locais, mas não existe ética do viajante.
Por que, portanto, deveria existir algo como a Ética do Computador?

Referências

Behar, J. (1993). "Ética do Computador: Filosofia Moral ou Propaganda Profissional?" Dentro


M. Leiderman, C. Guzetta, L. Struminger e M. Monnickendam (eds.), Tecnologia
em Serviços de Pessoas: Pesquisa, Teoria e Aplicações.A Imprensa Haworth.

Bynum. TW (1991). "Ética da Computação no Currículo de Ciência da Computação". Em TW


Bynum, W. Maner e J. Fodor (eds.),Ensino de Ética Informática.Centro de Pesquisa
em Computação e Sociedade.
Chapman, G. (1990). Em resposta a um discurso de almoço de J. Perrolle, "Political and
Social Dimensions of Computer Ethics." Conferência sobre Computadores e Qualidade de
Vida, Universidade George Washington, Washington, DC, 14 de setembro.
Dijkstra, E. (1989). "Sobre a Crueldade de Realmente Ensinar Ciência da Computação."
Comunicações da ACM,32/12 (dezembro): 1398-1404.
Descobrir(1986). "Ciência por trás das notícias: os computadores fizeram os preços das ações
Prumo?"Descobrir,7/12 (dezembro): 13.
Forester, T. e Morrison, P. (1990).Ética do computador: contos de advertência e ética
Dilemas em Computação.Imprensa do MIT.
Gotterbarn, D. (1991 a). "Um Curso 'Capstone' em Ética do Computador." Em TW Bynum, W.
Maner, e J. Fodor (eds.),Ensino de Ética Informática.Centro de Pesquisa em
Computação e Sociedade.
Gotterbarn, D. (1991b). "Ética do Computador: Responsabilidade Recuperada."Fórum Nacional:
O jornal Phi Kappa Phi,71/3: 26 - 31.
Gotterbarn, D. (1991c). "O Uso e Abuso da Ética do Computador." Em TW Bynum, W.
Maner, e J. Fodor (eds.),Ensino de Ética Informática.Centro de Pesquisa em
Computação e Sociedade.
Green, P. e Brightman, A. (1990).Dia da Independência: Projetando Soluções de Computador
para Indivíduos com Deficiência.Imprensa DLM.
Hart, C. (1990) "Dados de computador colocando a história fora de alcance".Raleigh Notícias e
Observador(2 de janeiro).
Huff, C. e Finholt, T. (eds.) (1994).Questões Sociais em Computação: Colocando Computação
em seu lugar.McGraw-Hill, Inc.
Ladd, J. (1989). "Questões Éticas em Tecnologia da Informação". Apresentado em uma conferência de
a Society for Social Studies of Science, de 15 a 18 de novembro, em Irvine, Califórnia.
Leventhal, L., Instone, K., e Chilson, D. (1992). "Outra visão da ciência da computação:
Padrões de respostas entre cientistas da computação." Jjornal de software de sistemas
(Janeiro).
Maner, W. (1980).Starter Kit em Ética do Computador.Helvetica Press (publicado em
cooperação com o Centro Nacional de Informação e Recursos para o Ensino de
Filosofia).
McConnell, S. (1993).Código Completo: Um Manual Prático de Software
Construção.Imprensa da Microsoft.
Moor, J. (1985). "O que é ética do computador?"Metafilosofia,16/4: pág. 266. (O artigo
também aparece em TW Bynum, W. Maner e J. Fodor (eds.),Ensino de Ética
Informática.Centro de Pesquisa em Computação e Sociedade.)
Neumann, P. (1980). "Riscos para o público em computadores e sistemas relacionados."Programas
Notas de Engenharia5/2 (abril): 5.
Neumann, P. (1995).Riscos Relacionados ao Computador.Nova York: Editora Addison-Wesley
Companhia.
Parker, D. (1976).Crime por Computador.Filhos de Charles Scribner.
Parker, D. (1978).Conflitos Éticos em Ciência da Computação e Tecnologia.Imprensa AFIPS.
Parker, D. (1989).Crime Informático: Manual de Recursos de Justiça Criminal,2ª ed.
Instituto Nacional de Justiça.
Parker, D., Swope, S., e Baker, BN (1990).Conflitos Éticos na Informação e
Ciência da Computação, Tecnologia e Negócios,QED Ciências da Informação.
Pecorino, P. e Maner, W. (1985). "O Filósofo como Professor: Uma Proposta de
Curso de Ética Informática".Metafilosofia,16/4: 327–37.
Rogerson, S. e Bynum. T. (eds.) (1996).Ética da informação: uma visão abrangente
Leitor.Editora Blackwell.
Schneier, B. (1993). "O algoritmo de criptografia IDEA."O diário do Dr. Dobb,208
(dezembro): 54.
Ciência(1987). Computadores Amplificam a Segunda-Feira Negra",Ciência,238 (outubro): 4827. Tabak, L.
(1988). "Dando aos engenheiros uma visão positiva da responsabilidade social",SIGCSE
Boletim,20/4: 29–37.
Wiener, N. (1960). "Algumas Consequências Morais e Técnicas da Automação",Ciência,
131:1355-8.

Perguntas básicas de estudo

1. Maner tem duas razões para considerar a ética computacional como um importante campo de
pesquisa. Uma delas ele chama de "visão mais fraca" e a outra de "visão mais forte".
Apresente essas duas razões.
2. Maner apresenta seis "níveis de justificação" para estudar a ética do computador. Descreva
brevemente cada nível.
3. De acordo com Maner, questões genuínas de ética computacional são "únicas" no campo da ética
computacional. Quais são as três características, tomadas em conjunto, que as tornam "únicas" no
sentido de Maner?
4. Descreva brevemente o caso "armazenado exclusivamente" de Maner.

5. Descreva brevemente o caso "exclusivamente maleável" de Maner.


6. Descreva brevemente o caso "exclusivamente complexo" de Maner.
7. Descreva brevemente o caso "excepcionalmente rápido" de Maner.

8. Descreva brevemente o caso "excepcionalmente barato" de Maner.

9. Descreva brevemente o caso "clonado de forma única" de Maner.


10. Descreva brevemente o caso "exclusivamente discreto" de Maner.
11. Descreva brevemente o caso "exclusivamente codificado" de Maner.

Perguntas para reflexão


1. Qual é a diferença entre "doutrinação moral" por um lado e "instrução em
ética" por outro? Quais são as implicações dessa diferença no que diz
respeito ao ensino de ética computacional?
2. Discuta a natureza e o valor de argumentar por analogia. Como Maner usa essas ideias para
defender a "singularidade" de certas questões na ética do computador?
3. No final de seu capítulo. Maner pergunta por que a ética do computador deve ser um campo de
estudo quando não há campo comparável para qualquer outro tipo de tecnologia. Como
Moor responde a essa pergunta emcapítulo 1 acima de? Como você responderia a esta
pergunta?
1 Alguns anos depois, houve um estudo de acompanhamento que corrigiu alguns dos problemas
descobertos na metodologia original (ver Parker et al. 1990).
2 Eu criei o termo "ética do computador" em 1976 para descrever um conjunto específico de problemas
morais criados, agravados ou transformados pela introdução da tecnologia do computador. No outono
de 1977, eu estava pronto para criar um currículo para ética computacional e, pouco depois, comecei a
ministrar um dos primeiros cursos universitários inteiramente dedicados à ética computacional aplicada.
Em 1978, tornei-me um promotor voluntário da ética computacional em várias conferências nacionais.
Dois anos depois, Terrell Bynum me ajudou a publicar um kit de desenvolvimento de currículo que
chamamos de 'Starter Kit in Computer Ethics'. Descobrimos que não podíamos interessar o
establishment acadêmico em ética da computação, nem filósofos nem cientistas da computação, mas
conseguimos sobreviver como um movimento clandestino dentro da Associação Americana de
Professores de Filosofia.
3 Refiro-me à disciplina acadêmica de ética computacional conforme definida em Maner (1980).

4 Integrando o contexto ético e social da computação no currículo de ciência da


computação: um relatório provisório do subcomitê de conteúdo do comitê diretor do
ImpactCS. Ver Rogerson e Bynum 1996. Para mais informações sobre o projeto
ImpactCS, entre em contato com o Dr. Chuck Huff no Departamento de Psicologia do
St Olaf College em Northfield, Minnesota 55057. EUA ( huff@stolaf.edu ). O projeto
ImpactCS foi concluído em 1998. e os resultados foram publicados em http://
www.student.seas.gwn.edu/~impactcs/pape3/pgl.html
5 Kirk Makin, em um artigo escrito para oGlobo
e Correioaparecendo em 3 de novembro de
1987, informou que o sargento Ted Green, da Polícia Provincial de Ontário, sabia de tal caso.
CAPÍTULO 3

Decisões Éticas e Análise de Casos em


Ética do computador

Terrell Ward Bynum

Reconhecimento de padrões e tomada de decisão ética

A maioria das pessoas tem uma capacidade notável para certos tipos de
reconhecimento de padrões. Considere, por exemplo, a capacidade de identificar o
rosto de alguém em uma multidão ou em um livro de fotografias. Se você conhece
bem alguém – digamos, seu melhor amigo ou um familiar próximo – é muito
provável que você consiga identificar o rosto dessa pessoa em um livro de fotos,
mesmo que contenha milhares de fotos de outras pessoas. Algumas pessoas, é
claro, são melhores que outras nesse tipo de tarefa, mas a esmagadora maioria
das pessoas é muito boa nisso. Da mesma forma, a maioria das pessoas é capaz de
"ler" as expressões faciais e a linguagem corporal dos outros para determinar
como estão se sentindo. Novamente, alguns são "mais sensíveis" do que outros a
esses tipos de pistas, mas mesmo a pessoa comum, na maioria das circunstâncias,
é boa em "sentir"
Essas habilidades de reconhecimento de padrões constituem uma espécie de
conhecimento,mas não do tipo que é tipicamente expresso em declarações descritivas.
Por exemplo, você obviamente sabe como é o seu melhor amigo porque pode escolhê-lo
na multidão; no entanto, você pode ser incapaz de descrever o rosto de seu amigo com
palavras que permitiriam que outra pessoa reconhecesse essa pessoa na multidão. O
reconhecimento de padrões, portanto, é muito parecido com a percepção – você
simplesmente "vê que" seu amigo está ali no meio da multidão. Você não cria primeiro em
palavras uma descrição longa e complicada do rosto de seu amigo e depois tenta
combinar essa descrição com um rosto na multidão.
Menciono essas capacidades de reconhecimento de padrões porque acredito que elas
fornecem uma pista para entender como as pessoas normalmente fazem julgamentos éticos e
por que fazem a maioria deles de forma rápida e correta. A capacidade de detectar
situações éticas e fazer julgamentos éticos apropriados é aparentemente outro exemplo de
reconhecimento de padrões. Muitas vezes, uma pessoa pode "ver" que há um problema ético e
pode "ver" que uma solução proposta é adequada ou inadequada. Fica-se tentado a chamar
essa capacidade de "intuição ética", embora não haja nada de misterioso nela, e certamente
está sujeita a explicação e aperfeiçoamento. De fato, argumento abaixo que muitas das
ferramentas de ética aplicada e técnicas de análise de caso oferecidas por pensadores da ética
da computação podem ajudar a melhorar as habilidades de análise ética de profissionais da
computação, formuladores de políticas públicas e qualquer outra pessoa preocupada com as
muitas questões éticas do mundo. era da informação."
Neste capítulo, uso essas ideias para desenvolver e ilustrar um método de análise
de caso para ética computacional. Meu objetivo é fornecer um método de análise que
seja naturaleeficaz– "natural" porque modela a maneira como as pessoas realmente
tomam decisões éticas em suas vidas cotidianas e "eficaz" porque é informada e
influenciada por insights e sugestões úteis de vários estudiosos da ética da
computação e da ética aplicada.

Quatro perguntas importantes

Uma das descrições mais úteis da ética computacional pode ser encontrada no artigo
de James Moor, de 1985, "What Is Computer Ethics?" onde disse o seguinte:

Um problema típico na ética da computação surge porque há um vácuo de política sobre


como a tecnologia da computação deve ser usada. Os computadores nos fornecem novos
recursos e estes, por sua vez, nos dão novas opções de ação. Muitas vezes, ou não existem
políticas de conduta nessas situações ou as políticas existentes parecem inadequadas. Uma
tarefa central da ética computacional é determinar o que devemos fazer nesses casos, ou seja,
formular políticas para orientar nossas ações. (pág. 266)

Moor argumentou que a tecnologia do computador é genuinamente revolucionária porque é


"logicamente maleável":

Os computadores são logicamente maleáveis, pois podem ser moldados e moldados para realizar
qualquer atividade que possa ser caracterizada em termos de entradas, saídas e operações lógicas
de conexão. . . . Como a lógica se aplica a todos os lugares, as aplicações potenciais da tecnologia
de computador parecem ilimitadas. O computador é a coisa mais próxima que temos de uma
ferramenta universal. De fato, os limites dos computadores são em grande parte os limites de
nossa própria criatividade. (pág. 269 )

A visão de Moor, então, é que a tecnologia do computador é poderosa e revolucionária


porque é logicamente maleável. Cria oportunidades para fazer coisas novas que as
pessoas nunca fizeram antes, e surge então a questão de saber sedeve fazer essas
coisas. As "políticas de conduta" já existentes se aplicam? Se a resposta for "sim",
presumivelmente devemos simplesmente seguir as políticas existentes. Mas se a
resposta for "não", temos que formular novas políticas e justificá-las eticamente. Esta é
uma etapa importante no processo de ética computacional, e acredito que precisamos
de uma melhor compreensão de quatro aspectos importantes do processo se
quisermos chegar a um método natural e eficaz de análise de caso:

1 O que é uma "política de conduta" ou uma "política para orientar nossas ações" (para usar as
palavras de Moor)?
2 Como determinar se existem políticas existentes que cobrem adequadamente
a situação em questão?
3 Como formular novas políticas para lidar com novas situações que as políticas
existentes não conseguem resolver?
4 Como justificar eticamente as políticas recém-formuladas?

Políticas para orientar a conduta de alguém

Normalmente, quando uma pessoa toma uma decisão ou julgamento ético, ela não
nãoprocure o conselho de um filósofo profissional ou tente usar princípios
filosóficos amplos como o "imperativo categórico" de Immanuel Kant ou o
"princípio da utilidade" de Jeremy Bentham ou as "quatro nobres verdades" do
Buda. Na verdade, a pessoa média na maioria dos países sabe pouco ou nada
sobre as teorias sofisticadas dos "grandes filósofos". No entanto, a maioria das
pessoas é bem-sucedida em fazer julgamentos e decisões éticas quando deseja
fazê-lo, porque entende os padrões usuais de certo e errado em sua comunidade e
adota rapidamente uma solução tradicional.
Princípios e práticas éticas são fenômenos sociais criados e sustentados por
processos sociais complexos. Os indivíduos não precisam reinventar a ética para si
mesmos ou memorizar longas listas de regras e leis. Em vez disso, eles nascem em
sociedades com redes complexas de "políticas de conduta" já em vigor. E como
Aristóteles observou em seuÉtica a Nicômaco,os seres humanos são criaturas de
hábitos. Quando educados e educados adequadamente, eles desenvolvem padrões de
comportamento consistentes e reforçados pelas regras e valores de sua sociedade. Se
eles se envolvem em comportamentos que vão contra as regras, eles são repreendidos
e corrigidos no colo da mãe, ou pressionados e punidos por colegas, professores,
supervisores, agentes governamentais e – em casos extremos – agentes da lei. Este é um
meio muito eficaz de ensinar valores e moldar o comportamento, porque o desejo de
evitar ofender os outros e evitar o escárnio e a punição são poderosos fatores motivadores
do comportamento humano. A capacidade de evitar ofender os outros é provavelmente
uma característica "selecionada" pela evolução e sobrevivência do mais apto. Afinal, fazer
inimigos não é uma estratégia de sobrevivência eficaz! Os seres humanos, portanto, são
normalmente sensíveis à crítica e cautelosos em ofender
– "O que meus amigos e familiares diriam?" "O que os vizinhos pensariam?" "Meus
colegas e colegas de trabalho ainda me respeitariam?" A referida capacidade de ler
expressões faciais e linguagem corporal está relacionada a essa sensibilidade em
ofender.
Por essas razões, a maioria das pessoas torna-se notavelmente hábil em reconhecer padrões
de comportamento que são aprovados e encorajados por sua sociedade; e eles usam suas
impressionantes habilidades de reconhecimento de padrões para julgar seu próprio
comportamento, bem como o dos outros. Isso explica como é possível que as pessoas tomem a
maioria de suas decisões éticas de forma rápida e correta. Também explica por que a capacidade de
fazer julgamentos éticos muitas vezes parece ser uma espécie de "percepção" ou "intuição". Às
vezes, uma ação "simplesmente parece errada" ou "apenas parece certa", embora possa ser difícil
dizer por quê. (Mesmo os "rebeldes" antissociais que optam explicitamente por ofender os outros,
fazem uso dessas habilidades de reconhecimento de padrões relacionados à ética.)
Em vez de apelar para as teorias abstratas de filósofos famosos, portanto, os
tomadores de decisão éticos típicos – incluindo profissionais típicos da computação –
aplicam “políticas de conduta” muito menos grandiosas. Eles costumam usar valores ou
padrões pessoais derivados de sua família ou comunidade local. E se o tomador de decisão
é membro de uma profissão, ele ou ela pode aplicar "padrões de boas práticas" aceitos, ou
um código de ética profissional, ou um código de conduta do empregador. Ao mesmo
tempo, é claro, um grande número de leis internacionais, nacionais, regionais e locais
podem ser relevantes, e as pessoas geralmente tentam permanecer dentro da lei.

Em uma sociedade "razoavelmente justa", onde as leis parecem equitativas e as


instituições e tradições sociais parecem ser justas, essa é uma maneira muito eficiente de
fazer bons julgamentos éticos. Nesse contexto, atividades ilegais e aquelas que contrariam
a prática comum são provavelmente antiéticas. Para orientar as ações de alguém e
informar seus julgamentos éticos, portanto, pode-se usar uma variedade de “políticas de
conduta” – um tecido multinível de textura rica de leis, regras, princípios e práticas
sobrepostos. Em 1997, em um artigo intitulado "How to Do Computer Ethics", tentei, com
minha colega Petra Schubert, fornecer uma lista detalhada de tais
"políticas de conduta" (ver Bynum e Schubert 1997). Essa lista incluía todos os itens
a seguir:

1 Tratados e acordos internacionaisAs políticas mais amplas (no sentido


geográfico) para governar a conduta são as regras e acordos internacionais,
como leis internacionais, tratados de governo para governo, práticas e
acordos de negócios globais e assim por diante. Os acordos relacionados à
computação incluem, por exemplo, tratados que regem a propriedade
intelectual, segurança e criptografia de dados.
2 LeisNações, estados, províncias, cidades e governos locais têm milhares de leis,
muitas das quais se aplicam a questões relacionadas a computadores, como
privacidade de informações médicas, propriedade de software, "hacking and
cracking", criação e disseminação de código malicioso como como vírus de
computador, e assim por diante.
3 RegulamentosAlém das próprias leis, existem milhares de regulamentos
governamentais estabelecidos por várias agências e departamentos para interpretar
e executar as leis. Muitas dessas regulamentações, é claro, estão relacionadas à
computação.
4 Normas de boas práticasComunidades profissionais inteiras às vezes chegam a
um acordo sobre "padrões de boas práticas" que todos os profissionais dessa
área devem manter. Na computação, para citar apenas alguns exemplos,
existem padrões de boas práticas para engenharia de software e padrões para
criptografia de dados.
5 Códigos de ética profissionalAlém de tratados, leis, regulamentos
governamentais e padrões de boas práticas, existem códigos de ética
adotados por organizações profissionais. Esses códigos podem ser
aplicados, por exemplo, a profissionais de informática que são membros
de organizações como a Association for Computing Machinery (ACM), a
British Computer Society (BCS) e o Institute for the Management of
Information Systems (IMIS).
6 Políticas corporativasÀs vezes, grandes corporações e organizações têm suas
próprias regras de conduta para seus funcionários; e estes podem incluir, por
exemplo, regras para o uso de computadores da empresa e padrões para teste
de software e garantia de qualidade.
7 Valores comunitários e pessoaisAlém deformalregras e regulamentos
como os listados acima, um decisor ético normalmente funciona dentro
de uma comunidade que tem uma variedade denão escrito"comum
práticas" e costumes. E, claro, os padrões familiares e os valores pessoais
também influenciam os julgamentos éticos.

Em uma sociedade razoavelmente justa, essas "políticas para orientar a conduta de alguém" são
eticamente empoderadoras. Quando combinados com habilidades de reconhecimento de padrões, eles
permitem que as pessoas façam julgamentos éticos de forma rápida e correta na grande maioria dos
casos em que as decisões éticas são necessárias ou desejadas.
É claro que essa forma de proceder tem riscos e limitações, porque é
possível que as leis sejam injustas, que os valores pessoais ou familiares
sejam tendenciosos e preconceituosos e que as políticas corporativas
sejam implacáveis ou socialmente destrutivas. Além disso, como
observou Moor, o poder e a flexibilidade das TIC geram possibilidades
para as quais as políticas tradicionais são inadequadas ou ausentes
(vazios políticos). Por essas razões, as formas "típicas" ou "costumeiras"
de tomar decisões éticas, embora normalmente suficientes para a maioria
dos julgamentos éticos, não são completamente confiáveis ou eficazes.
Felizmente, existem muitos recursos e métodos disponíveis para ajudar a
superar essas deficiências e desenvolver análises éticas cuidadosas. Como
Walter Maner (2002) apontou, um método eficaz de análise de caso pode
fornecer uma variedade de benefícios:

Desenvolvendo o Julgamento Ético

Para fazer uma boa análise ética, é preciso ter "bom julgamento ético". Séculos
atrás, Aristóteles argumentou que o desenvolvimento de um bom julgamento ético
depende da experiência (ver suaÉtica a Nicômaco).As crianças muito pequenas,
observou ele, não compreendem a ética e são motivadas principalmente pelo
prazer e pela dor, pelo desejo e pela paixão. Pais, mentores e a comunidade em
geral, segundo Aristóteles, são responsáveis por incutir hábitos apropriados nas
crianças e instruí-las sobre virtude e vício. Na adolescência, os jovens devem ter
desenvolvido hábitos e padrões de comportamento razoavelmente consistentes
com a ética e a justiça, e devem ter adquirido pelo menos uma compreensão
rudimentar da natureza da virtude e do vício. Os adolescentes, no entanto, ainda
são muito movidos pela paixão e desejo, e se rendem facilmente à tentação.
Mesmo os jovens adultos, de acordo com Aristóteles,
não desenvolveram plenamente suas habilidades de julgamento ético. Eles precisam de
mais duas ou três décadas de experiência antes que possam ter um excelente "olho" ético.
A visão de Aristóteles é ecoada em ditos conhecidos como "a sabedoria vem com a idade"
e a prática comum em muitas culturas de confiar nos anciãos da comunidade para tomar
decisões éticas sábias.
Tudo isso é consistente com nossa suposição de que o bom
julgamento ético e a tomada de decisões envolvem habilidades de
reconhecimento de padrões e a capacidade de "ver" o que é certo ou
errado. Para desenvolver essas habilidades, as pessoas precisam ter
ampla experiência; eles precisam ter confrontado e pensado sobre uma
ampla diversidade de problemas e questões éticas. Portanto, como Maner
(2002) observou apropriadamente, as pessoas que desejam desenvolver
suas habilidades de análise ética devem receber oportunidades de
aprender com a experiência e se envolver em conversas relevantes com
amigos, colegas, professores e mentores confiáveis. Eles devem buscar
experiências nas quais cultivem consciência moral e sensibilidade,
esclareçam seu sistema de valores e visão de mundo, observem a
natureza humana, engajem-se em comportamento ético e aprendam
alguma teoria ética. É claro, "Capítulo 7 abaixo, por N. Ben Fairweather).

Um Método Sugerido de Análise de Caso

Com os pontos acima claramente em mente, estamos agora em posição de considerar um


"método heurístico" sugerido de análise ética de casos:

ETAPA PRELIMINAR – MANTER UM "LOG DE ANÁLISE ÉTICA" É fortemente


sugeriu que você criasse um "registro de análise ética" anotando os detalhes de
suas observações, conversas, descobertas e sugestões à medida que avança na
análise do caso. Esse registro pode ser muito útil para estudantes e profissionais
de TIC. É provável que os alunos sejam solicitados a fazer isso em exames e
trabalhos de casa; e os profissionais de TIC acharão essa "trilha de auditoria ética"
extremamente útil em seus esforços para tomar decisões e justificá-las para si
mesmos, seus colegas, clientes e supervisores.

1. Assuma o ponto de vista ético


O primeiro "passo" importante em qualquer análise ética é ver a situação ou o
problema do que às vezes é chamado de "ponto de vista ético". Trata-se de adotar
uma perspectiva em queigualdade, justiça,erespeitotodos desempenham papéis
importantes.

IgualdadeTodos os seres humanos podem sofrer dor e tristeza e experimentar prazer e


alegria. Todos nós temos necessidades, interesses e planos que podem ser atendidos e
avançados ou frustrados e prejudicados. Essas são "considerações eticamente relevantes" que
fazem parte de nossa "natureza humana" compartilhada. (Os defensores do chamado
"movimento de libertação animal" observam que, pelo menos até certo ponto, outros
membros do reino animal compartilham essas características com os humanos e, portanto,
também devem receber alguma consideração ética.)

JustiçaTratar as pessoas igualmente é um componente importante da


justiça. É por isso que a imagem de "Justiça" como personagem feminina
geralmente é representada com os olhos vendados ao usar sua "escala da
justiça". Ela não pode agir de maneira tendenciosa se não puder ver quais
pessoas em particular se beneficiarão de suas decisões. Essa exigência de
tratar as pessoas igualmente é refletida em frases comuns como "a justiça
é cega", "igual aos olhos da lei" ou "igual aos olhos de Deus". Isso explica
por que o filósofo utilitarista Jeremy Bentham insistiu que cada pessoa
deve contar o mesmo quando se aplica seu cálculo utilitarista; por que
John Locke argumentou que toda pessoa tem os mesmos direitos
inalienáveis de vida, liberdade e propriedade; por que Immanuel Kant
argumentou que devemos "universalizar" nossas "máximas" éticas;

Quase todos os seres humanos têm um senso de justiça muito forte. Eles são
rápidos em se ofender se os outros são vistos como tendo vantagens e oportunidades
injustas. Até as crianças choram "Injusto!" se seus irmãos ou amigos recebem
tratamento especial que lhes é negado. Essa sensibilidade à injustiça e ao preconceito
pode ser muito útil quando se tenta identificar problemas éticos ou vislumbrar
possíveis soluções; e faremos uso efetivo dessa sensibilidade em nosso método de
análise de caso.

RespeitoÉ difícil superestimar a importância do respeito na vida humana. A falta de


respeito entre indivíduos ou culturas pode levar ao ódio, raiva, violência e guerra. A perda
de respeito pode prejudicar gravemente um relacionamento amoroso, uma família, um
amizade. Em algumas culturas, a perda de respeito é até uma razão para cometer suicídio.
As pessoas precisam e apreciam o respeito de amigos e entes queridos; e eles não podem
funcionar efetivamente no trabalho ou na comunidade se não forem respeitados por seus
pares, seus supervisores e seus vizinhos.Auto-respeitoe o resultante integridadeque a
acompanham são aspectos de maturidade ética e força de caráter, enquanto a perda do
respeito próprio pode ser uma catástrofe que destrói uma vida feliz. Não é de surpreender
que o filósofo alemão Immanuel Kant tenha feito do respeito pelas pessoas a peça central
de sua teoria ética.

O ponto de vista éticoPara determinar se uma ação ou política é eticamente aceitável,


ou mesmo eticamente exigida, o primeiro "passo" é "assumir o ponto de vista ético"
que trata todos os seres humanos como "iguais aos olhos da justiça" e respeita a
relevância ética necessidades e direitos de cada pessoa.

2. Desenvolver uma descrição detalhada do caso a ser analisado

Antes que um julgamento ético justo possa ser feito, é importante ter uma descrição
clara e detalhada dos fatos e considerações relevantes. Se o caso com o qual você está
lidando estiver descrito em um livro ou artigo, certifique-se de entender as palavras-
chave e frases usadas para descrever a situação. Termos ambíguos ou vagos devem
ser esclarecidos; e você deve tomar nota dos participantes, suas ações, papéis e
relacionamentos.
Limite sua consideração aos fatos que são realmente apresentados ou fortemente
implícitos na descrição do caso. É apropriado pressupor o conhecimento de senso
comum como informação de base, mas tome cuidado para não "inventar" "fatos"
incomuns ou especiais não especificados ou fortemente implícitos na descrição do
caso. Tais acréscimos inadequados ao caso podem alterar drasticamente as
circunstâncias éticas e influenciar de forma inadequada suas conclusões.
Ao lidar com um caso real da vida cotidiana – ao invés de um exercício de livro
didático – o desafio é reunir e esclarecer os fatos eticamente relevantes sobre as
pessoas envolvidas e suas ações, papéis e relacionamentos. (Fatos eticamente
relevantes são aqueles que levariam a diferentes conclusões éticas se deixados de fora
de suas considerações.) Você precisa estimar o tempo e os recursos que terá para
reunir os fatos e pensar sobre as circunstâncias. Se o tempo e os recursos forem
limitados, talvez você precise fazer algumas suposições razoáveis para cobrir fatos e
informações que não podem ser coletados ou verificados.
3. Tente "ver" as questões éticas e quaisquer soluções "tradicionais" que se encaixem
no caso

Depois de obter uma descrição clara e detalhada do caso, use seu "olhar" ético para tentar
identificar questões-chave e determinar se as "políticas existentes para orientar a conduta" se
aplicam. Se o fizerem, você pode simplesmente selecionar uma solução tradicional. Há pouca
necessidade de análise ética, porque a solução proposta "simplesmente parece certa" e "se encaixa
perfeitamente", e você pode especificar facilmente quais políticas se aplicam.
A grande maioria das decisões éticas que as pessoas tomam, incluindo decisões que
envolvem TIC, podem ser tratadas dessa maneira sem análise ética adicional. Se a situação
for incomum, no entanto, e você parecer enfrentar um vácuo de política – ou se houver
necessidade de uma compreensão ética mais profunda ou completa da situação
– você pode executar etapas adicionais da seguinte maneira.

4. Invoque seu próprio conhecimento e habilidades éticas

Qualquer pessoa que funcione razoavelmente bem na sociedade faz uso de uma
quantidade significativa de conhecimento ético, talvez muito mais do que possa imaginar.
Por esse motivo, se você se deparar com um "vácuo de política" ou se desejar obter uma
compreensão mais robusta da situação ética, existem várias estratégias que você pode
empregar para explorar seus próprios conhecimentos e habilidades éticas.

Pense em precedentes e analogiasComo explicado acima, as pessoas são notavelmente


boas no reconhecimento de padrões. Use essa habilidade a seu favor pensando em casos
semelhantes que você conhece (ou pode imaginar), possíveis precedentes, analogias e
desanalogias, exemplos e contra-exemplos que podem lançar luz sobre o caso com o qual
você está lidando. Como foram tratados casos semelhantes no passado? Quais são as
semelhanças e diferenças relevantes entre outros casos e este? Este caso é tão diferente
que as soluções anteriores não se aplicam?

Faça uso de sua sensibilidade natural sobre ofenderComo a maioria dos seres humanos
está muito preocupada em ofender os outros, você pode tirar vantagem de sua própria
sensibilidade. Tente imaginar quem – se é que alguém – pode se opor a determinada
situação e por quê. É provável que o objetor seja alguém que se sinta em risco ou alguém
que tenha deveres e responsabilidades relacionados ao tipo de situação em questão. A
identidade do objetor imaginado, bem como o(s) motivo(s) para a(s) objeção(ões)
imaginada(s), podem permitir que você se concentre rapidamente
as questões-chave que provavelmente serão centrais para o caso. Quanto mais
experiência você tiver com esse tipo de caso e quanto mais souber sobre as partes e as
políticas em questão, mais fácil será se concentrar no cerne do problema e vislumbrar
uma solução viável. (Esta é uma versão rápida e informal da "análise de partes
interessadas" mais sistemática descrita abaixo empág. 70 .)

Envolva-se em role-playing e aplique sua habilidade natural de simpatizarImagine


que você foi um participante do caso. Para cada participante significativo, coloque-se
"no lugar da outra pessoa". Como você se sentiria? Como você gostaria que o caso
fosse resolvido? Qual seria uma solução justa do seu ponto de vista? E se um dos
participantes fosse um amigo seu, ou mesmo seu próprio filho – que conselho você
daria? Que resolução lhe pareceria justa? Para cada ação alternativa que pode ser
tomada, como você pode justificar essa ação para outras pessoas que possam se opor
a ela? Você ficaria orgulhoso de contar a sua família e amigos sobre isso ou anunciá-lo
na televisão?

5. Obtenha conselhos de outras pessoas

Aproveite o conhecimento e as perspectivas éticas de outras pessoas. Regras e


práticas éticas são fenômenos sociais, e nenhuma pessoa é uma ilha. Como todas as
outras pessoas tiveram experiências diferentes das suas e veem o mundo de uma
perspectiva diferente, você pode se beneficiar ao discutir o caso com amigos,
mentores, colegas e supervisores confiáveis. Tente entender os pontos de vista deles e
compará-los com os seus.

6. Aproveite uma ou mais técnicas de análise sistemática

Depois de seguir todos os cinco "passos" da análise ética descritos acima, você
provavelmente terá uma compreensão muito boa da situação ética - os vários
participantes e suas ações e relacionamentos, as principais questões éticas envolvidas,
as várias escolhas que foram tomadas. feitas (ou deveriam ter sido feitas) e as políticas
que foram usadas (ou deveriam ter sido usadas) para fazer julgamentos e decisões
éticas. Em muitos casos, esta será uma análise suficiente para o propósito pretendido,
e você pode tirar conclusões éticas úteis e, talvez, fazer algumas recomendações úteis
para evitar ou resolver casos semelhantes no futuro. (Mais será dito sobre esses dois
últimos tópicos nas "etapas" 7 e 8 abaixo.)
Se uma análise ética ainda mais robusta for desejada, existem muitas técnicas de
análise adicionais que você pode usar, incluindo, por exemplo, as seguintes
(estas técnicas são explicadas brevemente aqui e são desenvolvidas com mais
detalhes nos sites associados a este livro (veja o Prefácio acima)):
uma.Realize uma "análise de padrões profissionais"Se o caso em questão
envolver ações e decisões de profissionais de TIC, é provável que você obtenha
alguns insights éticos aplicando sistematicamente princípios éticos de códigos de
ética profissionais, como o Código de Ética e Prática Profissional de Engenharia de
Software, ou os códigos de ética de organizações como o ACM, o ACS, o BCS e o
IMIS (para citar alguns exemplos). (Todos esses cinco códigos, bem como o código
IEEE, estão incluídos abaixo no ApêndiceParte III .) Esses códigos foram
cuidadosamente desenvolvidos para levar em conta os padrões profissionais de
boas práticas e as leis e princípios morais relevantes.
Uma boa maneira de proceder é selecionar um código de ética apropriado e então
examinar sistematicamente o caso à luz de cada princípio ético incluído no código
selecionado. Você deve fazer perguntas como: Alguém violou algum dos princípios éticos
do código? Em caso afirmativo, a violação foi justificada? Por que você diz isso? O caso
revela um "vácuo de política" que poderia ser preenchido com a adição de um novo
princípio ao código? Como esse novo princípio poderia ser declarado e justificado?

b.Realize uma "análise de papéis e responsabilidades"Cada papel que alguém


desempenha na vida vem com um conjunto de deveres e responsabilidades, e muitos
papéis também têm direitos associados. Por exemplo, um professor é responsável
pela instrução dos alunos e pela avaliação de seu desempenho, e o professor
normalmente tem o direito de atribuir uma nota ao aluno no final do período. Um
médico é responsável por diagnosticar e tratar os pacientes e tem o direito de
prescrever medicamentos ou terapias.
Você pode tirar proveito dos fatos sobre funções e responsabilidades
considerando sistematicamente as funções de várias pessoas envolvidas no caso.
Quais são (ou foram) os papéis de cada pessoa? Que responsabilidades e direitos são
(ou foram) apropriados para esses papéis, e são (ou foram) devidamente executados
ou respeitados? Se as TIC possibilitam que as pessoas tenham novos papéis que não
existiam antes (vazios políticos), quais deveriam ser os direitos e responsabilidades
associados a esses novos papéis e por quê?

c.Faça uma "análise das partes interessadas"As ações e políticas envolvidas em um caso
geralmente afetam os interesses e o bem-estar de várias pessoas. Cada pessoa
significativamente afetada, direta ou indiretamente, pode ser vista como uma "parte
interessada" - ou seja, como alguém que é significativamente beneficiado ou prejudicado, ou
alguém cujos direitos são respeitados ou violados. (VerCapítulo 6 abaixo, por Simon Rogerson, para
mais discussão sobre a identificação das partes interessadas.)
Você pode obter uma melhor compreensão das questões éticas no caso, considerando
sistematicamente cada parte interessada e os benefícios, danos e direitos relevantes
envolvidos. Os benefícios e danos foram distribuídos de forma justa? Os direitos das pessoas
foram defendidos e respeitados ou pisoteados e violados? Se as TIC geraram novas
possibilidades que nunca foram encontradas antes, como os benefícios e danos resultantes
devem ser distribuídos de forma justa e como os direitos das pessoas podem ser devidamente
respeitados? Que novas políticas, se houver, devem ser implementadas e por quê?

d.Realize uma "análise sistemática de políticas"Assinalou-se acima que em cada


contexto social existe uma variedade de "políticas de conduta" que formam uma
"tecido rico em textura multinível de leis, regras, princípios e práticas sobrepostos".
Isso inclui tratados e acordos internacionais, leis nacionais e locais,
regulamentações governamentais, padrões profissionais de boas práticas, códigos
de conduta, políticas corporativas e valores comunitários e pessoais.
Você pode aproveitar esse rico conjunto de "políticas de conduta"
considerando sistematicamente cada tipo de política e sua relevância para o caso
em consideração. Quais leis, regulamentos e acordos são aplicáveis? Eles foram
devidamente seguidos? Existem padrões de boas práticas ou códigos de ética que
se aplicam neste caso? Que valores comunitários e familiares são relevantes? Como
as várias políticas podem ser ponderadas e reconciliadas entre si? Se as TIC criaram
vazios políticos, que novas "políticas de conduta" devem ser postas em prática e
por quê?

e.Realize uma "análise de teoria ética"Na maioria das circunstâncias, uma


pessoa não procura o conselho de um filósofo profissional ou lê "grandes obras
filosóficas" quando se depara com uma decisão ética a tomar ou um caso a
analisar. No entanto, teorias éticas famosas têm muito a oferecer quando se
busca uma melhor compreensão ética da situação. Por esse motivo, você pode
aproveitar algumas das ideias-chave dessas teorias ao desenvolver uma análise
de caso. Vários exemplos de teorias são esboçados abaixo. (Explicações mais
detalhadas sobre estes e outros estão disponíveis nos sites associados a este
livro. Veja o Prefácio acima.)

1 Ideias utilitáriasJeremy Bentham foi "o pai do utilitarismo" e John


Stuart Mill foi seu discípulo mais famoso. Esses filósofos e
seus seguidores fizerambeneficiareprejuízoas principais considerações éticas. Dois
princípios éticos capturam a essência de sua visão:

O PRINCÍPIO DA UTILIDADE Algo é bom eticamente na medida em


que tende a promover benefícios (incluindo prazer, felicidade,
vantagem, etc.) ).

O PRINCÍPIO DA IGUALDADE A ética não permite que alguém favoreça os ricos


sobre os pobres, ou os poderosos sobre os fracos, ou os homens sobre as
mulheres, ou os brancos sobre os negros, ou os saudáveis sobre os deficientes,
etc. a posição de uma pessoa na vida, cada pessoa conta o mesmo quando os
benefícios e danos são somados.

A estratégia geral do utilitarismo é tentar trazer o maior benefício e o menor


dano para o maior número de pessoas. É importante notar que os riscos e as
probabilidades também contam, porque o aumento do risco de dano é ruim e o
aumento da probabilidade de benefício é bom.
Você pode fazer uso dessas idéias em sua análise de caso examinando para
cada pessoa (independentemente de sua posição na vida) os prováveis
benefícios e danos para essa pessoa. O melhor curso de ação seria aquele que
provavelmente trará, para o maior número de pessoas, o maior benefício e o
menor dano.

2 ideias aristotélicasAs ideias-chave nas teorias éticas de Aristóteles e seus


seguidores são virtudes e vícios. As virtudes incluem traços de caráter positivos,
comocoragem, integridade, honestidade, fidelidade, confiabilidade,
generosidade, responsabilidade, autodisciplina, temperança, modéstia,e
persistência(para citar vários exemplos). De acordo com Aristóteles, as pessoas
que são adequadamente criadas por suas famílias e suas comunidades
geralmente desenvolvem padrões de comportamento consistentes com as
virtudes. E com experiências apropriadas, eles reconhecerão exemplos de
virtude e vício.
Aristóteles descreveu as virtudes éticas como traços de caráter racional
que ocupam um meio-termo apropriado entre extremos irracionais. Coragem,
por exemplo, é um traço positivo associado ao controle racional do medo.
Situa-se entre o excesso decovardia,associados ao comportamento guiado
pelo medo, e a deficiência deimprudência,associada à falta de
medo apropriado.Bom temperamentoé uma virtude associada ao controle
racional da raiva; enquanto o vício deirascibilidadeé uma propensão irracional à
raiva, e o víciode apatia para fazer erradoé irracional falta de raiva sobre a
injustiça.
Para realizar uma análise aristotélica de um caso, você deve identificar
sistematicamente o comportamento virtuoso dos participantes, bem como
quaisquer exemplos de entrega aos vícios.

3 ideias kantianasO filósofo Immanuel Kant fez do respeito pelas pessoas o


conceito central de sua teoria ética. Porque os seres humanos são seres
racionais, disse Kant, eles têm valor em si mesmos e não precisam de nada
fora de si para dar-lhes valor. Por isso, o princípio fundamental da ética de
Kant, que ele chamou deo imperativo categórico,pode ser afirmado desta
forma:

O IMPERATIVO CATEGÓRICO Sempre trate cada pessoa, incluindo você mesmo, como
um ser que tem valor em si mesmo, nunca apenas como um ser a ser usado para
promover os objetivos de outra pessoa.

De acordo com Kant, portanto, deve-se sempre respeitar o valor e a


dignidade de uma pessoa, e nunca apenas usá-la. Mentir e trapacear, por
exemplo, seria antiético porque envolve apenas usar outras pessoas para
atingir seus próprios objetivos. A falha em defender os direitos de alguém
seria antiético porque não mostraria o devido respeito por essa pessoa e não
permitiria que a pessoa fosse um agente responsável assumindo a
responsabilidade por sua própria vida.
Em sua análise de caso, você pode tirar proveito do insight ético de
Kant perguntando se cada participante da situação foi tratado de maneira
consistente com o imperativo categórico.

7. Tirar conclusões éticas relevantes sobre o caso

Ao se envolver em todas ou na maioria das "etapas" de análise descritas acima, é provável


que você tenha obtido um conjunto impressionante de insights sobre as questões e
alternativas éticas, colocando-o em uma boa posição para tirar conclusões relevantes.
Quais são as principais questões éticas? Alguém fez algo antiético? Porque você acha isso?
Se o caso envolve possíveis ações futuras, quais deveriam ser essas ações,
e quais são as considerações éticas relevantes que as justificariam? Se houver
valores ou considerações concorrentes, como você os classificaria e por quê?

8. Tire lições relevantes sobre o futuro

Se alguns dos participantes do caso agiram de forma antiética, como ações


semelhantes podem ser evitadas ou diminuídas no futuro? Se você identificou
quaisquer "vazios de políticas" que precisam ser preenchidos, quais novas políticas
você recomendaria e quais são as considerações éticas que as justificariam? Vale a
pena notar que quaisquer novas políticas que você recomendar terão a melhor chance
de serem adotadas pela comunidade relevante se forem semelhantes de maneira
significativa às políticas já existentes. Uma política que "se destaca como um polegar
dolorido" e parece ir contra os padrões comuns de boas práticas precisaria de uma
justificativa ética muito persuasiva para ser aceita.

Um exemplo de caso para analisar: o softbot extorsionista

Dado o "método heurístico de análise de caso" apresentado acima, estamos agora em


condições de considerar um caso de amostra (fictício, mas realista) e desenvolver um exemplo
de análise de caso. Nosso caso imaginado é este:

O caso do softbot extorsionário

O termo "softbot" é a abreviação de "robô de software". Um softbot reside em um computador


ou em uma rede de computadores e realiza várias "ações" lá. Um softbot "baseado em
planejador" é um tipo de "agente inteligente" que recebe objetivos atribuídos por um usuário
e, em seguida, emprega inteligência artificial para criar e executar um plano para cumprir os
objetivos do usuário. Os softbots baseados em planejadores podem viajar por redes de
computadores, como a Internet, coletando informações e usando essas informações para
executar várias tarefas orientadas por software.
CharityBot. com é uma empresa de software que cria softbots baseados em planejadores
para ajudar organizações de caridade a arrecadar dinheiro. Um de seus produtos de maior
sucesso é um "modelo de softbot" chamado EMAILFUNDER, que pode ser usado por
organizações de caridade para criar seus próprios softbots personalizados para solicitar
doações pela Internet. EMAILFUNDER combina vários "agentes" de software que executam
várias tarefas:
E_PESQUISA Esteagente de pesquisarastreia pela Internet reunindo vários tipos de
informações sobre indivíduos – informações de páginas da Web, bancos de dados, serviços
de notícias, agências de crédito, salas de bate-papo e assim por diante.

E_PROFILER Usando informações de E_RESEARCHER, esteagente de perfil pessoalcria


perfis de pessoas individuais - seus endereços de e-mail, registros de emprego,
situação econômica, classificações de crédito, atividades de lazer, atividades sociais,
amigos e associados e muitos outros tipos de informações.

E_MAEL_WRITER O usuário fornece uma mensagem de e-mail de amostra para este


agente de redação de e-mail,que então usa informações do E_PROFILER para gerar
solicitações por e-mail pedindo às pessoas que doem dinheiro. E_MAEL_WRITER é
artificialmente inteligente e é capaz de gerar pequenas variações da mensagem de
email de amostra usando informações de perfis pessoais e substituindo palavras
relevantes.CharityBot. com considera que este é um grande ponto de venda da
EMAILFUNDER porque e-mails personalizados podem afetar os interesses dos
destinatários, tornando-os mais propensos a doar dinheiro para a caridade.

TESTE DE MENSAGEM Estaagente de testes estatísticosmantém estatísticas sobre a


taxa de sucesso de cada variação da mensagem de email de amostra. Depois que
E_MAEL_WRITER cria uma nova versão da mensagem de amostra e a envia por e-mail
para mil destinatários, MESSAGE_TESTR determina a porcentagem de solicitações bem-
sucedidas. Se uma mensagem em particular provar ser especialmente eficaz como
angariação de fundos, o E_MAEL_WRITER é instruído a enviar muitos milhares de
cópias. E_MAEL_WRITER e MESSAGE TESTR, trabalhando juntos, podem criar e testar
dezenas de variações de mensagens por semana.

E_BANKR Esteagente bancário eletrônicorecebe doações com cartão de crédito e as deposita


eletronicamente na conta bancária da instituição de caridade. Ele também atualiza
automaticamente os registros financeiros da instituição de caridade para levar em conta os
novos fundos.

Poucas semanas depois de chegar ao mercado, a EMAILFUNDER criou vários softbots


personalizados que provaram ser arrecadadores de fundos razoavelmente bem-sucedidos para
várias instituições de caridade. Quando Joe Biggheart, o principal arrecadador de fundos para uma
instituição de caridade infantil, soube disso, ele decidiu tentar o EMAILFUNDER para um grande
projeto de angariação de fundos.
Joe alugou uma cópia do EMAILFUNDER deCharityBot. com e participou de um
oficina para aprender a usá-lo. Durante a oficina. Joe expressou algumas preocupações
sobre a qualidade e adequação das mensagens de e-mail escritas por E_MAEL_WRITER. Ele
também expressou alguma preocupação com possíveis violações de privacidade
associadas a perfis pessoais. Os líderes do workshop pareciam incomodados com as
perguntas de Joe e rapidamente lhe asseguraram que suas preocupações eram
infundadas. Joe ficou surpreso por eles estarem aborrecidos e rapidamente mudou de
assunto.
Após o workshop, Joe descartou suas preocupações e iniciou seu projeto de angariação de
fundos fornecendo uma amostra de mensagem de e-mail para seu softbot e colocando o softbot na
Internet. A mensagem de amostra de Joe começou da seguinte forma:

Caro {destinatário},
Recentemente, soubemos de seu interesse em crianças e saúde, por isso estamos
escrevendo para pedir que considere fazer uma doação para o Children's Anti-Cancer
Fund. Esperamos que você possa fazer um presente generoso; e se você achar
possível doar $ 1.000 ou mais, listaremos seu nome em nosso "Web Site de
Excelência" para homenageá-lo por seu compromisso com as crianças e a saúde.

Depois de três dias, Joe verificou a conta bancária eletrônica do Children's Anti-
Cancer Fund e ficou satisfeito ao descobrir que quase US$ 1.000 já haviam sido
doados.
Por causa de uma crise familiar. Joe teve que se ausentar do escritório por quase
uma semana. Quando voltou ao escritório, ficou surpreso ao ver quanto dinheiro havia
sido doado enquanto estava fora, e leu ansiosamente a variação gerada por
computador de sua carta de angariação de fundos para ver por que havia sido tão
bem-sucedida. Eis o que ele leu:

Caro {destinatário},
Recentemente, soubemos de seu interesse em crianças e luxúria, e por isso estamos
escrevendo para pedir que você considere fazer uma doação para o Children's Anti-Cancer
Fund. Esperamos que você possa fazer um presente generoso; e se você achar impossível doar
$1.000 ou mais, listaremos seu nome em nosso "Web Site de Excelência" para homenageá-lo
por seu compromisso com as crianças e a luxúria.

Joe Biggheart ficou horrorizado ao saber que seu softbot,


que foi criado usandoE-MAILFUNDOR,enviou esta "carta de
extorsão" gerada por computador para milhares de homens
ricos que eram visitantes regulares de pornografia
sites. Como resultado, vários desses homens doaram grandes
somas de dinheiro para o Children's Anti-Cancer Fund. Além
disso, Joe descobriu que sua caixa de e-mail estava cheia de
mensagens raivosas.

Joe entrou em contato imediatamenteCharityBot. com e contou a eles sobre o e-


mail desastroso. Uma rápida investigação interna revelou que a palavra "luxúria" foi
deixada de fora da lista de "palavras a evitar" usada por E_MAEL_WRITER. Além disso,
uma investigação preliminar por um dos engenheiros de software do CharityBot.com
revelou a forte possibilidade de que um "bug" no software E_MAEL_WRITER tenha feito
com que a palavra "impossível" fosse substituída por "possível".
Nos dias seguintes, Joe e o Children's Anti-Cancer Fund foram citados em
uma dúzia de ações judiciais, e três países estrangeiros tentaram extraditar Joe
e outros para julgá-los por extorsão e violações das leis de privacidade. Uma
semana depois, o Children's Anti-Cancer Fund faliu.

Um Exemplo de Análise de Caso

1. Assuma o ponto de vista ético

Para iniciar uma análise ética desse caso imaginado, devemos começar por "assumir o
ponto de vista ético", tentando evitar qualquer viés ou preconceito em nossos julgamentos
e ver todos os envolvidos de forma justa e imparcial.

2. Desenvolva uma descrição detalhada do caso

Nossa descrição de caso deve "se ater aos fatos" que são realmente mencionados
ou fortemente implícitos; e devemos evitar inserir "fatos" adicionais que possam
alterar significativamente os julgamentos éticos. Nossa descrição deve identificar
os participantes importantes e seus papéis no caso. A seguinte descrição parece
apropriada:

Participantes e seus papéis


1 Humanos

Joe BiggheartJoe alugou EMAILFUNDER deCharityBot. com , criou um softbot


usando EMAILFUNDER, forneceu uma amostra de mensagem de e-mail para o
softbot e colocou o softbot na Internet. Embora ele tivesse algumas
preocupações sobre "a qualidade e adequação das mensagens de e-mail escritas
por E_MAEL_WRITER" e sobre "possíveis violações de privacidade associadas a
perfis pessoais", ele descartou essas preocupações quando o CharityBot. com os
líderes das oficinas ficaram irritados e asseguraram-lhe que suas preocupações
estavam erradas.

Destinatários da mensagem de e-mailAlguns enviaram grandes doações para o


Children's Anti-Cancer Fund após receberem a mensagem de "extorsão"; muitos
destinatários enviaram e-mails indignados para Joe Biggheart; e alguns entraram com
uma ação contra Joe e sua organização de caridade.

Engenheiros de software deCharityBot. com Eles originalmente criaram e testaram o


EMAILFUNDER antes de ser comercializado. Mais tarde, eles descobriram que "luxúria"
foi erroneamente deixado de fora da lista "evitar essas palavras" usada por
E_MAEI_WRITER. Um engenheiro de software também determinou que o
E_MAEL_WRITER provavelmente tinha um "bug" no programa que fez com que a palavra
"impossível" fosse substituída por "possível".

Líderes de oficina paraCharityBot. com Eles ensinaram o workshop sobre o uso do


EMAILFUNDER, ficaram irritados com as preocupações de Joe e as rejeitaram como
infundadas.

Promotores em alguns países estrangeirosEles tentaram extraditar Joe Biggheart


e outros oficiais de sua instituição de caridade para julgá-los por extorsão e
violações de privacidade.

2 Agentes Não Humanos

E_RESEARCHER Este agente de software reuniu informações na Internet sobre


pessoas que visitavam frequentemente sites de pornografia.

E_PROFILER Este agente de software criou perfis pessoais de indivíduos a partir de


dados fornecidos por E_RESEARCHER.
E_MAEL_WRITER Este agente de software criou a mensagem "extorsão"
substituindo a palavra "luxúria" por "saúde", bem como substituindo
"impossível" por "possível"; em seguida, enviou a mensagem resultante para
milhares de homens ricos que frequentavam sites pornográficos.

3. Tente "ver" as questões éticas

Agora que temos uma descrição de caso com a qual trabalhar, podemos usar nosso "olhar
ético" para tentar identificar problemas e possíveis problemas. Que questões éticas vêm à
mente instantaneamente? Que aspectos deste caso fazem você se sentir "inquieto" e/ou
preocupado, mesmo que ainda não saiba dizer por quê?

Questões Éticas
1 O softbot de Joe criou uma mensagem de e-mail que resultou em sérios danos a muitas
pessoas. Quem é o responsável por esta situação? Alguém causou dano
intencionalmente, ou foi não intencional?
2 Se o dano não foi intencional, alguém pode ser culpado por ser negligente ou
irresponsável? Ou foi simplesmente um acidente infeliz que não poderia ter
sido previsto ou evitado?

Preocupações

1 Joe usou um produto criado porCharityBot. com , e agora ele enfrenta problemas
muito sérios. Ele estava apenas tentando fazer o bem. Não parece justo que Joe
carregue toda a culpa sozinho.
2 E_RESEARCHER e E_PROFILER, trabalhando juntos, podem reunir e listar todo
tipo de informação sobre pessoas e suas vidas pessoais. Isso não parece
certo.
3 Não parece certo que Joe tenha que se preocupar com leis em outros
países além do seu.

4. Use suas habilidades de raciocínio ético

Este é o "passo" em que você tenta pensar em precedentes e situações semelhantes;


tente imaginar quem pode se sentir ofendido e por quê; e tente se colocar "no lugar
da outra pessoa".
Precedentes e semelhançasÀ primeira vista, parece um caso de extorsão e
chantagem, pois foi enviada uma mensagem que parecia ameaçar o destinatário caso
o dinheiro não fosse pago. No entanto, há uma diferença muito importante, porque
não temos motivos para acreditar que o E_MAEL_WRITER sabia o que estava
escrevendo ou mesmo que fosse capaz de ter intenções. E, dado o fato de que Joe
Biggheart ficou "horrorizado" com a carta, temos boas razões para acreditar que ele
não pretendia ameaçar ninguém.

ObjetoresTodas as pessoas que foram prejudicadas provavelmente levantarão


objeções, incluindo pessoas que receberam o e-mail "extorsionista", todos aqueles que
trabalharam para o Children's Anti-Cancer Fund, crianças com câncer que esperavam
ajuda do fundo, Joe Biggheart e muitos familiares e amigos de todos esses outros
opositores. Funcionários e proprietários deCharityBot. com também pode sofrer
danos. É provável que os opositores expressem suas objeções a autoridades policiais,
oficiais do Children's Anti-Cancer Fund e gerentes e proprietários deCharityBot. com .

As questões-chave provavelmente serão (i) se alguém causou dano intencionalmente,


(ii) se alguma lei foi violada, (iii) se alguém foi culposamente negligente, (iv) se alguém
deve ser punido e como, e (v) como as pessoas podem ser compensados de forma justa
por suas perdas.

Ficar "no lugar da outra pessoa"Destinatários do e-mail do softbot que nunca foram
envolvidos em pornografia infantil ou pedofilia, estão fadados a ficar furiosos, ansiosos
para proteger suas reputações e provavelmente querendo alguma compensação por seu
sofrimento. Os destinatários que estiveram envolvidos em pornografia infantil ou pedofilia
provavelmente se sentirão aliviados por o e-mail ter sido um erro e esperançosos de que
não serão descobertos por causa disso. Joe Biggheart provavelmente se sentirá traído por
CharityBot. com , em quem ele confiava para fornecer um produto de software confiável e
seguro. Ele pode tentar culpar tudo emCharityBot. com e evitar qualquer culpa.
Apoiadores do Fundo Infantil Anti-Câncer, além de crianças com câncer e suas famílias,
provavelmente desejarão que o bom trabalho do Fundo continue de alguma forma; e é
provável que peçam ao governo que encontre uma forma de prevenir tais problemas no
futuro.

5. Discuta o caso com outras pessoas

Outras pessoas podem ver o mundo de uma perspectiva diferente e tiveram


experiências diferentes das suas. É uma boa idéia, portanto, buscar
discussões com outras pessoas sobre o caso. Por exemplo, um advogado ou estudante de direito
pode ver alguns problemas legais que você negligenciou, um especialista em segurança de
computadores pode oferecer algumas sugestões úteis sobre os riscos do uso de softbots e um
amigo que esteve envolvido em um processo de negligência pode ter algumas informações úteis.

Conclusões provisórias

Dependendo das necessidades e circunstâncias, muitas análises de caso podem ser


concluídas neste ponto, tirando conclusões relevantes. Por exemplo, já podemos tirar as
seguintes inferências:

Joe Biggheart estava tentando fazer o bem para crianças com câncer e não pretendia
prejudicar ninguém; mas Joe tinha algumas preocupações sobre riscos e privacidade que
ele dispensou com muita facilidade. Ele deveria ter seguido estes.

Pessoas emCharityBot. com não levou os riscos de usar softbots a sério o suficiente. Os
engenheiros de software podem não ter se preocupado o suficiente com esses riscos, os
líderes do workshop parecem ter descartado os riscos com muita facilidade e a empresa
aparentemente não informou seus clientes sobre os riscos de usar seus produtos ou produtos
similares de outras empresas. Esses problemas podem resultar em ações judiciais contra
CharityBot. com arquivados por pessoas que foram prejudicadas.

Claro, há muito mais que poderia ser dito, e há mais ideias que podem ser desenvolvidas a
partir de uma análise mais aprofundada.
Além de fazer esses julgamentos éticos preliminares, encontramos algumas
não resolvidoquestões de ética computacional que a sociedade terá que enfrentar
no futuro. Por exemplo,

Os softbots não são eticamente conscientes do que fazem, mas têm a capacidade de
realizar todos os tipos de "ações". A sociedade precisa descobrir como fazer os softbots se
comportarem como se fossem agentes éticos, mesmo que não sejam. Poderia haver
"regras éticas" para softbots? (Ver Eichmann 1994) Aparentemente, identificamos alguns
"vazios políticos" importantes aqui.

Quando pessoas (e softbots) de um país se envolvem em ações na Internet, podem


estar violando leis e regras em muitos outros países. Já que ninguém pode conhecer
todas as leis e regras de todos os países do mundo, como alguém pode saber se ele
ou ela (ou seu softbot) está agindo eticamente na Internet? Um grande conjunto de
"vácuos políticos" parece estar à espreita aqui.

Para aqueles que desejam aprofundar as implicações deste caso, há


muitas técnicas de análise adicionais disponíveis, e algumas delas são ilustradas
abaixo. (Devido a limitações de espaço, apenas algumas ilustrações são fornecidas
aqui. Um conjunto mais completo de exemplos pode ser encontrado nos sites
associados a este livro (consulte oPrefácio acima de). O relato mais definitivo das
técnicas de análise de caso que conheço é o excelente artigo de Maner e o site
associado "Heuristic Methods for Computer Ethics" (2002).)

6a. Realize uma "análise de padrões profissionais"

Fica claro a partir de nossas conclusões provisórias que várias questões éticas importantes
dizem respeito às ações dos profissionais de TIC que trabalham paraCharityBot. com . Por
isso, será útil selecionar um código de ética relevante e aplicar os princípios apropriados
ao caso. Usemos o Código de Ética da Engenharia de Software e
Prática Profissional (verApêndice Al dentroParte III abaixo) para analisar as ações dos
engenheiros de software que criaram o EMAILFUNDER:

De acordo comprincípio 1.03 do Código de Ética e Prática Profissional da Engenharia de


Software, os engenheiros de software devem"aprovam o software somente se tiverem uma
crença bem fundamentada de que é seguro, atende às especificações, passa nos testes
apropriados e não diminui a qualidade de vida, diminui a privacidade ou prejudica o meio
ambiente. O efeito final do trabalho deve ser para o bem público."Parece claro a partir de
nossa análise acima que oCharityBot. com engenheiros de software violaram esse princípio ao
não prestar atenção suficiente. ou ignorando, preocupações de qualidade e riscos de
privacidade.

De acordo comprincípio 1.04 desse mesmo código de ética, os engenheiros de software


devem"divulgar às pessoas ou autoridades apropriadas qualquer perigo real ou
potencial para o usuário, o público ou o meio ambiente, que eles razoavelmente
acreditem estar associado ao software ou documentos relacionados."Se oCharityBot.
com engenheiros de software fizeramnãosabem dos riscos do uso de seus produtos,
foram negligentes; e se souberam, violaram este princípio ao não notificar seus
supervisores e clientes.

6b. Realize uma "análise de papéis e responsabilidades"

Além dos engenheiros de software que criaram o EMAILFUNDER, várias outras pessoas
desempenharam papéis importantes neste caso. Estes incluem, por exemplo, o principal
arrecadador de fundos Joe Biggheart e os líderes do workshop daCharityBot. com. Vamos
considerar seus respectivos papéis e responsabilidades:
Funções e responsabilidades de Joe BiggheartComo principal arrecadador de fundos para o
Children's Anti-Cancer Fund, Joe era responsável por selecionar e realizar projetos de
angariação de fundos que fossem legais e seguros. Dadas suas preocupações sobre a
adequação de mensagens de e-mail escritas por software e também sobre possíveis violações
de privacidade, ele deveria ter sido mais persistente e investigado essas preocupações de
forma mais completa. Ele descartou essas preocupações muito rapidamente quando os líderes
da oficina ficaram irritados com ele.

Papéis e responsabilidades dos líderes do workshopoCharityBot. com os líderes do


workshop eram responsáveis não apenas pela instrução dos clientes no uso dos produtos
da empresa, mas também deveriam ter levado mais a sério as questões de confiabilidade
e privacidade que Joe levantou no workshop.

Um fato importante sobre este caso é queagentes não humanos(por exemplo,


E_MAEL_WRITER) foram "atores" significativos nesta situação. Eles tinham papéis e
"responsabilidades", mas não eram agentes éticos que pudessem ser
responsabilizados no sentido usual desse termo. Como indicado acima, isso levanta
uma série de questões sobre a "ética" dos agentes de software.

6c. Faça uma "análise das partes interessadas"

Ninguém se beneficiou significativamente neste caso, mas várias pessoas foram


seriamente prejudicadas. Estes incluem Joe Biggheart, destinatários da mensagem enviada
por e-mail, crianças com câncer e suas famílias, funcionários e acionistas daCharityBot.
com e funcionários do Children's Anti-Cancer Fund. Consideremos aqui duas dessas partes
interessadas. (UMAcompletoa análise das partes interessadas é normalmente
recomendada para uma compreensão aprofundada de um caso, mas as limitações de
espaço tornam isso impossível aqui. Consulte os sites associados a este livro para uma
análise mais completa das partes interessadas.)

Destinatários da mensagemClaramente, os destinatários da mensagem de "extorsão" sofreram


danos com isso. A privacidade deles foi invadida, a maioria ficou chocada ou pelo menos irritada, e
certamente alguns ficaram constrangidos por terem seu interesse pela pornografia revelado.
Alguns dos destinatários se sentiram ameaçados o suficiente para enviar grandes somas de
dinheiro para a instituição de caridade, e vários dos destinatários ficaram com raiva o suficiente
para iniciar ações judiciais.
Crianças com câncerAs crianças que estavam sendo ajudadas, ou teriam sido ajudadas, pelo
Children's Anti-Cancer Fund estavam entre as mais gravemente prejudicadas. Alguns
provavelmente encontrarão assistência em outro lugar, mas outros não; e algumas das
crianças podem realmente morrer por falta de cuidados médicos adequados.

6d. Realize uma "análise sistemática de políticas"

A discussão acima já identificou uma variedade de "políticas para orientar a


conduta" que são relevantes para este caso. Estes incluem, por exemplo,
tratados internacionais de extradição, leis sobre extorsão e negligência e
princípios éticos incluídos em códigos de ética profissional. Consideremos dois
outros tipos de políticas.

Acordos internacionaisAlém dos tratados de extradição mencionados acima,


existem outras "políticas" internacionais relevantes. Por exemplo, acordos
internacionais de privacidade, como o "Safe Harbors Agreement" entre os
Estados Unidos e países europeus, podem ajudar a resolver questões de
violação de privacidade sobre perfis pessoais criados por E_RESEARCHER e
E_PROFILER.

Políticas corporativasAmbosCharityBot. com e o Children's Anti-Cancer Fund deveria ter


políticas em vigor para lidar com questões de privacidade e segurança relacionadas ao uso
de software. Ambas as organizações teriam se beneficiado se tais questões tivessem sido
seriamente abordadas antes do desastroso e-mail ser enviado, e muitos danos poderiam
ter sido evitados.

6e. Realize uma "análise de teoria ética"

As teorias éticas tradicionais dos "grandes filósofos" podem ser vistas como esforços para
compreender e sistematizar muitos aspectos importantes da prática ética. (Isso é
semelhante ao papel das "grandes teorias científicas", que tentam compreender e
sistematizar a prática científica.) Por essa razão, as teorias éticas tradicionais muitas vezes
podem lançar luz útil sobre um caso que está sendo analisado. Considere os seguintes
pontos utilitários, aristotélicos e kantianos sobre o presente caso:

Pontos utilitáriosComportar-se de forma ética, segundo os utilitaristas, os


funcionários daCharityBot. com , bem como os do Children's Anti-Cancer
Fund (especialmente Joe Biggheart) deveria ter considerado seriamente os riscos, bem
como os possíveis benefícios, de usar softbots na Internet – especificamente os riscos de
usar EMAILFUNDER. Todos esses participantes parecem ter se concentrado principalmente
nos possíveis lucros e benefícios, e insuficientemente nos riscos. Falha em incluir uma
palavra comum relacionada ao sexo na lista de "palavras a serem evitadas". bem como a
provável existência de um "bug" sério de software são indicações de que oCharityBot. com
engenheiros de software foram descuidados. Além disso, dadas as preocupações de Joe
Biggheart sobre a adequação do e-mail escrito por software, ele deveria ter estabelecido
um meio de verificar as mensagens antes de serem enviadas. Por exemplo, ele poderia ter
providenciado para que cada nova versão da mensagem fosse enviada para seu próprio e-
mail e aprovada por ele antes que seu softbot pudesse enviar a mensagem para milhares
de pessoas-alvo.

pontos aristotélicosDado o que foi dito acima, é provável que o CharityBot. com
engenheiros de software não conseguiram alcançar o tipo de excelência profissional
que resulta de virtudes comoconfiabilidade, responsabilidade,e persistência.Eles
parecem, em vez disso, ter se entregado aos vícios defalta de confiança,
irresponsabilidade,efalta de persistência.Joe Biggheart, por outro lado, exibia
qualidades virtuosas comogenerosidadeecompaixão,mas ele também
aparentemente não tinha o suficientepersistênciaeresponsabilidade.Além disso, ele
deveria tercoragemperseguir suas preocupações, apesar do aborrecimento que
causaram aos líderes da oficina.

pontos kantianosFuncionários deCharityBot. com parecem não ter tido o devido respeito
por seus clientes e pelas pessoas que provavelmente serão afetadas por seus produtos.
Eles não levaram a sério as preocupações de Joe Biggheart quando ele expressou dúvidas
sobre a confiabilidade das mensagens geradas por software ou sobre possíveis violações
de privacidade. Eles criaram e venderam software que pode ser usado de forma
sistemática e eficaz para invadir a privacidade das pessoas. Eles mostraram mais
preocupação com seus próprios lucros do que com a dignidade e o valor de seus clientes e
das pessoas afetadas por seus produtos. Joe Biggheart, por outro lado, mostrou respeito e
preocupação pelas crianças e famílias atendidas por sua instituição de caridade; embora
ele (talvez tolamente) confiasse nas pessoasCharityBot. com muito; e ele permitiu que seu
foco na arrecadação de fundos e seu medo de ofender os outros ofuscassem seu respeito
e preocupação pelos destinatários do e-mail de seu softbot.

7. Tire algumas conclusões éticas importantes


Perante tudo o que foi dito acima, estamos agora em condições de tirar algumas
conclusões:

A. A principal causa do desastre parece ser uma série de falhas éticas naCharityBot.
com . Os engenheiros de software, líderes de oficina e outros na empresa
parecem mais preocupados com os lucros do que com a qualidade de seus
produtos e serviços. Eles não têm o devido respeito por seus clientes ou pelas
pessoas afetadas por seus produtos. Eles estão dispostos a criar e lucrar com
produtos que invadem seriamente a privacidade das pessoas. Eles parecem não
ter políticas da empresa que exijam excelência, confiabilidade, responsabilidade
e preocupação com a dignidade e o valor das pessoas. Eles colocam a
preocupação com os lucros da empresa acima do bem-estar público.

B. Uma causa que contribui para o desastre parece ser a falta de cuidado e atenção
suficientes por parte da equipe do Children's Anti-Cancer Fund. A
organização faltou ou falhou na aplicação de políticas que exigissem
excelência e responsabilidade no cumprimento de suas funções. Joe
Biggheart, em particular, embora obviamente se preocupasse com crianças
com câncer e suas famílias, parece ter tido uma atitude muito casual ao lidar
com possíveis riscos aos projetos pelos quais era responsável.
E ele não teve coragem ou integridade para perseguir suas preocupações sobre
qualidade e privacidade.

8. Tire algumas lições para o futuro

Os itens A e B acima são as principais conclusões éticas desta análise de caso. Além
disso, algumas lições podem ser aprendidas:

• A privacidade continuará a ser uma questão importante na ética do computador. A


facilidade com que os softbots na Internet podem coletar informações pessoais e
montá-las em perfis reveladores mostra a necessidade contínua de privacidade na
era da informação. (Veja James Moor, "Towards a Theory of Privacy in the
Information Age" emcapítulo 11 abaixo de.)
• À medida que os softbots e outros agentes de software se tornam mais sofisticados, eles
têm o poder de tomar cada vez mais "decisões" por conta própria, e também
realizar muito mais "ações" sem consultar seus criadores humanos. Parece haver
uma necessidade urgente para o desenvolvimento da "ética do agente" para
ajudam a regular o comportamento de agentes computadorizados (Ver Eichmann 1994).
• Como a Internet é verdadeiramente global e conecta a maioria dos países do
mundo, tornou-se possível agir "localmente" no computador doméstico ou
no computador do escritório e, no entanto, ter um impacto mundial. Quando
uma pessoa (ou robô) está atuando na Internet, quais leis se aplicam e quais
valores devem ser respeitados? Todos no ciberespaço deveriam estar sujeitos
a todas as leis e regras de todos os países do mundo? Poderia haver algo
como uma "ética global"? (Veja Krystyna Gorniak-Kocikowska, "The Computer
Revolution and the Problem of Global Ethics" emcapítulo 15 abaixo de.)

Referências

Bynum. TW e Schubert, P. (1997). "Como fazer a ética do computador: um estudo de caso -


The Electronic Mall Bodensee." Em MJ van den Hoven (ed.),Ética Informática:
Investigação Filosófica – Anais do CEPE'97,Erasmus University Press, pp. 85–95
(também disponível emhttp://www.computerethics.org ).
Eichmann, D. (1994). "Agentes Web éticos". Anais da Segunda Internacional
Conferência da World Wide Web: Mosaic and the Web, Chicago, IL. 18 a 20 de
outubro. pp. 3-13. (Acessado em 29 de junho de 2002 no seguinte site: http://
archive.ncsa.uiuc.edu/SDG/IT94/Proceedings/Agents/eichmann.ethical/eichm
Maner, W. (2002). "Heuristic Methods for Ética do computador". Em JH Moor e TW
Bynum (eds.),Ciberfilosofia: a interseção entre filosofia e computação. Blackwell
Publishing (veja também http://csweb.cs.bgsu.edu/maner/heuristics/toc.htm). Moor,
JH (1985). "O que é ética do computador?" Em TW Bynum (ed.),Computadores e
Ética.Blackwell Publishing, pp. 266-75. (Publicado como a edição de outubro de 1985 da
Metafilosofia.)(Também disponível emhttp://www.computerethics.org )

Perguntas básicas de estudo

1. O que é "reconhecimento de padrões" e por que Bynum diz que é muito parecido com a
percepção?
2. O que Bynum quer dizer quando diz que deseja que seu método de análise de caso seja
"natural e eficaz"?
5. Ao discutir "O que é ética no computador?" de Moor, Bynum levanta quatro questões-
chave. Quais são essas perguntas?
4. Por que, de acordo com Bynum. as pessoas são tão sensíveis a ofender os outros?
5. Quais são os diferentes tipos de "políticas de conduta" que, segundo Bynum. as pessoas
normalmente usam para tomar decisões sobre o que devem fazer?
6. Qual é o relato de Aristóteles sobre como as pessoas desenvolvem um bom julgamento ético?
7. O que, segundo Bynum, é "o ponto de vista ético"?
8. Segundo Bynum, ao desenvolver uma descrição detalhada de um caso, deve-se evitar inventar
"fatos não especificados ou fortemente implícitos". Por quê?
9. Quais são as três estratégias, segundo Bynum. pode ajudá-lo a "explorar seus próprios conhecimentos
e habilidades éticas"?
10. O que é uma "análise de padrões profissionais"?
11. O que é uma "análise de papéis e responsabilidades"?
12. O que é uma "análise das partes interessadas"?
13. O que é uma "análise sistemática de políticas"?
14. O que é uma "análise de teoria ética"?
15. Que tipos de novas políticas têm mais chance de serem aceitas pela comunidade quando
novas políticas são desenvolvidas para preencher "vazios políticos"?

Perguntas para reflexão


1. A ideia de "ética para robôs" (incluindo softbots) faz algum sentido? Em caso afirmativo, os
robôs precisam ser "seres conscientes e pensantes" antes de serem éticos?
2. Dado que existem muitas culturas diferentes no mundo com sistemas de valores muito
diferentes, o conceito de "ética global" faz algum sentido? Como esta questão se relaciona
com a ideia de Moor (verCH. 1 acima) de "valores fundamentais" - ou ao trabalho de Gorniak-
Kocikowska (verCH. 15 abaixo de)?
3. O que é privacidade e por que essa questão é eticamente importante?
LEITURAS ADICIONAIS E RECURSOS DA WEB

Leituras adicionais
Brey, P. (2000). "Ética do Computador Divulgado".Computadores e Sociedade.30/4: 10–16.
Gotterbarn, D. (1991). "Ética do Computador: Responsabilidade Recuperada."Fórum Nacional:
O jornal Phi Beta Kappa,71: 26-31.
Johnson, DG (2000). "Introdução: Por que a ética do computador?" Em DG Johnson,
Ética Informática,3ª ed. Prentice Hall, pp. 1–25.
Atracar. JH (1985). "O que é ética do computador?"Metafilosofia,16/4 (outubro): 266–
75.
Rogerson, S. (1996). "A Ética da Computação: A Primeira e Segunda Gerações".o
Notícias da Rede de Ética Empresarial do Reino Unido(Primavera): 1–4.

Spinello, RA (2000). "Introdução." Em RA Spinello.CiberÉtica: Moral e Direito


no Ciberespaço.Jones e Barlett.

Recursos da Web

Bynum, TW "Ética do Computador: Conceitos Básicos e Visão Geral Histórica", em


http://plato.stanford.edu/entries/ethics-computer/
Centro de Informática e Responsabilidade Social. Universidade De Montfort, Reino Unido. no
http://www.ccsr.cse.dmu.ac.uk/index.html
Centro de Pesquisa em Computação e Sociedade, Southern Connecticut State University,
EUA, emhttp://www.computerethics.org/
Tavani, HT "Computação, Ética e Responsabilidade Social: Uma Bibliografia". no
http://cyberethics.cbi.msstate.edu/biblio/
PARTE II

Responsabilidade Profissional

O trabalho que um homem desconhecido fez é como um veio de água que flui escondido
no subsolo, secretamente tornando o solo verde.
Thomas Carlyle
Introdução dos editores

Profissionais de computação – pessoas que projetam, constroem, programam e


fazem manutenção de dispositivos computadorizados, bem como aqueles que
planejam e gerenciam tais atividades – têm um enorme poder de afetar o mundo
de maneiras boas e ruins. Os profissionais de computação, portanto, também têm
uma enorme responsabilidade para com a sociedade em geral, e especialmente
para com as pessoas diretamente afetadas pelos sistemas de computadores,
redes, bancos de dados e outros dispositivos de tecnologia da informação que os
profissionais de computação criam e controlam. Por exemplo, engenheiros de
software que desenvolvem programas de computador para controlar aviões,
usinas nucleares, dispositivos médicos e estações espaciais são responsáveis por
programas de computador dos quais muitas vidas dependem. Com
responsabilidades tão importantes,
Mas o que significa ser umprofissional?Este termo lembra profissionais bem
educados, como advogados, médicos, professores, contadores e engenheiros, que
possuem qualidades e habilidades específicas normalmente associadas a serem
profissionais. Por exemplo, o termo sugere:

1 Dominar um extenso corpo de conhecimentos e habilidades, geralmente adquiridos na


educação formal, bem como em um período de "aprendizagem". Médicos, advogados,
professores, contadores e engenheiros, por exemplo, normalmente passam anos como
estudantes universitários, além de tempo adicional adquirindo experiência prática
trabalhando com colegas mais experientes. Prestar um serviço importante para
2 promover ou preservar um determinado valor social. Por exemplo, os médicos
preservam a vida e a saúde, os advogados servem à justiça, os professores preservam e
disseminam o conhecimento, os contadores monitoram a legitimidade financeira, os
engenheiros fornecem edifícios seguros, pontes e outras estruturas.
3 Exercer controle monopolista sobre serviços relevantes para a sociedade. O monopólio
geralmente é mantido exigindo uma licença ou certificado para praticar. Por exemplo,
apenas médicos licenciados podem realizar cirurgias ou prescrever medicamentos; somente
advogados admitidos na Ordem podem exercer advocacia; somente professores certificados
podem ensinar em nossas escolas, e assim por diante.
4 Aceitar um código de conduta profissional que defina as responsabilidades
profissionais. Na medicina, por exemplo, existe o Juramento de Hipócrates
adotado pela maioria dos médicos do mundo. E na lei, existem códigos como
as Regras Modelo de Conduta Profissional da American Bar Association.

Johnson (2001) e Spinello (1997) apontaram com razão que esses critérios
paradigmáticos para identificar profissionais não se aplicam totalmente aos profissionais
da computação. É verdade, é claro, que a maioria das pessoas que ganham a vida como
profissionais de computação adquiriu um corpo relevante de conhecimento especializado
de estudos universitários formais. Além disso, muitos também tiveram uma vasta
experiência prática trabalhando com colegas mais experientes. Por outro lado, no que diz
respeito a "avançar ou preservar valores sociais particulares" não parece haver um valor
específico associado à prática do computador – algo comparável à saúde para a medicina,
ou justiça para o direito, ou conhecimento para a educação. De fato, Moor observou (ver
capítulo 1 acima) que a tecnologia do computador é "logicamente maleável" no sentido de
que pode ser moldada e moldada para realizar quase qualquer tarefa. Assim, a tecnologia
do computador pode ser usada para preservar e avançar (ou danificar e destruir!) quase
tudo que a sociedade possa valorizar. Além disso, em geral, os profissionais de
computação não precisam de licença para praticar (o estado do Texas recentemente
introduziu uma licença para engenheiros de software) e, portanto, não têm o tipo de
controle monopolista que médicos e advogados exercem na maioria das sociedades.

Existem, é claro, códigos de conduta que várias organizações de computação


estabeleceram para seus membros – organizações como a Association for Computing
Machinery (ACM), a British Computer Society (BCS) e o Institute of Electrical and
Electronics Engineers (IEEE). (consulte o apêndice paraParte III abaixo de). Tais códigos
destinam-se a orientar a conduta dos membros, embora nenhum seja respaldado por
fortes sanções comparáveis a ser impedido de exercer a advocacia ou perder a
licença para exercer a medicina. Nesse sentido, os profissionais da computação não
estão fortemente vinculados aos seus próprios códigos de conduta e podem continuar
a praticar mesmo que violem regularmente os códigos de conduta.
adotadas por suas organizações oficiais.
De acordo com Gotterbarn, são necessárias medidas mais fortes:

A computação amadureceu a um ponto em que possui padrões, métodos e técnicas


que, se empregados, reduziriam a probabilidade de muitos desastres de
computação. O mundo não aceitará mais a visão de que bugs surgem em programas
por Geração Espontânea. Os bugs (erros) foram colocados lá por pessoas que
deveriam saber melhor. A falha em entregar produtos de qualidade é antiética,
mesmo em computação. (Gotterbarn 1992)

Apesar do fato de que os profissionais de computação de hoje não cumprem


completamente as características paradigmáticas de profissionais como médicos e
advogados, eles têm muitas das características relevantes e são frequentemente
considerados profissionais. Além disso, eles têm organizações profissionais, por
exemplo, ACM, BCS e IEEE.

O Contexto Profissional

Johnson observou que os profissionais de informática normalmente trabalham em um contexto


complexo com uma variedade de leis, regras, políticas e relacionamentos humanos:

[P]profissionais funcionam em um contexto especial, um contexto que normalmente inclui


relacionamentos com empregadores, clientes, co-profissionais e o público. O contexto
também envolve restrições legais, políticas e econômicas. Profissionais de informática, por
exemplo, são frequentemente empregados por empresas privadas que buscam lucro,
restringidos por lei de várias maneiras, operando em um ambiente altamente competitivo e
assim por diante. Esse contexto costuma ser muito rico em complexidade, e isso não pode ser
ignorado na análise da tomada de decisão ética. (Johnson 1994, p. 40)

A complexidade do contexto profissional é importante porque a tomada de decisão


ética exige mais do que apenas seguir regras. Por exemplo, oFunção que alguém está
cumprindo em uma situação específica é muitas vezes uma consideração ética importante.
Os papéis carregam responsabilidades e obrigações éticas relacionadas.Para citar
alguns exemplos cotidianos: o papel de um médico, um pai, um motorista de ônibus ou
um membro do conselho escolar carregam consigo responsabilidades e obrigações que
não têm outros que não estão nessas funções. Os pais, por exemplo, têm
responsabilidades para com os filhos que os não-pais não têm; os motoristas de ônibus
são responsáveis pela segurança dos passageiros no ônibus e são obrigados a fazer todo
o possível para manter essa segurança; e os membros do conselho escolar têm
responsabilidades e obrigações específicas para a segurança e educação do aluno que
o cidadão médio não tem.
O contexto complexo no qual um profissional de computação normalmente funciona
inclui uma variedade de papéis. Normalmente, essa pessoa funciona simultaneamente
como funcionário, consultor, membro da equipe e cidadão. Cada uma dessas funções traz
consigo certos deveres, responsabilidades e obrigações:

Empregador para empregadoA relação entre empregador e empregado


é contratual. Por um lado, o empregado concorda em realizar trabalhos
atribuídos e, por outro lado, o empregador concorda em pagar uma
compensação. É responsabilidade do empregador fornecer ferramentas
apropriadas e um ambiente de trabalho seguro, bem como evitar que o
funcionário faça algo ilegal. É responsabilidade do funcionário ser
honesto sobre suas qualificações e experiência e desempenhar
conscientemente o trabalho designado. O funcionário deve ser leal ao
empregador no sentido de que as instruções sejam seguidas
conscientemente, o trabalho seja feito de forma diligente e cooperativa e
os segredos comerciais da empresa não sejam revelados aos
concorrentes. Por outro lado, como Johnson observa com razão, "

Profissional para profissionalA maioria dos profissionais de informática hoje trabalham como
membros de equipes com outras pessoas. Obviamente, é importante que todos os membros
de uma equipe façam sua parte do trabalho, cooperem com os outros membros, forneçam
conselhos e assistência úteis e assim por diante. Essas responsabilidades de profissional para
profissional vêm com a participação na equipe. Além disso, é claro, provavelmente haverá
outros profissionais que terão que manter e atualizar posteriormente o que a equipe está
criando atualmente. Aqui, novamente, há responsabilidades profissionais-profissionais
adicionais.
Os profissionais de informática normalmente pertencem a várias organizações, como BCS,
ACS, ACM, IMIS ou IEEE-CS. Na medida em que os códigos de ética de tais organizações
incorporam os valores, objetivos e compromissos éticos da profissão, os membros são
responsáveis por defendê-los. Muitas vezes, colegas profissionais ajudam uns aos outros na
obtenção de empregos, contratos, promoções e assim por diante. Essa lealdade a colegas
profissionais é boa para a profissão como um todo, mas pode ser levada longe demais se levar
a licitações de contratos não competitivas, tratamento injusto de candidatos a emprego e
assim por diante.

Profissional para clienteMuitos profissionais de informática (ou as equipes em que trabalham


trabalho) têm clientes – pessoas ou organizações com quem contrataram para
fornecer um produto ou serviço relacionado à informática. O cliente procura o
profissional para assistência porque o profissional tem um conhecimento especial
que o cliente necessita. Que responsabilidades surgem dessa relação profissional-
cliente? A resposta depende de como se define essa relação.
Bayles (1981) apontou que as relações profissional-cliente podem ser compreendidas
usando uma variedade de modelos diferentes. Johnson (2001, cap. 3) usa três dos modelos
de Bayles para descrever uma série de relações possíveis. Em um extremo está o modelo
de "agência" no qual o cliente toma todas as decisões importantes e o profissional de
computação apenas executa essas decisões. Esse modelo tem a desvantagem de que o
conhecimento especial do profissional não é efetivamente utilizado. Como diz Johnson, "é
necessário aconselhamento profissional não apenas para implementar as decisões, mas
para ajudar a tomar as decisões" (2001, p. 71).
No outro extremo está a relação "paternalista" em que o profissional toma
todas as decisões e o cliente é tratado como uma criança à mercê dos julgamentos
do profissional. Este modelo deixa de fora o conhecimento especial que o cliente
tem sobre como o produto ou serviço de informática será usado. O profissional de
informática precisa trabalhar em estreita colaboração com o cliente e compartilhar
a responsabilidade de tomar decisões importantes. Isso leva à terceira – e
intermediária – relação entre cliente e profissional: a relação “fiduciária”. Como o
nome indica, a confiança é absolutamente essencial para este tipo de relação de
trabalho:

Neste modelo, ambas as partes devem confiar uma na outra. O cliente deve confiar
no profissional para usar seu conhecimento especializado e pensar em termos de
interesse do cliente, mas o profissional também deve confiar que o cliente fornecerá
ao profissional informações relevantes, ouvirá o que o profissional diz e em breve.
Nesse modelo, a tomada de decisão é compartilhada. (Johnson 2001, p. 71)

Profissional para usuárioEnquanto trabalha para um empregador ou cliente, um profissional


de informática muitas vezes cria hardware ou software destinado ao uso por uma série de
pessoas que não o indivíduo ou a organização que encomendou o trabalho. Um fabricante de
aviões, por exemplo, pode contratar uma empresa de software para produzir um pacote de
software de aviônicos para ajudar a pilotar o avião. Obviamente, os usuários do produto de
computador – neste caso a tripulação do avião – serão significativamente afetados pelo
produto. Se funcionar de forma confiável e eficiente, os usuários serão bem atendidos: mas se
o produto estiver com defeito, eles podem ser prejudicados, talvez até mortos, se o produto
não funcionar conforme o planejado. Por esta razão, é claro que o computador
os profissionais têm responsabilidades com os usuários de seus produtos, não apenas
com empregadores e clientes. Essas responsabilidades incluem, por exemplo, aceitar
trabalhos somente se alguém for competente para realizá-los, exercer o devido cuidado e
diligência, testar minuciosamente o produto final antes de entregá-lo ao cliente e assim
por diante.

Profissional para a sociedadeO exemplo acima de software de aviônicos ilustra mais um


ponto sobre as responsabilidades dos profissionais de informática: seu trabalho pode
facilmente impactar milhares ou mesmo milhões de pessoas. A segurança dos passageiros
de um avião, por exemplo, e a segurança das pessoas que vivem e trabalham sob a
trajetória de voo do avião dependem do funcionamento confiável do software. Se o
software falhar e o avião cair, os passageiros podem ser mortos ou feridos, assim como as
pessoas situadas sob a trajetória de voo do avião.
O ponto deste exemplo pode ser generalizado: a tecnologia da computação está
sendo rapidamente adotada em todas as esferas da vida para realizar trabalhos e fornecer
serviços, da medicina à educação, das comunicações à manufatura, da defesa nacional à
indústria do entretenimento. Com um impacto tão grande no mundo e no futuro, os
profissionais de computação precisam ser socialmente responsáveis – para desenvolver
uma compreensão do impacto social de sua profissão, desenvolver códigos de conduta
responsáveis e educar futuros profissionais com responsabilidade social em mente.

A relação profissional-sociedade pode ser vista como um contrato. Por


um lado, a sociedade concede o direito de exercer uma profissão, fornece
acesso à educação necessária, aprova as leis necessárias e fornece polícia,
bombeiros e outros serviços de proteção. Em troca, o profissional de
informática concorda em praticar de maneira que beneficie a sociedade.
Neste mundo cada vez menor, com interação global na Internet, a
"sociedade" que um profissional de informática atende está rapidamente
se tornando global. E os ambientalistas até argumentariam que os
profissionais de computação deveriam assumir a responsabilidade pelo
impacto de seus produtos e serviços não apenas sobre os seres humanos,
mas sobre toda a Terra, incluindo plantas e animais, florestas, oceanos e
outros ecossistemas.capítulo 15 .)

Conclusão

Esta parte do livro explora o conceito de "responsabilidade profissional"


aplica-se a profissionais de informática. Ele também examina maneiras pelas quais os profissionais
de computação podem identificar e cumprir com mais eficiência suas responsabilidades sociais e
éticas.
Em seu artigo "Poder não intencional no projeto de sistemas de computação", Chuck
Huff examina as maneiras pelas quais os sistemas de computação geram efeitos negativos
e consequências que não foram previstas por seus projetistas originais. Ele também
sugere maneiras de evitar tais consequências.
Em "Informática e Responsabilidade Profissional". Donald Gotterbarn amplia e
esclarece uma distinção feita pelo filósofo John Ladd (1989) entre responsabilidade
"negativa" e "positiva". Gotterbarn ilustra os tipos de danos que podem resultar de
uma compreensão negativa e "reativa" da responsabilidade profissional entre os
profissionais de computação. Ele então defende um senso de responsabilidade
mais positivo e "proativo" e ilustra as vantagens e benefícios de adotar tal
perspectiva.
Em seu artigo "The Ethics of Software Development Management", Simon Rogerson
examina as práticas típicas de desenvolvimento de software. Ele argumenta que tais
práticas normalmente não lidam efetivamente com questões éticas relevantes e apresenta
oito princípios éticos que podem ser aplicados a projetos de desenvolvimento de software
para garantir que considerações éticas apropriadas guiem o desenvolvimento de software.

Esta parte do livro conclui com o famoso caso do London Ambulance Service e
as consequências infelizes do desenvolvimento de software deficiente. O leitor é
convidado a usar o método de análise de caso deCapítulo 3 acima para analisar
esse notório desastre de desenvolvimento de software.

Referências

Bayles, M. (1981).Éticas profissionais.Wadsworth.


Gorniak-Kocikowska, K. (1996). "A Revolução do Computador e o Problema da Globalização
Ética."Ética da Ciência e Engenharia, 2(abril): 177-90. (Veja tambémcapítulo 15 abaixo
de.)
Gotterbarn. D). (1992). "Você não tem o direito de fazer errado." Disponível em www-
cs.etsu-tn.edu/gotterbarn/ArtPP4.htm (acessado em 7 de dezembro de
2002). Johnson, DG (1994).Ética Informática,2ª ed. Prentice-Hall. Johnson, DG
(2001).Ética Informática,3ª ed. Prentice-Hall.
Ladd, J. (1989). "Computadores e Responsabilidade Moral: Uma Estrutura para uma Ética
Análise." Em CC Gould (ed.),A Web da Informação: Implicações Éticas e Sociais
das Redes de Computadores.Westview Press, pp.207-27.
Spinello, RA (1997).Estudos de Caso em Informação e Ética Informática.Prentice Hall.
CAPÍTULO 4

Poder não intencional no projeto de computação


Sistemas

Chuck Huff

Chuck Huff, "Poder não intencional no projeto de sistemas de computação". Este capítulo
foi originalmente um artigo apresentado no ETHICOMP95 em Leicester. UK e apareceu nas
atas dessa conferência, editada por Simon Rogerson e Terrell Ward Bynum e publicada
pelo Centro de Computação e Responsabilidade Social. Reimpresso com permissão do
autor. © 1995 por Chuck Huff.

Porque na muita sabedoria há muita tristeza; e quem aumenta o conhecimento aumenta a


tristeza.
Eclesiastes 1:18

. . . os profissionais de computação que projetam e desenvolvem sistemas devem estar alertas


e alertar os outros sobre qualquer dano potencial.
Código de Ética da ACM 1992

Introdução

Por que o erudito hebreu e autor de Eclesiastes era tão cético quanto ao valor do conhecimento?
Pelo menos em nosso tempo, achamos que o rápido aumento do conhecimento é tanto
estimulante quanto esperançoso. À medida que o conhecimento aumenta, curamos mais doenças,
conectamos mais pessoas, aliviamos muita pobreza. O aumento do conhecimento certamente
impulsiona a indústria de tecnologia e faz do "mais rápido, melhor, mais" quase um mantra do
progresso.
Portanto, pode ser surpreendente ler palavras como as acima. Eles cheiram a
obscurantismo, obstrução, ignorância intencional. Certamente atitudes como essa só
podem vir de tecnófobos não reconstruídos. O conselho implícito é evitar a tristeza
evitando o conhecimento – recuar para a ignorância. Quando você terminar este
capítulo, espero tê-lo convencido de que o conhecimento traz consigo maior
responsabilidade. Se eu conseguir, você pode ter alguma simpatia pelo
cansaço do antigo erudito. Você ainda pode rejeitar o conselho implícito.
Que tipo de conhecimento aumenta a tristeza? Pelo menos para nossos
propósitos, é o tipo de conhecimento que nos permite prever possíveis efeitos dos
produtos que projetamos. O tipo de conhecimento que nos torna, pelo menos em
parte, responsáveis por produzir ou evitar esses efeitos. Esse conhecimento torna
nossa vida mais complicada porque traz consigo os tipos de "problemas" que
envolvem mais responsabilidade. Aqueles que conhecem perigos ou dificuldades têm
a responsabilidade de levá-los em consideração. O Código ACM reconhece isso na
segunda citação no início deste capítulo. Os profissionais de informática têm a
responsabilidade de projetar produtos que sejam seguros e que desempenhem bem
as funções para as quais foram projetados.
Por exemplo, os projetistas da Máquina de Terapia de Radiação Therac-25 (Jacky 1991;
Leveson e Turner 1992) sabiam que a radiação que seu produto gerava poderia ser
liberada em dosagens perigosas. No entanto, eles produziram uma máquina que, quando
usada nas condições padrão em hospitais movimentados, poderia resultar em sérios erros
de dosagem. A maioria das análises do processo de projeto neste caso concorda que os
projetistas foram negligentes tanto no projeto inicial quanto no acompanhamento de
relatos de mau funcionamento. Como resultado, várias pessoas morreram e muitas
ficaram feridas.
O grande avanço do Therac-25 foi que todos os seus controles foram movidos para software. O operador agora interagia com

a máquina apenas por meio do terminal do computador. Intertravamentos de segurança que podem impedir níveis de dosagem

letais foram incorporados ao software e eliminados do hardware da máquina. Isso permitiu uma fácil reprogramação dos níveis de

dosagem e fácil manutenção e atualização da máquina. Isso também significava que os intertravamentos de segurança dependiam

da confiabilidade do software. E não só o software, mas também o software, como foi usado pelo técnico. Descobriu-se que, se o

técnico ajustasse a máquina para um tipo de dosagem (feixe de elétrons de baixo nível) e depois mudasse a configuração para outro

tipo (feixe de elétrons de alto nível com um alvo metálico interposto para alterar o feixe para baixo nível Raios X), a máquina mudaria

para o feixe de elétrons alto, mas não interporia o alvo com rapidez suficiente – irradiando diretamente o paciente com níveis letais

do feixe de elétrons. Quando isso acontecia, a tela do computador simplesmente indicava "mau funcionamento 54" para dosagem

incorreta. Mas como o "mau funcionamento 54" ocorria até 40 vezes por dia por motivos totalmente inócuos (por exemplo, o feixe

estava ligeiramente "desafinado"), os técnicos aprenderam a ignorá-lo. Quando um mau funcionamento ocorre regularmente em um

centro médico movimentado, não é de admirar que os técnicos o ignorassem Mas como o "mau funcionamento 54" ocorria até 40

vezes por dia por motivos totalmente inócuos (por exemplo, o feixe estava ligeiramente "desafinado"), os técnicos aprenderam a

ignorá-lo. Quando um mau funcionamento ocorre regularmente em um centro médico movimentado, não é de admirar que os

técnicos o ignorassem Mas como o "mau funcionamento 54" ocorria até 40 vezes por dia por motivos totalmente inócuos (por

exemplo, o feixe estava ligeiramente "desafinado"), os técnicos aprenderam a ignorá-lo. Quando um mau funcionamento ocorre

regularmente em um centro médico movimentado, não é de admirar que os técnicos o ignorassem


em vez de parar durante o dia para recalibrar (e assim fazer os pacientes esperarem).
Se os projetistas tivessem pensado cuidadosamente sobre as condições sob as quais seu
produto seria usado, eles poderiam ter feito uma tentativa melhor de evitar a entrega de
dosagens letais ou prejudiciais. Se eles tivessem considerado o quão difundido o uso de seu
produto poderia se tornar, eles poderiam ter projetado um processo de feedback que teria
enviado "correções" para esses sites generalizados.
Eles não fizeram essas coisas. E, em parte, eles negligenciaram fazê-los porque
interpretaram seu trabalho estritamente como design tecnicamente proficiente (Leveson e
Turner, 1992).

Níveis de Restrição em Engenharia de Software

Mas o trabalho do engenheiro de software não é simplesmente ser tecnicamente


proficiente e tomar as melhores decisões técnicas que puder, dentro do prazo e do
orçamento? Certamente, a proficiência técnica é crucial. E porque a proficiência técnica é
tão difícil de alcançar e manter, muitas vezes pensamos que deveria ser o único critério
pelo qual o trabalho é medido. Pelo menos a vida seria mais simples se assim fosse.

Mas há muito poucas decisões técnicas que são totalmente limitadas pela matemática e
pela física. Aqueles que são (como alguns problemas na teoria das filas) provavelmente ainda
serão apenas partes de um projeto maior que possui restrições adicionais. Quais são essas
restrições adicionais?tabela 1 lista alguns deles. Eles variam de padrões de design
exaustivamente testados a preocupações sobre o "valor" da computação para a sociedade.
Muitos estão claramente no domínio da "engenharia" popularmente concebida. Alguns estão
claramente longe da engenharia. As restrições de nível 1 são comumente abordadas em
programas de treinamento que servem como portas de entrada para o campo. Mas mesmo
nesse nível abundam os julgamentos de valor: quais padrões? como resolver trocas? Muitas
vezes, essas decisões não são baseadas em provas matemáticas ou em restrições físicas. Em
vez disso, baseiam-se em critérios cuja aplicabilidade é pelo menos uma questão de debate. E
esses debates são baseados em divergências sobre quais coisas devemos valorizar mais.
Assim, juízos de valor.
Por exemplo, a decisão de implementar todos os intertravamentos de
segurança do Therac-25 no software – e nenhum no hardware – foi baseado (pelo
menos em parte) no valor associado a ter drivers reprogramáveis para a máquina.
A facilidade de reprogramação é valiosa porque reduz os custos de atualizações.
Isso nãotenhoser feito dessa maneira, mas se você valoriza a flexibilidade e a
facilidade de atualização, vocêdeveprojetar desta forma. Neste caso, os projetistas
Traduzido do Inglês para o Português - www.onlinedoctranslator.com

subestimaram erroneamente outros valores igualmente importantes, como aqueles


associados a causar danos aos pacientes.

Tabela 1 Restrições no projeto de sistemas

Nível 1 Problemas de design de sistemas, padrões, compensações em


design e desempenho
Nível 2 Políticas da empresa, especificações, orçamentos, cronogramas
do projeto

Nível 3 Usos e efeitos previstos; interações com outras


tecnologias e sistemas
Nível 4 Questões maiores de "impacto na sociedade" (por exemplo, privacidade,

propriedade, poder, equidade)

Nesse caso, os projetistas subestimaram a dificuldade de controlar os níveis de


dosagem em uma movimentada sala de radioterapia de um hospital. Sua negligência
dessa dificuldade foi baseada em sua ignorância das condições apressadas e agitadas que
ocorrem nesses ambientes. Em um sentido muito importante, esses projetistas tinham "ao
seu alcance" projetar um produto seguro se tivessem indagado sobre as condições sob as
quais seu produto seria usado. Projetos subsequentes agora levam em conta essas
dificuldades (Jacky 1991).
Outro exemplo menos catastrófico pode ajudar. Há uma preocupação generalizada com o
desequilíbrio de gênero na ciência da computação nos Estados Unidos (Martin e Murchie-
Beyma 1992). A grande maioria dos alunos de pós-graduação (e maioria ainda maior de
professores) são homens. Menos mulheres graduadas estão se matriculando em cursos de
ciência da computação hoje, então parece que esse desequilíbrio provavelmente continuará.
Há algum consenso entre os pesquisadores de que uma das principais razões pelas quais as
mulheres não seguem carreiras em ciência da computação ou em áreas afins é que, desde o
início da adolescência, a computação é definida como um campo masculino e a maioria dos
usos da computação são retratados como interessantes apenas para os homens. Martin e
Murchie-Beyma 1992).
Um colega e eu estávamos interessados nessa afirmação e projetamos um estudo
para determinar até que ponto esse retrato da computação como um domínio masculino
se infiltrava no software que os alunos poderiam usar na escola. Pedimos aos professores
que projetassem software educacional para meninos, meninas ou (gênero
não especificado) "filhos" (Huff e Cooper 1987). Em seguida, fizemos com que os designers
e avaliadores independentes classificassem esses programas em termos de características
como pressão de tempo, interação verbal necessária, controle dado ao usuário etc.
Descobrimos que os programas projetados para meninos pareciam jogos (com pressão de
tempo, coordenação olho-mão, e competição mais importante), enquanto os programas
para meninas pareciam "ferramentas" de aprendizagem (com conversação e
aprendizagem baseada em objetivos). Até aqui. isso não é digno de nota. No entanto, os
programas projetados para "crianças" pareciam exatamente como aqueles projetados
para meninos. Assim, os programas projetados para "estudantes em geral" eram na
verdade programas projetados para meninos. Curiosamente, 80 por cento dos designers
de nossos programas eram do sexo feminino, muitos dos quais expressaram preocupação
de que o software educacional fosse tendencioso ao masculino. Desta forma,

Esta afirmação merece ser repetida em um nível mais geral. O próprio design do
software foi afetado pelas expectativas sociais dos designers. Isso é tão verdadeiro para
esse efeito mais sutil de preconceito de gênero no design quanto para os efeitos
claramente equivocados (e claramente mortais) das expectativas dos projetistas do
Therac-25.
No entanto, mesmo que os julgamentos de valor apareçam nos níveis mais baixos da
engenharia de sistemas, talvez ainda seja possível limitar o trabalho do projetista de
software apenas aos julgamentos de valor relativamente simples que ocorrem ao escolher
entre algoritmos ou padrões. Infelizmente, mesmo um pouco de conhecimento sobre
como os sistemas de computação são usados aumentará a tristeza daqueles que
esperam isso. Olhe novamente para os dois exemplos que cobrimos. Em ambos os casos,
problemas de níveis mais altos na tabela de restrições chegaram ao nível de projeto do
sistema. Escolhas sobre onde implementar verificações de segurançadeveforam feitas
com base em um melhor conhecimento do ambiente agitado de trabalho da radioterapia.
Escolhas sobre as características básicas do programadeveforam feitas com base em uma
suposição mais ampla sobre quem seriam os usuários do software. Assim, embora possa
ser desejável delinear claramente o trabalho do engenheiro de software, é claramente
impossível. Uma boa engenharia no nível do projeto básico do sistema requer atenção a
muitos níveis de restrição.
Portanto, se você se limitar apenas a considerar as restrições que estão
claramente no nível da "engenharia", poderá ter um efeito no mundo que
claramente preferiria evitar. Isso é verdade, em maior ou menor grau, para ambos
os exemplos que vimos aqui. E assim, em maior ou menor grau, os designers
desses produtos tinham poder sobre os usuários de seus produtos. Elas
desconheciam o efeito que seu projeto poderia ter tido. Eles certamente não
pretendiam nenhum efeito negativo de seu design. Mas tais efeitos ocorreram
mesmo assim.

Poder Intencional

Eu chamo esse poder de prejudicar os outros de maneiras difíceis de prevernão intencional

potência.1Obviamente, as decisões de projeto que os engenheiros de software tomam


afetarão o desempenho de um produto e, portanto, tais decisões afetarão os usuários desse
produto. Muitos desses efeitos são intencionais: o produto funciona mais rápido, é mais fácil
de manter, tem maior capacidade. Algumas não são intencionais: o produto é mais difícil de
manter, confunde ou frustra os usuários, mata os usuários. Da mesma forma que um homem
grande pode involuntariamente empurrar as pessoas para o lado enquanto carrega um pacote
estranho pela rua, um designer de software pode prejudicar involuntariamente os usuários de
um produto que ele projetou para um bom propósito. Ambos exercem o poder. Tanto o
projetista de software quanto o transportador do pacote estão afetando os outros
intencionalmente e não intencionalmente.
Para entender a questão do poder não intencional, devemos primeiro ter a
definição mais útil desse tipo de poder firmemente em mãos. Para começar, é
semelhante à definição de poder da ciência física (o potencial para realizar trabalho) e
à nossa definição social usual de poder (a capacidade de influenciar os outros). Nesse
nível, ambas as definições deixam claro que a intenção não é importante. Num caso é
simplesmente irrelevante e, no outro, reconhecemos que um pode ter influência
intencional e não intencional sobre os outros (lembra-se do entregador de
encomendas?).
Assim, todos nós temos poder não intencional associado às nossas ações sempre
que essas ações têm consequências não intencionais. A questão então se torna,
deveríamos estar cientes da probabilidade de que essas consequências ocorressem?
Poderíamos tê-los previsto? Poderíamos ter sido mais cuidadosos? Aqui está um
princípio importante sobre o poder não intencional; traz consigo uma
responsabilidade concomitante de estar o mais ciente possível das consequências de
nossas ações.

Os problemas do poder não intencional

Uma dificuldade com o poder não intencional em sistemas de computação é que os


projetistas geralmente estão muito distantes das situações em que seu poder (agora
transportado pelo software que eles projetaram) tem seu efeito. O software projetado
em Chicago pode ser usado em Calcutá. Software, ou pedaços de software, podem ser
reutilizados para outros propósitos que não aqueles que seu projetista original
imaginou. O software pode ser usado em ambientes mais complexos ou mais
perigosos do que aqueles para os quais foi projetado inicialmente. Assim, a pessoa ou
pessoas com o poder são afastadas daqueles que são afetados. Isso torna difícil para o
projetista prever possíveis consequências.
Esse distanciamento também dificulta que os usuários reconheçam que foram,
de fato, os designers que os afetaram. As pessoas tendem a se culpar pelas
dificuldades que o software produz em vez de vê-lo como um problema de design
ruim (Huff et al. 1991). Afinal, eles são os que estão mais próximos do dano, e
muitas vezes não lhes ocorre que seu softwarefoidesenhado por alguém. A
responsabilidade pelo dano, então, torna-se difícil de atribuir e fácil de evitar.
Outro efeito do distanciamento é que a resposta ao problema não pode ser
padronizada para nenhum domínio específico de aplicações. Os efeitos mudam muito de
implementação para implementação. Em resposta a um problema semelhante, os
profissionais de computação em interação humano-computador têm levado a testes de
campo, revisões iterativas, testes de usuários e outros métodos para melhorar as chances
de que seus produtos se encaixem nos domínios específicos para os quais foram
projetados (Borenstein, 1991). ; Shneiderman 1992; Landauer 1995). Existem simplesmente
muitas consequências possíveis para pegá-las todas (no prazo e dentro do orçamento).

Lidando com o poder não intencional

Aqui, então, vem o problema: o que é uma tentativa "razoável" por parte de um designer
de evitar as consequências negativas do poder não intencional? Claramente, qualquer um
que agora projeta software para terapia de radiação deve levar em consideração as
condições sob as quais seu produto será usado. Agora sabemos disso porque várias
pessoas morreram pelo uso da Máquina de Radiação Therac-25. Eu diria, e espero que
você concorde, que esse tipo de "teste de usuário" deve ser evitado. Uma lição geral que
podemos tirar disso é que os projetistas de sistemas "críticos de segurança" precisam levar
em consideração mais restrições do que simplesmente restrições de projeto de baixo nível.
Mas certamente não podemos esperar uma investigação abrangente, analisando todos os
níveis de restrição listados notabela 1 , antes de decidirmos construir qualquer sistema?
Mas há algumas coisas que podemos fazer, e que devemos esperar que façamos. A
pesquisa sobre os efeitos mais amplos da computação avançou o suficiente para ter
algumas coisas claras a dizer sobre os perigos de ignorar as restrições listadas
anteriormente neste capítulo. O design de software não está mais em sua infância e deve-
se esperar que desenvolva métodos para lidar com essas restrições sem levar os designers
à falência ou seus empregadores. Aqui estão algumas sugestões iniciais sobre como
podemos abordar essas questões.

Reconhecer o problema e tentar limitar seu domínioClaramente, não podemos abordar um


problema que preferimos ignorar. Alguns designers preferem inflar os custos de olhar para
esses problemas (por exemplo, você quer dizer que temos que olhar para todas as
implementações possíveis?), declarar o problema muito grande e assustador para abordar e,
em seguida, ignorá-lo. Ignorá-lo não o fará desaparecer. Uma abordagem melhor é reconhecer
os parâmetros do problema, tentar limitar os domínios onde ele pode causar um problema e,
em seguida, resolver o problema dentro desses domínios limitados. Desenvolver padrões (para
computação crítica de segurança, para interfaces de computação, para troca de dados, etc.) é
uma forma de limitar o domínio.

Use métodos de desenvolvimento para se informar sobre os efeitos que valem a pena
prever Métodos para projeto de software baseado em qualidade (TQM) estão se tornando
disponíveis (Arthur 1992; Dunn 1994). Além desses métodos, o uso de uma declaração de
impacto social, ou SIS (Shneiderman 1990; Huff 1996; Shneiderman e Rose 1996) pode
ajudá-lo a determinar com que tipo de efeito você deve se preocupar, bem como
investigar as restrições que orientará sua solução. Nem os métodos TOM nem as
abordagens SIS tomarão as decisões por você. Tomar essas decisões depende do
julgamento dos profissionais de computação sobre um projeto específico em um ambiente
específico. É disso que se trata o profissionalismo.

Faça provisão no ciclo de vida do software para procurar os efeitosVocê simplesmente não
consegue identificar todos os efeitos possíveis de um sistema de computação antes do lançamento.
Por esse motivo, você deve estar pronto para identificá-los após o lançamento e o mais rápido
possível após o lançamento. Os métodos de projeto de software atualmente incorporam uma
filosofia de projeto de ciclo de vida e é relativamente fácil incorporar alguns dos métodos de
declarações de impacto social nesse modelo de ciclo de vida.

Conclusão
As abordagens que eu recomendo não são uma mudança radical nos padrões de
engenharia de software, mas um passo evolutivo. Os padrões já são projetados para
levar em conta os efeitos tardios e para conscientizar os projetistas das interações
entre o software e alguns problemas ambientais. O design de qualidade exige que
ampliemos nossa visão sobre as restrições que devemos considerar em nossos
projetos.
Você não pode tornar todos os projetos seguros sob todas as condições, mas pode
torná-los mais seguros, ou mais utilizáveis, ou mais equitativos, sob mais condições.
Os engenheiros de software devem assumir a responsabilidade onde esses métodos
emergentes permitirem. e devem ser humildes sobre sua capacidade de garantir o
funcionamento perfeito onde não podem medir ou testar o desempenho em
condições reais. Aumentando o conhecimento sobre os efeitos sociais do software e
adotando métodos que nos permitem antecipar esses efeitos, podemos diminuir o
sofrimento e, assim, confundir a previsão do profeta. Mas faremos isso às custas de
nossas próprias abordagens mais simplistas de design de software.

Referências

Artur, LJ (1992).Melhorando a qualidade do software: um guia para o TOM.John


Wiley.
Borenstein, NS (1991).Programando como se as pessoas importassem: programa amigável,
Engenharia de Software e Outras Nobres Ilusões.Imprensa da Universidade de Princeton.
Dunn, RH (1994).TQM para Software de Computador.McGraw-Hill.
Huff, CW (1996). "Orientação Prática para o Ensino da Declaração de Impacto Social (SIS)."
Em CW Huff (ed.),Computadores e Qualidade de Vida: Anais do Simpósio
sobre Computadores e Qualidade de Vida.ACM Press, pp. 86–9. Huff, CW e
Cooper, J. (1987). "Viés sexual em software educacional: os efeitos da
Os estereótipos dos designers no software que eles projetam."Revista de Psicologia Social
Aplicada,17: 519-32.
Huff, CW, Fleming. JF e Cooper, J. (1991). "A Base Social do Gênero
Diferenças na Interação Humano-Computador." Em CD Martin, e E. Murchie-Beyma
(eds.), InBusca de Paradigmas Livres de Gênero para o Ensino de Ciência da
Computação.Monografias de Pesquisa ISTE, pp. 19–32.
Jacky, J. (1991). "Computação crítica de segurança: perigos, práticas, padrões e
Regulamento." Em C. Dunlop, e R. Kling (eds.),Informatização e Controvérsia.
Academic Press, pp. 612–31.
Landauer, TK (1995).O problema com computadores: utilidade, usabilidade e
Produtividade.Imprensa do MIT.
Leveson, NG e Turner, CS (1992).Uma Investigação dos Acidentes do Therac-25.
Relatório Técnico nº 92-108. Departamento de Informação e Ciência da Computação.
Universidade da Califórnia, Irvine.
Martin, CD e Murchie-Beyma, E. (eds.) (1992).Em busca da liberdade de gênero
Paradigmas para o Ensino de Ciência da Computação.Sociedade Internacional de Tecnologia
em Educação.
Shneiderman, B. (1990). "Valores Humanos e o Futuro da Tecnologia: Uma Declaração de
Fortalecimento."Computadores e Sociedade.20/3: 1–6.
Shneiderman, B. (1992).Projetando a Interface do Usuário: Estratégias para um Humano Eficaz –
Interação do Computador.Addison Wesley.
Shneiderman. B. e Rose, A. (1996). "Declarações de Impacto Social: Engajando o Público
Participação em Design de Tecnologia da Informação." Em C. Huff (ed.),
Computadores e Qualidade de Vida: Anais do Simpósio sobre Computadores e
Qualidade de Vida.ACM Press, pp. 90–6.

Perguntas básicas de estudo

1. De acordo com Huff, o aumento do conhecimento traz consigo uma maior responsabilidade. Como isso se
relaciona com os designers de hardware e software de computador?
2. Descreva brevemente o caso da Máquina de Radiação Therac-25 – o que aconteceu e por
quê?
3. Descreva brevemente os quatro "níveis" de restrição que Huff identifica com relação ao projeto de
dispositivos computadorizados.
4. Quando Huff e Cooper pediram aos professores para projetar programas de computador educacionais para "crianças",
quais foram os resultados surpreendentemente tendenciosos?
5. O caso Therac-25 e o caso do software educacional ilustram um fato importante sobre o design
do computador e suas consequências não intencionais. Explique.
6. O que Huff quer dizer com "poder não intencional"?
7. Explique por que o "poder não intencional" traz consigo "responsabilidade concomitante".
Como o caso Therac-25 ilustra esse ponto?
8. Explique por que o "distanciamento" leva a "problemas de poder não intencional" e aumenta as
chances de danos não intencionais.
9. Para lidar com os riscos do "poder não intencional", Huff oferece três sugestões
específicas. O que eles são?

Perguntas para reflexão


1. Quanto teste de um novo produto de computador é "suficiente" para satisfazer os requisitos de
ética e responsabilidade?
2. Os códigos de ética profissional podem ajudar os designers de produtos de computador a criar produtos de
computador melhores? Porque você acha isso?
3. Compare Huff "abordando apenas o nível de engenharia" (pág. 102 acima) com a "abordagem de
palavras cruzadas" de Gotterbarn para engenharia de software (pág. 110 abaixo de).
1 Neste capítulo. Estou apenas olhando para os efeitos negativos do poder não intencional.
Obviamente, efeitos positivos são possíveis.
CAPÍTULO 5

Informática e Responsabilidade Profissional


Donald Gotterbarn

Donald Gotterbarn, "Informática e Responsabilidade Profissional". Este capítulo foi publicado pela
primeira vez emÉtica da Ciência e Engenharia,7:2 (abril de 2001). págs. 221–30. © 2001 por Donald
Gotterbarn e reimpresso com permissão do autor.

Introdução

No verão de 1991, ocorreu uma grande interrupção de telefonia nos Estados Unidos porque
um erro foi introduzido quando três linhas de código foram alteradas em um programa de
sinalização de vários milhões de linhas. Como a alteração de três linhas foi considerada
insignificante, ela não foi testada. Esse tipo de interrupção nos sistemas de software é muito
comum. Não apenas os sistemas são interrompidos, mas às vezes vidas são perdidas devido a
problemas de software. Um detento de Nova Jersey sob prisão domiciliar monitorada por
computador removeu sua tornozeleira eletrônica. "Um computador detectou a violação. No
entanto, quando ligou para um segundo computador para relatar o incidente, o primeiro
computador recebeu um sinal de ocupado e nunca ligou de volta" (Joch 1995). Enquanto livre, o
fugitivo cometeu assassinato. Em outro caso, vítimas inocentes foram mortas a tiros pela
polícia francesa agindo com base em um relatório de computador errôneo (Vallee 1982). Em
1986, dois pacientes com câncer foram mortos por causa de um erro de software em uma
máquina de raios-X controlada por computador. Dada a abundância desses tipos de história,
não é de surpreender que a informática e a computação não tenham desfrutado de uma
imagem positiva.
Como esses problemas podem resultar das ações de desenvolvedores de software
moral? A existência de tais casos é um problema, mas essa não é minha principal
preocupação neste capítulo; em vez disso, minha preocupação é o conceito estreito de
responsabilidade que contribui para esses desastres. Argumento que, embora a
informática esteja passando por um rápido desenvolvimento, não houve um
desenvolvimento correspondente no conceito de responsabilidade aplicado aos
profissionais de computação (PCs). A computação é uma profissão emergente que não
terá sucesso até que expanda seu senso de responsabilidade. Eu descrevo uma ampla
conceito de responsabilidade condizente com o profissionalismo em informática.
O foco de casos como os citados acima são as falhas de computador. Nos primórdios
da computação, os PCs buscavam imunidade de culpa por sua falha em desenvolver
sistemas confiáveis. Os PCs desenvolveram sua própria linguagem especial. Falhas em
programas de computador não eram erros introduzidos pelo programador, mas eram
"bugs" encontrados no programa. Observe como a ênfase está em encontrar o "bug" e
não em determinar como ele entrou no programa ou em tomar medidas preventivas para
que "bugs" semelhantes não entrem em programas futuros. Outro eufemismo de
desculpa favorito usado pelos PCs é "erro de computador". "Eu não tenho culpa. Foi um
erro do computador." O desenvolvedor' A isenção de responsabilidade por eventos
indesejáveis às vezes se baseia na realocação da responsabilidade no cliente que não
especificou adequadamente o que era "realmente" necessário. Se as especificações são
precisas e o cliente não pode ser usado para isentar o desenvolvedor de responsabilidade,
o fato de que "nenhum programa pode ser provado como livre de erros" é usado para
desculpar falhas críticas do sistema. E como último recurso, pode-se simplesmente apelar
para a complexidade do sistema. Espera-se que sistemas complexos falhem. Isso é como o
conceito de engenharia de um "acidente inevitável ou normal". Este conceito sustenta que,
à medida que a complexidade de um sistema aumenta, aumenta também a probabilidade
de um acidente. O acidente não deve ser atribuído a erros ou omissões de ninguém. A
implicação de todas essas desculpas é que a responsabilidade por esses eventos é do
computador ou da complexidade do sistema, e não do desenvolvedor do sistema de
computador. Esse desvio de responsabilidade por parte dos desenvolvedores de software
é baseado em ciência da computação imprecisa. O problema aqui é mais do que ciência
ruim; essas desculpas são usadas para justificar o desenvolvimento de sistemas
prejudiciais à sociedade e essas desculpas inibem o desenvolvimento da computação
como profissão.
A mídia jornalística gosta de enfatizar casos catastróficos de desenvolvimento de
software. Essa ênfase às vezes nos leva a ignorar questões de responsabilidade em
casos mais comuns de desenvolvimento de software. Vejamos um exemplo comum em
computação que pode ser usado para ilustrar um conceito de responsabilidade mais
completo e positivo.

Uma interface inadequada

Fred Consultant, consultor de informática, desenvolveu vários sistemas de computador


de qualidade para o governo nacional de NewLand. Ele atribuiu a qualidade de alguns
de seus sistemas à boa relação de trabalho que estabeleceu com
potenciais usuários do sistema. O governo de NewLand tem um sistema de
contabilidade desnecessariamente complexo. O sistema tem tanta sobrecarga que
administrá-lo desperdiça uma quantidade significativa de dinheiro do contribuinte. Jim
Midlevel, um gerente local desse sistema de contabilidade, entendeu onde estava o
desperdício no sistema. Mesmo que ele não entendesse os procedimentos do dia-a-dia
do sistema, ele foi capaz de projetar modificações nos sistemas que reduziriam
significativamente os custos indiretos de operação. Jim convenceu sua gerência de
nível superior a implementar suas modificações no sistema. Por causa das realizações
anteriores de Fred, sua empresa recebeu o contrato para redigir o primeiro estágio do
sistema contábil mais eficiente que seria usado pelo governo e economizaria uma
quantia considerável de dinheiro aos contribuintes. Fred se encontrou com Jim para
discutir o sistema e estudou cuidadosamente as entradas e saídas necessárias do
sistema revisado. Fred perguntou a um de seus melhores engenheiros de software.
Joanne Buildscreen, para projetar a interface do usuário para o sistema. Joanne
estudou as entradas necessárias para o sistema e construiu uma interface para o
sistema revisado. O sistema foi desenvolvido e mostrado a Jim Midlevel. Jim estava
convencido de que o sistema de contabilidade e a interface continham todas as
funcionalidades descritas nos requisitos. O sistema passou no teste de aceitação, que
provou que todos os requisitos declarados foram atendidos. O sistema foi instalado,
mas a interface do usuário era tão difícil de usar que as reclamações da equipe de Jim
foram ouvidas por sua gerência de nível superior. Por causa dessas queixas, a
administração de nível superior decidiu que não investiria mais dinheiro no
desenvolvimento do sistema contábil revisado. Para reduzir as reclamações dos
funcionários, eles voltariam ao sistema contábil original, mais caro.
Qual é o resultado líquido do esforço de desenvolvimento descrito neste
caso? Há agora uma má vontade geral em relação à empresa de Fred, e os
funcionários da NewLand não dão muitos contratos à sua empresa. O
programa de contabilidade original está de volta. A utilização continuada deste
programa é um fardo significativo para os contribuintes. A situação é pior do
que antes deste projeto, porque agora há pouca chance de modificar o sistema
para torná-lo mais barato.

Passos laterais: Evitando ou esquivando-se da responsabilidade

Uma das primeiras perguntas a serem feitas sobre essa situação indesejável é "Quem é o
responsável?" Geralmente esta pergunta está associada a procurar alguém para culpar
pelo problema. Uma das razões pelas quais o "jogo da culpa" é tão popular
é que, uma vez decidido de quem é a culpa, ninguém mais precisa se sentir responsável
pelo problema. Encontrar um bode expiatório para levar a culpa por todos os outros que
possam estar envolvidos é um modelo tão popular na computação quanto na literatura.

Acredito que há duas razões principais pelas quais os PCs evitam a atribuição de
responsabilidade, especialmente após uma falha do sistema ou um desastre no computador.
Ambas as razões são erros baseados em interpretações errôneas de responsabilidade. Essas
razões errôneas são a crença de que o desenvolvimento de software é uma atividade
eticamente neutra e a crença em um modelo de responsabilidade por negligência.

Neutralidade ética

O primeiro erro é que a responsabilidade não está relacionada a um PC porque a


computação é entendida por muitos PCs como uma prática eticamente neutra. Há uma
série de fatores que contribuem para esse erro. Uma razão pela qual os PCs esperam
procurar alguém para culpar em outro lugar é a maneira como são treinados na
universidade. Eles são treinados para resolver problemas; e os exemplos usados, como
encontrar o mínimo múltiplo comum (MCC) para um conjunto de números, retratam a
computação apenas como um exercício de resolução de problemas. O objetivo principal do
exercício é resolver o problema exatamente como é apresentado ao PC. Toda a energia (e
responsabilidade) está focada em encontrar uma solução de forma quase míope. Isso é
análogo à maneira como as pessoas abordam palavras cruzadas. Resolver o quebra-
cabeça é um exercício interessante, mas geralmente carece de consequências
significativas. Não há responsabilidade além de resolver o quebra-cabeça, além de
descartar adequadamente o papel em que está escrito. As mesmas suposições são feitas
sobre a resolução de problemas de computação.
A abordagem de palavras cruzadas para problemas de computação leva a uma falha
em perceber que a computação é um serviço para o usuário do artefato de computação.
Essa falha torna fácil atribuir a culpa a outro lugar. Se não há responsabilidade, não há
culpa ou responsabilidade. A falha em ver a própria responsabilidade tem outras
consequências significativas. Um resultado da visão de palavras cruzadas é visto quando
consideramos o caso real de um programador que foi solicitado a escrever um programa
que elevaria e abaixaria um grande aparelho de raios X acima da mesa de raios X,
movendo a máquina para vários pontos fixos. posições em um poste de suporte vertical. O
programador escreveu e testou sua solução para esse quebra-cabeça. Ele moveu com
sucesso e precisão o dispositivo para cada uma das posições da parte superior do suporte
vara para o topo da mesa. A dificuldade com essa abordagem restrita de solução de
problemas foi mostrada quando, após a instalação, um técnico de raios-X disse a um
paciente para sair da mesa depois que um raio-X foi feito e, em seguida, o técnico definiu a
altura do dispositivo para "mesa -altura superior." O paciente não tinha ouvido o técnico e
mais tarde foi encontrado esmagado até a morte entre a máquina e o tampo da mesa. O
programador resolveu um quebra-cabeça, mas não considerou as consequências de sua
solução para o usuário. Se o programador tivesse considerado o contexto mais amplo, em
vez de limitar sua atenção ao movimento da máquina de raios X no poste, talvez ele
precisasse de uma confirmação adicional ao mover a máquina para o tampo da mesa.

Esse primeiro mal-entendido de responsabilidade é perigoso, pois é usado para justificar a falta de atenção a qualquer coisa além da

especificação do trabalho. O grau absurdo em que esse passo lateral pode ser dado é ilustrado no seguinte caso real. Um empreiteiro de

defesa foi solicitado a desenvolver um sistema antiaéreo portátil de ombro. As especificações exigiam que o sistema de ombro fosse capaz de

destruir um tipo específico de helicóptero de ataque a 1.000 jardas com 97% de eficiência. O sistema que o empreiteiro desenvolveu

efetivamente destruiu os helicópteros que chegavam. Sua taxa de morte foi melhor que 97%. Ele também tinha outra característica. Por causa

de um erro de software, o lançador de mísseis de ombro ocasionalmente superaqueceu a ponto de queimar partes vitais da anatomia da

pessoa que segurava o lançador. A extensão das queimaduras matou a pessoa que lançou o míssil. É claro que o governo ficou insatisfeito

com o produto e se recusou a fazer o pagamento final ao empreiteiro. A empresa levou o governo a tribunal sobre o pagamento final. Os

donos da empresa declararam que devem ser pagos e que não são responsáveis pelas mortes porque o sistema que desenvolveram “está

em total conformidade com as especificações que lhes foram dadas pelo usuário”. Os empreiteiros viram esse problema como um jogo de

palavras cruzadas. Eles resolveram um jogo de palavras cruzadas exatamente como foi apresentado a eles e negaram qualquer

responsabilidade adicional. A empresa levou o governo a tribunal sobre o pagamento final. Os donos da empresa declararam que devem ser

pagos e que não são responsáveis pelas mortes porque o sistema que desenvolveram “está em total conformidade com as especificações

que lhes foram dadas pelo usuário”. Os empreiteiros viram esse problema como um jogo de palavras cruzadas. Eles resolveram um jogo de

palavras cruzadas exatamente como foi apresentado a eles e negaram qualquer responsabilidade adicional. A empresa levou o governo a

tribunal sobre o pagamento final. Os donos da empresa declararam que devem ser pagos e que não são responsáveis pelas mortes porque o

sistema que desenvolveram “está em total conformidade com as especificações que lhes foram dadas pelo usuário”. Os empreiteiros viram

esse problema como um jogo de palavras cruzadas. Eles resolveram um jogo de palavras cruzadas exatamente como foi apresentado a eles e

negaram qualquer responsabilidade adicional.

Responsabilidade difusa

O segundo erro de passo lateral baseia-se na crença de que a responsabilidade é melhor


compreendida usando um modelo de negligência que relaciona responsabilidade com
culpa legal e responsabilidade. É importante encontrar os culpados corretos, a fim de
intentar uma ação legal contra eles. Geralmente, o conceito de culpa está ligado a uma
ação que provocou o evento indesejável. Uma abordagem típica para
determinar a culpa é isolar o evento que imediatamente precedeu e foi
causalmente relacionado ao evento indesejável e, em seguida, culpar a parte
que causou o evento anterior. No caso da interface inadequada do NewLand,
o design das telas de interface de Joanne foi a causa direta da insatisfação do
usuário com o sistema. As telas de Joanne foram a causa imediata da
insatisfação, então a tendência é culpá-la. Se a culpa for grave e pública, os
outros se sentirão isentos da responsabilidade pelo evento infeliz.

Joanne não vai querer levar a culpa e apontará as falhas de outras pessoas como
contribuindo para o problema. Isso leva à crença de que se pode evitar a responsabilidade
se a culpa puder ser difundida por ser amplamente distribuída. Este segundo passo lateral
é baseado na afirmação de que os desenvolvedores de software individuais estão muito
longe do evento que causa o problema. Também distribui a culpa tão amplamente que se
torna insignificante ou não pode ser claramente atribuída.
Este passo lateral é uma negação paradoxal de responsabilidade, uma vez que
começa identificando vários locais de falha de responsabilidade, ou seja, os atos
irresponsáveis particulares de cada membro da equipe de desenvolvimento. Esta técnica
de difusão pode ser usada no caso de Interface Inadequada. Fred não se comportou com
responsabilidade porque não entendeu adequadamente a natureza da tarefa. Jim, devido
à falta de detalhes específicos do sistema, deveria ter coordenado as atividades de
desenvolvimento com os usuários do sistema. Joanne deveria ter mostrado os designs de
tela preliminares aos usuários do sistema. Todos falharam em cumprir suas
responsabilidades. Essa distribuição de falhas é então usada para negar culpa ou culpa
legal. O absurdo é que essa identificação de vários indivíduos que não cumprem suas
obrigações de desenvolvimento do sistema também é usada para negarcada
responsabilidade do indivíduo. Como o primeiro passo lateral, essa difusão de
responsabilidade é uma prática muito perigosa. Segue-se do passo lateral de difusão que
sempre que houver muitas pessoas contribuindo para um projeto, nenhum indivíduo será
responsabilizado por contribuições ao projeto. Se eu não for responsável, não tenho
compromisso prévio de fazer um trabalho competente ou me preocupar com a qualidade
geral de um produto.
A difusão da responsabilidade tem um corolário, que Ladd (1989) chamou de
"responsabilidade da tarefa", que vincula a responsabilidade a uma tarefa estritamente
definida. Um exemplo de responsabilidade de tarefa pode ser gerado fornecendo mais
detalhes do caso Interface Inadequada. Qual foi o problema que tornou a interface
inutilizável? As múltiplas telas de entrada usadas no novo sistema de contabilidade não
contêm campos para todos os dados necessários, mas a seqüência de entrada nas telas não era
consistente com a estrutura dos formulários de entrada usados pelos funcionários. Para inserir os
dados de um único formulário de entrada, os funcionários precisavam alternar entre várias telas.
Usando a responsabilidade da tarefa, Joanne afirmaria que não é seu trabalho obter cópias dos
formulários de entrada. Se "eles" quisessem que a sequência dos dados nas telas correspondesse
aos formulários de entrada, então "alguém" deveria ter fornecido a ela formulários de entrada de
amostra. Não é seu trabalho obter os formulários.
A associação de responsabilidade com culpa leva a uma variedade de desculpas para
não ser responsável. Essas desculpas incluem:

1 Ausência de um nexo causal direto e imediato com o evento inaceitável


(Dunlop e Kling 1991).
2 Negação de responsabilidade, uma vez que um ato responsável entra em conflito com o
interesse próprio (Harris et al. 1995).
3 A responsabilidade requer a capacidade de fazer o contrário, mas os CPs fazem a maior parte de
seu trabalho em equipes e para grandes organizações (Johnson 1994).
4 Falta de força de vontade para fazer o que se acha certo (Harris et al. 1995).
5 Culpar o computador (Dunlop e Kling 1991).
6 Assumindo que a ciência é eticamente neutra.
7 Visão microscópica (Davis 1989).

Essas abordagens de desvio de responsabilidade são inconsistentes com os


esforços para profissionalizar a ciência da computação e a engenharia. Qualquer
profissão deve ser fortemente motivada a buscar o bem da sociedade. Deve
compreender sua função primordial como serviço à sociedade. Para
profissionalizar a computação, portanto, é preciso revisitar o conceito de
responsabilidade, separando-o do conceito jurídico de culpa, e separando-o das
causas diretas e imediatas de eventos indesejáveis. Que senso de responsabilidade
atenderia a essas objeções e mitigaria o desejo de contornar?

Responsabilidade Positiva e Negativa

O conceito filosófico de "responsabilidade" é muito rico e frequentemente está


ligado a enigmas filosóficos como "livre-arbítrio". Os filósofos há muito se
preocupam com a relação entre responsabilidade individual e livre-arbítrio. Essa
preocupação deriva em parte da conexão implícita do conceito de culpa com o
conceito de responsabilidade. Se as pessoas não têm livre arbítrio, então é
difícil culpá-los por suas ações. Em oposição a essa dependência da
“responsabilidade” sobre o conceito de culpa e responsabilidade. Ladd distinguiu o
tradicional senso de responsabilidade – que ele chama de “responsabilidade
negativa” de “responsabilidade positiva”. A responsabilidade negativa trata ou
procura aquilo que isenta de culpa e responsabilidade. Uma isenção de culpa é
uma isenção de responsabilidade moral e uma isenção de responsabilidade é uma
isenção de responsabilidade legal. A responsabilidade negativa é diferenciada da
responsabilidade positiva.
O conceito de responsabilidade positiva é consistente com muitas filosofias.
Pode-se estender o conceito de responsabilidade positiva de Ladd para ser
justificável sob a maioria das teorias filosóficas. A responsabilidade positiva
pode ser fundamentada em qualquer uma das teorias clássicas e
contemporâneas. Tais teorias podem ser organizadas em uma matriz criada
pela interseção de duas das seguintes dimensões: regras/consequências e
coletiva/individual (vertabela 1 ; ver também Laudon 1995). A ênfase na
responsabilidade positiva está na virtude de ter ou ser obrigado a considerar as
consequências de suas ações sobre os outros. Podemos colocar esse senso de
responsabilidade positiva em cada quadrante da matriz. Esse senso de
responsabilidade pode ser fundamentado em: ética coletiva baseada em regras,
baseada na lógica da situação; ética individual baseada em regras, baseada em
deveres universais aplicáveis a todos (Ross, 1969); consequencialistas coletivos
como JS Mill fornecendo o maior bem para o maior número; ou
consequencialistas individuais como Adam Smith, que sustentam que o bem-
estar social é promovido por indivíduos que fazem boas ações que têm boas
consequências para a sociedade. Não importa qual teoria ética seja usada para
justificar a responsabilidade positiva,

tabela 1

A responsabilidade positiva não é exclusiva. Não busca um único foco de culpa. A


responsabilidade negativa, por outro lado, busca um único foco de culpa que, uma vez
encontrado, exonera todos os outros da culpa. Com responsabilidade positiva,
dizer que Joanne é responsável e deveria ser responsabilizada por suas falhas não exclui
Fred. Uma virtude da responsabilidade positiva é que várias pessoas podem ser
responsáveis em graus variados. Não só podemos atribuir a responsabilidade a Fred, mas
podemos dizer que ele tem mais responsabilidade neste caso porque sabia que Jim estava
trabalhando apenas com um conhecimento limitado do sistema.
Este ponto ilustra uma segunda e mais significativa virtude da responsabilidade positiva; ou seja, que não requer uma causa

imediata ou direta. Essa extensão da influência causal além da causa imediata e próxima é mais consistente com a atribuição de

responsabilidade nos desastres que afetam a computação. Leveson e Turner (1993), em seu artigo sobre as dificuldades técnicas da

máquina de raios-X Therac-25 que levaram a múltiplas mortes, concluem que, devido ao envolvimento de muitas mãos, a

responsabilidade pelos incidentes do Therac-25 não pode ser atribuída. Leveson e Turner usam um conceito negativo limitado de

responsabilidade e, depois de identificar falhas de várias práticas de engenharia de software, referem-se às mortes que resultaram

como "acidentes". Nissenbaum (1994) criticou corretamente tal abordagem à responsabilidade quando disse: "Se respondermos a

casos complexos não perseguindo a culpa e a responsabilidade, estamos efetivamente aceitando contratempos sem agente e uma

erosão geral da responsabilidade". O senso positivo de responsabilidade permite a distribuição de responsabilidades para equipes

de desenvolvimento de software, designers, etc. e pode aplicar o conceito de responsabilidade até mesmo para grandes equipes de

desenvolvimento. No caso do Therac-25 pode não haver um único locus de culpa, mas sob responsabilidade positiva os

desenvolvedores ainda são responsáveis. O senso positivo de responsabilidade permite a distribuição de responsabilidades para

equipes de desenvolvimento de software, designers, etc. e pode aplicar o conceito de responsabilidade até mesmo para grandes

equipes de desenvolvimento. No caso do Therac-25 pode não haver um único locus de culpa, mas sob responsabilidade positiva os

desenvolvedores ainda são responsáveis. O senso positivo de responsabilidade permite a distribuição de responsabilidades para

equipes de desenvolvimento de software, designers, etc. e pode aplicar o conceito de responsabilidade até mesmo para grandes

equipes de desenvolvimento. No caso do Therac-25 pode não haver um único locus de culpa, mas sob responsabilidade positiva os

desenvolvedores ainda são responsáveis.

Qualquer definição preliminar de responsabilidade parte da presunção de que


outros são afetados pelos resultados das ações ou omissões particulares dos PCs. Essa
presunção está incorporada em muitos códigos de ética das associações de
computação. Tais códigos tendem a organizar as responsabilidades pelos papéis das
pessoas envolvidas. A maioria dos códigos fala sobre as responsabilidades dos CPs
com outros profissionais, com o cliente ou empregador e com a sociedade em geral.
Apenas alguns códigos incluem as obrigações dos CPs para com os alunos. Embora
tais códigos tentem reconhecer a maioria dessas relações, a maioria comete o erro de
não distinguir empregadores, clientes e usuários. No caso de Joanne, seu empregador
era Fred, o cliente era Jim e os usuários eram os funcionários da contabilidade. Porque
ela estava em diferentes relações com cada uma dessas partes, ela devia a eles
obrigações diferentes e talvez conflitantes. Alguns códigos recentes, como o Código de
Ética e Prática Profissional da Engenharia de Software, fornecem ao PC técnicas para
adjudicar entre obrigações conflitantes.
Existem dois tipos de responsabilidade em todas essas relações potenciais. Um
tipo de responsabilidade positiva tem base técnica e o outro tipo de responsabilidade
positiva tem base em valores. Esses dois tipos de responsabilidade positiva são
necessários para um conceito de responsabilidade profissional.
A responsabilidade positiva aponta para frente e para trás. Aponta
para trás quando identifica obrigações não cumpridas e o que as pessoas
deveriam ter feito. Fred tinha a obrigação de se reunir com os balconistas
para entender a estrutura da interface que eles precisariam. Esse senso
de responsabilidade vai além do modelo de negligência. A
responsabilidade é mais do que apenas culpa, também deve haver
algumas lições aprendidas com falhas de responsabilidade. Assim, deve
haver algumas lições aprendidas com o caso de Interface Inadequada.
Como resultado deste evento, Fred é responsável por prevenir falhas de
desenvolvimento de sistemas semelhantes no futuro. O conhecimento
desse tipo de falha e suas consequências também atribui
responsabilidade a outros profissionais da computação e à profissão de
computação como um todo. Por exemplo,

Uma resposta à evasão

O conceito de responsabilidade positiva pode ser usado para abordar várias das técnicas
de prevenção de responsabilidades mencionadas anteriormente. Esse conceito mais
amplo de responsabilidade encontra o lado da difusão e o aspecto positivo desse conceito
de responsabilidade encontra o lado da negligência.
A computação é uma profissão emergente; na verdade, já traz várias marcas de
uma profissão. Para que a computação seja uma profissão, deve haver algum acordo
entre seus membros sobre suas metas e objetivos ou ideologia. Este acordo é de dois
tipos. Um é tecnológico e o outro é moral. Estes combinam a responsabilidade técnica
positiva e a responsabilidade moral positiva. De acordo com o modelo de negligência,
um CP tem a responsabilidade de estar em conformidade com os bons padrões e
procedimentos operacionais da profissão. Esses são geralmente padrões mínimos
incorporados em modelos de desenvolvimento de software e currículos de engenharia
de software de modelo. Esse tipo de conhecimento e habilidade técnica não distingue
um técnico de um profissional. Para fazer esta distinção é preciso ir além da mera
responsabilidade técnica positiva.
Um senso mais amplo de responsabilidade

Em uma profissão, os membros se comprometem a usar suas habilidades para o bem da


sociedade e não apenas para agir como agentes do cliente, fazendo o que ele pedir. Esse
compromisso geralmente está incorporado no código de ética de uma organização
profissional. Para ser um profissional, assume-se outra camada de responsabilidade além
do que foi descrito em responsabilidade positiva. O profissional se compromete com um
"maior grau de cuidado" para os atingidos pelo produto de informática. A maioria das
ocupações tem um princípio de "devido cuidado" como padrão. Por exemplo, um
encanador é responsável por garantir que os resultados de seu trabalho não prejudiquem
seus clientes ou usuários do sistema de encanamento. Mas o encanador não tem a
responsabilidade de avisar o cliente sobre possíveis impactos negativos que um novo
sistema possa ter no negócio do cliente, qualidade de vida ou meio ambiente. A
preocupação em maximizar os efeitos positivos para os afetados pelos artefatos
computacionais vai além do mero “devido cuidado”, mera prevenção de danos diretos. A
adição dessa camada de responsabilidade à responsabilidade positiva é o que é necessário
para transformar um profissional de computação em um profissional de computação. A
interface inadequada atendeu às especificações do contrato, mas não atendeu às
necessidades do usuário. Embora o sistema fosse tecnicamente capaz de fazer todas as
funções exigidas e atendesse às solicitações de Jim Midlevel, o profissional de computação
tinha a responsabilidade de garantir que o sistema atendesse às necessidades do usuário.
O senso de responsabilidade positiva voltado para o futuro também significa que o
profissional de informática tem a obrigação de se reunir com a gerência de nível superior
para convencê-la a restabelecer o novo sistema contábil. O profissional de informática tem
uma obrigação com o cliente, os usuários e os contribuintes.
Esse senso mais amplo de responsabilidade vai além do modelo de
negligência. Incorpora a responsabilidade moral e o eticamente louvável. Este
conceito de responsabilidade profissional pode ser usado para abordar as
formas acima mencionadas usadas para negar a responsabilização. Esse senso
de responsabilidade fornece uma maneira de abordar a responsabilidade
distribuída, bem como a difusão da responsabilidade coletiva. A capacidade de
lidar com a responsabilidade coletiva é importante porque permite uma
discussão significativa sobre a "responsabilidade profissional" das organizações
que produzem software e das organizações que representam os profissionais
da computação. Está claro que os desastres de computação mencionados no
início deste capítulo não teriam ocorrido se os profissionais de computação
entendessem e adotassem o sentido positivo de responsabilidade profissional.
(Gotterbarn et al. 1999) é uma tentativa de definir para eles esse senso de
responsabilidade profissional.

Referências

Davis, M. (1989). "Explicando o malfeito."Revista de Filosofia Social(Primavera Outono):


74-90.
Dunlop, C. e Kling, R. (eds.) (1991).Informatização e Controvérsia: Valor
Conflitos e Mudança Social.Imprensa Acadêmica.
Gotterbarn, D)., Miller, K. e Rogerson, S. (1999). "Código de Engenharia de Software de
A ética é aprovada."Comunicações da ACM,42/10: 102–7. (Também em
Computador(Outubro): 84–9.)
Harris, CE, Pritchard, MS e Rabins, MJ (eds.) (1995).Ética de Engenharia:
Conceitos e Casos.Wadsworth.
Joch, A. (1995). "Como o software não funciona."Byte(Dezembro): 48-60.
Johnson, D. (1994).Ética do Computador.2ª ed. Prentice Hall.
Ladd, J. (1989). "Computadores e Responsabilidade Moral: Uma Estrutura para uma Ética
Análise." Em CC Gould (ed.),A Web da Informação: Implicações Éticas e Sociais
das Redes de Computadores.Westview Press, pp. 207–27.
Laudon, K. (1995). "Conceitos Éticos e Tecnologia da Informação".Comunicações de
o ACM,38/12: 33–40.
Leveson, N. e Turner, C. (1993). "Uma investigação dos acidentes Therac-25." IEEE
Revista de informática,26: 18–41.
Nissenbaum, H. (1994). "Computação e Responsabilidade".Comunicações da ACM,
37: 73-80.
Ross, WD (1969).Deveres Morais.Macmillan. Vale. J.
(1982).A Revolução da Rede.E/ou Pressione.

Perguntas básicas de estudo

1. Na introdução deste artigo, Gotterbarn descreve vários casos de falhas de computador que
resultaram em sérios danos. Ele diz que um "conceito estreito de responsabilidade"
contribuiu para essas falhas. Explique o que ele quer dizer com isso.
2. Gotterbarn descreve vários métodos de "desvio" que os profissionais de computação usaram no
passado para tentar evitar ser culpado pelos danos causados pela falha do computador.
Descreva brevemente essas estratégias de desvio.
3. Gotterbarn observa que, embora a mídia de notícias tenda a relatar apenas os casos
catastróficos de falha de computador, há casos menos espetaculares que causam danos
importantes. Descreva o exemplo que ele apresenta para ilustrar esse ponto.
4. De acordo com Gotterbarn, existem duas falsas crenças sobre o desenvolvimento de software que fazem
com que os profissionais de computação se esquivem da responsabilidade pelas consequências de seu
trabalho. Quais são essas crenças errôneas?
5. Qual é a "abordagem de palavras cruzadas" para problemas de computação e por que ela leva a
uma compreensão prejudicial da responsabilidade profissional?
6. Para ilustrar o dano que a "abordagem de palavras cruzadas" pode causar. Gotterbarn apresenta dois
casos de exemplo: a caixa do triturador de raios X e a caixa do míssil lançado pelo ombro.
Descreva sucintamente cada um desses casos.
7. Qual é a estratégia de desvio de "responsabilidade difusa"? Como é empregado por aqueles
que desejam evitar ser responsabilizados? Por que Gotterbarn chama isso de
"paradoxal"?
8. De acordo com Gotterbarn, vincular muito de perto o conceito de responsabilidade ao de culpa leva a
uma variedade de desculpas para evitar a culpa. Quais são essas desculpas?
9. Gotterbarn recomenda que os profissionais de computação adotem um senso positivo de
responsabilidade para tornar suas atividades "mais profissionais". Quais são as principais
características desse senso positivo de responsabilidade e como elas diferem das
características relevantes da responsabilidade negativa?
10. Gotterbarn distingue dois tipos de responsabilidade positiva. Ele diz que "ambos são
necessários para um conceito de responsabilidade profissional". Descreva brevemente esses
dois tipos de responsabilidade positiva.
11. Gotterbarn distingue entre um "mero técnico" e um profissional genuíno. Qual é a
diferença de acordo com Gotterbarn?

Perguntas para reflexão


1. O que é uma profissão, por que existem profissões? Qual a diferença entre
profissão e profissionalismo?
2. Os "profissionais da informática" são realmente profissionais no mesmo sentido que médicos,
advogados e professores? Existem diferenças importantes?
3. Qual é o papel adequado de um código de ética dentro de uma profissão?
CAPÍTULO 6

A Ética do Projeto de Desenvolvimento de Software


Gestão
Simon Rogerson

Simon Rogerson, "A Ética do Gerenciamento de Projetos de Desenvolvimento de Software".


Este capítulo é uma versão revisada de "Software Project Management Ethics" que foi
publicada em C. Myers. T. Hall e D. Pitt (eds.),O Engenheiro de Software Responsável
(Springer-Verlag. 1996), cap. 11. pp. 1006. Esta versão © 2002 por Simon Rogerson.

Introdução

Parece universalmente aceito que a maneira mais eficaz de desenvolver software é


através do uso de uma estrutura organizacional baseada em projetos que incentiva os
indivíduos a participar de equipes com o objetivo de alcançar algum objetivo comum.
Muito já foi escrito sobre o gerenciamento de projetos de desenvolvimento de
software e sem dúvida muito será escrito no futuro. O objetivo deste capítulo é
examinar se a prática típica de gerenciamento de projetos lida efetivamente com as
questões éticas que cercam o processo de desenvolvimento de software. Por uma
questão de clareza, apenas uma abordagem de gerenciamento de projetos é discutida,
o Gerenciamento Estruturado de Projetos (SPM). Isso é usado para ilustrar os pontos
fortes e fracos éticos do gerenciamento de projetos em uma esfera técnica. O objetivo
é trazer à tona as questões fundamentais e não insistir nas nuances de uma
abordagem específica. Para isso, um conjunto de princípios éticos para o profissional
de informática é derivado do trabalho anterior de outros. Esses princípios são então
mapeados no quadro metodológico da SPM, destacando assim as áreas de
preocupação ética. Duas das etapas do SPM são examinadas em detalhes para
demonstrar como a aplicação dos princípios éticos relevantes ajuda a garantir o
comportamento ético.
Essa abordagem é discutida com mais detalhes nas seções a seguir. A próxima seção
considera brevemente a metodologia de gerenciamento de projetos escolhida, SPM; a
seção a seguir estabelece um conjunto de princípios éticos orientadores para
profissionais de informática; a quarta seção analisa o SPM usando estes princípios
orientadores: a quinta seção considera as questões éticas críticas do gerenciamento de
projetos; e, por fim, o capítulo termina com algumas considerações finais.

Tabela 1 As dez etapas do Gerenciamento Estruturado de Projetos (SPM)

Etapa Descrição
1 Visualize qual é o objetivo

2 Faça uma lista dos trabalhos que precisam ser feitos

3 Certifique-se de que haja um líder

4 Atribuir pessoas a empregos

5 Gerencie as expectativas, permita uma margem de erro e tenha uma


posição de fallback

6 Use um estilo de liderança apropriado

7 Saiba o que está acontecendo

8 Diga às pessoas o que está acontecendo

9 Repita as etapas de 1 a 8 até que a etapa 10 seja alcançável

10 Realizar a meta do projeto

Um exemplo de abordagem para gerenciamento de projetos

Em seu livro,Como executar projetos de sucesso,que faz parte da British


Computer Society Practitioner Series, O'Connell (1994) fornece detalhes da
abordagem SPM. Ele explica que o SPM é uma metodologia prática que, como
De Marco e Lister (1987) afirmam, é uma "abordagem básica que se adota para
realizar um trabalho". com orientação realista na realização da atividade muito
complexa de gerenciamento de projetos. SPM compreende dez etapas (ver
tabela 1 ). As cinco primeiras etapas estão relacionadas ao planejamento e as
cinco restantes tratam da implementação do plano e do alcance da meta.
O'Connell afirma que a maioria dos projetos é bem-sucedida ou falha por causa
de decisões tomadas durante a fase de planejamento, justificando assim o fato
de metade do esforço despendido no SPM
abordagem está em preparação.
É esse elemento de planejamento do gerenciamento de projetos que estabelece as
bases sobre as quais o ethos do projeto é construído. Aqui o escopo de consideração é
estabelecido, implícita ou explicitamente, que por sua vez localiza o horizonte além do qual
as questões são consideradas como não influenciando o projeto ou sendo influenciadas
pelo projeto. Como o projeto é conduzido dependerá muito do objetivo percebido.

A visualização do objetivo percebido ocorre na Etapa 1, e os dois primeiros pontos da


lista de verificação de visualização dada por O'Connell são estes:

O que o objetivo do projeto significará para todas as pessoas envolvidas no projeto


quando o projeto for concluído?

Quais são as coisas que o projeto realmente produzirá? Para onde vão essas
coisas? Oque vai acontecer com eles? Quem os usará? Como os usuários serão
afetados por eles?

Essas perguntas são importantes porque, ao respondê-las, um ethos de projeto


aceitável e um escopo de consideração devem ser alcançados. O problema é que,
na prática, essas questões fundamentais são muitas vezes esquecidas. É mais
provável que uma perspectiva mais restrita seja adotada, considerando apenas as
questões óbvias próximas ao projeto. A visão holística promovida pelos dois pontos
do checklist requer maior visão, análise e reflexão; mas normalmente o gerente de
projeto está sob pressão para entregar e, portanto, a tendência é reduzir o
horizonte e estabelecer um limite artificial em torno do projeto.
Os passos 2 a 5 estão preocupados com a adição de detalhes e refinamentos,
chegando a um plano viável e aceitável. As etapas 6 a 8 estão relacionadas à
implementação do plano, monitoramento do desempenho e manutenção dos associados
ao projeto informados sobre o progresso. A etapa 9 define os ciclos de feedback de
controle que garantem que o plano permaneça focado, atual e realista. Finalmente, o
passo 10 é a entrega do resultado do projeto ao cliente e uma oportunidade para refletir
sobre o que foi e o que não foi alcançado.

Princípios de Ética

Princípios éticos relevantes devem agora ser estabelecidos para identificar as questões
éticas associadas ao gerenciamento de projetos de desenvolvimento de software em
geral e SPM em particular.
A ética compreende tanto a prática quanto a reflexão (van Luijk 1994). A prática é o
apelo consciente às normas e valores para orientar as ações, enquanto a reflexão
sobre a prática é a elaboração ou defesa de normas e valores. Normas são
expectativas coletivas em relação a um determinado tipo de comportamento,
enquanto valores são ideias coletivas sobre o que constitui uma boa sociedade. A
existência de um plano com um mecanismo de controle é a norma aceita no
gerenciamento de projetos, que por si só é um valor aceito no desenvolvimento de
software. Para os propósitos deste capítulo, é suficiente considerar apenasprática
ética(em vez de reflexão sobre ideias éticas), porque o gerenciamento de projetos está
preocupado com a ação e não com a reflexão conceitual. A reflexão conceitual pode se
manifestar, por exemplo, em códigos de conduta que se preocupam em estabelecer
quais são as formas generalizadas de trabalho que são aceitáveis para uma
comunidade mais ampla. (Veja, por exemplo, o Código de Ética e Prática Profissional
de Engenharia de Software que foi adotado em 1998 pela IEEE Computer Society e pela
ACM.) Esta comunidade incluiria todos os potenciais interessados em projetos de
desenvolvimento de software. Em outras palavras, o gerenciamento de projetos está
preocupado em como usar e quando aplicar normas e valores, em vez de estabelecer
quais são ou deveriam ser essas normas e valores.

Tabela 2 Questionando a natureza ética de uma ação

* É honroso?
~ Existe alguém de quem você gostaria de esconder a ação?
* É honesto?
~ Viola qualquer acordo, real ou implícito, ou trai uma confiança?
* Evita a possibilidade de conflito de interesses?
~ Existem outras considerações que podem influenciar seu julgamento?

* Está dentro da sua área de competência?

~ É possível que seu melhor esforço não seja adequado?

* É justo?
~ É prejudicial aos interesses legítimos dos outros?
* É atencioso?
~ Violará a confidencialidade ou privacidade, ou prejudicará alguém ou alguma
coisa?

* É conservador?
~ Desperdiça desnecessariamente tempo ou outros recursos valiosos?

Para ser ético, uma ação deve suscitar uma resposta positiva a todas as perguntas primárias
aplicáveis (*) e uma resposta negativa a cada esclarecimento (~).

Uma lista útil de questões genéricas foi elaborada por John McLeod (em Parker et al.
1990) para ajudar a determinar a natureza ética das ações dentro da profissão de
computação. A lista é apresentada emmesa 2 . Dentro dessas perguntas estão embutidos
normasque irá impactar o processo de gerenciamento de projetos.
O desenvolvimento de software é sobre a entrega de um produto por
um fornecedor a um cliente sob algum contrato. É irrelevante se este é um
acordo interno ou se é entre duas organizações independentes. Segundo
Velasquez (1992), tal acordo se preocupa com a qualidade do produto e a
responsabilidade moral do produto. Duas partes celebram um acordo para
desenvolver um software. Tais acordos são muitas vezes desequilibrados,
com o cliente em desvantagem. Velasquez argumenta que os princípios do
devido cuidado e do custo social devem entrar em vigor nessas situações.
Deve haver o devido cuidado por parte do desenvolvedor além do que foi
aceito no contrato para que sejam tomadas as medidas adequadas para
evitar que quaisquer efeitos prejudiciais previstos ocorram através do uso do
software.
Ao combinar as ideias de McLeod e Velasquez, um conjunto de princípios éticos
pode ser derivado, como mostrado emTabela 3 . O princípio da honra é garantir que as
ações sejam irrepreensíveis. Pode ser considerado como o princípio "guarda-chuva",
para o qual todos os outros princípios contribuem. A honra exige honestidade do
profissional. O princípio do viés se concentra em garantir que as decisões e ações
sejam objetivas e não subjetivas. A adequação profissional diz respeito à capacidade
dos indivíduos de realizar as tarefas atribuídas. O princípio do devido cuidado está
ligado ao conceito de garantia de qualidade de software. Preocupa-se em colocar em
prática as medidas pelas quais quaisquer efeitos indesejáveis podem ser evitados, o
que pode exigir atenção adicional além daquela acordada formalmente em um
contrato. A justiça se concentra em garantir que todas as partes afetadas sejam
consideradas nas deliberações do projeto. Isso leva ao custo social, que reconhece
que não é possível abdicar da responsabilidade e responsabilização
profissional. Finalmente, o princípio da ação efetiva e eficiente se
preocupa em completar tarefas e realizar metas com o menor gasto
possível de recursos.

Tabela 3 Princípios éticos para profissionais de informática

Princípio Pergunta relacionada

Honra A ação é considerada irrepreensível?


Honestidade A ação violará qualquer acordo ou confiança
explícito ou implícito?

Tendência Existem considerações externas que podem


influenciar a ação a ser tomada?

Adequação profissional A ação está dentro dos limites da capacidade?

Devido cuidado A ação deve ser exposta aos melhores padrões de


garantia de qualidade possíveis?

Justiça Todos os pontos de vista das partes interessadas são


considerados em relação à ação?

Consideração do custo social A responsabilização e responsabilidade


apropriadas são aceitas com relação a essa
ação?

Ação eficaz e eficiente A ação é adequada, tendo em conta os objetivos


definidos. e deve ser concluído com o menor
gasto de recursos?

Esses princípios éticos não são mutuamente exclusivos. Eles foram desenvolvidos
para estabelecer um checklist de aspectos éticos a serem aplicados sempre que
ocorrer uma ação associada a sistemas informatizados. O termo ação é usado para
representar qualquer processo ou tarefa realizada, que normalmente inclui um
elemento humano como executor da tarefa ou como beneficiário, ou como executor e
beneficiário.

Gestão Ética de Projetos


Esses princípios norteadores, baseados em conceitos éticos, podem ser facilmente
aplicados em situações práticas. Eles podem ser usados para analisar, informar e
colorir a prática em toda a computação e são usados aqui para considerar como
realizar o gerenciamento ético de projetos. As atividades dentro de cada uma das dez
etapas do SPM foram analisadas a fim de identificar as questões éticas dominantes de
cada etapa. Os resultados da análise são mostrados emmesa 4 . Reconhece-se que a
maioria dos oito princípios terá algum impacto em cada etapa, mas é importante
identificar aqueles que terão um impactosignificativoimpacto. O mapeamento em
mesa 4 mostra as relações que são consideradas significativas. As etapas 1 e 8 são
agora consideradas em mais detalhes para ilustrar a implicação do mapeamento.

Tabela 4 Os princípios éticos dominantes nas etapas da SPM

Passo 1: Visualize qual é o objetivo

Como mencionado anteriormente, esta etapa estabelece o ethos do projeto e,


consequentemente, existem várias questões éticas que precisam ser levadas em
consideração. Este é o início do projeto, e é de vital importância estar acima da mesa
desde o início para que uma boa relação de trabalho seja estabelecida com o cliente. Os
princípios de honra e honestidade tratam desse ponto. Como pode ser visto demesa 4 , o
viés na tomada de decisões e na realização de ações é uma grande preocupação em todo
o projeto, incluindo a etapa 1. É importante ter uma visão equilibrada com base em
informações econômicas, tecnológicas e sociológicas. A vista muitas vezes
retratado é enviesado para tecnologia e economia, o que pode ter resultados
desastrosos levando a uma grande falha ou rejeição do sistema, como foi o caso, por
exemplo, no London Ambulance Service (falha importante do sistema em 1992; veja
abaixo, pp. 129-31) e a Bolsa de Valores de Londres (rejeição do novo sistema
informático em 1991). Isso leva aos três princípios dominantes restantes do devido
cuidado, justiça e custo social. Os sistemas computacionais impactam direta e
indiretamente em muitas pessoas, e é importante incluir todas as partes nas decisões
que afetam a forma como um projeto é conduzido. Projetos de desenvolvimento de
software envolvem muitas partes interessadas e cada um merece um tratamento
justo. Os princípios do devido cuidado e do custo social garantirão a adoção de uma
perspectiva mais ampla e de longo prazo.

Passo 8: Diga às pessoas o que está acontecendo

O projeto é dinâmico e existe em um ambiente dinâmico. O passo 8 é essencial para que


todos estejam cientes das mudanças que estão ocorrendo e para que suas atribuições
possam ser ajustadas de acordo. Ser excessivamente otimista, ultrapessimista ou
simplesmente mentiroso sobre o progresso pode ser prejudicial não apenas para o
projeto, mas também para as organizações do cliente e do fornecedor. Os envolvidos
nessa comunicação seriam a equipe do projeto, a gerência de linha do departamento de
informática e o cliente. Um relato honesto e objetivo do progresso, que leve em
consideração os requisitos e sentimentos de todos os envolvidos, é a melhor maneira de
operar. Basear-se nos princípios de honra, honestidade, parcialidade, devido cuidado e
justiça ajudará a alcançar isso.

O veredicto ético

Embora o SPM forneça orientação prática sobre o gerenciamento de projetos, ele não
inclui explicitamente uma dimensão ética, embora seja aceito que existam questões
éticas implícitas em algumas partes da metodologia. Há necessidade de uma ênfase
mais forte e mais óbvia nas questões éticas. O mapeamento derivado fornece a
estrutura para essa perspectiva ética adicional dentro do processo de gerenciamento
de projetos.

Os pontos críticos éticos do gerenciamento de projetos


O mapeamento dos princípios éticos nas etapas da metodologia fornece orientação
geral sobre como abordar o processo de gerenciamento de projetos ao longo da vida
do projeto. No entanto, dentro do projeto existem inúmeras atividades e decisões a
serem tomadas e a maioria delas terá uma dimensão ética. É impraticável considerar
cada questão de minuto em grande detalhe e ainda esperar atingir o objetivo geral do
projeto. O foco deve estar nas questões-chave que provavelmente influenciarão o
sucesso do projeto. Esses são os pontos críticos éticos do gerenciamento de projetos.
Em (Rogerson e Bynum 1995). hotspots éticos são amplamente definidos como pontos
onde as atividades e a tomada de decisões provavelmente incluirão umrelativamente
alta dimensão ética. Mais especificamente, são aqueles pontos dentro de qualquer
empreendimento humano em que há um risco relativamente alto de erros éticos e
onde tais erros têm consequências significativas para a sociedade, suas organizações
ou seus cidadãos. Existem pelo menos dois pontos críticos éticos significativos no
gerenciamento de projetos: a definição do escopo de consideração (na etapa 1 do
SPM) e a disseminação da informação para o cliente (principalmente na etapa 8 do
SPM).

Escopo de consideração

É um problema comum em projetos de desenvolvimento de software que as decisões


relacionadas, por exemplo, à viabilidade, funcionalidade e implementação, não levem em
consideração os requisitos de todos os afetados pelo sistema, uma vez que ele se torne
operacional. Isso é ilustrado pela atividade típica de análise de custo-benefício realizada no
início da maioria dos projetos, que leva em consideração apenas os interesses dos
envolvidos na análise e geralmente não considera os direitos e interesses dostudopartes
afetadas pelo sistema proposto. Tal visão é primariamente tecno-econômica ao invés de
tecno-sócio-econômico. O bem-estar potencial de muitos indivíduos provavelmente estará
em risco, a menos que um horizonte eticamente sensível seja estabelecido para o escopo
da consideração. Isso é mais provável de acontecer se os princípios do devido cuidado,
justiça e custo social prevalecerem durante a atividade. Dessa forma, o processo de
gerenciamento de projetos abrangerá, desde o início, os pontos de vista e as
preocupações de todas as partes afetadas pelo projeto. Preocupações sobre, por exemplo,
a desqualificação de empregos, redundância e a dissolução de grupos sociais podem ser
divulgadas na primeira oportunidade e os objetivos do projeto podem ser ajustados, se
necessário.
Divulgação de informações para o cliente

O segundo ponto ético é sobre informar o cliente. Ninguém gosta de receber notícias
chocantes e, portanto, é importante avisar antecipadamente sobre um problema e indicar
a escala do problema. Os gerentes de projeto não devem ver a disseminação de
informações para o cliente como disseminação de informações para o inimigo, que pode
ser a postura em algumas organizações. A chave é fornecer informações factuais em
palavras não emotivas para que o cliente e o gerente de projeto possam discutir quaisquer
mudanças necessárias de maneira calma e profissional. Reuniões de progresso de
confronto não levam a nada. A adoção dos princípios de honestidade, parcialidade, devido
cuidado e justiça ajudaria a garantir um bom relacionamento de trabalho com o cliente.

Conclusões

Sem dúvida, o processo de gerenciamento de projetos para desenvolvimento de


software é capaz de acomodar uma perspectiva ética. Isso foi demonstrado pelo
mapeamento dos oito princípios éticos derivados na metodologia de
Gerenciamento Estruturado de Projetos. A principal crítica à prática atual é que
qualquer consideração ética tende a ser implícita e não explícita, o que tende a
desvalorizar a importância da dimensão ética. Ao usar princípios éticos e a
identificação de pontos críticos éticos, é possível garantir que as principais
questões éticas sejam abordadas adequadamente.
Muito simplesmente, o gerenciamento de projetos deve ser guiado por um senso de
justiça, um senso de distribuição igualitária de benefícios e encargos e um senso de
igualdade de oportunidades. Dessa forma, o gerenciamento de projetos de
desenvolvimento de software ficará eticamente alinhado. Avanços recentes de Gotterbarn
e Rogerson (ver Gotterbarn 2002) levaram ao desenvolvimento do processo Software
Development Impact Statement (SoDIS), que é projetado para alcançar tal alinhamento
ético. O processo foi incorporado em uma ferramenta de software de projeto chamada
SoDIS Project Auditor. (Ver http://www.sdresearch.org)

Referências

De Marco T. e Lister, T. (1987).Peopleware.Casa Dorset.


Gotterbarn. D. (2002). "Reduzindo falhas de software: abordando os riscos éticos do
Ciclo de Vida de Desenvolvimento de Software."Jornal Australiano de Sistemas de Informação,
02/09:155-65.
O'Connell, F. (1994). Como executarProjetos de sucesso.Prentice Hall.
Parker, DB, Swope. S., e Baker. BN (1990).Conflitos Éticos na Informação e
Ciência da Computação, Tecnologia e Negócios, QED Ciências da Informação.
Rogerson. S. e Bynum. TW (1995) "Identificando a Dimensão Ética da Decisão
Making in the Complex Domain of IS/IT." Conferência ETHICOMP95. De Montfort
University, Leicester, Reino Unido.
van Luijk, H. (1994). "Ética Empresarial: O Campo e sua Importância". Em B. Harvey (ed.),
Ética Empresarial: Uma Abordagem Europeia.Prentice Hall.
Velásquez, MG (1992).Ética Empresarial: Conceitos e Casos,3ª ed. Prentice Hall.

Perguntas básicas de estudo

1. O que é um projeto de desenvolvimento de software e por que Rogerson escolheu focar em


apenas uma abordagem para tais projetos?
2. Por que, de acordo com Rogerson. a fase de planejamento de um projeto de desenvolvimento de
software é crucial para as questões éticas que são relevantes para o projeto?
3.Quais são as dez etapas específicas da abordagem SPM para o desenvolvimento de software? Quais
etapas constituem a fase de planejamento do projeto?
4. Por que Rogerson concentra tanta atenção na etapa 1 do SPM?
5. De acordo com Rogerson, qual é a diferença entre normas e valores?
6. Como Rogerson deriva um conjunto de princípios para orientar projetos de desenvolvimento de
software? Quais são os oito princípios éticos que Rogerson deriva?
7. Como Rogerson derivoumesa 4 ? Qual é a importância desta tabela?
8. De acordo commesa 4 , quais seis princípios éticos são especialmente relevantes para a etapa 1 do
SPM?
9. De acordo commesa 4 , quais cinco princípios éticos são especialmente relevantes para a etapa 8 do
SPM?
10. O que Rogerson quer dizer com "pontos críticos éticos"? Quais são os dois principais "hotspots éticos" no
gerenciamento de projetos de desenvolvimento de software?

Perguntas para reflexão


1. Qual, em sua opinião pessoal, é a melhor maneira de garantir que as considerações éticas apropriadas
sejam aplicadas aos projetos de desenvolvimento de software?
2. Por que é importante que os engenheiros de software sejam sensíveis às considerações éticas
em relação ao software que eles criam?
3. Por que os procedimentos existentes de gerenciamento de risco e garantia de qualidade são usados
no desenvolvimento de softwareinsuficienteabordar eficazmente as questões éticas associadas?
CASO A ANALISAR: O CASO DA AMBULÂNCIA DE LONDRES

Um caso notório de desenvolvimento deficiente do sistema de computador envolveu o London


Ambulance Service em Londres. REINO UNIDO. em 1992. Este famoso caso é descrito abaixo, e
o leitor é convidado a analisá-lo usando o método de análise de caso apresentado emCapítulo
3 acima de.

O Projeto de Despacho Auxiliado por Computador do Serviço de Ambulância de Londres


(LASCAD) usou computadores em um esforço para melhorar a eficiência e os tempos de
resposta do Serviço de Ambulância de Londres (LAS). LAS é o maior serviço de ambulância do
mundo, cobrindo 600 milhas quadradas. Abrange uma população residente de cerca de 6,8
milhões, mas sua população diurna é maior, especialmente no centro de Londres. Em 1992,
atendeu, em média, cerca de 2.300 chamadas de emergência médica por dia (Beynon-Davies
1995).
O objetivo principal do sistema de computador LASCAD era substituir os
formulários manuscritos e despachantes humanos do serviço de ambulância existente,
porque eles eram considerados muito demorados e propensos a erros humanos. O
sistema LASCAD proposto deveria usar tecnologia de computador mais rápida e
confiável para receber chamadas de emergência, coletar informações vitais, identificar
a localização da emergência, identificar os recursos de ambulância apropriados mais
próximos e enviar uma ambulância para o local da emergência.
As especificações para o novo sistema de computador proposto foram desenvolvidas
praticamente sem a participação dos motoristas de ambulância e de outros que realmente o
usariam. As especificações eram muito detalhadas e deixavam pouco espaço para novas ideias
serem incorporadas à medida que o projeto avançava.
O projeto foi lançado em licitação pública, e o licitante mais baixo foi premiado com o
contrato, apesar de a empresa não ter experiência anterior na construção de sistemas de
despacho de ambulância. Apenas o licitante mais baixo apresentou uma proposta que se
enquadrava nos requisitos da LAS, e a capacidade dessa empresa de concluir o trabalho
com êxito no prazo e dentro do orçamento nunca foi investigada. Os licitantes mais
experientes disseram que o sistema desejado não poderia ser construído dentro dos
requisitos de custo e prazo que a LAS havia definido como inegociáveis; e um dos
as empresas concorrentes descreveram o projeto como "total e fatalmente falho".
Em 26 de outubro de 1992, o LASCAD entrou em operação com resultados
catastróficos. Várias coisas deram errado. Informações incorretas do veículo no
sistema levaram à alocação incorreta dos veículos. Às vezes, vários veículos
foram enviados para o mesmo local ou os veículos mais próximos não foram
despachados. As chamadas que não passavam pelo protocolo adequado eram
colocadas em uma lista de espera, que rapidamente cresceu muito. Mensagens
importantes saíam das telas dos computadores. Equipes de ambulância não
treinadas apertaram botões errados. Pacientes frustrados e assustados e suas
famílias fizeram muitas ligações adicionais quando as ambulâncias não
apareceram rapidamente no local. O atendimento telefônico e as comunicações
de rádio diminuíram, o que gerou mais frustração e medo entre os pacientes,
equipes de ambulância e funcionários do LAS. No dia seguinte, todo o sistema
entrou em colapso;
Após o desastre do LASCAD, houve uma série de investigações sobre as causas.
A conclusão geral foi que muitas falhas e erros diferentes levaram ao desastre.
As conclusões do inquérito da South West Thames Regional Health Authority,
por exemplo, incluíram as seguintes conclusões sobre o sistema CAD:

• O sistema CAD implementado em 1992 era demasiado ambicioso e foi


desenvolvido e implementado dentro de um calendário impossível.
• A gerência do LAS ignorou ou optou por não aceitar conselhos fornecidos por
muitas fontes fora do Serviço sobre o aperto do cronograma ou o alto
risco da exigência de sistemas abrangentes.
• As regras de aquisição da South West Thames Regional Health Authority foram
totalmente seguidas, mas essas regras enfatizavam a licitação aberta e os
aspectos quantitativos da aquisição (obter o melhor preço) em vez dos aspectos
qualitativos (fazer o melhor trabalho).
• A equipe do projeto não mostrou ou discutiu com o Conselho da LAS referências independentes
sobre o principal contratante de CAD, o que levantou dúvidas sobre sua capacidade de lidar
com um projeto tão grande.
• Na adjudicação do contrato de CAD a uma pequena empresa de software, sem experiência
anterior em sistemas semelhantes. A administração do LAS estava assumindo um alto
risco.
• A gestão do projeto durante todo o processo de desenvolvimento e implementação
foi inadequada e às vezes ambígua. O LAS não seguiu o Método de
Gerenciamento de Projetos PRINCE. Uma grande integração de sistemas
projeto como CAD requer gerenciamento de projeto em tempo integral, profissional e
experiente. Isso estava faltando.
• A decisão inicial de alcançar a implementação total do CAD em uma fase foi
equivocada. Em um projeto tão abrangente quanto o CAD, teria sido preferível
implementá-lo em uma abordagem passo a passo, provando totalmente cada
fase antes de passar para a próxima.
• Houve "propriedade" incompleta do sistema pela maioria de seus usuários. Os muitos
problemas identificados com muitos dos componentes do sistema nos meses
anteriores haviam instilado uma atmosfera de desconfiança no sistema, na qual a
equipe esperava que o sistema falhasse em vez de desejar que fosse bem-sucedido.

• A implementação satisfatória do sistema exigiria mudanças em várias


práticas de trabalho existentes. A alta administração acreditava que
a implementação do sistema traria, por si só, essas mudanças.
Na verdade, muitos funcionários acharam que era uma "camisa de força" operacional dentro
da qual eles ainda tentavam operar a flexibilidade local. Isso causou mais confusão dentro
do sistema.
• O treinamento fornecido ao pessoal do Controle Central de Ambulâncias e às equipes de
ambulância foi incompleto e inconsistente.
• O sistema CAD contava com informações quase perfeitas sobre a localização e o status
do veículo disponíveis em todos os momentos. A equipe do projeto não conseguiu
avaliar totalmente o impacto que um nível mais alto de informações imperfeitas
teria no sistema.
• O sistema não foi totalmente testado a um nível satisfatório de qualidade e resiliência
antes da implementação completa em 26 de outubro de 1992.
• O sistema contava com uma infra-estrutura de comunicação técnica
sobrecarregada e incapaz de lidar facilmente com as demandas que o CAD
colocaria sobre ele, particularmente em um ambiente de comunicação difícil
como Londres.
• A gerência do LAS atribui constantemente os problemas de CAD ao mau uso
intencional do sistema por parte de algumas equipes de ambulância. Não há
evidência direta disso, mas a evidência circunstancial que existe indica que
teria sido apenas um dos muitos fatores que levaram à falha do CAD.
• Os dias 26 e 27 de outubro de 1992 não foram dias excepcionalmente ocupados em termos de
incidentes de emergência ou pacientes transportados. O aumento de chamadas nesses dias foi
em grande parte resultado de chamadas duplicadas não identificadas e retornos de chamadas do
público em resposta a atrasos nas ambulâncias.
• Em 26 e 27 de outubro de 1992, o próprio sistema de computador não falhou no
sentido técnico. Os tempos de resposta às vezes se tornaram inaceitáveis, mas
no geral o sistema fez o que foi projetado para fazer. No entanto, grande parte
do projeto tinha falhas fatais que levariam, e levaram, cumulativamente a todos
os sintomas de falha do sistema.

Comentando sobre o caminho a seguir, a Diretoria de Comunicações (1993)


observou que, "A lição a ser aprendida deve ser que o ambiente geográfico, social
e político específico em que a LAS opera, e o clima cultural dentro do próprio
serviço, exigem uma maior abordagem medida e participativa tanto da gerência
quanto da equipe. A gerência deve estar disposta a ter consultas regulares e
abertas com os representantes da equipe. Da mesma forma, a equipe e seus
representantes precisam superar suas preocupações sobre abordagens de gestão
anteriores, reconhecer a necessidade de mudança e ser receptivo para discutir
novas idéias. Se alguma vez houve tempo e oportunidade para eliminar as
restrições e queixas dos últimos anos e iniciar uma nova parceria de gestão e
equipe, esse momento é agora."
LEITURAS ADICIONAIS E RECURSOS DA WEB

Leituras adicionais

Benyon-Davies, P. (1995). "Falha em Sistemas de Informação: o Caso do London


Projeto de Despacho Auxiliado por Computador do Serviço de Ambulância."Jornal Europeu de
Sistemas de Informação,4: 171-84.
A Direcção das Comunicações (1993).Relatório do inquérito em Londres
Serviço da ambulância.Autoridade de Saúde Regional do Sudoeste do Tamisa (fevereiro).
Gotterbarn. D. (1996). "Estabelecendo Padrões de Prática Profissional". Em T. Hall. D.
Pitt e C. Meyer (eds.),O Engenheiro de Software Responsável: Leituras Selecionadas em
Profissionalismo de TI.Springer Verlag, cap. 3.
Grodzinsky. FS (1999). "O Praticante de Dentro: Revisitando as Virtudes."
Computadores e Sociedade(Março): 9-15.
Johnson, DG (2001).Ética do Computador.3ª ed. Prentice-Hall, cap. 3.
Leveson, N. e Turner, C. (1993). "Uma investigação dos acidentes Therac-25."
Computador. 26/7:18-41.
Nissenbaum, H. (1994). "Computação e Responsabilidade".Comunicações da ACM,
37/1: 73–80.
Prior, M., Fairweather, NB, e Rogerson, S. (2001).A TI é ética? 2000 ETHICOMP
Levantamento da Prática Profissional.Reino Unido: Institute for the Management of Information
Systems.
Spinello, RA (1997).Estudos de Caso em Informação e Ética Informática.Prentice Hall.

Recursos da Web

A Associação de Máquinas de Computação,http://www.acm.org A


Sociedade Australiana de Computadores,http://www.acs.org.au/ A
Sociedade Britânica de Computadores,http://www.bcs.org.uk/
Profissionais de Informática para Responsabilidade Social, http://www.ccsr.org
Seção de Responsabilidade Profissional do site do Centro de Ética Online,
http://onlineethics.org/keywords/accountability.html
Seção Profissionalismo do site do Centro de Computação e Social
Responsabilidade, http://www.ccsr.cse.dmu.ac.uk/resources/professionalism/
PARTE III
Códigos de ética

Devemos tornar o mundo honesto antes de podermos dizer honestamente aos nossos filhos que a
honestidade é a melhor política.
George Bernard Shaw
Introdução dos editores

Funções dos Códigos de Ética

Os códigos de ética para profissionais de informática podem cumprir uma variedade de funções
simultaneamente:

1 InspiraçãoOs códigos de ética podem servir a uma função inspiradora ao identificar


valores e ideais aos quais os profissionais de computação devem aspirar. Além
disso, como clientes, usuários de computador e o público em geral compartilham os
mesmos valores humanos e ideais comunitários com os profissionais da
computação, o fato de uma organização profissional se comprometer publicamente
com esses ideais e valores ajuda a inspirar a confiança e o respeito do público pela
profissão.
2 EducaçãoOs códigos de ética profissional podem cumprir várias funções
educacionais. Por exemplo, eles podem informar e educar novos membros da
profissão sobre os valores e padrões com os quais a profissão está comprometida.
Além disso, eles podem informar os formuladores de políticas públicas, clientes,
usuários e o público em geral sobre os ideais, obrigações e responsabilidades da
profissão. Os códigos de ética, portanto, podem ser ferramentas educacionais
poderosas.
3 OrientaçãoPrincípios éticos, valores, imperativos e padrões de boas práticas expressos
em códigos de ética podem ser guias úteis para profissionais de computação à medida
que exercem seu julgamento na tomada de decisões. Eles também podem orientar os
formuladores de políticas públicas no desempenho de suas funções públicas em relação
à tecnologia da informação.
4 ResponsabilidadeOs códigos de ética revelam aos clientes e usuários o nível de
responsabilidade e cuidado que eles devem esperar – bem como os padrões que
devem exigir – dos profissionais de computação. Nesse caminho. códigos de ética
podem tornar os membros de organizações profissionais responsáveis
aos seus colegas e ao público em geral.
5 AplicaçãoAo fornecer uma base para identificar comportamentos eticamente
inaceitáveis, os códigos de ética permitem que as organizações profissionais
encorajem e até imponham padrões de boas práticas e conformidade com
normas responsáveis.

O que um código de ética não é

Embora os códigos de ética profissional possam cumprir efetivamente todas as


funções acima descritas, existem vários papéis que eles não se destinam a cumprir
e que não poderiam cumprir:

1 Não são leisOs códigos de ética profissional não são leis aprovadas por órgãos
legislativos públicos (embora possam fornecer orientações valiosas a esses
órgãos quando, por exemplo, criar legislação de licença para praticar), e não se
destinam a incentivar ações judiciais ou contestações legais (embora eles podem
ajudar a resolver questões importantes em certas disputas legais). Estruturas
2 ou algoritmos éticos não completosOs códigos de ética para profissionais de
computação não são estruturas éticas completas para cobrir todas as possíveis
questões éticas que possam surgir sobre a computação. De fato, a ética não é
um assunto que se preste a tal completude. Embora os ideais, valores e
princípios éticos sejam muito amplos, em determinadas situações é possível que
um valor ou princípio entre em conflito com outro. A ética, portanto, requer
deliberação e bom senso que não podem ser totalmente capturados em um
algoritmo passo a passo. O Preâmbulo do Código de Ética e Conduta Profissional
da Association for Computing Machinery (ACM) assim explica:

Entende-se que algumas palavras e frases em um código de ética estão sujeitas a


interpretações variadas, e que qualquer princípio ético pode entrar em conflito com
outros princípios éticos em situações específicas. Questões relacionadas a conflitos éticos
podem ser melhor respondidas pela consideração cuidadosa dos princípios fundamentais,
em vez da confiança em regulamentos detalhados.

3 Nãolistas de verificação exaustivasUma vez que nenhum código de ética pode fornecer
uma estrutura ética completa, seria um erro – na verdade, um erro – tratar qualquer
código como uma “lista de verificação” que simplesmente percorremos para
determinar se todas as questões éticas foram abordadas. (Este ponto é discutido
detalhadamente abaixo por Fairweather emCapítulo 7 , "Sem PAPA.") As listas de
verificação podem, é claro, ser ferramentas úteis na tomada de decisões éticas,
porque sugerem tópicos que muitas vezes precisam de consideração ética. Mas, se
satisfazer uma lista de verificação encoraja alguém a acreditar que todas as
questões éticas foram abordadas, ele ou ela pode ignorar algumas questões éticas
importantes que não foram incluídas na "lista de verificação". Conforme explicado
no Preâmbulo do Código de Ética do Instituto de Gestão de Sistemas de Informação
(IMIS):

Não é desejável nem possível que um Código de Ética atue como um conjunto de regras
algorítmicas que, se seguidas escrupulosamente, conduzirão a um comportamento ético
em todos os momentos e em todas as situações. É provável que haja momentos em que
diferentes partes do Código entrarão em conflito umas com as outras. . . . Nesses
momentos, o profissional deve refletir sobre os princípios e o espírito subjacente do
Código e se esforçar para alcançar um equilíbrio que esteja mais em harmonia com os
objetivos do Código. . . . [Nos casos em que não for possível conciliar a orientação dada
por diferentes artigos do Código, o bem público será sempre considerado primordial.

Uma variedade de formatos

Dentroparte II acima, fica claro que os códigos de ética podem ser ferramentas úteis para os
profissionais da computação à medida que tomam decisões para cumprir suas
responsabilidades profissionais. A frase "códigos de ética" está sendo usada de forma muito
ampla aqui para se referir a uma variedade de ideais, regras, imperativos e guias de
comportamento. Dado esse significado amplo, um código de ética pode incluir, por exemplo,
ideais aos quais um profissional de computação deve aspirar, como "respeitar a dignidade
humana", "evitar discriminação antiética", "preservar a privacidade" e assim por diante. Além
disso, um código de ética mais específico poderia ser chamado de “código de conduta” se
estabelecesse regras para reger as atividades profissionais – regras como “manter a
competência profissional”, “honrar contratos”, “evitar conflitos de interesse”. e assim por
diante. Um código de ética pode até especificar padrões aceitos de boas práticas, como "usar
'teste de mutação' ao lidar com sistemas críticos para a vida" (Gotterbarn et al. 1997). A maioria
dos códigos de ética adotados por organizações profissionais de profissionais da computação
inclui pelo menos os dois primeiros tipos de princípios.
Os códigos de ética podem ser organizados de várias maneiras. Uma maneira é
identificar princípios éticos específicos ou ideais associados aopapéis diferenteseste
profissionais de computação cumprem. Por exemplo, o Código de Ética e Conduta
Profissional da ACM está organizado desta forma – as três primeiras seções são
dedicadas às "declarações de responsabilidade pessoal" associadas à função de um
membro:

• como ser humano e membro da sociedade (Parte 1 );


• como um profissional de computação que fornece serviços e produtos (Parte 2 );
• como líder em organizações profissionais (Parte 3 ).
Outra forma de organizar um código de ética é exemplificada pelo Código de Ética
do IMIS, que identifica diferentes grupos ou indivíduos aos quais um profissional de
informática tem um dever de responsabilidade:

• para a sociedade;
• para organizações:
• aos pares;
• a equipe;
• à profissão;
• para si mesmo.

Uma terceira maneira de organizar um código de ética é identificar diferentes


tipos de relações profissionais. O Código de Ética e Prática Profissional da Engenharia
de Software adota essa abordagem.
Talvez a maneira mais direta de organizar um código de ética seja simplesmente
listar as principais regras e deveres que se aplicam aos membros da organização. O
Código de Ética do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE) está
organizado dessa forma, listando, por exemplo, princípios sobre conflitos de interesse,
proteção do público, honestidade, competência e tratamento justo.

Princípios Éticos Gerais

Como uma organização e seus membros fazem parte da sociedade em geral, eles
compartilham os mesmos valores humanos e ideais sociais que outros membros da
comunidade. Normalmente, então, os valores e ideais da sociedade são expressos
dentro de códigos profissionais. Por exemplo, como a maioria dos outros códigos, o
Código de Ética da Australian Computer Society (ACS) expressa vários valores
fundamentais e ideais sociais:

• seja honesto, direto e imparcial;


• servir lealmente a comunidade;
• promover o bem-estar humano;
• considere e respeite a privacidade das pessoas.

Outro exemplo é o Código de Conduta da British Computer Society (BCS), onde se


encontram expressões dos seguintes deveres:

• respeitar a saúde pública, segurança e meio ambiente;


• respeitar os direitos legítimos de terceiros;
• conduza suas atividades profissionais sem discriminação;
• rejeitar qualquer oferta de suborno ou incentivo.
Os amplos valores e ideais expressos nos códigos de ética profissional fornecem
uma base ética sobre a qual princípios e diretrizes mais específicos são
desenvolvidos.

Responsabilidades e deveres profissionais

Os códigos de ética profissional normalmente contêm mais do que apenas ideais inspiradores. Eles
também estabelecem regras para reger as atividades profissionais específicas dos membros. Tais
regras se aplicam a uma ampla variedade de deveres e responsabilidades, como, por exemplo,
competência profissional, negociações honestas com clientes e empregadores, leis e regulamentos
relevantes, assistência a colegas profissionais, confidencialidade, conflitos de interesse, padrões de
boas práticas e assim por diante. sobre.
Por exemplo, um dos códigos de ética mais específicos e detalhados para
profissionais de computação é o Código de Ética e Prática Profissional de
Engenharia de Software, que inclui 80 regras muito específicas para engenheiros
de software. Alguns exemplos incluem:

• Os engenheiros de software devem garantir que as especificações do software em que


trabalham foram bem documentadas, satisfazem os requisitos do usuário e
possuem as aprovações apropriadas.
• Os engenheiros de software devem usar a propriedade de um cliente ou empregador somente de
maneiras devidamente autorizadas e com o conhecimento e consentimento do cliente ou
empregador.
• Os engenheiros de software devem assumir a responsabilidade de detectar, corrigir
e relatar erros no software e documentos associados nos quais trabalham.
• Os engenheiros de software devem melhorar sua capacidade de criar seguros, confiáveis e
software de qualidade útil a um custo razoável e dentro de um prazo razoável.

Da mesma forma, o Código de Ética do IMIS especifica que os membros do IMIS devem, por
exemplo,

• esforçar-se para evitar, identificar e resolver conflitos de interesse;


• proteger a privacidade e a propriedade legítima de colegas e pares;
• opor-se ativamente à discriminação no trabalho, exceto com base apenas na capacidade
de um indivíduo para a tarefa;
• aderir a políticas e padrões organizacionais e profissionais relevantes e bem
fundamentados.

Responsabilidades de Liderança e Gestão

Os profissionais de computação atuam regularmente em cargos de liderança e


gerenciamento em organizações e negócios. Em reconhecimento a esse fato, alguns
códigos de ética de organizações profissionais incluem princípios e imperativos que
tratam das responsabilidades que acompanham os papéis de liderança. O Código de
Ética e Conduta Profissional da ACM, por exemplo, inclui até uma seção separada
intitulada "Imperativos da Liderança Organizacional", na qual seis desses imperativos
são declarados. Os exemplos a seguir são retirados dessa seção do Código ACM:

• Reconhecer e apoiar usos apropriados e autorizados dos recursos de computação


e comunicação de uma organização.
• Criar oportunidades para que os membros da organização aprendam os princípios e
limitações dos sistemas de computador.

O Código de Conduta da BCS também inclui alguns deveres específicos para líderes e
gerentes. Por exemplo:

• Você deve encorajar e apoiar os companheiros em seu desenvolvimento


profissional e, sempre que possível, oferecer oportunidades para o
desenvolvimento profissional de novos membros, especialmente membros
estudantes. A assistência mútua esclarecida entre os profissionais de SI
promove a reputação da profissão e auxilia os membros individualmente.
• Você deve aceitar a responsabilidade profissional por seu trabalho e pelo trabalho de
colegas que são definidos em um determinado contexto como trabalhando sob sua
supervisão.
O Código de Ética e Prática Profissional da Engenharia de Software tem uma seção inteira
dedicada aos princípios para engenheiros de software que também atuam como gerentes.
Essa seção declara doze princípios, incluindo, por exemplo:

• Atribua trabalho somente depois de levar em consideração as contribuições apropriadas


de educação e experiência temperadas com o desejo de promover essa educação e
experiência.
• Providenciar o devido processo legal ao ouvir acusações de violação da política de um
empregador ou deste Código.

Nem todo código de ética profissional menciona especificamente os deveres dos líderes e gestores.
No entanto, os valores e objetivos de tais códigos implicam que os profissionais de computação em
cargos de liderança tenham deveres e responsabilidades relevantes.

Aplicação de Códigos de Ética

Na seção acima intitulada “O que não é um código de ética”, observou-se que códigos
de ética não são leis aprovadas por órgãos legislativos públicos. No entanto, mesmo
que não tenham força de lei, os códigos de ética podem ajudar a tornar os membros
de organizações profissionais responsáveis perante seus colegas e o público, pois
fornecem uma base para identificar comportamentos eticamente inaceitáveis. Isso
permite que uma organização encoraje ou até mesmo imponha padrões de boas
práticas e cumprimento de normas responsáveis.
Atualmente, a maioria dos códigos de ética para profissionais de informática não
contém disposições para aplicação. Uma exceção a isso é o Código de Ética e Conduta
Profissional da ACM, que declara explicitamente emParte 4 que "se um membro não
seguir este código ao se envolver em má conduta grave, a associação ao ACM pode ser
encerrada." O processo de rescisão é uma questão jurídica complexa que envolve
advogados de ambas as partes e a Diretoria da ACM.
Alguns críticos observaram que, mesmo que uma pessoa irresponsável perca a filiação à
ACM, ela pode continuar sendo um profissional de computação. Esses críticos pediram, em vez
disso, o licenciamento, porque a ameaça de perder uma licença poderia ser uma ferramenta
melhor para fazer cumprir os códigos de ética profissional. Como ilustração da complexidade
desta questão, a questão do licenciamento de engenheiros de software é discutida
detalhadamente abaixo por Gotterbarn emcapítulo 8 , "Sobre o Licenciamento de Profissionais
de Informática."
Referência

Gotterbarn, D., Miller, K. e Rogerson. S. (1997). "Código de Engenharia de Software de


Ética, versão3." Computador IEEE.
CAPÍTULO 7

Não, PAPA: Por que códigos de ética incompletos são


Pior que nada
N. Ben Fairweather

N. Ben Fairweather, "Não. PAPA: Por que códigos de ética incompletos são piores do que
nenhum." Este capítulo foi originalmente apresentado como um artigo na Conferência sobre
Ética do Computador, Universidade de Linköping, Suécia, 1997 e mais tarde publicado em G.
Collste (ed.). Ética na Era da Tecnologia da Informação(Linköping University Press. 2000). ©
2000 por N. Ben Fairweather e reimpresso com permissão do autor.

Introdução

Tem havido um interesse sustentado substancial, e ainda há interesse atual, no


artigo de Richard Mason de 1986 "Four Ethical Issues of the Information Age" (por
exemplo, Platt e Morrison 1995, pp. 2ss; Barrosso 1996; Whitman et al. 1998;
Timpka 1999). Nesse artigo, Mason afirma que "as questões éticas envolvidas (na
era da informação) são muitas e variadas", o que é indubitavelmente verdade, mas
depois ele afirma que "é útil focar em apenas quatro. Estas podem ser resumidas
por meio de uma sigla – PAPA" (1986, p. 5), que significa privacidade, precisão,
propriedade e acessibilidade.
Muitos autores identificaram outras questões que não se enquadram
facilmente nessas quatro categorias. Por exemplo, três dos "Dez Mandamentos
da Ética do Computador" (Computer Ethics Institute, sem data) não se encaixam
facilmente nessa estrutura (apesar de todas as falhas (ver Fairweather 2000)
dos "Dez Mandamentos"). Esses são os "Mandamentos" que tratam de
"prejudicar outras pessoas", "as consequências sociais do programa... ou...
sistema" e "consideração e respeito pelos... semelhantes". Outros códigos de
ética computacional cobrem uma lista mais longa de questões: assim, o "Código
de Ética e Conduta Profissional" da Association for Computing Machinery
(Association for Computing Machinery 1992) tem 24 imperativos, dos quais
cerca de 11 não se encaixam nas "quatro questões" de Mason; "
Código de Ética e Prática Profissional da Engenharia" (Gotterbarn et al. 1998) tem 80
imperativos, dos quais talvez um pouco mais da metade não se encaixa nas "quatro
questões".

O problema

O problema é que, ao se concentrar nas quatro áreas de privacidade, precisão,


propriedade e acessibilidade, a atenção pode ser desviada de outras questões morais que
poderiam ser percebidas como mais importantes em uma reflexão mais profunda. Como
demonstrarei em breve, a condenação de um ato imoral pode ser tão distorcida a ponto
de ser absurda, ou um ato altamente imoral pode não ser condenado, porque os impactos
que o fazem ser considerado imoral não se encaixam na formulação do PAPA .

Nem todas as questões morais importantes na tecnologia da informação podem


ser colocadas sob os títulos do PAPA. Vou ilustrar isso com alguns exemplos. Deve, no
entanto, ficar claro que esses exemplos não pretendem ser uma lista abrangente de
todos os problemas com a formulação do PAPA.

Armas
Um excelente exemplo dos problemas com a formulação do PAPA é a questão de saber se
a tecnologia para uso em sistemas de armas deve ser desenvolvida. Esta é uma questão
ética da era da informação: a tecnologia da informação compreende a maior parte dos
gastos militares no mundo de hoje. De fato, a aplicação militar da tecnologia da
informação é tão substancial que as indústrias de computação e informação seriam
irreconhecíveis se os gastos militares não tivessem dado um impulso. Para dar apenas um
exemplo: a própria Internet se desenvolveu a partir da ARPANET, uma tecnologia militar
(Bisset 1996, p. 87). Embora as questões morais levantadas pelo desenvolvimento de
armas possam incluir questões morais de longa data (e, portanto, que podem ser
consideradas não "da era da informação"), as questões de privacidade, como aquelas mais
diretamente relacionadas ao armamento, são de longa data. A era da informação coloca
nova ênfase em algunspartesde muitas questões morais mais antigas. As questões morais
que cercam o desenvolvimento de armamentos são, portanto, alguns dos muitos
exemplos possíveis de como uma questão moral mais antiga pode assumir uma nova luz à
medida que a tecnologia muda.
As questões de privacidade, pode-se dizer, são relevantes para o armamento: afinal,
ser morto viola a privacidade. No entanto, a violação da privacidade dificilmente é
coração do que há de errado em ser morto. Se eu protestasse contra uma guerra alegando
que ela violava a privacidade de suas vítimas, as pessoas pensariam que minhas prioridades
estavam erradas.
Da mesma forma, a precisão dos sistemas de informação pode ser relevante em sistemas
de armas, porque dados ou processamentos imprecisos podem fazer com que o alvo errado
seja atingido, mas a questão de saber se o sistema deveria existir é anterior à questão sobre
como fazê-lo chegar ao alvo. fazer o que se pretende com um grau de confiabilidade.
As questões de propriedade levantadas pela produção, existência e uso de armamento
são importantes, mas não são as questões de propriedade intelectual e propriedade de redes
nas quais Mason (1986, pp. 9-10) está interessado. as questões de propriedade levantadas
normalmente não são consideradas as questões morais cruciais relacionadas ao armamento,
que se concentram nas vidas que podem ser perdidas em qualquer uso do armamento, em vez
da propriedade destruída. Claro, pode-se argumentar que a existência de armamento que não
é usado pode proteger a propriedade, incluindo a propriedade intelectual; no entanto, a
possibilidade de que possa ser usado, destruindo a vida, bem como a propriedade,devoser
levado em consideração nas considerações de uma maneira muito substancial.

Tal como acontece com a privacidade, as questões de acesso à informação são de alguma
relevância para a consideração do armamento, mas protestar contra o assassinato porque terá
a consequência de negar às vítimas o acesso à informação é absurdamente equivocado.

A possibilidade de que as armas possam matar é uma questão moral substancial que deve ser
considerada em qualquer consideração apropriada da tecnologia de armas. Todas as teorias morais
plausivelmente aceitáveis valorizam a vida (pelo menos em sua forma humana adulta), mesmo que
possam conceber circunstâncias nas quais o fim de uma vida possa ser moral. Assim, para todas
essas teorias morais, a possibilidade de que sistemas de armas possam acabar com vidas é um fato
moralmente significativo, precisando de razões moralmente significativas para combater essa
objeção prima facie às armas.
Pode ser que, para algumas pessoas, a tecnologia de armas possa ser justificada, se a
probabilidade de seu uso for muito baixa, e/ou ela só será usada em situações em que a
guerra que está acostumada a travar teria sido travada de qualquer maneira usando armas
que prejudicam ainda mais as coisas que são valiosas neste mundo, como a vida.
Mas esses são "ses" muito grandes que devem ser considerados em profundidade por
qualquer pessoa que considere trabalhar em tecnologia da informação que possa ter uma
aplicação militar razoavelmente direta, e por aqueles que procuram vender tal tecnologia
para os militares e aqueles aliados aos militares, tanto doméstico e no exterior (e ao fazê-
lo, eles fariam bem em lembrar que pode haver engano sobre o fim
uso por regimes que podem estar muito dispostos a colocar a tecnologia em ação em uma guerra).

O possível perigo para a vida dos sistemas de armas, e se pode ser aumentado ou
reduzido pelo desenvolvimento de um novo sistema, não é abordado de forma
significativa pelas questões do PAPA.

Impactos ambientais

Da mesma forma, há boas razões para preocupação moral com os danos que podem
ser causados ao meio ambiente e, por meio dele, às pessoas e animais que viverão no
futuro (ver Attfield 1991, por exemplo), pelos materiais usados na fabricação de
computadores, e as consequências da sua eliminação. A poluição resultante da
produção de computadores inclui compostos orgânicos voláteis, solventes, soluções
alcalinas de limpeza, ácidos, cromo, oxidantes, pasta de carbono, surfactantes,
soluções de fósforo, vidro, álcool, amônia, alumínio, partículas, CFCs, níquel, prata,
cobre, chumbo, solda e brometo de metila (classificado como uma toxina aguda de
categoria I e outro poderoso destruidor de ozônio, além dos CFCs) (Corporate Watch
1997).
Privacidade e precisão dos dados e informações do computador são questões
essencialmente não relacionadas aos impactos ambientais da computação. As
questões de propriedade na computação terão duas relações tangenciais com o
meio ambiente: o custo do software que respeita os direitos legais de propriedade
intelectual, sendo uma parcela significativa do custo da computação, tende a inibir
o uso crescente de computadores. Mas a possibilidade de um retorno sobre os
custos de desenvolvimento induz os desenvolvedores de software a produzir
software que requer computadores com poder de computação cada vez maior,
fazendo com que os usuários atualizem o hardware com muito mais frequência do
que o desgaste exigiria. Aumentar o acesso à computação quase certamente
precisaria aumentar a produção de computadores como pré-requisito e, portanto,
aumentar a degradação ambiental.
Ao desenvolver software e instalações que dão às pessoas uma razão para comprar
hardware de computador, as indústrias de computação e informação podem (muitas vezes
involuntariamente) encorajar outros a cometer atos que causam poluição (através da
produção de computadores). Causar tal poluição é moralmente repreensível, de uma
forma que significa que benefícios morais devem advir da existência de computadores e
software, para evitar um dano moral geral. O desenvolvimento de
o software e as instalações em si podem ter benefícios morais maiores do que os danos morais
causados (inclusive por meio da poluição); o desenvolvimento de tecnologias de teletrabalho
que permitiram uma redistribuição do trabalho e, portanto, da riqueza, de forma mais
uniforme em todo o mundo seria um exemplo possível.

Teletrabalho e Teletrabalho
As questões do PAPA incluem questões éticas importantes no teletrabalho (mais
frequentemente chamado de teletrabalho nos EUA) e questões de privacidade e acessosão
entre as questões morais mais importantes do teletrabalho. A maioria das questões
morais relacionadas ao teletrabalho não são, no entanto, questões de privacidade ou
acesso. As questões que não são questões de privacidade ou acesso também não são
questões de precisão: a distância entre o trabalhador e o local de trabalho convencional
não introduz problemas de precisão adicionais significativos.
Uma das questões de propriedade de Mason (1986, p. 10), a questão da largura de banda e
propriedade das redes de telecomunicações, é uma questão de teletrabalho, pois os
teletrabalhadores dependem de largura de banda suficiente para trabalhar, enquanto os
trabalhadores no local podem fazer o mesmo trabalho sem usar largura de banda. No entanto, na
era das interfaces gráficas na Internet, o teletrabalhador pode facilmente ser responsável por não
mais uso de largura de banda do que os trabalhadores no local usando a Internet e se (contra boas
práticas de emprego) eles tiverem que pagar seus custos de comunicação, eles podem bem usar
menos largura de banda.
A questão da privacidade que mais claramente acompanha o teletrabalho é a
possível coleta automatizada de dados sobre o empregado pelo empregador. Com
a indisponibilidade das técnicas tradicionais de gestão "over the Shoulder", há a
tentação de os chefes usarem a tecnologia de forma invasiva para registrar, por
exemplo, o número de teclas por minuto que um teletrabalhador faz. O método
alternativo de gestão por resultados é eticamente mais aceitável (ver Fairweather
1999).
O acesso é uma questão importante do teletrabalho porque, na ausência de acesso à
tecnologia, serão negadas as possíveis vantagens pessoais que podem advir de um teletrabalhador.
Essas vantagens podem incluir economias substanciais de custo e tempo, já que o deslocamento
não é mais necessário, ou a capacidade de fazer trabalhos para empregadores que, de outra forma,
estariam localizados muito longe.
Assim, o PAPA inclui algumas das questões morais importantes relacionadas ao
teletrabalho, mas há outras que não se enquadram na estrutura do PAPA. As principais
questões morais do teletrabalho incluem questões de isolamento e o impacto moral da
qualquer mudança no local de trabalho.
A possibilidade de isolamento dos funcionários é conhecida há algum tempo como uma
desvantagem moral substancial para o teletrabalho. Para muitas pessoas, o emprego fornece
uma importante fonte de amizade e contato social (Union of Communication Workers 1992, p.
2). Compartilhar um local de trabalho comum também permite que os trabalhadores
organizem sindicatos ou associações de funcionários que possam negociar com os
empregadores, em vez de deixar os funcionários completamente expostos a qualquer má
gestão que lhes seja infligida.
As mudanças no local de trabalho podem ter consequências morais, pois as viagens
para o trabalho consomem recursos escassos e causam poluição. O teletrabalho pode
eventualmente levar ao esvaziamento dos edifícios de escritórios, com o desperdício dos
recursos envolvidos na sua construção (British Telecom 1996). Se o teletrabalho permite
que o trabalhador e o empregador estejam a uma grande distância, então o teletrabalho
pode causar mudanças na distribuição geográfica da riqueza, inclusive entre continentes,
e assim exacerbar ou melhorar a desigualdade global.
Considerar as questões morais do teletrabalho sem considerar aquelas questões que não
se encaixam facilmente na estrutura do PAPA é perder a maioria das questões morais
importantes.

Protegendo os fracos contra os fortes

De acordo com Peter Davis (como citado em Donaldson 1992, p. 255), uma das questões-chave
a serem feitas sobre qualquer código moral é "Será que o código apoia os fracos contra os
fortes?" Todas as quatro questões do PAPA podem ocasionalmente estar relacionadas à
proteção dos fracos contra os fortes, com o acesso considerando explicitamente a posição dos
fracos, enquanto a proteção da propriedade geralmente protege osForte contra os fracos. Em
grande medida, isso ocorre porque ter propriedade é em si um tipo – e provavelmente o tipo
mais significativo – de força nas sociedades ocidentais e na economia global. Esse efeito é
ainda mais forte quando se considera a propriedade da computação, onde a maioria das
reclamações de violação de direitos de propriedade são feitas por grandes corporações contra
empresas menores. Da mesma forma, reivindicações de direito à privacidade (particularmente
sobre informações "comercialmente sensíveis") podem ser usadas por empresas e "capitães da
indústria" para impedir investigações sobre corrupção e exploração.

Se a classificação quádrupla não indica prioridades, por que deveria o


acesso, o aspecto que dá maior prioridade à posição dos fracos, ter precedência
sobre outras questões? A formulação PAPA não fornece orientação e
não sugere nenhuma outra consideração que possa dar orientação sobre prioridades
entre várias questões.
O resultado líquido de considerar as quatro questões-chave para orientação sobre a
proteção dos fortes contra os fracos é nos deixar em uma posição pior do que onde
começamos. Como Davis coloca: "Alguns códigos simplesmente não protegem os fracos contra
os fortes. Eles não devem ser usados para legitimar os poderosos contra os fracos" (como
citado em Donaldson 1992, p. 264). O PAPA poderia facilmente ser "usado" para legitimar os
poderosos contra os fracos e, embora seja até certo ponto equívoco sobre isso, ficamos em
uma posição pior do que se nenhum conselho fosse dado, em parte porque conselhos
contraditórios muitas vezes são menos úteis do que nenhum conselho.

A Importância das Questões do PAPA

Não pode haver dúvida de que existem boas razões para a consideração moral das
questões do PAPA de privacidade, precisão, propriedade e acessibilidade. Imoralidade
nessas áreaspossoter um significado tão grande a ponto de destruir algumas vidas, como
ilustra Mason:

Invasões de privacidade podem permitir que criminosos criem um perfil de onde certas pessoas vivem e
trabalham. A correspondência de conjuntos de dados dessa maneira pode permitir que os criminosos
digam quais casas permanecerão desocupadas durante o dia de trabalho e, portanto, podem ser
assaltadas com poucas chances de detecção.

Dados imprecisos podem levar a negações de crédito que impedem a participação


na sociedade dominante no mundo desenvolvido, ou pior, a prisões falsas por acusações
muito graves.
A falha em lidar com a questão de propriedade da alocação de largura de banda pode impedir
que informações críticas de segurança, como previsões do tempo, sejam recebidas.
As desigualdades no acesso à computação podem exacerbar a pobreza em países
atualmente empobrecidos, contribuindo para um aumento do número de mortes por
fome. (1986, pág. 8)

No entanto, é implausível que qualquer um que esteja seriamente preocupado com as


consequências morais da computação diga que as quatro questões do PAPA cobrem toda a
gama de questões que precisam ser consideradas: eu não sugeriria nem por um momento que
era isso que Mason (1986) pretendia façam. Para resumir um dos meus exemplos na
terminologia da computação, o armamento é um sistema crítico de segurança e, como sempre
para sistemas críticos de segurança, a questão da segurança deve receber grande destaque.
Estou certo de que Mason concordaria que a segurança deve ser dada grande
destaque ao considerar sistemas críticos de segurança, mesmo que o PAPA não o
mencione. Este capítulo não é sobre criticar Mason e PAPAem particular, mas a
armadilha quemuitosconsiderações de uma gama limitada de questões éticas se
enquadram, que a formulação PAPA de Mason exemplifica. Outros códigos de ética
que poderiam dar origem às mesmas críticas fundamentais incluem o da American
Society for Information Systems (1997), ou o da Japan Information Service Industry
Association (1993).
Concentrar-se em quatro áreas dá a impressão de que a adesão aos requisitos
morais apenas nessas quatro áreas será suficiente para garantir a retidão moral. Isso
está longe de ser o caso.

As pressões para procurar brechas nos códigos

Há uma percepção generalizada de que todos os envolvidos nos negócios não prestam
atenção à moralidade, e isso se aplica tanto aos setores da informática e da
informação quanto aos de outros setores. Às vezes é verdade que as pessoas que
procuram lucrar, manter seu emprego ou manter seus negócios funcionando serão
culpadas de imoralidade grosseira.
Muitas vezes, porém, essas pessoas nos negócios estão muito conscientes da moralidade e das
obrigações morais. Comportamentos que parecem imorais aos críticos podem, na verdade, ter uma
motivação moral: os empresários geralmente estão cientes de que têm obrigações para com os
acionistas e outros que trabalham para a empresa, e também estão frequentemente cientes de que
têm obrigações para com os membros da sua família para ganhar renda suficiente para viver. Tais
obrigações para com aqueles que estão imediatamente ao redor do trabalhador podem parecer,
com bastante justificativa, muito prementes; não é surpreendente que as obrigações para com
aqueles menos intimamente ligados ao negócio pareçam muito sem importância em comparação, e
sejam ignoradas.
As pressões no mundo comercial incluem pressões para cumprir prazos – talvez
reforçadas por cláusulas de penalidade nos contratos. Isso pode induzir os profissionais de
software a afirmar que um programa está pronto para o cliente dentro do prazo, quando
eles sabem que são necessários mais testes, por exemplo. As obrigações imediatas com
colegas de trabalho, familiares, acionistas etc. podem parecer muito mais prementes do
que a obrigação com usuários desconhecidos do software – especialmente quando todos
os testes que foram feitos parecem dar bons resultados. Outra pressão comum no mundo
comercial vem de metas de vendas e esquemas de pagamento amplamente baseados em
comissões: nesses casos, um vendedor pode sentir obrigações morais de sustentar uma
famíliatão intensamenteque obrigações como não mentir sobre
as capacidades de um sistema parecem abstratas e não relacionadas ao mundo real.
As pressões que trabalham contra o comportamento moralmente ideal também
podem ser não financeiras. Uma das maiores pressões sobre quem trabalha em equipe é a
necessidade psicológica de se encaixar; isso pode levar à participação no bullying de um
membro de uma minoria na força de trabalho. Em outras circunstâncias, a deferência aos
superiores pode causar problemas de relevância moral; onde há hierarquias claras,
aqueles em um papel subordinado podem sentir pressão para suprimir más notícias,
ou não criticar os superiores.1Essas várias influências podem levar as pessoas a cometer atos
com os quais se sentem pessoalmente desconfortáveis.
Da mesma forma, sabe-se que as pessoas agem de maneiras que os outros
consideram imorais simplesmente por egoísmo, mesmo que o número de tais casos seja
fácil de superestimar. Qualquer que seja o contexto, os indivíduos podem estar cientes de
que os atos que estão prestes a realizar não atendem aos padrões que a sociedade
considerará apropriados para o comportamento moral. Um indivíduo pode. no entanto,
sentem-se impelidos a agir da maneira que a sociedade julgará imoral pelas pressões mais
imediatas. A pressão psicológica desse conflito pode fazer com que os indivíduos
procurem maneiras de "desculpar" seu comportamento.
Em tais circunstâncias, encontrar o que parece ser um código moral quenão condena
o curso de ação em questão pode ser um grande alívio. Nosso indivíduo pode raciocinar
que "os especialistas que escreveram o código de ética sabem melhor do que o público (ou
mesmo eu) o que é certo e errado": ou, alternativamente, "os especialistas entendem as
pressões sobre mim melhor do que o público". Se os "especialistas" que produziram essa
orientação moral relevante para minha área não condenam o que outros (e talvez minha
própria consciência) condenariam, certamente devo me curvar à sua expertise.

"Que alívio", nosso indivíduo pode pensar, "eu tive dúvidas, masolhar,está tudo bem,
afinal!" Enquanto isso, os "especialistas" que desenvolveram uma pequena orientação moral
podem ficar horrorizados ao descobrir que ela está sendo usada para desculpar um
comportamento que nunca deveria ser coberto pela orientação, simplesmente porque não Eu
suspeito que os autores do código de conduta do IMIS ficariam um pouco perturbados ao
descobrir que, em uma pesquisa recente, 22% dos membros do IMIS que responderam
concordaram que "Os empregadores têm o direito de usar vigilância eletrônica
para monitorar o desempenho do funcionário sem o seu consentimento."2
É claro que, se as pressões para “cortar cantos morais” são grandes, então um indivíduo pode
fazê-lo independentemente de encontrar ou não um código de ética que falhe em condenar seus
atos pretendidos. A presença ou ausência de um código de éticasozinhoé pouco provável que
influencie qualquer comportamento. Aqueles que escrevem códigos profissionais
espero que o código tenha uma função educativa, tenda a empurrar o clima de
opinião para o comportamento moral e dê suporte àqueles que desejam agir de
maneira moral contra aqueles que criam um clima de "fazer o trabalho" não
importa que imoralidade isso implica. Essas esperanças de quem escreve
códigos profissionais são limitadas e não chegam a impedir o leitor de cometer
um ato imoral com o qual já está comprometido.
Da mesma forma, uma pessoa encontrando uma "justificativa" para a imoralidade em um
código ético incompleto pode, se negadoestefonte de "justificação", encontre "justificação" em
outro lugar: mas isso não é motivo para tornar a "justificação" mais disponível do que precisa ser.
Nosso indivíduo ainda tem a responsabilidade final por seus próprios atos, mas os autores de
códigos éticos também devem estar cientes de que eles podem sofrer abusos.

Códigos Morais Incompletos

Qualquer código moral (seja na computação ou em qualquer outro lugar) pode ser usado por
alguém que se sente pressionado a encontrar uma "saída" relativamente fácil de uma situação
moralmente complicada. Assim, qualquer código moral pode ser visto na esperança de que
forneça uma desculpa para possíveis atos imorais. Claramente, quanto mais obviamente
relevante e mais facilmente um código estiver à mão, mais provável será que ele seja usado.
Além disso, como veremos, alguns códigos éticos estão mais abertos a tais abusos do que
outros. No entanto, códigos morais em todos os campos e subcampos podem ser abusados
dessa maneira se eles se deixarem abertos a isso.
É importante que o debate ético seja estruturado e, em algumas circunstâncias, tal
debate precisará da enunciação de princípios ou diretrizes particulares para aplicação em
circunstâncias particulares. Esses princípios ou diretrizes podem claramente não ser um
código moral completo para aqueles que estão participando do debate: podem estar
focados em apenas um tipo de questão em circunstâncias muito restritas, por exemplo.

É bastante razoável ler a formulação PAPA de Mason exatamente dessa maneira.


O problema é que o PAPA foi adotado por outros de uma maneira que pode, por sua
vez, levar algumas pessoas a acreditar que a consideração de privacidade, precisão,
propriedade e acesso é consideração moral suficiente no campo da tecnologia da
informação. Mesmo que a formulação de Masonfoi,pelo contrário, destinado a ser um
código moral (parcial), muitas vezes há o potencial para que o que se pretende ser um
debate privado se torne mais público e seja mal interpretado como um código ético
(embora lamentavelmente incompleto).
Da mesma forma, tenho que me perguntar se os "Dez Mandamentos do Computador
Ética" foram concebidos como um ponto de partida para o pensamento e uma contribuição
para o debate. Quaisquer que sejam as intenções por trás deles, eles são amplamente citados
(ver AltaVista 2000. por exemplo), e muitas vezes em contextos em que parecem constituir toda
a história sobre computadores ética; no entanto, é muito claro até mesmo para estudantes de
graduação com apenas um pouco de familiaridade com a ética da computação que esses "Dez
Mandamentos" não podem ser toda a história.
Outro "código curto" amplamente citado é a lista de "princípios de informação justa", que
trata de questões de acesso, coleta, uso e armazenamento de dados pessoais (ver Kluge 1994,
p. 336, por exemplo). Novamente, embora sejam geralmente úteis, há problemas óbvios com
esses "princípios" em uma variedade de casos, incluindo, em um contexto médico, "onde o
bem-estar ou a vida de um paciente está em jogo, mas nenhum consentimento informado do
paciente para uma violação de confidencialidade é possível" (ibid., p. 340).

Sempre que a consideração de uma seleção de questões morais é estruturada em torno


de princípios ou diretrizes particulares sugeridos para aplicação em circunstâncias particulares,
existe o perigo de que elas possam ser mal interpretadas como um código moral. Isso
permanece verdadeiro quaisquer que sejam as intenções do autor.
Da mesma forma, é sensato que os códigos morais se concentrem em questões em que a
consideração moral provavelmente terá a maior importância. Ao fazê-lo. códigos morais podem
destacar questões importantes para grande benefício. No entanto, se eles permitem (ainda que não
intencionalmente) a impressão de que a consideração moral de outras questões não é necessária,
eles deixam aberta a possibilidade de alguma imoralidade grosseira em relação a alguma outra
questão (ou combinação de questões) ser tacitamente aceita pelo código moral.
Isso é particularmente provável se, no momento da redação, o código em foco
assumir que uma certa base moral ou factual prevalece na sociedade. Assim, autores
de códigos de ética empresarial escritos em um momento de pleno emprego podem
ter considerado grosseiramente imoral despedir trabalhadores conscienciosos sem
compensação. Mas tal possibilidade teria sido considerada tão implausível que não
valeria a pena incluí-la. Agora tal possibilidadeéplausível, mas não explicitamente
condenado por códigos de ética empresarial.
Autores de códigos morais incompletos correm o risco de encorajar outros a agir de
forma imoral com o autor.aparentesanção.

Códigos morais completos?

Agora vem a pergunta: o que constitui um código moral completo? Deve haver uma
obrigação sobre o autor de qualquer código de ética, ou qualquer outro escrito que possa
previsivelmente ser (des?) interpretado como um código ético, para escrevê-lo de forma a abranger o
maior número possível de circunstâncias e questões dentro de sua área de competência.
No entanto, um autor não pode pensar em todas as circunstâncias possíveis ao
escrever um código, porque o mundo muda. Além disso, inevitavelmente haverá as
questões de fronteira: qual é o limite da área de competência? – e o que o código
deve dizer sobre como se comportar além desse limite?
Os códigos devem deixar claro qual é sua área de competência (assim, um código de
ética computacional pode deixar claro que não abrangerá questões sobre como a renda
gerada pelo uso de computadores deve ser distribuída), mas ao fazê-lo, também deve
deixar claro que as questões morais fora de sua área de competênciasãoquestões ainda
morais e que podem ser de maior importância do que qualquer outra coberta no código.
Não é surpresa que Kluge (1994, p. 340) aponte que "não há garantia de que os próprios
'princípios de informação justa' sejam completos" justamente por causa da questão do
limite de sua aplicabilidade.
Kluge recomenda (ibid.) que a melhor maneira de desenvolver códigos é
primeiro "identificar os princípios éticos fundamentais... então identificar os tipos
de situações que podem ocorrer... e então derivar as regras de comportamento...
interpretando os princípios à luz dos requisitos situacionais”. Segundo Kluge, este
método "tem a vantagem de deixar claro desde o início que, mesmo que uma
determinada área ou tipo de situação não possa atualmente ser coberta por uma
regra específica de forma explícita, os próprios princípios gerais ainda se
aplicam" ( ibid.). A lógica é impecável e o problema da incompletude é evitado. Há,
no entanto, um grande problema com a abordagem de Kluge.
A tentativa de derivar um código de ética, ou qualquer tipo similar de orientação
ética prática, a partir de princípios éticos fundamentais é de pouca ajuda prática,
porque muitas vezes há mais disputa sobre princípios éticos fundamentais do que
sobre qual seria a coisa moral a fazer em uma determinada situação. Uma tentativa de
derivar um código de ética a partir de uma base única e coerente em princípios éticos
fundamentais também deixará o código aberto a críticas fáceis por qualquer pessoa
que tenha lido ou relatado a eles o impulso. um dos inúmeros textos que descrevem
as dificuldades de cada tipo particular de tentativa de derivar princípios éticos
fundamentais. Esse tipo de crítica reflete minhas preocupações sobre como alguns
códigos incompletos podem cair em descrédito diante do argumento (Fairweather
2000).
Para evitar a crítica de incompletude, não é necessário que um código seja
derivado de um conjunto consistente de princípios éticos fundamentais. Qualquer
código que deixe absolutamente claro que segui-lo não substitui uma cuidadosa
a consideração das ações do indivíduo, especialmente em áreas ou em
questões onde não há uma orientação clara no código, embora não seja
realmente um código moral completo, evita as críticas que podem ser
feitas a códigos incompletos. Assim, o "Código de Ética e Padrões de
Conduta" da Canadian Information Processing Society (1996) afirma que
"não deve ser interpretado como negando a existência de outras
obrigações éticas ou legais igualmente imperativas, embora não
especificamente mencionadas" e o ACM/IEEE- CS joint "Código de Ética e
Prática Profissional de Engenharia de Software" (Gotterbarn et al. 1998)
diz em seu preâmbulo que "Não se pretende que as partes individuais do
Código sejam usadas isoladamente para justificar erros de omissão ou
comissão" e que "

Evitando "Códigos Morais" Incompletos Acidentais

Assim, estamos começando a chegar a uma resposta para a pergunta que está
implícita nesta discussão. "Como pode a discussão de questões particulares na
aplicação da moralidade ao mundo real ser alcançada sem códigos morais
incompletos?"
Discutir uma questão de cada vez tenderá a evitar a possibilidade de que a consideração
de um número em conjunto seja confundida com um código moral, embora mesmo nessas
circunstâncias possa ser uma boa ideia reconhecer a existência de outras, potencialmente mais
importantes, questões morais que não estão sendo discutidas. Isso se torna mais importante
se as circunstâncias ou a natureza das questões morais forem tais que um númeroprecisara
ser tomado em conjunto.

Conclusão

Aqueles que escrevem códigos morais (ou coisas que podem ser confundidas com
eles) precisam estar cientes da possibilidade de serem abusados. Códigos que tratam
de algumas questões, mas não de outras, são muito comuns e particularmente
abertos a tal abuso em questões no limite de sua competência. Os códigos devem
deixar claro qual é a sua área de competência. Mais importante, porém, os autores de
códigos devem sempre deixar claro que seu código não substitui uma cuidadosa
consideração moral, especialmente em áreas ou questões em que não há orientação
clara no código.
Referências

AltaVistaGenericName (2000). "Rede Resultados." http://www.altavista.com/cgi-bin/query?


sc=on&q=%22commandments+of+computer+ethics%22&kl=XX&pg=q&search.x= search.y=7
acessado em 6 de janeiro de 2000.
Sociedade Americana de Sistemas de Informação (1997). "Código de Ética."
http://csep.iit.edu/codes/coe/ASIS_Code.htm acessado em 5 de janeiro de 2000.
Association for Computing Machinery (1992). "Código de Ética e
Conduta." EmComunicações da ACM35(5). pp. 94–9 O código está em http://
www.acm.org/constitution/bylaw l7.txt e
http://www.ccsr.cse.dmu.ac.uk/resources/professionalism/codes/acm.html acessado em 6 Ambas

de janeiro de 2000.
Attfield, R. (1991).A Ética da Preocupação Ambiental,2ª ed. Universidade de
Imprensa da Geórgia.

Barrosso Asenjo, P. (1996). "El PAPA de la Ética de Internet." Em P. Barrosso Asenjo el


al. (eds.), ETHICOMP96:Ética y Computadores, III Conferência
Internacional, Anais, Volume 1.Madrid: Facultad de Ciencas de la
Información, Universidad Complutense de Madrid.
Bissett, A. (1996). "Profissionais de Computação e o 'Dividendo da Paz', ou uma Bomba é tão
Bom como outro." Em P. Barrosso Asenjo et al. (eds.), ETHICOMP96:Ética y
Computadores, III Conferência Internacional, Anais, Volume 1.Madrid: Facultad
de Ciencas de la Información, Universidad Complutense de Madrid. British Telecom
(1996). "O Impacto Ambiental do Teletrabalho". Trabalho de pesquisa em
http://www.bt.com/corpinfo/enviro/telework.htm acessado em 14 de janeiro de 1997 e 12 de janeiro de 2000.

Sociedade Canadense de Processamento de Informação (1996). "Código de Ética e Normas de


Conduta." Em http://www.cips.ca/membership/ethics.htm acessado em 6 de janeiro de 2000.
Computer Ethics Institute (sem data). "Dez Mandamentos da Ética do Computador."
http://www.ccsr.cse.dmu.ac.uk/resources/professionalism/codes/cei_command.html acessado em 17
de dezembro de 1999.
Relógio Corporativo (1997). "O alto custo da alta tecnologia." Online em
http://www.corpwatch.org/trac/feature/hitech/computer.html e páginas vinculadas acessadas em 29
de maio de 1997 e 14 de janeiro de 2000.
Donaldson, J. (1992).Ética Empresarial: Um Casebook Europeu: Princípios, Exemplos,
Casos, Códigos.Com contribuições de Peter Davis, David Huddy, Dirk Lindenbergh,
Diana Robertson e Rob van Es. Imprensa Acadêmica.
Bom tempo. NB (1999). "Vigilância no Emprego: O caso do Teletrabalho".
Revista de Ética Empresarial. 22:39–49: apresentado anteriormente no ETHICOMP98,
Erasmus University Rotterdam, 25–7 de março de 1998.
Fairweather, NB (2000). "Comentário sobre os 'Dez Mandamentos para Computador
Ética.' "
http://www.ccsr.cse.dmu.ac.uk/resources/professionalism/codes/cei_command_com acessado em
14 de janeiro de 2000.
Gotterbarn. D). et ai. (1998). "Código de Ética da Engenharia de Software e
Prática."http://computer.org/tab/seprof/code.htm acessado em 6 de janeiro de 2000. Independent
Radio News (1997). Transmissão do boletim, 13 de janeiro de 1997, por local independente
estações de rádio em todo o Reino Unido.

Associação da Indústria de Serviços de Informação do Japão (1993). "Código de Ética e


Conduta." Tradução em inglês http://csep.iit.edu/codes/coe/Japan_Code.htm acessada em 5
de janeiro de 2000.
Kluge, EH. W. (1994). "Informações de Saúde, os Princípios de Informação Justa e Ética."
Métodos de Informação em Medicina,33: 336-45.
Mason, R. 0. (1986). "Quatro questões éticas da era da informação."MIS Trimestral
01/10:5-12.
Platt, R. e Morrison. B. (1995). "Implicações éticas e sociais da Internet". Em S.
Rogerson e TW Bynum (eds.),ÉTICA0MP95:Uma Conferência Internacional sobre as
Questões Éticas do Uso da Tecnologia da Informação, Proceedings,2 vol.
Universidade De Montfort, Escola de Ciências da Computação, vol. 1.
Anterior. M., Rogerson. S., Fairweather, NB. Butler, L., e Dixon, S. (1999). É isso
Ético? 1998)S ETHICOMP Pesquisa de Prática Profissional.Instituto de
Gestão de Sistemas de Informação.
Timpka, T. (1999). "Ética Profissional para Desenvolvedores de Sistemas em Saúde".Métodos
de Informação em Medicina.38/2: 144–7.
Sindicato dos Trabalhadores da Comunicação (1992). Panfleto:O Diretório de Teletrabalho
Experiência de consulta em Inverness.Sindicato dos Trabalhadores da
Comunicação. Whitman. ME, Townsend, AM, Hendrickson. AR. e Rensvold, RB (1998).
"Aversão ao Computador e Ética no Uso do Computador nas Culturas Americanas e Asiáticas." Jjornal de
Sistemas de Informação Computacional,38/4: 19–24.

Perguntas básicas de estudo

1. O que significa a sigla PAPA neste artigo?


2. Qual é, de acordo com Fairweather, o principal perigo ou problema com o uso do PAPA para
identificar questões éticas associadas à tecnologia de computação?
3. Qual é, de acordo com Fairweather, a principal questão moral associada ao armamento? As
questões éticas associadas principalmente ao PAPA abordam diretamente essa questão
chave de armamento? Explique.
4. Como. de acordo com Fairweather, focar principalmente nas questões éticas do PAPA
realmente ameaça causar sérios danos ambientais ao mundo e, portanto, às
pessoas e animais que vivem no mundo?
5. Quais questões morais importantes associadas ao teletrabalho e teletrabalho são abordadas
de forma significativa pela estrutura do PAPA? Quais são importantesnão seriamente
abordado usando PAPA?
6. Como, de acordo com Fairweather, o foco nas questões morais do PAPA "nos deixa em uma
posição pior" no que diz respeito à proteção dos fracos contra os fortes?
7. Embora as questões morais do PAPA sejam importantes, há um grande perigo, segundo
o autor, em focar principalmente nelas ao fazer ética computacional. Explique o que
ele quer dizer.
8. De acordo com Fairweather, várias "pressões" na vida cotidiana de uma pessoa podem fazer com que
as pessoas se comportem de maneiras que parecem imorais para os outros. Descreva em
detalhes pelo menos três exemplos de tais "pressões", incluindo financeiras e não financeiras.

9. De acordo com Fairweather, os códigos morais podem realmente ser usados por pessoas que sofrem
as "pressões" descritas na pergunta 8 acima para justificarimoralcomportamento. Explique como
esse "abuso" de códigos morais pode acontecer. Discuta, em particular, a noção de um código
moral "incompleto".
10. Se códigos morais "incompletos" podem levar à imoralidade, como os autores de códigos morais
podem ter certeza de criar códigos morais "completos"? Explique, em detalhes, o conselho do
autor sobre este importante desafio.

Perguntas para reflexão


1. Como as idéias morais cotidianas, como ajudar o próximo ou não fazer mal, estão
relacionadas a códigos morais profissionais como os da British Computer Society
(BCS) ou da Association for Computing Machinery (ACM)?
2. Qual é a relação adequada entre os códigos morais profissionais e a lei? Por exemplo, os profissionais de
informática deveriam ajustar seus códigos morais para levar em conta as regulamentações
governamentais e, em caso afirmativo, como?
3. Como os códigos morais podem ser usados para reduzir o risco de falha de software? Como esses códigos
são úteis retrospectivamente?

1 Os exemplos mais dramáticos não vêm do campo da computação, mas da aviação, onde
pesquisas relacionam o bom histórico de acidentes das companhias aéreas australianas com uma
maior tendência à insubordinação na cultura australiana (Independent Radio News, 1997).
2 Reanálise dos dados coletados para Prior et al. 1999. Meus agradecimentos a Matt Rowe pela
reanálise.
CAPÍTULO 8

Sobre Licenciamento de Profissionais de Informática

Donald Gotterbarn

Partes deste artigo foram publicadas anteriormente em Joseph M. Kizza (ed.).Os efeitos
sociais e éticos da revolução do computador.McFarland and Company Inc., 1996. © 2001
por Donald Gotterbarn e reimpresso com permissão do autor.

O licenciamento de profissionais de informática é uma questão muito polêmica e política.


Licenciamento geralmente significa que reivindicar a prática de uma determinada
profissão requer uma licença do governo, muitas vezes administrada por uma organização
profissional. A teoria geral é que o processo de licenciamento deve ajudar aqueles fora da
profissão licenciada a julgar se outra pessoa é capaz de fazer determinados trabalhos.
Atualmente, o licenciamento não é necessário para profissionais de informática.
O licenciamento de profissionais de computação é uma questão complexa e precisa
ser discutida com clareza. Várias reações à menção deste tópico só serviram para
confundir as questões. Aqueles que se opõem ao licenciamento levantam questões de
congelamento de tecnologia, limitação de pesquisas, perda de empregos e interferência
governamental irracional na prática de um comércio; enquanto aqueles a favor do
licenciamento vão ao extremo oposto e falam sobre o licenciamento como uma panacéia
para os males que cercam a computação e a interação humana com os produtos da
computação. Os extremos de ambas as posições ofuscam as questões subjacentes e as
possibilidades de licenciamento. Este capítulo desenvolve um modelo amplo de
licenciamento que aborda a maioria das questões de distração levantadas pelos
oponentes do licenciamento, mas, ao mesmo tempo, não se baseia no extremo otimismo
daqueles que veem o licenciamento como uma panacéia. Dada a igualdade de condições
de um modelo viável de licenciamento que aborde os principais problemas e os principais
objetivos do licenciamento, uma discussão das questões reais deve ser possível.

Razões para Juros Atuais

O interesse atual em licenciar profissionais de informática vem de uma variedade de


fontes. O público se conscientizou do impacto dos computadores em suas vidas e
percebeu que uma boa computação não apenas impacta na qualidade de suas vidas, mas
também afeta diariamente sua segurança. Eles foram informados de sistemas que
mostram as marcas de design incompetente, design com intenção maliciosa e design com
intenção fraudulenta. O licenciamento é concebido por muitos como uma tentativa de
controlar todos esses problemas. O licenciamento não deve ser visto como uma tentativa
de resolver totalmente esses problemas. Essa visão excessivamente otimista dos efeitos do
licenciamento levou a argumentos ilusórios contra o processo de licenciamento de
profissionais de informática. Vários desses argumentos são considerados a seguir.
Primeiro, se é correto dizer que o licenciamento não é uma panacéia, então por que
deveríamos estar interessados em licenciamento? Argumento aqui que existe um modelo de
licenciamento que aborda parcialmente esses problemas e pode amenizar algumas preocupações.
Além disso, estabelecer um padrão de licenciamento ajudará a estabelecer a computação como
uma profissão. Aqueles que se opõem ao licenciamento argumentam que um movimento em
direção ao profissionalismo é uma desculpa para justificar a cobrança de mais pelo fornecimento de
serviços de informática. Esse argumento ignora alguns aspectos eticamente significativos do
profissionalismo. O desenvolvimento de software já traz marcas importantes de ser uma profissão,
ou seja, os profissionais de computação possuem uma habilidade especializada que diretamente

afeta a qualidade e a segurança do público.1O exercício desta profissão exige


extraordinária confiança do público e justifica um elevado padrão de atendimento. A
profissionalização da computação deixaria clara a responsabilidade do profissional de
computação perante o público. Um exemplo disso está no Código de Ética da
Engenharia de Software, que dá as seguintes orientações para tomar uma decisão
ética:

Esses Princípios devem influenciar os engenheiros de software a considerar amplamente


quem é afetado por seu trabalho; examinar se eles e seus colegas estão tratando outros
seres humanos com o devido respeito; considerar como o público, se razoavelmente bem
informado, veria suas decisões: analisar como os menos capacitados serão afetados por
suas decisões; e considerar se seus atos seriam julgados dignos do profissional ideal
trabalhando como engenheiro de software. Em todos esses julgamentos, a preocupação
com a saúde, segurança e bem-estar do público é primordial; isso é. o "Interesse Público"
é central para este Código. (Código de Ética de Engenharia de Software. Preâmbulo)

A disciplina de desenvolvimento de software avançou significativamente e o público


deve ter certeza de que o profissional de computação tem conhecimento da melhor e mais
segura maneira de desenvolver sistemas computacionais. A posse de um
licença de computação não é garantia de que uma pessoa com esse conhecimento não se
envolverá em atividades maliciosas ou fraudulentas, assim como ser um médico licenciado não
é garantia de que um médico evitará atividades maliciosas ou fraudulentas.
A profissionalização da medicina fornece pelo menos duas forças que
desencorajam esse comportamento malicioso ou fraudulento: a saber, um código
de ética e padrões de prática profissional. O médico subscreve um código de ética
que caracteriza a obrigação primordial do médico e a finalidade do exercício da
medicina como o cuidado do paciente. A profissionalização da computação
fortaleceria o conceito de que o software de computador tem apenas uma função –
realizar algum serviço para um cliente ou cliente. Códigos de ética de computação
recentes – por exemplo, o Código de Ética e Prática Profissional de Engenharia de
Software ACM/IEEE-CS 1999–caracterizaram o desenvolvimento de software de
computador como um serviço que exige maior cuidado com o cliente. Princípio
1.04 do Código de Engenharia de Software, por exemplo, declara: "Divulgue às
pessoas ou autoridades apropriadas qualquer perigo real ou potencial para o
usuário, o público ou o meio ambiente, que eles acreditem estar associado ao
software ou documentos relacionados."
A profissionalização incorpora tanto um código de ética quanto um conjunto de
padrões profissionais. Um médico, por exemplo, é incentivado a seguir os padrões da
profissão médica e seu código de ética, porque a falha em fazê-lo levará à revogação
da licença para praticar. Se os profissionais de informática fossem licenciados, eles
poderiam ser incentivados da mesma forma a seguir os padrões profissionais. Em
nenhum dos casos se afirma que o licenciamento torna uma pessoa competente ou
ética. Mas o licenciamento torna mais provável que um profissional tenha
conhecimento das melhores práticas da disciplina e tenha alguma pressão social para
"fazer a coisa certa".
Sem licenciamento, não há exigência de cuidados redobrados e nenhum conceito de
negligência profissional. Em vários casos, por exemplo, processos por negligência contra
desenvolvedores de software foram anulados porque não tinham as marcas dos
profissionais. Em um desses casos, o desenvolvimento de software foi caracterizado como
"simplesmente um negócio ao qual o público não confia particularmente seus
cuidados" (Hospital Computer Systems. Inc. v. Staten Island Hospital, 788 F.Supp. 1351
(DNJ 1992)).
Tanto dentro como fora da profissão reconhece-se que o desenvolvimento de
software atingiu um certo grau de maturidade e que a maturidade implica tanto
responsabilidade como prestação de contas. A computação não é mais meramente
processamento de informações. O software que desenvolvemos, por exemplo, controla a
temperatura dentro das incubadoras que afeta diretamente a vida ou a morte dos
bebês. Um paciente cardíaco deve poder esperar um marcapasso que funcione. O
aumento do envolvimento da computação na vida cotidiana exige um maior senso de
prestação de contas e responsabilidade.

Reações negativas

Qualquer discussão sobre licenciamento de profissionais de informática gera dois tipos de


críticas dos desenvolvedores de software: uma crítica ao próprio conceito de licenciamento
e uma crítica às possíveis implementações de licenciamento. Muitas dessas críticas, no
entanto, são mal direcionadas.

Objeções ao conceito de licenciamento

A programação é uma arte e tem direito à proteção da liberdade de expressãoAlguns


argumentaram que o estado não tem o direito de restringir seus esforços de
programação. Eles acreditam na "liberdade de expressão na programação". Essa visão
parece ignorar questões de responsabilidade para usuários de produtos de informática. É
verdade que a "liberdade de expressão", definida como desenvolvimento descontrolado e
indisciplinado de software usado pelo público, seria limitada pelo licenciamento: mas não
parece ser uma coisa ruim introduzir disciplina no desenvolvimento e teste de software
que afeta o público. Não é certo se um programa usado para controlar a temperatura em
uma incubadora foi produto da "liberdade de expressão ou do exercício de uma arte"; mas
é certo que o uso de técnicas de teste conhecidas teria descoberto o bug no software de
controle de temperatura da incubadora que foi responsável pela perda da vida de duas
crianças. Um argumento semelhante de que não devemos licenciar um médico porque
isso impediria a "liberdade de expressão" durante um transplante de coração parece
absurdo.

O licenciamento é apenas mais uma maneira de aumentar os impostosAlguns argumentaram


que "o licenciamento é apenas um aumento de receita ou um truque dos estados para ganhar mais
dinheiro". Mesmo que os estados usem licenças ou licenciamento para aumentar as receitas, isso
não significa que devemos eliminar os eletricistas licenciados porque o estado também ganha
dinheiro com isso. Se o único propósito do licenciamento fosse gerar novos impostos, então deveria
ser combatido. Mas parece haver outras boas razões para licenciar profissionais de software.
Você não pode licenciar uma prática que não tem padrões de práticaDuas objeções relacionadas são
(1) o desenvolvimento de software ainda não é um discípulo totalmente amadurecido, portanto não pode
haver um padrão de licenciamento e (2) o licenciamento congelará o software

tecnologia em seu estado imaturo.2A ausência de maturidade é um padrão estranho. As crianças


adolescentes ainda não estão totalmente maduras – elas não sabem todas as respostas certas
– mas espera-se que sejam responsáveis pelas coisas que já sabem. A ciência
do desenvolvimento de software ainda não é um corpo de conhecimento
completo ou estático. Isso não deve exonerar um profissional de software de
seguir os princípios de teste e design que já são conhecidos. Ninguém diria que,
como a medicina não é uma ciência completa, não devemos praticar a melhor
medicina possível e que não devemos responsabilizar o médico por conhecer e
praticar essa "melhor medicina".

O licenciamento não garante que a competência será aplicadaAlgumas objeções


afirmam que o licenciamento não é garantia de competência aplicada. Isso está
correto, mas se concentra no lado errado da questão. A ausência de licenciamento
significa que não temos como saber se o desenvolvedor tem algum conhecimento das
melhores práticas atuais. O licenciamento fornecerá apenas garantias de que o
desenvolvedor conhece as melhores práticas; e, como dito acima, existem outras
pressões para incentivá-los a seguir essas práticas.

Pressões de negócios, como cronograma e orçamento, substituem as "boas práticas"


Atualmente, as pressões orçamentárias e de cronograma são muito fortes para garantir
que as melhores práticas sejam seguidas. Não há contrapressões para resistir ao
desenvolvimento de software de má qualidade justificado por pressões de orçamento e
cronograma. A introdução do licenciamento, no entanto, introduziria contrapressões
significativas. Profissionais licenciados colocariam suas licenças em risco se não seguissem
as melhores práticas. O licenciamento também introduziria a pressão legal de processos
de negligência dirigidos a licenciados e seus empregadores.

O licenciamento estabelecerá um monopólio de softwareEssa objeção seria correta apenas


se uma licença fosse universalmente exigida para fazer qualquer desenvolvimento de software.
O licenciamento pode ser exigido para certas áreas de desenvolvimento de software, como os
sistemas aviônicos em aviões, e opcional em outras áreas. Isso limitaria o acesso a algumas
áreas de prática, mas isso parece melhor do que ter software crítico sendo desenvolvido por
profissionais de habilidade indeterminada.
Implementação de licenciamento

O licenciamento às vezes é contestado por motivos bastante razoáveis de que as legislaturas


estaduais não entendem adequadamente o desenvolvimento de software. Se as legislaturas
estaduais desenvolvessem padrões de licenciamento, todos estaríamos em dificuldade. Mas a
maioria das legislaturas estaduais concordaria com essa afirmação, e é por isso que os padrões
para licenciamento são geralmente estabelecidos por organizações profissionais apropriadas ou
por legislaturas estaduais que trabalham com organizações profissionais ou profissionais
licenciados, como foi o caso quando o Texas estabeleceu o licenciamento para engenheiros de
software. A responsabilidade do estado, normalmente, é meramente administrar um teste para
determinar se os padrões profissionalmente estabelecidos foram atendidos e fazer cumprir os
padrões legais associados ao licenciamento. Os estados também cobram por este serviço.

Um Modelo para Licenciar Profissionais de Informática

Muitas das objeções citadas acima seriam apropriadas para alguns modelos de licenciamento,
mas acredito que haja pelo menos um modelo de licenciamento de profissionais de software
que atenda à maioria das objeções significativas levantadas. Proponho um modelo de
licenciamento de profissionais de informática em que existe um padrão nacional suportado
por profissionais de computação e implementado por governos estaduais modelado nos
padrões de licenciamento de engenheiros e paramédicos profissionais. Seria composto por:

1 Um compromisso com um corpo de conhecimento - um diploma de quatro anosIsso


garantiria que os profissionais teriam pelo menos contato com as melhores práticas
atuais.
2 Um compromisso com a reeducação – uma licença expiraria a cada cinco anos A
a certificação do paramédico expira a cada dois anos e ele deve ser testado
novamente em novas práticas médicas relevantes que foram desenvolvidas. O
mesmo princípio deve ser aplicado aos profissionais de computação. Usar práticas
de design de banco de dados de 20 anos atrás, por exemplo, não produz o melhor
sistema de computação. Este princípio não contém nenhuma especificação de como
um profissional deve adquirir o novo conhecimento. Antes de ser testado
novamente, um profissional seria informado das novas áreas a serem cobertas. Essa
ênfase na reeducação atenderia completamente à preocupação de que o
licenciamento congelaria a tecnologia. O licenciamento teria o efeito oposto: exigiria
que todos os profissionais licenciados
tecnologia em mudança.
3 O conteúdo da habilidade seria determinado por profissionais de
informáticaO IEEE e o ACM fizeram isso para o ensino de graduação em
ciência da computação, estabelecendo um currículo comum; a IEEE
Computer Society publicou recentemente The Software Engineering Body of
Knowledge,3 que especifica dez "áreas de conhecimento" para desenvolvedores de
software. Além disso, os militares e outros países já possuem testes de habilidades
que podem ser úteis.
4 Diferentes níveis de licenciamento seriam baseados em habilidades e áreas de
competênciaOs paramédicos, dependendo de sua competência e treinamento, são
certificados para administrar diferentes níveis de atendimento aos pacientes. Da mesma
forma, os profissionais de computação só devem realizar tarefas para as quais sejam
competentes. (Isso é consistente com o Código de Engenharia de Software – veja
princípio 2.01 : "Prestar serviço em suas áreas de competência, sendo honesto e direto
sobre quaisquer limitações de sua experiência e formação.")
5 Um compromisso com a capacidade de aplicar o conhecimento teórico -
três anos trabalhando com outro profissional de informática licenciadoO
desenvolvimento de software não é uma disciplina puramente teórica. A
competência é adquirida e demonstrada pela aplicação das teorias
aprendidas. Este requisito de aprendizagem é semelhante ao do CPA. Esse
padrão é inferior às atuais 9.000 horas – aproximadamente cinco anos –
exigidas pelo padrão IEEE Computer Society. (Consulte o site http://
Computer.ORG/Certificação .)
6 Um compromisso de seguir padrões reconhecidos – sanções por violações das melhores
práticas e violações de códigos de éticaIsso claramente introduz uma contrapressão para
qualquer pressão para desenvolver produtos de má qualidade. Essa pressão foi claramente
vista quando o Código de Engenharia de Software foi usado como documento de referência
em um processo legal contra desenvolvedores de software.

Esse modelo de licenciamento atende às objeções citadas anteriormente e fornece uma base para
discussões posteriores.

Perguntas básicas de estudo

1. Por que, segundo Gotterbarn, o público se interessou pela questão do licenciamento de


profissionais de informática?
2.De acordo com Gotterbarn. por que é um erro ver o licenciamento de profissionais de informática
como uma panacéia para computadores incompetentes, maliciosos e fraudulentos
Projeto?
3. Por que, de acordo com Gotterbarn, a computação deve ser vista como uma profissão?
4. Qual é a objeção da "liberdade de expressão" ao licenciamento de profissionais de informática e qual é
o contra-argumento de Gotterbarn contra essa objeção?
5. Qual é a objeção de "aumento de impostos" ao licenciamento de profissionais de informática e qual é
o contra-argumento de Gotterbarn contra essa objeção?
6. Qual é a objeção "computação é imatura" ao licenciamento de profissionais de informática,
e qual é o contra-argumento de Gotterbarn contra essa objeção?
7. Qual é a objeção "sem garantia de competência" ao licenciamento de profissionais de
informática e qual é o contra-argumento de Gotterbarn contra essa objeção?
8. Qual é a objeção "pressões de orçamento e cronograma" ao licenciamento de profissionais de
informática, e qual é o contra-argumento de Gotterbarn contra essa objeção?
9. Qual é a objeção do "monopólio" ao licenciamento de profissionais de informática e qual é o
contra-argumento de Gotterbarn contra essa objeção?
10. Qual é a objeção "legisladores não são competentes em computação" ao licenciamento de
profissionais de informática, e qual é o contra-argumento de Gotterbarn contra essa
objeção?
11. Descreva os seis principais componentes do modelo proposto por Gotterbarn para
licenciamento de profissionais de informática. Como esse modelo lida com as objeções
descritas nas questões 4 a 10 acima?

Perguntas para reflexão


1. Médicos, dentistas, advogados e professores de escolas públicas precisam de uma licença ou
certificação estadual para exercer sua profissão. Os profissionais de computação são
semelhantes o suficiente a esses profissionais para que também precisem ter uma licença?
Explique sua resposta em detalhes.
2. O modelo de Gotterbarn para licenciar profissionais de informática inclui todos os
componentes que deveria ter? Você acrescentaria algo? – mudar alguma coisa?
Explique por quê.

1 Nos Estados Unidos, duas organizações profissionais, a Association for Computing Machinery
e a IEEE Computer Society, têm trabalhado para promover os padrões profissionais de
desenvolvimento de software. Eles aprovaram em conjunto o Código de Ética e Prática
Profissional da Engenharia de Software. A IEEE Computer Society estabeleceu um padrão para
certificação de desenvolvedores de software que requer 9.000 horas de experiência na área,
demonstração de conhecimento técnico por exame e adesão ao Código de Ética de Engenharia
de Software.
2 Ambos os argumentos foram apresentados recentemente por membros de uma comissão
especial da ACM quando recomendaram que a ACM "se retirasse dos esforços que promovam a
licenciamento." http://www.acm.org/serving/se_policy/
3Guiado parao Corpo de Conhecimento de Engenharia de Software – SWEBOK,editores
executivos: Alain Abran e James W. Moore: editores: Pierre Bourque e Robert Dupuis.
Patrocinado pela IEEE Computer Society, Computer Society Press, 2001.
CASO A ANALISAR: O CASO CHEMCO

Este é um caso sobre as obrigações mais amplas dos profissionais de informática


para com as comunidades em que trabalham e vivem. Os códigos de ética podem
ajudar a entender a natureza dessas obrigações e reduzir o risco de ocorrência de
desastres, como o da Chemco. Este caso instigante, embora não tenha realmente
acontecido, é semelhante a casos reais que ocorreram. O leitor é convidado a analisá-
lo usando o método de análise de caso apresentado emCapítulo 3 acima de.

A Chemco é uma grande produtora de compostos químicos usados pela maioria das
indústrias manufatureiras em todo o mundo. Possui várias fábricas espalhadas pelo
país, geralmente localizadas em regiões pouco povoadas. A exceção a isso é a planta
mais nova que está localizada em uma grande cidade no meio do país. Esta foi
inaugurada há 18 meses e considerada a principal fábrica que utiliza as mais recentes
técnicas de engenharia química e depende fortemente de sistemas informáticos em
toda a gestão da produção. Durante o processo normal de consulta, a comunidade
local expressou preocupação em ter uma usina desse tipo em uma região densamente
povoada, mas foi tranquilizada pelo uso planejado de tecnologia avançada para
controlar as operações da usina.
Os gerentes da nova planta foram incentivados a buscar formas
inovadoras de reduzir os custos indiretos da planta. O uso da mais
recente tecnologia de computador e avanços de software foi visto como
um componente-chave dessa abordagem inovadora. A equipe de
desenvolvimento de sistemas se concentraria no uso de software de
sistema especialista baseado em redes neurais ou lógica difusa para
automatizar as execuções de produção e, assim, aumentar o rendimento
enquanto reduzia o número aceito de trabalhadores de produção
existentes. Haveria um aumento significativo na produção controlada por
computador.

Não haveria praticamente nenhum envolvimento do operador uma vez que a produção
o processo foi iniciado até que a reação estivesse completa e os compostos químicos
fossem canalizados para os tanques de retenção de distribuição. Os operadores também
teriam um papel importante a desempenhar para manter a planta limpa, garantindo que
os resíduos e resíduos sejam descartados corretamente. Esse processo de limpeza não era
automatizado, exceto pelas válvulas controladas por computador que direcionavam
resíduos e resíduos para longe dos drenos abertos. Em outras fábricas, os trabalhadores
da produção sugeriram que esta fase de limpeza poderia ser ligada automaticamente à
fase de produção, garantindo um ciclo de produção mais suave. A gerência havia rejeitado
essa ideia com base no custo.
Os especialistas em informática e os gerentes de produção concordaram com uma
estratégia e trabalharam juntos para desenvolver o novo sistema. O sistema foi testado
usando um novo software de simulação sofisticado. Ele passou em todos os testes, que
incluíam situações de corrida normais e anormais. A empresa aguardava com expectativa
a nova fábrica operando em um novo nível de eficiência. Após pequenos problemas típicos
durante o estágio de comissionamento, o sistema teve um bom desempenho durante os
primeiros 18 meses. Os custos operacionais ficaram bem abaixo da média da Chemco e o
rendimento aumentou em 12%.
Era o turno da noite na mais nova fábrica da Chemco. Como de costume, o experiente
trabalhador do laboratório ativou o procedimento de entrada do processo em lote baseado em
computador para iniciar a próxima produção química. Ele inadvertidamente digitou "tanque
593" em vez de "tanque 693", que introduziu o produto químico errado na produção. O sistema
de computador não foi projetado para capturar automaticamente esses erros além de ter um
recurso de correção de entrada de dados se tal erro ocorrer. Era assim que o subsistema de
entrada funcionava em outras plantas da Chemco. Trabalhadores de laboratório experientes
foram capazes de verificar novamente os dados e fazer os ajustes necessários.

Nesta ocasião, na nova fábrica, o resultado foi desastroso. O produto químico


incorreto resultou em um aumento de temperatura na cuba do reator, levando a uma
ruptura e subsequente explosão. Um administrador que observou o erro não conseguiu
entrar em contato com o operador de produção a tempo de evitar o acidente. O operador
não tinha a facilidade de diminuir o aumento da temperatura e o novo subsistema não
cobria este aspecto do processo de produção. O operador chamou a brigada de incêndio
da usina. Os membros da brigada de incêndio subestimaram o perigo envolvido e não
estavam usando os equipamentos de segurança prescritos. Eles suportaram o impacto da
explosão. Três pessoas morreram e nove ficaram gravemente feridas. Havia um problema
mais amplo também. Os produtos químicos derramados do tanque rompido vazaram para
o sistema de drenagem local antes das válvulas controladas por computador
fechado. Produtos químicos nocivos contaminaram a água em um raio de 3 milhas da
usina.
A reação inicial da Chemco ao desastre foi reconhecer o trágico resultado tanto para os
funcionários quanto para suas famílias, bem como para aqueles que moravam nas
proximidades da fábrica. Eles fizeram questão de enfatizar que o acidente foi causado por uma
série de erros humanos dos trabalhadores da Chemco no turno da noite. Os especialistas em
informática, embora geralmente chateados com o desastre, sentiram-se aliviados porque o
sistema que eles desenvolveram e implementaram não foi visto como a causa do acidente. Nos
dias imediatamente após o acidente, houve crescentes pedidos de inquérito público.
LEITURAS ADICIONAIS E RECURSOS DA WEB

Leituras adicionais
Anderson, RE (1994). "O Código de Ética ACM: História, Processo e Implicações."
Em C. Huff e T, Finholt (eds.),Questões Sociais em Computação.McGraw Hill, pp.
48–71.
Gotterbarn, D. (1994). "Ética de Engenharia de Software." Em JJ Marciniak (ed.),
Enciclopédia de Engenharia de Software,volume 2. John Wiley, pp. 1197-201.
Gotterbarn, D. (1996). "Estabelecendo Padrões de Prática Profissional". Em T. Hall, D.
Pitt e C. Meyer (eds.),O Engenheiro de Software Responsável: Leituras Selecionadas em
Profissionalismo de TI.Springer Verlag, cap. 3.
Gotterbarn. D. (2000). "Profissionais de informática e suas responsabilidades: Virtual
Informações e o Código de Ética de Engenharia de Software." Em D. Langford (ed.), Ética
na Internet.Macmillan. págs. 200–19.
Rogerson, S., Weckert,].. e Simpson. C. (2000). "Uma revisão ética da informação
Desenvolvimento de Sistemas: Código de Ética e SSADM da Australian Computer
Society."Tecnologia da Informação e Pessoas,13/2: 121–36.

Recursos da Web

ACM Posição Papéis sobre Programas Engenharia e Licenciamento,

http://www.acm.org/serving/se_policy/papers.html
Códigos de Ética links no site do Centro de Computação e Social
Responsabilidade, http://www.ccsr.cse.dmu.ac.uk/resources/professionalism/codes/
Comentário sobre "Os Dez Mandamentos da Ética do Computador", de N. Ben Fairweather,
http://www.ccsr.cse.dmu.ac.uk/resources/professionalism/codes/cei_command_com O
Software Engineering Ethics Research Institute da East Tennessee State University em
Johnson City, TN, EUA,http://seeri.etsu.edu/
Apêndice: Exemplos de Códigos de Ética

Estão incluídos aqui seis exemplos de códigos de ética para profissionais de computação: o
Código de Ética e Prática Profissional de Engenharia de Software, o Código de Ética e
Conduta Profissional da Associação para Máquinas de Computação, o Código de Ética da
Sociedade Australiana de Computação, o Código de Conduta da Sociedade Britânica de
Computação, o Código de Ética do Instituto de Engenheiros Elétricos e Eletrônicos, o
Código de Ética do Instituto para a Gestão de Sistemas de Informação.
A1 O CÓDIGO DE ENGENHARIA DE SOFTWARE DE ÉTICA E
PRÁTICA PROFISSIONAL (VERSÃO 5.2)

Força-Tarefa Conjunta IEEE-CS/ACM em Engenharia de Software e


Práticas Profissionais*

Este Código pode ser republicado sem permissão, desde que não seja alterado de forma
alguma e contenha o aviso de direitos autorais. Código de Ética e Prática Profissional de
Engenharia de Software, Copyright © 1999 pelo Instituto de Engenheiros Elétricos e
Eletrônicos. Inc. e a Association for Computing Machinery. Inc.

RESUMO O Código de Ética e Prática Profissional da Engenharia de Software,


concebido como um padrão para o ensino e a prática da engenharia de software,
documenta as obrigações éticas e profissionais dos engenheiros de software. O código
deve instruir os profissionais sobre os padrões que a sociedade espera que eles
cumpram, sobre o que seus pares buscam e sobre o que esperar uns dos outros. Além
disso, o código também deve informar o público sobre as responsabilidades que são
importantes para a profissão.
Adotado em 1998 pela IEEE Computer Society e pela ACM – duas das principais
sociedades internacionais de computação – o código de ética pretende ser um guia
para os membros da profissão de engenharia de software em evolução. O código foi
desenvolvido por uma força-tarefa multinacional com contribuições adicionais de
outros profissionais da indústria, cargos governamentais, instalações militares e
profissões educacionais.

Versão curta: preâmbulo

A versão curta do código resume as aspirações em um alto nível de abstração.


As cláusulas incluídas na versão completa dão exemplos e detalhes de como
essas aspirações mudam a forma como atuamos como profissionais de
engenharia de software. Sem as aspirações, os detalhes podem se tornar
legalistas e tediosos; sem os detalhes, as aspirações podem se tornar altas, mas
vazio; juntos, as aspirações e os detalhes formam um código coeso.
Os engenheiros de software devem se comprometer a fazer da análise,
especificação, projeto, desenvolvimento, teste e manutenção de software uma
profissão benéfica e respeitada. De acordo com seu compromisso com a saúde,
segurança e bem-estar do público, os engenheiros de software devem aderir aos
oito Princípios a seguir:

1 PúblicoOs engenheiros de software devem agir de forma consistente com o interesse


2 público. Cliente e empregadorOs engenheiros de software devem agir de acordo com
os melhores interesses de seu cliente e empregador, de acordo com o interesse público.

3 produtosOs engenheiros de software devem garantir que seus produtos e modificações


relacionadas atendam aos mais altos padrões profissionais possíveis.
4 JulgamentoOs engenheiros de software devem manter a integridade e independência em
seu julgamento profissional.
5 GestãoGerentes e líderes de engenharia de software devem aderir e
promover uma abordagem ética para o gerenciamento de
desenvolvimento e manutenção de software.
6 ProfissãoOs engenheiros de software devem promover a integridade e a reputação
da profissão de acordo com o interesse público.
7 ColegasOs engenheiros de software devem ser justos e apoiar seus
colegas.
8 AutoOs engenheiros de software devem participar da aprendizagem ao longo da
vida sobre a prática de sua profissão e devem promover uma abordagem ética na
prática da profissão.

Versão completa: preâmbulo

Os computadores têm um papel central e crescente no comércio, na indústria, no governo, na


medicina, na educação, no entretenimento e na sociedade em geral. Engenheiros de software
são aqueles que contribuem, por participação direta ou por ensino, na análise, especificação,
projeto, desenvolvimento, certificação, manutenção e teste de sistemas de software. Por causa
de seus papéis no desenvolvimento de sistemas de software, os engenheiros de software têm
oportunidades significativas para fazer o bem ou causar danos, permitir que outros façam o
bem ou causar danos, ou influenciar outros a fazer o bem ou causar danos. Para garantir,
tanto quanto possível, que seus esforços sejam usados para o bem, os engenheiros de
software devem se comprometer a tornar o software
engenharia de uma profissão benéfica e respeitada. De acordo com esse
compromisso, os engenheiros de software devem aderir ao seguinte Código de
Ética e Prática Profissional.
O Código contém oito Princípios relacionados ao comportamento e decisões tomadas
por engenheiros de software profissionais, incluindo profissionais, educadores, gerentes,
supervisores e formuladores de políticas, bem como estagiários e estudantes da profissão.
Os Princípios identificam os relacionamentos eticamente responsáveis nos quais
indivíduos, grupos e organizações participam e as principais obrigações dentro desses
relacionamentos. As Cláusulas de cada Princípio são ilustrações de algumas das
obrigações incluídas nessas relações. Essas obrigações estão fundamentadas na
humanidade do engenheiro de software, no cuidado especial devido às pessoas afetadas
pelo trabalho dos engenheiros de software e nos elementos singulares da prática da
engenharia de software. O Código prescreve isso como obrigações de qualquer pessoa
que afirme ou aspire ser um engenheiro de software.
Não se pretende que as partes individuais do Código sejam usadas
isoladamente para justificar erros de omissão ou comissão. A lista de Princípios e
Cláusulas não é exaustiva. As Cláusulas não devem ser lidas como separando o
aceitável do inaceitável na conduta profissional em todas as situações práticas. O
Código não é um simples algoritmo ético que gera decisões éticas. Em algumas
situações, os padrões podem estar em tensão uns com os outros ou com padrões
de outras fontes. Essas situações exigem que o engenheiro de software use o
julgamento ético para agir da maneira mais consistente com o espírito do Código
de Ética e Prática Profissional, dadas as circunstâncias.
As tensões éticas podem ser melhor abordadas pela consideração cuidadosa dos
princípios fundamentais, em vez da confiança cega em regulamentos detalhados.
Esses Princípios devem influenciar os engenheiros de software a considerar
amplamente quem é afetado por seu trabalho; examinar se eles e seus colegas estão
tratando outros seres humanos com o devido respeito; considerar como o público, se
razoavelmente bem informado, veria suas decisões; analisar como os menos
capacitados serão afetados por suas decisões; e considerar se seus atos seriam
julgados dignos do profissional ideal trabalhando como engenheiro de software. Em
todos esses julgamentos, a preocupação com a saúde, segurança e bem-estar do
público é primordial; ou seja, o "Interesse Público" é central para este Código.
O contexto dinâmico e exigente da engenharia de software exige um código
adaptável e relevante às novas situações à medida que elas ocorrem. No entanto, mesmo
nessa generalidade, o Código oferece suporte para engenheiros de software e gerentes de
engenheiros de software que precisam agir positivamente em um caso específico,
documentar a postura ética da profissão. O Código fornece uma base ética à qual os
indivíduos dentro das equipes e a equipe como um todo podem apelar. O Código
ajuda a definir as ações que são eticamente impróprias para solicitação de um
engenheiro de software ou equipes de engenheiros de software.
O Código não serve apenas para julgar a natureza de atos questionáveis; tem
também uma importante função educativa. Como este Código expressa o consenso da
profissão sobre questões éticas, é um meio de educar o público e os aspirantes a
profissionais sobre as obrigações éticas de todos os engenheiros de software.

Princípios

Princípio 1: Público

Os engenheiros de software devem agir de forma consistente com o interesse público. Em particular, os
engenheiros de software devem, conforme apropriado:

1,01 Aceitar total responsabilidade por seu próprio trabalho.


1,02 Moderar os interesses do engenheiro de software, do empregador, do
cliente, e os usuários com o bem público.
1,03 Aprovar software somente se eles tiverem uma crença bem fundamentada de que é
seguro, atende às especificações, passa nos testes apropriados e não diminui a
qualidade de vida, diminui a privacidade ou prejudica o meio ambiente. O efeito
final do trabalho deve ser para o bem público. Divulgar às pessoas ou
1,04 autoridades apropriadas quaisquer informações reais ou potenciais
perigo para o usuário, o público ou o meio ambiente, que eles
razoavelmente acreditam estar associado ao software ou documentos
relacionados.
1,05 Cooperar nos esforços para tratar de assuntos de grande interesse público causados
por software, sua instalação, manutenção, suporte ou
documentação.
1,06 Seja justo e evite enganos em todas as declarações, especialmente as públicas,
sobre software ou documentos, métodos e ferramentas relacionados.
1,07 Considere questões de deficiência física, alocação de recursos,
desvantagem econômica e outros fatores que podem diminuir o acesso aos
benefícios do software.
1,08 Ser incentivado a oferecer habilidades profissionais voluntárias para boas causas e
contribuir para a educação pública sobre a disciplina.

Princípio 2: Cliente e empregador

Os engenheiros de software devem agir de acordo com os melhores interesses de seu cliente e
empregador, de acordo com o interesse público. Em particular, os engenheiros de software
devem, conforme apropriado:

2.01 Prestar serviço em suas áreas de competência, sendo honesto e


francamente sobre quaisquer limitações de sua experiência e educação.
2,02 Não usar conscientemente software obtido ou retido ilegalmente
ou antiético.
2.03 Use a propriedade de um cliente ou empregador apenas de maneira adequada
autorizado, e com o conhecimento e consentimento do cliente ou
empregador.
2.04 Certifique-se de que qualquer documento em que se baseiam foi aprovado,
quando necessário, por alguém autorizado a aprová-lo.
2,05 Manter em sigilo qualquer informação confidencial obtida em seu
trabalho, onde tal confidencialidade seja compatível com o
interesse público e compatível com a lei.
2.06 Identificar, documentar, coletar evidências e relatar ao cliente ou ao
empregador prontamente se, em sua opinião, um projeto for
suscetível de falhar, provar ser muito caro, violar a lei de propriedade
intelectual ou ser problemático.
2.07 Identificar, documentar e relatar questões significativas de interesse social, de
que tenham conhecimento, em software ou documentos relacionados, ao
empregador ou ao cliente.
2.08 Não aceite nenhum trabalho externo prejudicial ao trabalho que realizam para seus
empregador principal.
2.09 Promover nenhum interesse adverso ao seu empregador ou cliente, a menos que um
maior preocupação ética está sendo comprometida; nesse caso, informe o
empregador ou outra autoridade competente sobre a preocupação ética.

Princípio3:produtos

Os engenheiros de software devem garantir que seus produtos e modificações relacionadas


atendam aos mais altos padrões profissionais possíveis. Em particular, softwares
engenheiros devem, conforme apropriado:

3.01 Esforce-se por alta qualidade, custo aceitável e um cronograma razoável,


garantir que as compensações significativas sejam claras e aceitas pelo
empregador e pelo cliente, e estejam disponíveis para consideração do
usuário e do público.
3.02 Garantir metas e objetivos adequados e alcançáveis para qualquer projeto em
que trabalham ou propõem.
3,03 Identificar, definir e abordar questões éticas, econômicas, culturais, legais e
questões ambientais relacionadas aos projetos de trabalho.
3,04 Garantir que eles sejam qualificados para qualquer projeto em que trabalhem ou
propõem trabalhar, por uma combinação adequada de educação,
treinamento e experiência.
3,05 Certifique-se de que um método apropriado seja usado para qualquer projeto no qual
trabalham ou se propõem a trabalhar.
3.06 Trabalhe para seguir os padrões profissionais, quando disponíveis, que são mais
apropriados para a tarefa em questão, afastando-se destes somente quando
eticamente ou tecnicamente justificados.
3.07 Esforce-se para entender completamente as especificações do software no qual
eles trabalham.

3,08 Certifique-se de que as especificações do software em que trabalham foram


bem documentados, satisfazem os requisitos do usuário e possuem as
aprovações apropriadas.
3,09 Garantir estimativas quantitativas realistas de custo, programação, pessoal,
qualidade e resultados em qualquer projeto em que trabalhem ou se
proponham a trabalhar e fornecem uma avaliação da incerteza dessas
3.10 estimativas. Garantir testes adequados, depuração e revisão de software e
documentos relacionados em que trabalham.
3.11 Garantir a documentação adequada, incluindo problemas significativos
descobertas e soluções adotadas, para qualquer projeto em que
trabalhem.
3.12 Trabalhar para desenvolver software e documentos relacionados que respeitem os
privacidade daqueles que serão afetados por esse software.
3.13 Tenha o cuidado de usar apenas dados precisos derivados de princípios éticos e legais
meios, e usá-lo apenas de maneiras devidamente autorizadas.
3.14 Manter a integridade dos dados, sendo sensível a dados desatualizados ou falhos
ocorrências.
3.15 Trate todas as formas de manutenção de software com o mesmo
profissionalismo como novo desenvolvimento.

Princípio 4: Julgamento

Os engenheiros de software devem manter a integridade e independência em seu julgamento


profissional. Em particular, os engenheiros de software devem, conforme apropriado:

4.01 Temperar todos os julgamentos técnicos pela necessidade de apoiar e manter


valores HUMANOS.
4.02 Somente endossar documentos preparados sob sua supervisão ou
dentro de suas áreas de competência e com as quais estão de
acordo.
4.03 Manter a objetividade profissional em relação a qualquer software ou
documentos relacionados que são solicitados a avaliar.
4,04 Não se envolver em práticas financeiras enganosas, como suborno, dupla
faturamento ou outras práticas financeiras impróprias.
4,05 Divulgue a todas as partes interessadas os conflitos de interesse que não podem
ser razoavelmente evitado ou escapado.
4.06 Recusar-se a participar, como membros ou conselheiros, em uma reunião privada,
órgão governamental ou profissional preocupado com questões relacionadas a
software em que eles, seus empregadores ou seus clientes tenham conflitos de
interesse potenciais não revelados.

Princípio5:Gestão
Gerentes e líderes de engenharia de software devem aderir e promover uma abordagem
ética para o gerenciamento de desenvolvimento e manutenção de software. Em particular,
os engenheiros de software gerentes ou líderes devem, conforme apropriado:

5.01 Assegurar uma boa gestão para qualquer projeto em que trabalhem,
incluindo procedimentos eficazes para a promoção da qualidade e
redução do risco.
5.02 Certifique-se de que os engenheiros de software estejam informados sobre os padrões antes de serem

segurado a eles.
5.03 Certifique-se de que os engenheiros de software conheçam as políticas do empregador e
procedimentos para proteger senhas, arquivos e informações que são
confidencial para o empregador ou confidencial para outros.
5.04 Atribuir trabalho somente depois de levar em consideração as contribuições apropriadas
de educação e experiência temperada com o desejo de promover essa
educação e experiência.
5,05 Garantir estimativas quantitativas realistas de custo, programação, pessoal,
qualidade e resultados em qualquer projeto em que trabalhem ou se
proponham a trabalhar e fornecem uma avaliação da incerteza dessas
5.06 estimativas. Atraia engenheiros de software em potencial apenas por meio de
descrição das condições de emprego.
5.07 Oferecer remuneração justa e justa.
5,08 Não impedir injustamente que alguém tome uma posição para a qual
pessoa está devidamente qualificada.

5.09 Garantir que haja um acordo justo sobre a propriedade de qualquer


software, processos, pesquisa, escrita ou outra propriedade intelectual para a qual
um engenheiro de software tenha contribuído.
5.10 Providenciar o devido processo legal na audiência de acusações de violação de um
política do empregador ou deste Código.
5.11 Não peça a um engenheiro de software para fazer algo inconsistente com isso
Código.
5.12 Não punir ninguém por expressar preocupações éticas sobre um projeto.

Princípio 6: Profissão

Os engenheiros de software devem promover a integridade e a reputação da profissão de


acordo com o interesse público. Em particular, os engenheiros de software devem, conforme
apropriado:

6.01 Ajudar a desenvolver um ambiente organizacional favorável à atuação


eticamente.
6.02 Promover o conhecimento público da engenharia de software.
6.03 Amplie o conhecimento de engenharia de software por meio da participação apropriada
em organizações profissionais, reuniões e publicações. Apoiar, como membros de
6.04 uma profissão, outros engenheiros de software que se esforçam
seguir este Código.
6,05 Não promover seu próprio interesse em detrimento da profissão, cliente,
ou empregador.
6.06 Obedecer a todas as leis que regem seu trabalho, a menos que, em casos excepcionais,
circunstâncias, tal cumprimento é inconsistente com o interesse
público.
6.07 Ser preciso ao declarar as características do software no qual eles
trabalho, evitando não apenas alegações falsas, mas também alegações que
possam razoavelmente ser consideradas especulativas, vazias, enganosas,
enganosas ou duvidosas.
6.08 Assumir a responsabilidade de detectar, corrigir e relatar erros em
software e documentos associados em que trabalham.
6.09 Garantir que clientes, empregadores e supervisores conheçam o software
compromisso do engenheiro com este Código de Ética e as ramificações
subsequentes de tal compromisso.
6.10 Evite associações com empresas e organizações que estejam em
conflito com este Código.
6.11 Reconhecer que as violações deste Código são inconsistentes com a
engenheiro de software profissional.
6.12 Expressar preocupações às pessoas envolvidas quando violações significativas
deste Código sejam detectados, a menos que isso seja impossível,
contraproducente ou perigoso.
6.13 Denuncie violações significativas deste Código às autoridades apropriadas
quando fica claro que a consulta às pessoas envolvidas nessas
violações significativas é impossível, contraproducente ou perigosa.

Princípio 7: Colegas
Os engenheiros de software devem ser justos e apoiar seus colegas. Em particular, os
engenheiros de software devem, conforme apropriado:

7.01 Incentive os colegas a aderirem a este Código.


7.02 Auxiliar os colegas no desenvolvimento profissional.
7.03 Credite totalmente o trabalho de Outros e evite receber crédito indevido.
7.04 Revisar o trabalho de outras pessoas de forma objetiva, sincera e apropriada
maneira documentada.
7,05 Dar uma audiência justa às opiniões, preocupações ou reclamações de um
colega.
7.06 Ajudar os colegas a estarem totalmente cientes do trabalho padrão atual
práticas, incluindo políticas e procedimentos para proteger
senhas, arquivos e outras informações confidenciais, e segurança
medidas em geral.
7.07 Não intervir injustamente na carreira de qualquer colega; Contudo,
preocupação com o empregador, cliente ou interesse público pode obrigar
os engenheiros de software, de boa fé, a questionar a competência de um
colega.
7.08 Em situações fora de suas próprias áreas de competência, convoque o
opiniões de outros profissionais que tenham competência nessas áreas.

Princípio 8: Auto

Os engenheiros de software devem participar da aprendizagem ao longo da vida sobre a


prática de sua profissão e devem promover uma abordagem ética na prática da profissão. Em
particular, os engenheiros de software devem se esforçar continuamente para:

8.01 Aprofundar seu conhecimento dos desenvolvimentos na análise,


especificação, projeto, desenvolvimento, manutenção e teste de software
e documentos relacionados, juntamente com a gestão do processo de
desenvolvimento.
8.02 Melhorar sua capacidade de criar qualidade segura, confiável e útil
software a um custo razoável e dentro de um prazo razoável. Melhorar sua
8.03 capacidade de produzir informações precisas, informativas e
documentação escrita.
8.04 Melhorar sua compreensão do software e documentos relacionados em
em que trabalham e do ambiente em que serão utilizados. Melhorar o
8,05 seu conhecimento das normas relevantes e da lei que rege
o software e os documentos relacionados em que trabalham. Melhorar
8.06 seu conhecimento deste Código, sua interpretação e sua
aplicação ao seu trabalho.
8.07 Não dar tratamento injusto a ninguém por causa de qualquer
preconceitos.
8.08 Não influenciar outros a realizar qualquer ação que envolva uma violação de
este Código.
8.09 Reconhecer que as violações pessoais deste Código são inconsistentes com
ser um engenheiro de software profissional.
* Sobre a Força-Tarefa conjunta:Este Código de Ética foi desenvolvido pela Força-Tarefa
conjunta IEEE-CS/ACM sobre Ética em Engenharia de Software e Práticas Profissionais. Os
membros sãoComitê Executivo:Donald Gotterbarn (presidente). Keith Miller, Simon
Rogerson.Membros:Steve Barber. Pedro Barnes. Ilene Burnstein, Michael Davis, Amr El-
Kadi, N. Ben Fairweather, Milton Fulghum. N. Jayaram. Tom Jewett, Mark Kanko, finie
Kallman. Duncan Langford, Joyce Currie Little. Ed Mechler, Manuel]. Normando. Douglas
Phillips. Pedro Ron Prinzivalli. Patrick Sullivan. John Weckert. Vivian Weil. S. Weisband.
Laurie Honor Werth.
A2 ASSOCIAÇÃO PARA INFORMÁTICA CÓDIGO DE ÉTICA E
CONDUTA PROFISSIONAL*
Adotado pelo Conselho da ACM. 16 de outubro de 1992

Preâmbulo

O compromisso com a conduta profissional ética é esperado de todos os membros


(membros votantes, membros associados e membros estudantes) da Association for
Computing Machinery (ACM).
Este Código, composto por 24 imperativos formulados como declarações de
responsabilidade pessoal, identifica os elementos de tal compromisso. Ele contém muitos,
mas não todos, os problemas que os profissionais provavelmente enfrentarão. A Seção 1
descreve considerações éticas fundamentais, enquanto a Seção 2 aborda considerações
adicionais e mais específicas de conduta profissional. As declarações na Seção 3 referem-
se mais especificamente a indivíduos que têm um papel de liderança, seja no local de
trabalho ou como voluntário, como em organizações como a ACM. Os princípios que
envolvem o cumprimento deste Código são apresentados na Seção 4.
O Código será complementado por um conjunto de Diretrizes, que fornecerão
explicações para auxiliar os membros a lidar com as diversas questões contidas no
Código. Espera-se que as Diretrizes sejam alteradas com mais frequência do que o
Código.
O Código e suas Diretrizes complementadas destinam-se a servir de base para a
tomada de decisões éticas na condução do trabalho profissional. Secundariamente,
podem servir de base para julgar o mérito de uma reclamação formal referente à
violação de padrões éticos profissionais.
Deve-se notar que, embora a computação não seja mencionada nos imperativos
da Seção 1, o Código se preocupa com a forma como esses imperativos fundamentais
se aplicam à conduta de um profissional de computação. Esses imperativos são
expressos de uma forma geral para enfatizar que os princípios éticos que se aplicam à
ética do computador são derivados de princípios éticos mais gerais.
Entende-se que algumas palavras e frases em um código de ética estão sujeitas a
interpretações variadas e que qualquer princípio ético pode entrar em conflito com outros.
princípios éticos em situações específicas. Questões relacionadas a conflitos éticos podem ser
melhor respondidas pela consideração cuidadosa dos princípios fundamentais, em vez da
confiança em regulamentos detalhados.

Diretrizes

1 Imperativos morais gerais

Como um membro da ACM eu vou. . .

1.1Contribuir para a sociedade e o bem-estar humano

Este princípio relativo à qualidade de vida de todas as pessoas afirma a obrigação de proteger
os direitos humanos fundamentais e respeitar a diversidade de todas as culturas. Um objetivo
essencial dos profissionais de computação é minimizar as consequências negativas dos
sistemas de computação, incluindo ameaças à saúde e segurança. Ao projetar ou implementar
sistemas, os profissionais de computação devem tentar garantir que os produtos de seus
esforços sejam usados de maneira socialmente responsável, atendam às necessidades sociais
e evitem efeitos prejudiciais à saúde e ao bem-estar.
Além de um ambiente social seguro, o bem-estar humano inclui um ambiente
natural seguro. Portanto, os profissionais de computação que projetam e
desenvolvem sistemas devem estar alertas e alertar os outros sobre qualquer dano
potencial ao ambiente local ou global.

1.2 Evite prejudicar os outros

"Dano" significa lesão ou consequências negativas, como perda indesejada de


informações, perda de propriedade, danos à propriedade ou impactos ambientais
indesejados. Este princípio proíbe o uso de tecnologia de computação de forma que
resulte em danos a qualquer um dos seguintes: usuários, público em geral, funcionários,
empregadores. As ações prejudiciais incluem a destruição ou modificação intencional de
arquivos e programas, levando a sérias perdas de recursos ou gastos desnecessários de
recursos humanos, como o tempo e o esforço necessários para limpar os sistemas de
"vírus de computador".
Ações bem intencionadas, incluindo aquelas que cumprem os deveres atribuídos,
podem causar danos inesperados. Nesse caso, a pessoa ou pessoas responsáveis são
obrigadas a desfazer ou mitigar as consequências negativas tanto quanto possível.
Uma maneira de evitar danos não intencionais é considerar cuidadosamente os impactos potenciais
em todos os afetados pelas decisões tomadas durante o projeto e a implementação.
Para minimizar a possibilidade de prejudicar indiretamente outras pessoas, os
profissionais de computação devem minimizar o mau funcionamento seguindo os padrões
geralmente aceitos para projeto e teste de sistema. Além disso, muitas vezes é necessário
avaliar as consequências sociais dos sistemas para projetar a probabilidade de qualquer dano
grave a outros. Se os recursos do sistema forem deturpados para usuários, colegas de trabalho
ou supervisores, o profissional de computação individual será responsável por qualquer lesão
resultante.
No ambiente de trabalho o profissional de informática tem a obrigação adicional de
relatar quaisquer sinais de perigos do sistema que possam resultar em sérios danos
pessoais ou sociais. Se os superiores de alguém não agirem para reduzir ou mitigar tais
perigos, pode ser necessário "denunciar" para ajudar a corrigir o problema ou reduzir o
risco. No entanto, a denúncia caprichosa ou equivocada de violações pode, por si só, ser
prejudicial. Antes de relatar violações, todos os aspectos relevantes do incidente devem
ser cuidadosamente avaliados. Em particular, a avaliação do risco e da responsabilidade
deve ser credível. Sugere-se que se procure aconselhamento de outros profissionais de
computação. Verprincípio 2.5 sobre avaliações minuciosas.

1.3 Seja honesto e confiável

A honestidade é um componente essencial da confiança. Sem confiança, uma organização não


pode funcionar de forma eficaz. O profissional de computação honesto não fará alegações
deliberadamente falsas ou enganosas sobre um sistema ou projeto de sistema, mas, em vez disso,
fornecerá a divulgação completa de todas as limitações e problemas do sistema pertinentes.
Um profissional de informática tem o dever de ser honesto sobre suas próprias
qualificações e sobre quaisquer circunstâncias que possam levar a conflitos de
interesse.
A participação em organizações voluntárias como a ACM pode, às vezes, colocar os
indivíduos em situações em que suas declarações ou ações podem ser interpretadas como
tendo o "peso" de um grupo maior de profissionais. Um membro da ACM terá o cuidado
de não deturpar a ACM ou posições e políticas da ACM ou de quaisquer unidades da ACM.

1.4 Seja justo e tome medidas para não discriminar

Os valores de igualdade, tolerância, respeito pelos outros e os princípios de igualdade


Traduzido do Inglês para o Português - www.onlinedoctranslator.com

justiça governam esse imperativo. A discriminação com base em raça, sexo, religião,
idade, deficiência, nacionalidade ou outros fatores é uma violação explícita da política
da ACM e não será tolerada.
As desigualdades entre diferentes grupos de pessoas podem resultar do uso ou mau uso
da informação e da tecnologia. Em uma sociedade justa, todos os indivíduos teriam
oportunidades iguais de participar ou se beneficiar do uso de recursos de computador,
independentemente de raça, sexo, religião, idade, deficiência, nacionalidade ou outros fatores
semelhantes. No entanto, esses ideais não justificam o uso não autorizado dos recursos do
computador nem fornecem uma base adequada para a violação de quaisquer outros
imperativos éticos deste código.

1,5Honre os direitos de propriedade, incluindo direitos autorais e patentes

A violação de direitos autorais, patentes, segredos comerciais e os termos dos contratos


de licença é proibida por lei na maioria das circunstâncias. Mesmo quando o software não
é tão protegido, tais violações são contrárias ao comportamento profissional. Cópias de
software devem ser feitas somente com a devida autorização. A duplicação não autorizada
de materiais não deve ser tolerada.

1.6 Dê o devido crédito à propriedade intelectual

Os profissionais de computação são obrigados a proteger a integridade da propriedade intelectual.


Especificamente, não se deve levar crédito por ideias ou trabalhos de outros, mesmo nos casos em que o
trabalho não tenha sido explicitamente protegido por direitos autorais, patentes, etc.

1.7 Respeite a privacidade dos outros

A tecnologia de computação e comunicação permite a coleta e troca de


informações pessoais em uma escala sem precedentes na história da civilização.
Assim, há maior potencial para violar a privacidade de indivíduos e grupos. É
responsabilidade dos profissionais manter a privacidade e a integridade dos dados
que descrevem os indivíduos. Isso inclui tomar precauções para garantir a precisão
dos dados, bem como protegê-los contra acesso não autorizado ou divulgação
acidental a indivíduos inadequados. Além disso, devem ser estabelecidos
procedimentos para permitir que os indivíduos revisem seus registros e corrijam
imprecisões.
Este imperativo implica que apenas a quantidade necessária de
informações sejam coletadas em um sistema, que os períodos de retenção e
descarte dessas informações sejam claramente definidos e aplicados, e que as
informações pessoais coletadas para um propósito específico não sejam usadas
para outros propósitos sem o consentimento do(s) indivíduo(s). Esses princípios se
aplicam a comunicações eletrônicas, incluindo correio eletrônico, e proíbem
procedimentos que capturem ou monitorem dados eletrônicos de usuários,
incluindo mensagens, sem a permissão dos usuários ou autorização de boa-fé
relacionada à operação e manutenção do sistema. Os dados do usuário
observados durante as tarefas normais de operação e manutenção do sistema
devem ser tratados com estrita confidencialidade, exceto nos casos em que sejam
evidências de violação de lei, regulamentos organizacionais ou deste Código.
Nesses casos,

1.8 Honrar a confidencialidade

O princípio da honestidade estende-se às questões de confidencialidade da informação


sempre que se tenha feito uma promessa explícita de honrar a confidencialidade ou,
implicitamente, quando se torne disponível informação privada não diretamente relacionada
com o desempenho das suas funções. A preocupação ética é respeitar todas as obrigações de
confidencialidade com empregadores, clientes e usuários, a menos que sejam dispensadas de
tais obrigações por exigências da lei ou outros princípios deste Código.

2 Responsabilidades Profissionais Mais Específicas

Como um profissional de computação ACM eu vou. . .

2.1 Esforçar-se para alcançar a mais alta qualidade, eficácia e dignidade tanto no processo
quanto nos produtos do trabalho profissional

A excelência é talvez a obrigação mais importante de um profissional. O profissional de


computação deve se esforçar para alcançar a qualidade e estar ciente das graves
consequências negativas que podem resultar da má qualidade de um sistema.

2.2 Adquirir e manter competência profissional


A excelência depende de indivíduos que assumem a responsabilidade de adquirir e
manter a competência profissional. Um profissional deve participar da definição
Traduzido do Inglês para o Português - www.onlinedoctranslator.com

padrões para níveis apropriados de competência, e nos esforçamos para atingir esses
padrões. A atualização do conhecimento e competência técnica pode ser alcançada de
várias maneiras: fazendo estudo independente; participar de seminários, conferências ou
cursos; e estar envolvido em organizações profissionais.

2.3 Conheça e respeite as leis existentes relativas ao trabalho profissional

Os membros da ACM devem obedecer às leis locais, estaduais, provinciais, nacionais e


internacionais existentes, a menos que haja uma base ética convincente para não fazê-lo.
As políticas e procedimentos das organizações das quais se participa também devem ser
obedecidos. Mas a conformidade deve ser equilibrada com o reconhecimento de que às
vezes as leis e regras existentes podem ser imorais ou inadequadas e, portanto, devem ser
contestadas. A violação de uma lei ou regulamento pode ser ética quando essa lei ou regra
tem base moral inadequada ou quando conflita com outra lei considerada mais
importante. Se alguém decide violar uma lei ou regra porque é visto como antiético, ou
por qualquer outro motivo, deve aceitar totalmente a responsabilidade por suas ações e
pelas consequências.

2.4 Aceitar e fornecer revisão profissional apropriada

O trabalho profissional de qualidade, especialmente na profissão de computação, depende


de revisão e crítica profissional. Sempre que apropriado, os membros individuais devem
buscar e utilizar a revisão por pares, bem como fornecer uma revisão crítica do trabalho de
outros.

2.5 Daravaliações abrangentes e completas de sistemas de computador e seus


impactos, incluindo análise de possíveis riscos

Os profissionais de computação devem se esforçar para serem perspicazes, minuciosos e


objetivos ao avaliar, recomendar e apresentar descrições e alternativas de sistemas. Os
profissionais de informática estão em uma posição de especial confiança e, portanto, têm
uma responsabilidade especial de fornecer avaliações objetivas e confiáveis a
empregadores, clientes, usuários e ao público. Ao fornecer avaliações, o profissional
também deve identificar quaisquer conflitos de interesse relevantes, conforme
estabelecido no imperativo 1.3 .
Como observado na discussão deprincípio 1.2 para evitar danos, quaisquer sinais
de perigo dos sistemas devem ser comunicados a quem tiver oportunidade e/ou
responsabilidade de resolvê-los. Veja as orientações paraimperativo 1.2 para obter
mais detalhes sobre danos, incluindo o relato de violações profissionais.

2.6 Honrar contratos, acordos e responsabilidades atribuídas

Honrar os próprios compromissos é uma questão de integridade e honestidade. Para o


profissional de informática, isso inclui garantir que os elementos do sistema funcionem
conforme o esperado. Além disso, quando se contrata um trabalho com outra parte, tem-se a
obrigação de manter essa parte devidamente informada sobre o progresso em direção à
conclusão desse trabalho.
Um profissional de computação tem a responsabilidade de solicitar uma mudança
em qualquer tarefa que ele sinta que não pode ser concluída conforme definido.
Somente após séria consideração e com total divulgação dos riscos e preocupações ao
empregador ou cliente, deve-se aceitar a tarefa. O principal princípio subjacente aqui é
a obrigação de aceitar a responsabilidade pessoal pelo trabalho profissional. Em
algumas ocasiões, outros princípios éticos podem ter maior prioridade.
Um julgamento de que uma tarefa específica não deve ser executada pode não ser
aceito. Tendo identificado claramente suas preocupações e razões para esse
julgamento, mas não conseguindo uma mudança nessa atribuição, ele ainda pode ser
obrigado, por contrato ou por lei, a proceder conforme indicado. O julgamento ético
do profissional de computação deve ser o guia final para decidir se deve ou não
prosseguir. Independentemente da decisão, deve-se aceitar a responsabilidade pelas
consequências.
No entanto, realizar tarefas "contra o próprio julgamento" não exime o
profissional da responsabilidade por quaisquer consequências negativas.

2.7 Melhorar a compreensão pública da computação e suas consequências

Os profissionais de computação têm a responsabilidade de compartilhar conhecimento técnico


com o público, incentivando a compreensão da computação, incluindo os impactos dos
sistemas de computador e suas limitações. Este imperativo implica a obrigação de combater
quaisquer visões falsas relacionadas à computação.

2.8 Acessar recursos de computação e comunicação somente quando autorizado a fazê-


lo

O roubo ou destruição de propriedade tangível e eletrônica é proibido por


imperativo 1.2– "Evite prejudicar os outros." A invasão e o uso não autorizado de um
computador ou sistema de comunicação são abordados por este imperativo. Invasão
inclui acessar redes de comunicação e sistemas de computador, ou contas e/ou
arquivos associados a esses sistemas, sem autorização explícita para fazê-lo.
Indivíduos e organizações têm o direito de restringir o acesso aos seus sistemas,
desde que não violem o princípio da discriminação (ver1,4 ). Ninguém deve entrar ou
usar o sistema de computador, software ou arquivos de dados de outra pessoa sem
permissão. Deve-se sempre ter a aprovação apropriada antes de usar os recursos do
sistema, incluindo portas de comunicação .rm 57, espaço no arquivo, outros
periféricos do sistema e tempo do computador.

3 Imperativos de Liderança Organizacional

Como membro da ACM e líder organizacional, irei . . .

NOTA DE ANTECEDENTES Esta seção se baseia amplamente no projeto de Código de Ética


da IFIP, especialmente em suas seções sobre ética organizacional e preocupações
internacionais. As obrigações éticas das organizações tendem a ser negligenciadas na
maioria dos códigos de conduta profissional, talvez porque esses códigos sejam escritos a
partir da perspectiva do membro individual. Este dilema é abordado pela afirmação desses
imperativos a partir da perspectiva do líder organizacional. Neste contexto, "líder" é visto
como qualquer membro organizacional que tenha responsabilidades de liderança ou
educacionais. Esses imperativos geralmente podem se aplicar às organizações, bem como
a seus líderes. Neste contexto, "organizações" são corporações, agências governamentais
e outros "empregadores", bem como organizações profissionais voluntárias.

3.1 Articular as responsabilidades sociais dos membros de uma unidade organizacional e


incentivar a plena aceitação dessas responsabilidades

Como as organizações de todos os tipos têm impactos sobre o público, elas devem aceitar
responsabilidades para com a sociedade. Procedimentos e atitudes organizacionais orientados
para a qualidade e o bem-estar da sociedade reduzirão os danos aos membros do público,
servindo assim ao interesse público e cumprindo a responsabilidade social. Portanto, os líderes
organizacionais devem incentivar a plena participação no cumprimento das responsabilidades
sociais, bem como o desempenho de qualidade.
3.2 Gerenciar pessoal e recursos para projetar e construir sistemas de informação que
melhorem a qualidade de vida no trabalho

Os líderes organizacionais são responsáveis por garantir que os sistemas de computador


melhorem, e não degradem, a qualidade de vida no trabalho. Ao implementar um sistema de
informática, as organizações devem considerar o desenvolvimento pessoal e profissional, a
segurança física e a dignidade humana de todos os trabalhadores. Padrões apropriados de
ergonomia humano-computador devem ser considerados no projeto do sistema e no local de
trabalho.

3.3 Reconhecer e apoiar o uso adequado e autorizado dos recursos


de computação e comunicação de uma organização

Como os sistemas de computador podem se tornar ferramentas para prejudicar e beneficiar


uma organização, a liderança tem a responsabilidade de definir claramente os usos
apropriados e inadequados dos recursos de computação organizacional. Embora o número e o
escopo de tais regras devam ser mínimos, eles devem ser plenamente aplicados quando
estabelecidos.

3.4 Assegurar que os usuários e aqueles que serão afetados por um sistema tenham suas
necessidades claramente articuladas durante a avaliação e desenho dos requisitos;
posteriormente o sistema deve ser validado para atender aos requisitos

Usuários atuais do sistema, usuários em potencial e outras pessoas cujas vidas possam ser
afetadas por um sistema devem ter suas necessidades avaliadas e incorporadas na
declaração de requisitos. A validação do sistema deve garantir a conformidade com esses
requisitos.

3.5 Articular e apoiar políticas que protejam a dignidade dos usuários e outras pessoas afetadas
por um sistema de computação

Projetar ou implementar sistemas que deliberadamente ou inadvertidamente rebaixam


indivíduos ou grupos é eticamente inaceitável. Os profissionais de informática que ocupam
cargos de tomada de decisão devem verificar se os sistemas são projetados e implementados
para proteger a privacidade pessoal e aumentar a dignidade pessoal.

3.6 Criar oportunidades para os membros da organização aprenderem os


princípios e limitações dos sistemas de computador
Isso complementa o imperativo da compreensão pública(2.7 ).As oportunidades
educacionais são essenciais para facilitar a participação ideal de todos os membros da
organização. As oportunidades devem estar disponíveis a todos os membros para ajudá-
los a melhorar seus conhecimentos e habilidades em computação, incluindo cursos que os
familiarizem com as consequências e limitações de tipos específicos de sistemas. Em
particular, os profissionais devem estar cientes dos perigos de construir sistemas em torno
de modelos simplificados, a improbabilidade de antecipar e projetar para todas as
condições operacionais possíveis e outras questões relacionadas à complexidade dessa
profissão.

4.Conformidade com o Código

Como um membro da ACM eu vou. . .

4.1Defender e promover os princípios deste Código

O futuro da profissão de computação depende da excelência técnica e ética.


Não só é importante que os profissionais de computação da ACM sigam os
princípios expressos neste Código, mas cada membro deve incentivar e apoiar a
adesão de outros membros.

4.2 Tratar as violações deste código como inconsistentes com a adesão ao ACM

A adesão dos profissionais a um código de ética é em grande parte uma questão


voluntária. No entanto, se um membro não seguir este código ao se envolver em má
conduta grave, a associação à ACM poderá ser encerrada.

* Este Código e as Diretrizes complementares foram desenvolvidos pela Força-Tarefa para a


Revisão do Código de Ética e Conduta Profissional da ACM: Ronald E. Anderson, Presidente,
Gerald Engel, Donald Gotterbarn, Grace C. Hertlein, Alex Hoffman, Bruce Jawer, Deborah G.
Johnson, Doris K. Lidtke. Joyce Currie Little, Dianne Martin, Donn B. Parker, Judith A. Perrolle e
Richard S. Rosenberg. A Força-Tarefa foi organizada pela ACM/SIGCAS e o financiamento foi
fornecido pelo Fundo Discricionário da ACM SIG. Este Código e as Diretrizes suplementares
foram adotados pelo Conselho da ACM em 16 de outubro de 1992. © 1992 pela ACM, Inc.
Incluído aqui com permissão.
A3 O CÓDIGO DE ÉTICA DA SOCIEDADE DE COMPUTAÇÃO
AUSTRALIANA*

Um requerimento

Uma característica essencial de uma profissão é a necessidade de seus membros


obedecerem a um Código de Ética. A Sociedade exige que seus membros subscrevam
um conjunto de valores e ideais que defendem e promovem a honra, dignidade e
eficácia da profissão de tecnologia da informação.
O código faz parte do Regulamento da Sociedade e a sequência de
numeração foi mantida.

4 Código de Ética

4.1Para defender e promover a honra, dignidade e eficácia da profissão de


tecnologia da informação e de acordo com altos padrões de competência e
conduta ética, um membro deve:

uma. ser honesto, direto e imparcial, e


b. servir lealmente a comunidade, e
c. esforçar-se para aumentar a competência e o prestígio da profissão, e
d. usar conhecimentos e habilidades especiais para o avanço do bem-estar humano.

4.2Os compromissos pessoais estabelecidos noNR4.3 eNR4.4 vincular cada


membro em relação à conduta profissional desse membro.

4.3 Valores e ideais


Devo agir com responsabilidade profissional e integridade em minhas relações
com a comunidade e clientes, empregadores, funcionários e alunos. Reconheço:
4.3.1 Prioridades: Devo colocar os interesses da comunidade acima dos interesses
pessoais ou seccionais.
4.3.2 Competência: Devo trabalhar com competência e diligência para os meus clientes
e empregadores.
4.3.3 Honestidade: Devo ser honesto em minhas representações de habilidades, conhecimento,
serviços e produtos.
4.3.4 Implicações Sociais: Devo me esforçar para melhorar a qualidade de vida daqueles
afetado pelo meu trabalho.
4.3.5 Desenvolvimento Profissional: Devo aprimorar meu próprio profissional
desenvolvimento, e de meus colegas, funcionários e alunos. Profissão
4.3.6 de Tecnologia da Informação: Devo melhorar a integridade da
a profissão de tecnologia da informação e o respeito de seus membros
uns pelos outros.

4.4 Padrões de conduta

Os padrões de conduta estabelecidos neste Regulamento Nacional explicam como


o Código de Ética se aplica ao trabalho profissional de um membro. A lista de
padrões não é necessariamente exaustiva e não deve ser lida como demarcando
definitivamente o aceitável do inaceitável na conduta profissional em todas as
situações práticas enfrentadas por um membro. A intenção das normas de conduta
é ilustrar e explicar com mais detalhes o significado do Código de Ética em termos
de comportamento específico. O fato de um membro se envolver ou não com esses
padrões não garante, por si só, que um membro esteja agindo de forma ética ou
antiética, conforme aplicável. Espera-se que um membro leve em consideração o
espírito do Código de Ética para resolver questões ambíguas ou contenciosas
relacionadas à conduta ética.

4,5Prioridades

ConformeNR4.3.1 :

4.5.1 Devo me esforçar para preservar a continuidade da tecnologia da informação


serviços e fluxo de informações sob meus cuidados.
4.5.2 Devo me esforçar para preservar a integridade e a segurança do
informações de outros.
4.5.3 Devo respeitar a natureza proprietária das informações de terceiros. Devo me
4.5.4 esforçar para preservar a confidencialidade das informações de
outros.
4.5.5 Devo avisar meu cliente ou empregador sobre quaisquer potenciais conflitos de
interesse entre minha atribuição e requisitos legais ou outros requisitos
da comunidade aceitos.
4.5.6 Devo avisar meus clientes e empregadores o mais rápido possível sobre qualquer
conflitos de interesse ou objeções de consciência que eu enfrento em
relação ao meu trabalho.

4.6Competência

ConformeNR4.3.2 :

4.6.1 Devo me esforçar para fornecer produtos e serviços que correspondam às


necessidades operacionais e financeiras dos meus clientes e empregadores.
4.6.2 Devo dar valor ao dinheiro nos serviços e produtos que forneço. Devo me
4.6.3 conscientizar sobre os padrões relevantes e agir de acordo. Devo respeitar e
4.6.4 proteger a propriedade de meus clientes e empregadores
interesses.
4.6.5 Devo aceitar a responsabilidade pelo meu trabalho.
4.6.6 Devo aconselhar meus clientes e empregadores quando acredito que uma proposta
projeto não é de seu interesse.
4.6.7 Devo ir além do meu briefing, se necessário, para agir profissionalmente.

4.7 Honestidade

ConformeNR4.3.3 :

4.7.1 Não devo enganar intencionalmente um cliente ou cliente em potencial quanto à


adequação de um produto ou serviço.
4.7.2 Não devo deturpar minhas habilidades ou conhecimentos.
4.7.3 Devo dar opiniões que sejam tanto quanto possível imparciais e
objetivo.
4.7.4 Devo fornecer estimativas realistas para projetos sob meu controle.
4.7.5 Devo qualificar opiniões profissionais que eu sei que são baseadas em
conhecimento ou experiência limitada.
4.7.6 Devo dar crédito pelo trabalho feito por outros onde o crédito é devido.

4.8 Implicações Sociais

ConformeNR4.3.4 :
4.8.1 Devo proteger e promover a saúde e a segurança das pessoas afetadas por
meu trabalho.

4.8.2 Devo considerar e respeitar a privacidade das pessoas que podem ser afetadas
pelo meu trabalho.

4.8.3 Devo respeitar meus funcionários e evitar tratá-los injustamente.


4.8.4 Devo me esforçar para compreender e dar a devida atenção a
percepções das pessoas afetadas pelo meu trabalho.
4.8.5 Devo tentar aumentar os sentimentos de satisfação pessoal,
competência e controle das pessoas afetadas pelo meu trabalho.
4.8.6 Eu não devo exigir, ou tentar influenciar, qualquer pessoa a tomar qualquer
ação que implique uma violação do Código de Ética.

4.9 Desenvolvimento profissional

ConformeNR4.3.5 :

4.9.1 Devo continuar a atualizar meus conhecimentos e habilidades.


4.9.2 Devo aumentar minha conscientização sobre questões que afetam as informações
profissão de tecnologia e sua relação com a comunidade. Devo
4.9.3 encorajar meus colegas, funcionários e alunos a continuarem
seu próprio desenvolvimento profissional.

4.10 Profissão de tecnologia da informação

ConformeNR4.3.6 :

4.10.1 Devo respeitar e buscar, quando necessário, a opinião profissional dos


colegas em suas áreas de competência.
4.10.2 Não devo me envolver conscientemente ou estar associado a atos desonestos ou
práticas fraudulentas.
4.10.3 Não devo tentar melhorar minha própria reputação em detrimento da
reputação de outra pessoa.
4.10.4 Devo cooperar no avanço do processamento de informações através da
comunicação com outros profissionais, estudantes e público,
e contribuindo para os esforços de sociedades e escolas
profissionais e científicas.
4.10.5 Devo me distanciar profissionalmente de alguém cuja filiação à
Sociedade foi encerrada por falta de ética
comportamento ou conduta insatisfatória.
4.10.6 Devo tomar as medidas apropriadas se descobrir um membro, ou uma pessoa que
poderia ser um membro da Sociedade, se envolvendo em comportamento
antiético.
4.10.7 Devo buscar aconselhamento da Sociedade quando confrontado com um
dilema ético que não posso resolver sozinho.
4.10.8 Devo fazer o possível para garantir que as ações corporativas da Sociedade
estejam de acordo com este Código de Ética.
4.10.9 Reconheço minha dívida com a profissão de computação e, em troca, devo proteger
e promover o profissionalismo em tecnologia da informação.

* © Sociedade Australiana de Computadores. Incluído aqui com permissão.


A4 O CÓDIGO DE CONDUTA DA SOCIEDADE DE COMPUTADORES BRITÂNICA* 5 de

setembro de 2001. Versão 2.0.

Introdução

Este Código estabelece os padrões profissionais exigidos pela Sociedade como condição
de membro. Aplica-se a membros de todos os graus, incluindo estudantes e afiliados, e
também não membros que oferecem seus conhecimentos como parte do Registro de
Aconselhamento Profissional da Sociedade.
Neste documento, o termo 'autoridade relevante' é usado para identificar a pessoa ou
organização que tem autoridade sobre sua atividade como indivíduo. Se você é um
profissional praticante, normalmente é um empregador ou cliente. Se você é um
estudante, esta é normalmente uma instituição acadêmica.
O Código rege sua conduta pessoal como membro individual da BCS e não
a natureza dos negócios ou a ética da autoridade relevante. Será, portanto,
uma questão de você exercer seu julgamento pessoal para atender aos
requisitos do Código.
Qualquer violação do Código de Conduta levado ao conhecimento da Sociedade será
considerada sob os procedimentos disciplinares da Sociedade. Você também deve
certificar-se de notificar a Sociedade sobre qualquer violação significativa deste Código por
outro membro da BCS.

O Interesse Público

1 Você deve realizar trabalho ou estudo com o devido cuidado e diligência de


acordo com os requisitos da autoridade relevante e os interesses dos usuários
do sistema. Se o seu julgamento profissional for anulado, você deverá indicar os
prováveis riscos e consequências.
• O cerne da questão aqui, familiar a todos os profissionais de qualquer área,
é o conflito potencial entre o cumprimento pleno e comprometido com os
desejos da autoridade relevante e o exercício independente e ponderado
de seu julgamento.
• Se o seu julgamento for rejeitado, você é encorajado a buscar aconselhamento e orientação
de um colega ou colega sobre a melhor forma de responder.
2 No seu papel profissional deverá ter em conta a saúde pública, a segurança e
o ambiente.
• Esta é uma responsabilidade geral, que pode ser regida por legislação,
convenção ou protocolo.
• Em caso de dúvida sobre o curso de ação apropriado a ser tomado em circunstâncias
específicas, você deve procurar o conselho de um colega ou colega.
3 Você deve ter em conta os direitos legítimos de terceiros.
• O termo 'terceiro' inclui colegas profissionais, ou possivelmente concorrentes,
ou membros do 'público' que podem ser afetados por um projeto de SI sem
que estejam diretamente cientes de sua existência.
4 Você deve garantir que dentro de sua(s) área(s) profissional(is) tenha
conhecimento e compreensão da legislação, regulamentos e normas
relevantes, e que cumpra tais requisitos.
• Como exemplos, a legislação relevante poderia, no Reino Unido, incluir a Lei de
Divulgação Pública do Reino Unido. Legislação de proteção de dados ou privacidade,
lei de uso indevido de computador, legislação relativa à exportação ou importação
de tecnologia, possivelmente por motivos de segurança nacional, ou lei relativa à
propriedade intelectual. Esta lista não é exaustiva e deve certificar-se de que está
ciente de qualquer legislação relevante para as suas responsabilidades profissionais.

• No contexto internacional, você deve estar ciente e compreender os requisitos


da lei específica da jurisdição na qual está trabalhando e, quando relevante,
da legislação supranacional, como a legislação e regulamentação da UE. Você
deve procurar aconselhamento especializado quando necessário.
5 Você deve conduzir suas atividades profissionais sem discriminação
contra clientes ou colegas
• Os motivos de discriminação incluem raça, cor, origem étnica, orientação
sexual
• Todos os colegas têm o direito de serem tratados com dignidade e respeito.
• Você deve cumprir as leis relevantes da jurisdição em que está
trabalhando e, se apropriado, a Convenção Européia de Direitos
Humanos.
• Você é encorajado a promover a igualdade de acesso aos benefícios do SI por todos
os grupos da sociedade e a evitar e reduzir a 'exclusão social' do SI onde quer
que surjam oportunidades.
6 Você deve rejeitar qualquer oferta de suborno ou incentivo.

Dever para com a Autoridade Relevante

7 Você deve evitar qualquer situação que possa dar origem a um conflito de interesses
entre você e sua autoridade competente. Você deve fazer uma divulgação completa e
imediata a eles se houver probabilidade de ocorrer algum conflito ou for visto por
terceiros como provável de ocorrer.
8 Você não deve divulgar ou autorizar a divulgação, ou uso para ganho pessoal
ou para benefício de terceiros, informações confidenciais, exceto com a
permissão de sua autoridade competente, ou sob a direção de um tribunal.
9 Você não deve deturpar ou reter informações sobre o desempenho de
produtos, sistemas ou serviços, ou tirar vantagem da falta de conhecimento
relevante ou inexperiência de outros.
10 Você deve defender a reputação e a boa reputação do BCS em particular, e da
profissão em geral, e deve procurar melhorar os padrões profissionais por
meio da participação em seu desenvolvimento, uso e aplicação.
• Como membro do BCS, você também tem uma responsabilidade mais ampla de
promover a compreensão pública da SI – seus benefícios e armadilhas – e,
sempre que possível, combater a desinformação que traz ou pode trazer
descrédito à profissão.
• Você deve encorajar e apoiar os companheiros em seu desenvolvimento
profissional e, sempre que possível, oferecer oportunidades para o
desenvolvimento profissional de novos membros, especialmente
membros estudantes. A assistência mútua esclarecida entre os
profissionais de SI promove a reputação da profissão e auxilia os
membros individualmente.
11 Você deve agir com integridade em seus relacionamentos com todos os membros
da BCS e com membros de outras profissões com as quais você trabalha a título
profissional.
12 Você deve ter a devida consideração pelas possíveis consequências de suas declarações
sobre os outros. Você não deve fazer nenhuma declaração pública em sua capacidade
profissional, a menos que esteja devidamente qualificado e, quando apropriado,
autorizado a fazê-lo. Você não deve pretender representar a BCS a menos que esteja
autorizado a fazê-lo.
• Dar opinião em público, afirmando-se especialista no assunto em
questão, é uma grande responsabilidade pessoal e deve
não seja feito de ânimo leve.
• Dar uma opinião que posteriormente se mostre infundada é um
desserviço à profissão e à BCS.
13 Você deverá notificar a Sociedade se for condenado por uma ofensa criminal ou ao se
tornar falido ou desqualificado como Diretor da Empresa.

Competência e Integridade Profissional

14 Você deve procurar aprimorar seus conhecimentos e habilidades


profissionais, manter-se ciente dos desenvolvimentos tecnológicos,
procedimentos e padrões relevantes para sua área de atuação e incentivar
seus subordinados a fazerem o mesmo.
15 Você não deve reivindicar nenhum nível de competência que não possua. Você só deve se
oferecer para fazer um trabalho ou prestar um serviço que esteja dentro de sua
competência profissional.
• Você pode autoavaliar sua competência profissional para realizar um determinado
trabalho ou função perguntando, por exemplo,
i Estou familiarizado com a tecnologia envolvida, ou trabalhei
com tecnologia semelhante antes?

ii Completei com sucesso atribuições ou funções semelhantes em


o passado?

iii Posso demonstrar conhecimento adequado do negócio específico


aplicação e requisitos com sucesso para realizar o
trabalho?
16 Você deve observar os Códigos de Prática BCS relevantes e todos os outros
normas que, na sua opinião, são relevantes, e você deve encorajar seus
colegas a fazerem o mesmo.
17 Você deve aceitar a responsabilidade profissional pelo seu trabalho e pelo trabalho
de colegas que são definidos em um determinado contexto como trabalhando sob sua
supervisão.

Código de Conduta
5 DE SETEMBRO DE 2001, VERSÃO 2.0 3
THE BRITISH COMPUTER SOCIETY, 1 SANFORD STREET,
SWINDON SN1 1HJ
TEL+44 (0)1793 417417
FAX+44 (0)1793 480270
E-mail: bcshq@hq.bcs.org.uk local na rede Internet:www.bcs.org

O BCS É MEMBRO DO CONSELHO DAS SOCIEDADES EUROPEIAS DE


INFORMÁTICA PROFISSIONAL (CEPIS)
A BCS É UMA CARIDADE REGISTRADA: NÚMERO 292786 MTG/CÓDIGO/292/1201

* © 2001 pela Sociedade Britânica de Computadores. Incluído aqui com permissão.


A5 CÓDIGO DE ÉTICA DO INSTITUTO DE ENGENHEIROS
ELÉTRICOS E ELETRÔNICOS*

Nós, os membros do IEEE, reconhecendo a importância de nossas


tecnologias para afetar a qualidade de vida em todo o mundo, e aceitando
uma obrigação pessoal para com nossa profissão, seus membros e as
comunidades que servimos, comprometemo-nos com a a mais alta conduta
ética e profissional e concordam:

1 aceitar a responsabilidade de tomar decisões de engenharia consistentes com a


segurança, saúde e bem-estar do público e divulgar prontamente fatores que
possam colocar em risco o público ou o meio ambiente;
2 evitar conflitos de interesse reais ou percebidos sempre que possível e
divulgá-los às partes afetadas quando existirem;
3 ser honesto e realista ao declarar reivindicações ou estimativas com base nos dados
disponíveis;
4 rejeitar o suborno em todas as suas formas;

5 melhorar a compreensão da tecnologia, sua aplicação apropriada e


possíveis consequências;
6 manter e melhorar nossa competência técnica e realizar tarefas tecnológicas para
terceiros somente se qualificado por treinamento ou experiência, ou após a
divulgação completa das limitações pertinentes;
7 buscar, aceitar e oferecer críticas honestas ao trabalho técnico, reconhecer
e corrigir erros e creditar adequadamente as contribuições de outros;

8 tratar todas as pessoas com justiça, independentemente de fatores como raça, religião, sexo,
deficiência, idade ou nacionalidade;
9 para evitar ferir outras pessoas, sua propriedade, reputação ou emprego por ação
falsa ou maliciosa;
10 auxiliar os colegas e colaboradores no seu desenvolvimento profissional e apoiá-
los no cumprimento deste código de ética.

Aprovado pelo Conselho de Administração do IEEE em


agosto de 1990
3* © 1990 por IEEE, Inc. Incluído aqui com permissão.
A6 INSTITUTO DE GESTÃO DE SISTEMAS DE
INFORMAÇÃO CÓDIGO DE ÉTICA*

Preâmbulo do Código

O Instituto para a Gestão de Sistemas de Informação tem como visão ver a Gestão de
Sistemas de Informação considerada como uma das profissões-chave que influenciam
o futuro da nossa sociedade. Junto com esse reconhecimento, no entanto, vem a
responsabilidade dos profissionais de aderir aos padrões de treinamento e códigos de
conduta de nível profissional.
Este Código de Ética detalha uma base ética para o compromisso profissional do
profissional. Ele faz isso resumindo os valores éticos que o Instituto espera que todos
os membros mantenham e os padrões éticos que um membro deve se esforçar para
alcançar. Esses valores e padrões devem orientar a conduta profissional de um
membro em todos os momentos.
Em comum com outros Códigos de Ética, o Código deve ser entendido de forma
holística – o profissional consciente deve levar em conta todos os princípios e cláusulas
que têm relação com um determinado conjunto de circunstâncias antes de chegar a um
julgamento sobre como agir. Partes selecionadas do Código não devem ser usadas
isoladamente para justificar uma ação ou inação. A ausência de orientação direta no
Código sobre uma questão específica também não deve ser vista como desculpa para não
considerar as dimensões éticas de uma ação ou inação.
Não é desejável nem possível que um Código de Ética atue como um conjunto de
regras algorítmicas que, se seguidas escrupulosamente, conduzirão a um comportamento
ético em todos os momentos e em todas as situações. É provável que haja momentos em
que diferentes partes do código entrarão em conflito umas com as outras. Também pode
haver momentos em que partes deste código entrarão em conflito com outros códigos
éticos ou prioridades geralmente aceitas no mundo em geral. Nesses momentos, o
profissional deve refletir sobre os princípios e o espírito subjacente do Código e se esforçar
para alcançar um equilíbrio que esteja mais em harmonia com os objetivos do Código.
Alguma indicação de prioridade relativa é dada dentro do código onde o conflito pode ser
antecipado. No entanto, nos casos em que não for possível conciliar a orientação dada por
diferentes artigos do código,
Princípios fundamentais

Cada bolsista e membro do Instituto (incluindo os graus de membro


profissional e afiliado) deve empregar toda a sua inteligência, habilidades,
poder e posição para garantir que a contribuição feita pela profissão para a
sociedade seja benéfica e respeitada. De acordo com este compromisso, ele ou
ela deve sempre defender os seguintes seis princípios fundamentais:

Princípio 1: Sociedade

Defenderei a saúde, a segurança e o bem-estar da sociedade em geral, das gerações futuras e


do meio ambiente.

Princípio 2: Organizações

Servirei meus empregadores e clientes com honestidade, competência e diligência.

Princípio 3:Pares

Respeitarei e apoiarei as necessidades, interesses e aspirações legítimos de todos os meus


colegas e pares.

Princípio 4: Pessoal

Incentivarei e ajudarei aqueles que supervisiono a cumprir suas responsabilidades e


desenvolver todo o seu potencial.

Princípio5:Profissão

Eu me esforçarei para ser um representante adequado da minha profissão e para promover a visão
do Instituto.

Princípio 6: Auto

Serei honesto ao me representar e me esforçarei continuamente para melhorar


minha competência profissional e meu entendimento ético.

O código em detalhes

1 Sociedade:Defenderei a saúde, a segurança e o bem-estar da sociedade em geral, das


gerações futuras e do meio ambiente.
1.1 Esforçar-me-ei para garantir que as atividades profissionais pelas quais
tenho responsabilidade, ou sobre as quais tenho influência, não causem
danos evitáveis a qualquer setor da comunidade mais ampla, presente
ou futura, ou ao meio ambiente.
1.2 Quando não houver alternativa eficaz, levarei ao conhecimento das autoridades
públicas competentes qualquer atividade do pessoal que supervisiono,
colegas, empregadores, clientes ou colegas de profissão que seja provável
resultar em dano, conforme descrito emartigo 1.1 .
1.3 Contribuirei para o debate público sobre a formulação de políticas em
áreas em que isso seja do interesse mais amplo, tenha competência
técnica ou profissional e haja oportunidade adequada para fazê-lo.

1.4 Usarei meu conhecimento, compreensão e posição para me opor a falsas


alegações feitas por terceiros sobre as capacidades, potencial ou
segurança de qualquer aspecto dos Sistemas de Informação e Tecnologia
da Informação ou Comunicação.
1.5 Eu me esforçarei para proteger a privacidade e a propriedade legítima de
indivíduos e organizações na sociedade em geral, onde houver o risco de
que eles possam ser comprometidos por atividades profissionais pelas
quais sou responsável ou sobre as quais tenho influência.

2 Organizações:Servirei meus empregadores e clientes com honestidade,


competência e diligência.
2.1 Farei o possível para evitar, identificar e resolver conflitos de interesse.
2.2 Não aceitarei nem uma tarefa que sei que não serei capaz de
concluir com competência, nem uma tarefa que suspeite que não serei capaz
de concluir com competência, a menos que os riscos sejam aceitos consciente
e livremente por todas as partes envolvidas.
2.3 Não comprometerei conscientemente uma equipe a uma tarefa que não possa ser
concluída dentro de limites aceitáveis de custo, esforço e tempo, a menos que
os riscos sejam aceitos de forma consciente e livre por todas as partes
preocupado.
2.4 Preservarei a confidencialidade legítima dos negócios de meus
empregadores e clientes.
2.5 Protegerei a propriedade legítima e defenderei os direitos legítimos de meus
empregadores e clientes.
2.6 Aderirei a políticas e padrões organizacionais e profissionais
relevantes e bem fundamentados.
2.7 Garantirei, dentro da extensão de minha influência, que suficiente e
pessoal competente é alocado em qualquer atividade profissional.
2.8 Assegurarei, dentro da minha influência, o cumprimento de normas e
métodos técnicos pertinentes e bem fundamentados.
2.9 Assegurar-me-ei de não fazer com que meus empregadores ou clientes infrinjam a
legislação aplicável ou regras bem fundamentadas, a menos que haja uma
prioridade ética maior de magnitude suficiente.

3 Pares:Respeitarei e apoiarei as necessidades, interesses e aspirações


legítimos de meus colegas e pares.
3.1 Protegerei a privacidade e a propriedade legítima de meus colegas e
pares.
3.2 Eu me absterei de qualquer conduta que prejudique inadequadamente meus
colegas ou pares.
3.3 Darei uma opinião honesta sobre a competência e potencial dos
meus colegas e pares, quando apropriado.
3.4 Atuarei em apoio a colegas e pares que defendem o que está acima
de seu benefício e conveniência pessoal.
3.5 Promoverei o trabalho em equipe entre meus colegas e pares, assumindo minha
parte justa dos encargos e não mais do que minha parte justa do crédito.

4 Funcionários:Respeitarei e apoiarei as necessidades, interesses e aspirações


legítimos daqueles que supervisiono e os incentivarei e ajudarei a cumprir
suas responsabilidades e desenvolver seu potencial de carreira.
4.1 Adotarei e promoverei uma abordagem ética de gestão.
4.2 Serei justo nas minhas relações com aqueles que supervisiono.
4.3 Estarei aberto para aqueles que supervisiono, a menos que seja limitado por uma
prioridade ética maior.
4.4 Opor-me-ei ativamente à discriminação no trabalho, exceto com base
da capacidade de um indivíduo para a tarefa, e cuidarei para que meu julgamento
sobre esta questão não seja prejudicado por noções preconcebidas a respeito de
qualquer grupo da sociedade.
4.5 Opor-me-ei ativamente à vigilância realizada sem o consentimento
informado dos sujeitos, a menos que tal vigilância seja justificada por
uma maior prioridade ética.
4.6 Incentivarei a educação, treinamento, desenvolvimento e promoção do
pessoal, e representarei os legítimos melhores interesses daqueles
Eu supervisiono no desenvolvimento de suas carreiras dentro e fora da
organização.
4.7 Darei uma opinião honesta sobre a competência e potencial do
pessoal que supervisiono, quando apropriado.
4.8 Protegerei a privacidade e a propriedade legítima daqueles que
supervisiono.
4.9 Promoverei a adesão a códigos de conduta especializados relevantes e bem
fundamentados.
4.10 Promoverei o trabalho em equipe entre aqueles que supervisiono, assumindo minha
parte justa dos encargos e não mais do que minha parte justa do crédito.
4.11 Não exigirei daqueles que supervisiono que infrinjam a legislação aplicável ou regras
bem fundamentadas.

5 Profissão:Eu me esforçarei para ser um representante adequado da minha profissão e


para promover a visão do Instituto.
5.1 Agirei sempre com integridade.
5.2 Serei honesto, a menos que seja limitado por uma prioridade ética maior.
5.3 Vou me esforçar para cumprir este Código de Ética e, assim, melhorar a
imagem pública e a reputação da profissão.
5.4 Estarei disposto a realizar trabalho voluntário em nome da profissão,
desde que tenha o tempo, os recursos e a capacidade necessários
para a tarefa.

6 Auto:Serei honesto ao me representar e me esforçarei continuamente para


aprimorar minha competência profissional e meu entendimento ético. 6.1
Manterei minha integridade pessoal.
6.2 Não permitirei que interesses pessoais influenciem os conselhos que dou em
assuntos técnicos e profissionais.
6.3 Manterei o desenvolvimento contínuo de minhas habilidades técnicas,
compreensão e competência profissional e ética.

* © 2001 por IMIS. Incluído aqui com permissão.


PARTE IV

Exemplos de Tópicos em Ética de Computadores

A integridade sem conhecimento é fraca e inútil, e o conhecimento sem


integridade é perigoso e terrível.
Samuel Johnson
Segurança do computador
Introdução dos editores

Nesta era de "terrorismo cibernético", "vírus" de computador. e espionagem internacional por

"hackers" distantes1está claro que a segurança do computador é um tema de


preocupação no campo da ética do computador. O problema não é tanto a segurança
física do hardware (ou seja, protegê-lo contra roubo, incêndio, inundação, etc.), mas sim a
"segurança lógica", que Spafford, Heaphy e Ferbrache (Spafford et al. 1989) dividem em
cinco aspectos:
1 Privacidade e confidencialidade
2 Integridade – garantindo que dados e programas não sejam modificados sem a devida
autoridade
3 Serviço intacto
4 Consistência – garantindo que os dados e o comportamento que vemos hoje serão os
mesmos amanhã
5 Controlando o acesso aos recursos

Software malicioso, ou "ameaças programadas", representam um desafio significativo para a


segurança do computador. Estes incluem (Spafford et al. 1989):

1 Vírus – que não podem ser executados por conta própria, mas são inseridos em outros programas
de computador.
2 Worms – que podem se mover de máquina para máquina através de redes e podem
ter partes de si mesmos rodando em máquinas diferentes.
3 Cavalos de Tróia – que parecem ser um tipo de programa, mas na verdade
estão causando danos nos bastidores.
4 Bombas lógicas – que verificam condições específicas e são executadas quando
essas condições surgem.
5 "Bactérias" ou "coelhos" – que se multiplicam rapidamente e enchem a memória do
computador.

Crimes informáticos, como peculato ou plantação de bombas lógicas, são


normalmente cometido por pessoal confiável que tem permissão para usar o sistema de
computador. A segurança do computador, portanto, também deve se preocupar com as ações de
usuários de computador confiáveis.
Esses e muitos outros riscos de segurança do computador são discutidos abaixo por Peter
G. Neumann emcapítulo 9 , "Segurança do Computador e Valores Humanos". Neumann
ressalta que a segurança do computador nunca pode ser perfeita; e mesmo em uma sociedade
utópica, aberta e completamente honesta, seriam necessárias medidas de segurança. Além
disso, a segurança do computador é uma "faca de dois gumes" que traz não apenas benefícios
construtivos, mas também possíveis consequências deletérias. Neumann discute três "lacunas"
que podem levar a "mau comportamento de computador e/ou humano" indesejável; e ele
examina uma variedade de abordagens tecnológicas para reduzir potenciais problemas
relacionados à segurança.
Um risco significativo para a segurança do computador é o chamado "hacker" que invade
o sistema de computador de alguém sem permissão. Alguns hackers roubam dados
intencionalmente ou cometem vandalismo, enquanto outros simplesmente "exploram" o
sistema para ver como ele funciona e quais arquivos ele contém. Esses "exploradores" muitas
vezes afirmam ser defensores benevolentes da liberdade e lutadores contra os roubos das
grandes corporações ou a espionagem de agentes do governo. Esses autoproclamados
vigilantes do ciberespaço dizem que não causam danos e afirmam ser úteis à sociedade ao
expor riscos de segurança. No entanto, esse hacking é sempre potencialmente prejudicial
porque requer uma verificação completa de código malicioso inserido e dados danificados ou
perdidos. Mesmo que um hacker não tenha feito nenhuma alteração, o operador do sistema
deve executar uma investigação completa do sistema comprometido. Estas e questões
relacionadas são discutidas abaixo por Eugene H. Spafford emcapítulo 10 , "Arrombamentos de
hackers de computador são éticos?"

Referência

Spafford, E., Heaphy, KA, e Ferbrache DJ (1989).Vírus de computador: Lidando


com Vandalismo Eletrônico e Ameaças Programadas.ADAPSO.

1 A palavra "hacker" era originalmente um termo positivo para especialistas em computação que se
esforçavam para levar a tecnologia da computação aos limites de sua capacidade. Nos últimos anos, no
entanto, a palavra passou a significar cada vez mais uma pessoa que invade o computador de outra
pessoa à distância sem permissão.
CAPÍTULO 9

Segurança Informática e Valores Humanos

Peter G. Neumann

Peter G. Neumann. "Segurança do Computador e Valores Humanos". Este artigo foi


originalmente o "track address" no Security Track da National Conference on Computing and
Values realizada na Southern Connecticut State University. New Haven, CT em agosto de 1991.
© pelo Centro de Pesquisa em Computação e Sociedade, Southern Connecticut State University
e reimpresso com permissão do autor.

Introdução

Nós nos concentramos aqui em questões de política relacionadas à segurança de computadores e


comunicações e nos papéis que a tecnologia pode e não pode desempenhar na aplicação das
políticas desejadas. No presente contexto, a segurança do computador refere-se a medidas para
fornecer confidencialidade, integridade, disponibilidade e, de forma mais geral, prevenção contra
uso indevido, acidentes e mau funcionamento, tanto no que diz respeito aos sistemas de
computador quanto às informações que eles contêm. Deliberadamente, adotamos uma visão
ampla do que pode constituir a segurança do computador, abrangendo a prevenção de eventos
indesejáveis, e também adotamos uma visão ampla das atividades humanas indesejáveis. Os
detalhes são fornecidos nas seções a seguir.
A segurança é intrinsecamente uma faca de dois gumes em computadores e
comunicações; ele corta nos dois sentidos. Por exemplo:

• Pode ser usado para proteger a privacidade pessoal.


• Pode ser usado para minar a liberdade de acesso a informações falsas sobre um
indivíduo ao qual essa pessoa deveria ter direito de acesso; também pode ser
usado para minar outros direitos pessoais.
• Pode ajudar na defesa contra uso indevido mal-intencionado, como penetrações, cavalos
de Tróia, vírus e outras formas de adulteração.
• Pode dificultar significativamente reparos urgentes e respostas a emergências.
• Pode simplificar bastante as preocupações dos usuários legítimos.
• Pode prejudicar seriamente as habilidades de usuários legítimos que tentam proteger
evitar calamidades, particularmente em sistemas mal projetados com interfaces
humanas mal concebidas: também pode dificultar o uso rotineiro do sistema.
• O monitoramento automatizado das atividades do computador pode ser usado para detectar
intrusos, mascarados, uso indevido e outros eventos indesejáveis.
• O monitoramento automatizado das atividades do computador pode ser usado para espionar
usuários legítimos, prejudicando seriamente a privacidade pessoal.

Cada um desses pares antagônicos ilustra o potencial de uso construtivo e deletério – no que
diz respeito à confidencialidade dos dados, integridade, facilidade de uso e monitoramento,
respectivamente.
No mundo real, a ganância, a fraude, a malícia, a preguiça, a curiosidade etc. são fatos da vida;
medidas para aumentar a segurança tornam-se uma necessidade, a menos que seja possível viver
em um ambiente benigno e não malévolo (por exemplo, sem linhas discadas, sem acesso em rede,
sem fluxo fácil de software potencialmente não confiável, sem direitos de propriedade para
proteger, confiabilidade de hardware ideal, e procedimentos administrativos pendentes
– incluindo backups frequentes). Mesmo em um mundo perfeito, no qual todos se comportam de forma ética, moral

e sábia, tais medidas ainda são necessárias para proteção contra uso indevido acidental, bem como contra

problemas de hardware e ambientais. Por outro lado, as tentativas de proporcionar maior segurança invariavelmente

causam dificuldades que de outra forma não existiriam. Existem vários aspectos potencialmente prejudiciais

associados às tentativas de aumentar a segurança, afetando de forma variada os usuários do sistema e as operações

do sistema, bem como pessoas que aparentemente nem estão no circuito (como espectadores inocentes). Os efeitos

sobre os usuários incluem impedimentos à facilidade de uso do sistema, alguma perda de desempenho, ansiedade

intensificada e talvez aumento de suspeitas ou mesmo paranóia resultantes da presença dos controles de segurança

e monitoramento. Os efeitos relevantes para as operações do sistema incluem maiores dificuldades na manutenção e

evolução dos sistemas, recuperação menos fácil de falhas e esforço significativamente maior gasto na administração

da segurança. Há também efeitos de segunda ordem que são um pouco mais sutis, como a necessidade de

substituições de emergência para compensar travamentos, impasses, senhas perdidas etc.; o uso generalizado de

mecanismos de superusuário, escapes e mecanismos de substituição tende a introduzir novas vulnerabilidades que

podem ser exploradas intencionalmente ou acionadas acidentalmente. impasses, senhas perdidas, etc.; o uso

generalizado de mecanismos de superusuário, escapes e mecanismos de substituição tende a introduzir novas

vulnerabilidades que podem ser exploradas intencionalmente ou acionadas acidentalmente. impasses, senhas

perdidas, etc.; o uso generalizado de mecanismos de superusuário, escapes e mecanismos de substituição tende a

introduzir novas vulnerabilidades que podem ser exploradas intencionalmente ou acionadas acidentalmente.

A obtenção da segurança corporativa geralmente depende da confiabilidade e disponibilidade


adequadas do sistema. Também depende da integridade dos subsistemas subjacentes. Assim, falamos
de mau comportamento relacionado ao computador como incluindo o mau comportamento do usuário
que faz com que um sistema de computador falhe em cumprir sua função desejada.
comportamento, e também incluindo mau funcionamento do sistema devido a causas como
problemas de hardware ou erros de software (por exemplo, falhas no projeto e implementação).
Falando livremente, a segurança envolve tentativas de prevenir tal mau comportamento.
Tem havido uma extensa discussão sobre se o acesso que não requer autorização
viola as leis que regem o excesso de autoridade. Independentemente das leis, Eugene
Spafford (1992) conclui que a grande maioria das invasões de computadores são
antiéticas, juntamente com suas justificativas pretensas. Mas de que serve a ética do
computador para impedir o uso indevido se as técnicas de segurança do computador e as
leis de fraude de computador forem deficientes? O que se segue é uma citação relevante
de Neumann (1990b, p. 535) sobre essa questão:

Alguns colaboradores do RISKS Forum sugeriram que, como os ataques a


sistemas de computador são imorais, antiéticos e (espero) até ilegais, a
promulgação da ética, o exercício de pressões de colegas e a aplicação das leis
devem ser os principais impedimentos para comprometimentos de segurança e
integridade. Mas outros observam que tais esforços não vão parar o atacante
determinado, motivado por espionagem, terrorismo, sabotagem, curiosidade,
ganância ou qualquer outra coisa. . . . É uma opinião amplamente articulada que,
mais cedo ou mais tarde, um grave colapso de nossa infraestrutura – sistemas
telefônicos, energia nuclear, controle de tráfego aéreo, financeiro etc. – será
causado intencionalmente.
Certamente há necessidade de um melhor ensino e maior observância da
ética, para desencorajar o uso indevido do computador. No entanto, devemos
nos esforçar mais para não configurar sistemas de computador em aplicativos
críticos (sejam proprietários ou sensíveis ao governo, mas não classificados,
críticos para a vida, financeiramente críticos ou dependentes) quando esses
sistemas têm vulnerabilidades fundamentais. Nesses casos, não devemos supor
que todos os envolvidos se comportarão perfeitamente, totalmente sem
malevolência e erros; a ética e as boas práticas abordam apenas uma parte do
problema – mas são, no entanto, muito importantes.

Também tem havido muita discussão sobre se a segurança do computador pode se tornar
desnecessária em uma sociedade mais aberta. Infelizmente, mesmo que todos os dados e
programas fossem acessíveis gratuitamente, haveria a necessidade de integridade do sistema e dos
dados do computador, para fornecer defesas contra adulterações, cavalos de Tróia, falhas e erros.

Uma questão natural é se os sistemas relacionados a computadores aumentam algum valor.


questões relacionadas que são substancialmente diferentes daquelas em outros tipos de
sistemas. Algumas respostas parciais são sugeridas em Neumann (1991c), e são exploradas
mais adiante aqui:

• As pessoas parecem naturalmente predispostas a despersonalizar sistemas complexos.


O acesso remoto e, em alguns casos, inatribuível ao computador intensifica essa
predisposição. A ambivalência geral e uma sublimação resultante da ética, valores e
papéis pessoais, juntamente com um pano de fundo de manipulações corporativas
cada vez mais frouxas e abusos antiecológicos parecem encorajar em algumas
pessoas uma racionalização de que o comportamento antiético é a norma e de
alguma forma justificável. Além disso, as invasões aos direitos de outros indivíduos
de alguma forma parecem menos hediondos para aqueles que não percebem que
também podem ser afetados.
• Os computadores permitem oportunidades radicalmente novas, como fraudes perpetradas
remotamente, ataques distribuídos, crosslinking de alta velocidade, pesquisa global e
correspondência de bancos de dados enormes, vigilância interna de usuários legítimos
desconhecidos para esses usuários, vigilância externa indetectável pelo pessoal do
sistema, rastreamento detalhado de atividades individuais, etc. Essas atividades eram
anteriormente impossíveis, inconcebíveis ou pelo menos muito difíceis.

A maioria das organizações profissionais tem códigos de ética. Várias nações e indústrias têm
códigos de práticas de informações justas. O ensino e o reforço de valores relacionados ao
computador são de vital importância, alertando os fornecedores de sistemas, usuários e
possíveis usuários abusivos sobre os padrões da comunidade e fornecendo diretrizes para lidar
com os abusadores. Mas ainda precisamos de sistemas de computador sólidos e leis sólidas.
(Ver, por exemplo, Denning 1990, artigos 26-7.)
No texto a seguir, primeiro identificamos as fontes de mau comportamento relacionado
ao computador. Em seguida, examinamos as expectativas que são colocadas nos sistemas de
computadores e de comunicação e nas pessoas, com relação à segurança. Também
consideramos vários problemas do sistema. Em seguida, examinamos diferentes modos de
comportamento antissocial e suas consequências, e consideramos algumas abordagens
tecnológicas específicas para reduzir alguns dos problemas potenciais. Terminamos com uma
avaliação das necessidades futuras, algumas considerações finais e alguns tópicos potenciais
para discussão posterior.

Mau comportamento relacionado ao computador


As abordagens para gerenciar o problema geral de obter segurança mais significativa em uma
empresa relacionada a computadores têm componentes tecnológicos e não tecnológicos. Os
primeiros são geralmente complexos, mas estão se tornando mais bem compreendidos e
melhor suportados por sistemas de computador mais recentes. Estes últimos são
extremamente amplos, incluindo aspectos sociais, econômicos, políticos, religiosos e outros.

Por mau comportamento relacionado ao computador, queremos dizer comportamento diferente do que é
desejado ou esperado. Tal mau comportamento pode ser atribuído a uma combinação de problemas
humanos, informáticos e ambientais. Isto é, não apenas o mau uso do sistema por parte das pessoas, mas
também o mau uso das pessoas pelos sistemas. Conforme observado em Neumann (1988), existem três
lacunas básicas que podem permitir o mau comportamento do computador e/ou humano:

1 Intervalo 1:olacuna tecnológicaentre o que um sistema de computador é


realmente capaz de impor e o que se espera que ele imponha (por exemplo, suas
políticas de confidencialidade de dados, integridade de dados, integridade de
sistema, disponibilidade, confiabilidade e exatidão). Essa lacuna inclui deficiências
em hardware e software (para sistemas e comunicações) e deficiências na
administração, configuração e operação. Por exemplo, espera-se que as senhas
forneçam autenticação de possíveis usuários do sistema; na prática, as senhas são
altamente compromissíveis. Instâncias dessa lacuna podem ser desencadeadas por
pessoas (acidentalmente ou intencionalmente), por mau funcionamento do sistema
ou por eventos externos (por exemplo).
2 Intervalo 2:olacuna sociotécnicaentre as políticas relacionadas a computadores,
por um lado, e as políticas sociais, por outro, como leis de crimes relacionados a
computadores, leis de privacidade, códigos de ética, códigos de negligência e
padrões de boas práticas, regulamentos de seguros e outras codificações
estabelecidas. Por exemplo, a política social de que um usuário do sistema não deve
exceder a autorização não se traduz facilmente em uma política do sistema que não
requer autorização ou na qual a autorização é facilmente ignorada.
3 Intervalo 3:olacuna socialentre políticas sociais (por exemplo,
comportamento humano esperado) e comportamento humano real,
incluindo atividade de crackers, uso indevido por usuários legítimos,
aplicadores desonestos etc. estar muito preocupado com as expectativas
locais de comportamento humano adequado. Da mesma forma, os
funcionários que fazem uso indevido de um sistema porque foram
subornados para fazê-lo podem considerar a precedência de uma "ética
superior" (dinheiro).
A lacuna técnica (Gap 1) pode ser reduzida pelo desenvolvimento,
administração e uso adequados de sistemas e redes de computadores
que sejam significativamente confiáveis em relação a seus requisitos
determinados. A lacuna sociotécnica (Lacuna 2) pode ser reduzida pela
criação de políticas sociais bem definidas e socialmente exequíveis,
embora a aplicação baseada em computador dependa do estreitamento
da Lacuna 1. 1 e 2, com alguma ajuda adicional de melhor educação. No
entanto, o ônus deve, em última análise, repousar em melhores sistemas
e redes de computadores, bem como em melhor gerenciamento e
disciplina autoimposta por parte dos gerentes e trabalhadores da
informação.

Uma classificação de muitos tipos de vulnerabilidades do sistema e falhas


introduzidas involuntariamente que estão sujeitas a exploração maliciosa ou acidental
é fornecida em Neumann e Parker (1989). Esse artigo fornece informações úteis,
embora uma compreensão técnica detalhada dos diferentes tipos de métodos de
ataque não seja essencial aqui.
Dado um mau comportamento relacionado ao computador, muitas vezes há uma
tendência de tentar colocar a culpaem outro lugar,ou seja, não sobre as causas reais, a fim de
proteger os culpados. Por exemplo, é comum "culpar o computador" por erros que, em última
análise, são atribuíveis às pessoas. Mesmo efeitos desastrosos relacionados ao computador
resultantes de "atos de Deus" e mau funcionamento de hardware podem, em muitos casos, ser
atribuídos a uma deficiência na concepção ou design do sistema. Da mesma forma, é comum
culpar os usuários de computador por problemas que mais propriamente deveriam ser
atribuídos aos projetistas do sistema e, em alguns casos, aos projetistas das interfaces
homem-máquina. Em muitos casos, a culpa merece ser amplamente compartilhada. Um tema
recorrente na discussão abaixo envolve os papéis relativos das três lacunas mencionadas
acima. Uma visão holística adequada sugere que todos os três podem estar envolvidos.

Requisitos de sistemas de visualização do usuário

Existem inúmeras expectativas relevantes para a segurança que as pessoas podem ter em relação a um
determinado sistema de computador, como as seguintes:

• Preservação da segurança humana e bem-estar pessoal geral no contexto


de atividades relacionadas ao computador. Os sistemas de computador em várias disciplinas
(transporte, medicina, serviços públicos, controle de processos, etc.) estão sendo cada vez mais
chamados a desempenhar um papel fundamental em operações vitais.
• Observância dos direitos de privacidade, interesses de propriedade e outros
atributos esperados. As pessoas devem ser notificadas quando estão sendo
submetidas a atividades de monitoramento incomuns e devem ter a
oportunidade de observar e corrigir dados pessoais incorretos.
• Prevenção contra comportamento humano indesejado. Isso inclui atos maliciosos, como
sabotagem, uso indevido, fraude, comprometimento, pirataria e atos antissociais
semelhantes. Também inclui atos acidentais que poderiam ter sido evitados.
• Prevenção contra comportamento indesejado do sistema, como travamentos induzidos
por hardware ou software, resultados errados, modos de falha não tolerados,
atrasos excessivos, etc.
• Equilibrar os direitos dos usuários do sistema com os direitos da administração do
sistema, principalmente no que diz respeito ao uso e monitoramento de recursos.

Esses requisitos estão entrelaçados com questões relacionadas a valor de várias maneiras,
incluindo algumas relacionadas a fraquezas humanas no projeto, desenvolvimento, operação e uso
do sistema, e algumas relacionadas à confiança equivocada nos sistemas - por exemplo, excessiva
ou inadequada.

Requisitos de segurança do sistema

Os requisitos motivados por humanos acima estão normalmente relacionados aos requisitos do
sistema de computador, como os seguintes: requisitos de segurança do sistema, tanto funcionais
quanto comportamentais. Os sistemas de computador devem aplicar de maneira confiável certas
políticas de segurança de sistemas e aplicativos acordadas, como integridade do sistema,
confidencialidade dos dados, integridade dos dados, disponibilidade do sistema e do aplicativo,
confiabilidade, pontualidade, segurança humana em relação ao sistema, etc., conforme necessário
para impor ou melhorar os requisitos socialmente relevantes listados na seção anterior.

Expectativas sobre o Comportamento Humano

Há também inúmeras expectativas relevantes para a segurança que os projetistas e


administradores de sistemas podem desejar fazer das pessoas envolvidas em sistemas e
aplicativos de computador específicos. Em um extremo estão as expectativas razoáveis sobre
usuários supostamente cooperativos e benignos, todos os quais são confiáveis dentro de alguns
limites particulares; no outro extremo está a ausência geral de suposições sobre o comportamento
humano – admitindo a possibilidade de comportamento humano "bizantino", como
comportamento arbitrariamente malicioso ou desviante por usuários desconhecidos e
potencialmente hostis. Algumas das expectativas mais importantes são as seguintes. É conveniente
considerar ambas as formas de comportamento humano dentro de um conjunto comum de
suposições, com o comportamento benigno tratado como um caso especial de comportamento
bizantino.

• Expectativas não específicas relevantes em todo o espectro de usuários, por exemplo,


cooperativos e não cooperativos, remotos e locais, autorizados e não autorizados.
Políticas de segurança sensatas devem ser estabelecidas e aplicadas, com atributos
de acesso padrão que suportem as necessidades do usuário e as demandas dos
administradores para uso controlável do sistema.
• Requisitos de segurança do usuário em usuários geralmente cooperativos. Mesmo na
presença de usuários amigáveis, as suposições de benignidade são arriscadas,
principalmente à luz de mascarados e acidentes. Em ambientes relativamente restritos
ou não hostis, pode ser razoável fazer algumas suposições simplificadoras, por exemplo,
que não há penetradores externos (como em um sistema classificado que não tem
acesso externo e apenas usuários confiáveis) e que a probabilidade de uso indevido mal-
intencionado por usuários autorizados é relativamente pequeno e, em seguida, fazer
verificações apropriadas quanto a desvios.
• Suposições de segurança do usuário sobre usuários potencialmente não cooperativos.
Projetar para o comportamento humano bizantino é uma tarefa extremamente difícil,
assim como para os modos de falha bizantinos. Em um ambiente totalmente hostil,
pode ser necessário supor o pior, incluindo malícia arbitrária por parte de indivíduos e
possível conluio entre usuários autorizados hostis colaboradores, bem como a falta de
confiabilidade do hardware.

Preocupações de design/implementação

Várias questões precisam ser consideradas relacionadas ao projeto e implementação


do sistema:

• Os requisitos de segurança do sistema refletem adequadamente os requisitos


sociais? Muitas vezes há omissões gritantes.
• Os requisitos de segurança do sistema são devidamente aplicados pelo
sistema? Muitas vezes há falhas no projeto e implementação do sistema.
• Quais são as limitações intrínsecas do que pode e não pode ser garantido? Nada
pode ser absolutamente garantido. Sempre há possibilidades para exceções não
detectadas. Sempre podemos fazer melhor, mas não podemos ser perfeitos. É
desejável projetar sistemas de modo que, se algo indesejável acontecer, seja
possível contê-lo em algum sentido relevante para o problema, ou desfazê-lo ou
compensá-lo.
• O sistema está sendo usado de uma maneira fundamentalmente inadequada que
claramente viola ou permite violações do comportamento desejado? Em muitos
casos, a ausência de garantias combinada com a probabilidade de consequências
negativas graves sugere que esse uso é fundamentalmente infundado.

Preocupações operacionais

Mesmo um sistema que foi idealmente projetado e implementado pode ser


comprometido se não for bem administrado operacionalmente. Algumas das
principais questões relacionadas à gestão administrativa adequada incluem os
seguintes desideratos:

• Capacidade de reconhecer e eliminar em tempo hábil várias falhas do sistema,


vulnerabilidades de configuração e fraquezas de procedimentos. Tais problemas
tendem a ser pouco preocupantes até serem realmente explorados de alguma forma
dramática, quando um pouco de pânico geralmente resulta em uma solução rápida que
resolve apenas uma pequena parte dos problemas.
• Capacidade de reagir rapidamente a emergências evidentes, por exemplo, penetrações em massa ou
outros ataques ao sistema de computador. A preparação não é um instinto natural diante de
ameaças desconhecidas ou não percebidas.
• Disposição para comunicar a existência de vulnerabilidades e ataques em andamento a
outras pessoas que possam ter experiências semelhantes. Em alguns casos, o sigilo
corporativo é importante para aqueles que temem impactos competitivos negativos
da divulgação de perdas. Em outros casos, há uma falta de conscientização da
comunidade quanto à natureza global dos problemas. O intercâmbio de
informações pode ser uma grande ajuda para uma boa gestão.
• Reconhecer abusos em potencial, por exemplo, insiders vendendo informações confidenciais de forma
privada ou "consertando" entradas de banco de dados (por exemplo, removendo mandados
pendentes de registros criminais) e lidando com eles de forma proativa.
Comportamentos antissociais

Existem várias manifestações de comportamento antissocial que podem estar relacionadas ao


projeto, desenvolvimento e operação de sistemas de computador, bem como a desvios
específicos do comportamento ético, moral e/ou legal.

"Hacking", bom e ruim

• "Hacker" era originalmente um termo benevolente, não pejorativo. À luz das


respostas da mídia aos recentes usos indevidos do sistema, o uso negativo
parece ter prevalecido e contaminou permanentemente o termo, mais ou
menos antecipando seu uso em relação a hackers benevolentes. Há muitas
consequências benéficas de uma sociedade aberta em que a livre troca de
ideias e programadores é encorajada. No entanto, sempre haverá sérios
potenciais de uso indevido.
• O uso indevido pode ter origem intencional ou acidental. Ambos os casos representam sérios
problemas potenciais. (Veja a próxima seção para uma discussão sobre o que fazer
sobre esses problemas.)
• O uso indevido por usuários autorizados e o uso indevido por usuários não
autorizados são problemas potenciais sérios, embora em qualquer aplicativo
específico um desses problemas possa ser mais importante que o outro.
Depende do ambiente.
• O que é realmente "autorizado" em um determinado aplicativo geralmente não é
claro e pode ser mal definido e mal compreendido. Isso é discutido na próxima
seção.

Resumo dos modos de uso indevido

• Os alçapões e outras vulnerabilidades representam sérias fontes potenciais de comprometimento


da segurança, seja por usuários autorizados ou por usuários não autorizados. Muitos
sistemas têm falhas de segurança fundamentais; algumas falhas podem ser exploradas por
pessoas sem profundo conhecimento do sistema, enquanto outras falhas não podem.

O uso indevido de autoridade por usuários legítimos é mais provável em alguns


ambientes de sistema do que invasões externas (por exemplo, onde há
oportunidades muito mais limitadas para invasões devido à ausência de linhas
discadas e conexões de rede). Tal uso indevido pode ser feito parcialmente
usuários privilegiados, bem como por usuários onipotentes, principalmente quando as
vulnerabilidades são exploradas também. Observe que a distinção entre usuários
autorizados e não autorizados é muito complicada, conforme discutido em
Considerações do sistema abaixo.
Existem vários modos de contaminação abusiva do sistema, muitas vezes
agrupados sob a rubricade programas de pragas.Estes incluem cavalos de
Tróia (por exemplo, bombas-relógio, bombas lógicas, bombas de cartas,
etc.), cavalos de Tróia propagados por humanos, vírus autopropagáveis,
worms malévolos e outros. Seguindo a mitologia, um cavalo de Tróia é um
programa (ou dados ou hardware ou qualquer outra coisa) que contém
algo capaz de causar uma consequência inesperada e geralmente
indesejável quando invocado por um usuário desavisado. As distinções
entre as várias formas de programas de pragas tendem a causar discussões
filosóficas e pseudo-religiosas desordenadas entre pessoas supostamente
racionais, mas são mais ou menos irrelevantes aqui. Os chamados vírus de
computador pessoal são geralmente contaminações de cavalos de Tróia
que se espalham inadvertidamente pela atividade humana. A recente
proliferação de vírus antigos e o aparecimento contínuo de novas cepas de
vírus são ambos fenômenos de nossos tempos; Pior ainda,

Efeitos deletérios orientados ao sistema de computador

• Perdas de confidencialidade. As informações (por exemplo, dados e programas) podem


ser obtidas de várias maneiras, incluindo a aquisição direta pelo obtentor.
transmissão direta de um doador, permissão de acesso inadvertida do fornecedor
ou de uma segunda parte, ou indiretamente. A aquisição indireta inclui inferências
derivadas contextualmente das informações disponíveis. Uma forma de inferência
envolve o chamado problema de agregação, em que a totalidade das informações é
de alguma forma mais sensível do que qualquer um dos itens de dados tomados
individualmente. Outra forma de aquisição indireta resulta da exploração de um
canal encoberto, que envolve uma sinalização um tanto esotérica por meio de um
canal não comumente usado para transmitir informações, como a presença ou
ausência de uma mensagem de erro significando o esgotamento de um recurso
compartilhado.
• Perdas de integridade do sistema, integridade do aplicativo e previsibilidade do sistema. Existem
inúmeras formas relevantes de integridade. Programas do sistema, dados e informações de
controle podem ser alterados de forma inadequada. O mesmo é verdade de
programas do usuário, dados e informações de controle. Quaisquer alterações podem
impedir que o sistema produza de forma confiável os resultados desejados. Estas são
basicamente noções de consistência interna. A consistência externa também é um
problema sério, por exemplo, se os dados em um banco de dados não forem
consistentes com os dados do mundo real que ele pretende representar. Informações
errôneas podem ter sérias consequências em diversos contextos.
• Recusas de serviço e perdas de disponibilidade de recursos. Há efeitos deletérios que não
envolvem perda de confidencialidade nem perda de integridade. Isso inclui sérias
degradações de desempenho, perda de capacidade de resposta crítica em tempo
real, indisponibilidade de dados quando necessário e outras formas de negação de
serviço.
• Outros usos indevidos. A lista acima está longe de ser completa, pois existem muitos outros tipos de
uso indevido. Por exemplo, o uso indevido pode envolver roubos não detectados de serviços (por
exemplo, tempo de computação) ou aplicativos questionáveis (por exemplo, administrar
negócios privados nas instalações dos empregadores).

Consequências sociais

• Violação de privacidade e direitos humanos relacionados (por exemplo, constitucionais).


A perda de confidencialidade pode resultar claramente em sérios problemas de
privacidade, causados intencionalmente ou não. Todas as modalidades de perda
de confidencialidade acima podem ter sérias consequências. Além disso, os efeitos
de informações errôneas podem ser ainda mais graves, tanto no sentido de
consistência interna quanto externa.
• Privacidade de software. O roubo de programas, dados, documentação e outras
informações pode resultar em perda de receita, perda de reconhecimento, perda de
controle, perda de responsabilidade sem perda de responsabilidade, perda de
responsabilidade e outras consequências graves.
• Efeitos na segurança humana. O uso indevido de um sistema crítico para a vida pode
resultar em mortes e ferimentos, seja acidental ou intencional.
• Questões legais. Os efeitos jurídicos potenciais são bastante variados. Pode haver
processos judiciais contra usuários indevidos, usuários inocentes e
fornecedores de sistemas. Algumas dessas ações seriam, sem dúvida, frívolas
ou equivocadas, mas mesmo assim causando considerável agonia ao
acusado. Os "crimes" informáticos já foram uma fonte de dificuldades reais
para as comunidades de aplicação da lei, bem como para réus culpados e
inocentes.
• Percepções. Maior interconectividade, intercomunicabilidade e uso de recursos
compartilhados são objetivos claramente desejáveis. No entanto, o medo de
cavalos de Tróia, vírus, perda de privacidade, roubo de serviços etc.
provavelmente criará uma comunidade paranóica ou inconsciente e vulnerável
aos perigos sociais.

Considerações do sistema

Existem várias técnicas, arquiteturas e métodos relacionados ao desenvolvimento e


operação do sistema que podem ajudar a reduzir a lacuna entre o que se pretende e o que
é realmente possível (a lacuna técnica). Isso inclui medidas de segurança do sistema e
procedimentos administrativos. Em particular, questões cruciais incluem responsabilidade
do sistema, com identificação, autenticação e autorização do usuário, e identificação,
autenticação e autorização do (sub)sistema também; melhores designs de sistema,
implementando políticas de segurança mais refinadas com menos vulnerabilidades de
segurança; e monitoramento criterioso do uso do sistema. Esses problemas são
particularmente relevantes em sistemas altamente distribuídos (por exemplo, Neumann
1990a).
Alguns autores tentaram fazer distinções entre uso indevido intencional e acidental.
Mesmo um exame superficial mostra que é essencial em muitos sistemas e aplicativos
prever ambos os tipos de uso indevido, incluindo o mau comportamento do sistema (por
exemplo, falhas de hardware), bem como o mau comportamento humano. Há exemplos
de um tipo que pode causar (ou ter causado) desastres graves que não puderam ser
detectados como instâncias do outro tipo. (Ver Neumann 1991b.)

Identificação, autenticação e autorização

Um dos problemas mais difíceis relacionados à segurança é determinar o que significa


"uso autorizado". As leis de fraude e abuso de computador geralmente implicam que o uso
não autorizado é ilegal. Mas em muitos sistemas de computador não há autorização
explícita necessária para uso mal-intencionado ou outro uso prejudicial. Um exemplo
ilustrativo simples é fornecido pelo Internet Worm (por exemplo, Denning 1990, artigos
10-15), no qual quatro mecanismos foram explorados: odepuração do sendmailopção,o
dedoprograma, o .rhoststabelas para acessar sistemas remotos e o arquivo de senha
criptografado. Surpreendente para alguns, talvez, nenhum deles exigiu qualquer
autorização explícita para seu uso indevido. Se habilitado pela configuração do sistema, o
depuração do sendmailopção pode ser usada por qualquer pessoa. odedobug do programa
(dependendo de um programa falhorecebe)permitia que qualquer pessoa explorasse um
programa amplamente disponível projetado para fornecer informações sobre outro usuário.
Orhosts
. tabelas permitem acesso remoto a qualquer pessoa logada sem autorização
adicional. Finalmente, os arquivos de senha criptografados são normalmente legíveis e
sujeitos a ataques de dicionário off-line ou on-line se alguma das senhas for realmente
palavras de dicionário. A exploração de cada um desses quatro mecanismos claramente
não é o que se pretendia como uso adequado, mas a autorização não é o que distingue o
uso "bom" (ou adequado) do "ruim" (ou impróprio). Talvez o problema esteja em
administradores de sistema e usuários confiando imprudentemente em mecanismos não
confiáveis, e com fornecedores promovendo sistemas que são fundamentalmente
limitados.
Sem o conhecimento de quem está fazendo o que para quem (em termos de processos de
computador, programas, dados, etc.), a autorização tem um valor muito limitado. Assim,
alguma forma de autenticação razoavelmente não falsificável é muitas vezes essencial para
fornecer alguma garantia de que a identidade presumida está de fato correta.
Na ausência de autorização significativa, as leis tendem a ser confusas. Por exemplo,
as atuais (ou seja, 1991) leis de abuso de computadores na Califórnia podem, na verdade,
ser interpretadas como tornando ilegais certos usos de computadores perfeitamente
legítimos. Os promotores foram citados dizendo que isso não apresenta problemas,
porque nenhum desses casos seria processado. Mas claramente há problemas porque se
torna impossível fechar a lacuna sociotécnica.

Controles de acesso

A existência da lacuna técnica mencionada acima é bastante difundida na maioria dos sistemas
de computador e comunicação. Idealmente, os controles de acesso ao sistema devem permitir
apenas os acessos que são realmente desejáveis. Na prática, muitas formas de
comportamento indesejável do usuário são realmente permitidas. Assim, os controles do
sistema devem permitir o acesso autorizado o mais próximo possível apenas quando esse
acesso realmente corresponder ao comportamento desejado.

Usos de tecnologias de criptografia


A criptografia tem sido tradicionalmente uma abordagem para alcançar o sigilo da
comunicação. Agora está surgindo como uma solução parcial para muitas outras funções
relacionadas à segurança, como fornecer autenticadores criptografados e não falsificáveis,
transmissão de chaves criptografadas e descriptografadas de forma criptografada,
identificação e autenticação, assinaturas digitais, tíquetes para transações confiáveis, como
registro e funções de reconhecimento de firma, selos de integridade não falsificáveis, carimbos
de data e hora não adulterados e mensagens que, uma vez enviadas legitimamente, não
podem ser facilmente rejeitadas como falsificações. Assim, há uma variedade crescente de
novas aplicações interessantes.
Infelizmente, as restrições governamentais sobre pesquisa, uso e exportação de
técnicas de criptografia dificultam algumas dessas aplicações.

Responsabilidade e monitoramento

A identificação e a autenticação do usuário são essenciais para uma responsabilidade


adequada. Na ausência de identificação adequada do usuário, a responsabilidade é de
valor limitado.
O uso anônimo apresenta alguns problemas potenciais. As restrições típicas permitem
a leitura apenas de informações disponíveis gratuitamente, enquanto proíbem
modificações externas; a menos que o sistema seja uma caixa de areia ou um quadro-
negro público, a adição de novo material também deve ser restrita, para evitar negações
de serviço de saturação de diretório.
O monitoramento é em si um problema crítico de segurança. Deve ser geralmente não
subversível (não passível de ser contornado, não alterável e de outra forma não compromissível) e
deve respeitar os requisitos de privacidade.
O monitoramento pode servir a muitos propósitos diferentes, incluindo procurar detectar
anomalias relacionadas à confidencialidade, integridade, disponibilidade, confiabilidade,
segurança humana, etc. Com relação ao monitoramento de segurança, existem dois tipos
fundamentalmente diferentes, mas inter-relacionados – monitoramento de uso para detectar
intrusos (que pode ser um benefício para usuários legítimos) e monitoramento para detectar
uso indevido por usuários (supostamente) legítimos. A gerência tem a responsabilidade de
informar os usuários legítimos sobre que tipo de monitoramento está em vigor, embora,
infelizmente, possa ser desejável ocultar os algoritmos detalhados, porque podem implicar a
existência de vulnerabilidades específicas. Esta é uma questão difícil. (Veja, por exemplo,
Denning et al. 1987.)
A segurança continua sendo um problema especialmente sério em sistemas altamente distribuídos,
em que a responsabilização e o monitoramento assumem um papel ainda maior. Exemplos de
sistemas para análise de trilhas de auditoria em tempo real são dados por Lunt (1988), enquanto
uma instância particular de um sistema que foi cuidadosamente projetado e implementado para
fornecer extensas restrições sobre o que pode ser auditado e como os dados de auditoria podem
ser controlados é dado por Lunt e Jagannathan (1988).

Necessidades futuras

A existência generalizada das três lacunas mencionadas acima sugere que são necessários
esforços para reduzir cada uma das lacunas. Algumas necessidades para o futuro incluem o
seguinte.
• Sistemas melhores, proporcionando segurança mais abrangente com maior garantia
– sistemas mais fáceis de usar e administrar, mais fáceis de entender em relação
ao que realmente está acontecendo, mais representativos da política de
segurança que realmente se deseja, etc. (Gap 1)
• Padrões profissionais. As associações profissionais existentes estabeleceram códigos
éticos. Mas eles são adequados? – ou adequadamente invocado? (Intervalo 2)
• Melhor educação em ética e valores, no contexto da tecnologia,
particularmente em relação aos sistemas de informática e
comunicação, e também em relação aos riscos da informatização (cf.
Neumann 1991a). (Intervalo 2)
• Melhor compreensão das responsabilidades e direitos dos administradores de
sistema, usuários, usuários indevidos e invasores. (Intervalos 2 e 3)
• Uma população mais inteligente e mais responsável, incluindo designers,
programadores, pessoal de operações, usuários e leigos que, de várias
maneiras, são forçados a depender da informatização, gostem ou não.
Holisticamente, precisamos de uma sociedade mais gentil e gentil, mas
realisticamente isso é muito utópico. (Intervalo 3)
• Na ausência de um mundo utópico, parece necessário que nos esforcemos para
melhorar nossos sistemas de computadores e comunicações, nossos padrões,
nossas expectativas de educação e nosso mundo como um todo, tudo ao mesmo
tempo, embora as necessidades de nossos a sociedade tenderá a ditar certas
prioridades entre as direções que contribuem. Infelizmente, a conveniência
comercial muitas vezes determina que a ênfase seja colocada em soluções
aparentemente fáceis e paliativas que, a longo prazo, são inadequadas. (Lacunas 1,
2, 3, abordadas em conjunto de uma perspectiva geral)
Conclusões

Neste capítulo, consideramos a segurança de maneira um pouco ampla, abrangendo não


apenas a proteção contra penetrações e uso indevido interno, mas também a proteção contra
outros tipos de sistema indesejado e comportamento do usuário. Essa perspectiva é
importante, porque as tentativas de abordar um conjunto mais restrito de problemas
geralmente são míopes.
No geral, a conscientização sobre vulnerabilidades do sistema de computador e
contramedidas de segurança é maior do que há alguns anos. Em retrospecto, a segurança do
computador tem melhorado cada vez mais, assim como os crackers e os usuários furtivos de
autoridade. Além disso, as oportunidades e ganhos potenciais do mau uso interno parecem
estar aumentando. No entanto, nossa sociedade não parece estar ficando significativamente
mais moral como um todo, apesar de alguns esforços determinados por parte de alguns
indivíduos e grupos. A lacuna 1 na verdade está se fechando um pouco; A lacuna 2 ainda
precisa de mais trabalho; A lacuna 3 continua sendo um problema potencialmente sério.
Em uma conferência em 1969, ouvi o autor de "2001" Arthur Clarke falar
sobre como estava ficando cada vez mais difícil escrever boa ficção científica;
ele lamentou: "O futuro não é o que costumava ser." Yogi Berra pode ter
observado que a observação de Clarke foi "déjà vu tudo de novo". Por
fechamento transitivo, acho apropriado combinar esses dois aforismos. O
déjà vu não é mais o que costumava ser – parece estar piorando. E parece
haver um número suficiente de pessoas que assinam o título de Tom Lehrer
para uma música que ele nunca escreveu (porque teria sido um anticlímax):
"Se eu tivesse que fazer tudo de novo, faria tudo em cima de você. " Na
ausência de melhores sistemas de computador e comunicação, melhores
operações do sistema, melhores leis, melhores programas educacionais,

Alguns tópicos para discussão

Um dos propósitos deste capítulo é estimular uma discussão mais aprofundada das
questões vitais relacionadas aos valores no uso de computadores. O que se segue são
alguns tópicos de interesse potencial. Eles são declarados aqui por causa da natureza
abrangente dos problemas e dos perigos de tentar compartimentar as relações entre
causas e efeitos.

1 As três lacunas discutidas acima (técnica, sociotécnica e social,


respectivamente) será fechado em qualquer sentido realista, diante dos
comportamentos antissociais discutidos acima? Estamos convergindo ou divergindo,
ou ambos? Lembre-se, existenãosegurança perfeita.
2 As leis existentes são uma representação adequada da necessidade de fechar as
lacunas 2 e 3? Quais são os papéis apropriados de "intenção", "autoridade
excessiva" e "autoridade de uso indevido", particularmente em situações em que
nenhuma autorização é necessária, e quais são as implicações nas tentativas de
fechar a lacuna 1?
3 Quais são as limitações intrínsecas das medidas de segurança tecnológica
por si só, das medidas de segurança administrativa e operacional por si
só, e tudo isso junto? Consulte as preocupações de design e
implementação discutidas acima.
4 Quais são as limitações essenciais de tentar manter a privacidade,
particularmente à luz das demandas para comprometê-la? As implicações das
substituições de emergência e outros mecanismos excepcionais fornecem
necessidades conflitantes.
5 Como podemos equilibrar melhor os direitos pessoais com as necessidades de
monitoramento? Por exemplo, considere o FBI monitorando grupos de notícias on-
line e corporações monitorando e-mails de entrada e saída e uso geral do sistema.
(Veja responsabilidade e monitoramento discutidos acima.)
6 Considere a filosofia da Free Software Foundation (FSF) de acesso aberto e
distribuição gratuita e suas implicações. Observe que a segurança tem muito mais
propósitos do que apenas fornecer confidencialidade. Por exemplo, prevenir cavalos
de Tróia e outros tipos de sabotagem é claramente um objetivo importante. (Nota
adicionada: Ironicamente, pouco antes de eu concluir este artigo, o abuso dos
computadores FSF tornou-se desenfreado, incluindo o uso de contas abertas para
destruir o software FSF e obter acesso gratuito a outros sistemas da Internet.
Richard Stallman da FSF admitiu relutantemente que eles teve que instituir senhas.
Veja oBoston Globo.6 de agosto de 1991, artigo de primeira página.)

7 Podemos realisticamente "colocar a culpa" por sistemas e comportamentos humanos


indesejados, com respeito a crackers, malfeitores, designers, programadores,
administradores de sistemas, comerciantes, interesses corporativos, governos dos EUA
e outros, etc., em todo o amplo espectro de problemas relacionados à segurança?
problemas? As tentativas de colocar a culpa são muitas vezes equivocadas e tendem a
perder de vista os problemas subjacentes. Além disso, a culpa geralmente pode ser
amplamente distribuída. Há também o perigo de atirar no mensageiro. (Contraste
essa noção distribuída de culpa com o euChingconceito de "sem culpa"!) (Veja
também Denning 1991.)
8 Como as necessidades de criptografia para privacidade, integridade e outros propósitos
mencionados acima podem ser equilibradas com as necessidades de "segurança nacional" e
outras restrições governamentais? Considere as implicações sociais da criptografia de chave
privada versus criptografia de chave pública, controles de exportação, interesses corporativos e
nacionais, cooperação internacional, etc.
9 Como a segurança ajuda ou interfere em outras questões sociais? Pode
impedir seriamente o acesso de pessoas com deficiência e desfavorecidas?
Ou se não, apresentaria vulnerabilidades intrínsecas que poderiam ser
exploradas por outros? Há desafios nos dois sentidos. Por exemplo,
indivíduos com deficiência física ou de outra forma podem votar em suas
casas, via telefone ou computador. Esses sistemas também podem incentivar
a votação fraudulenta. Se medidas de segurança sérias fossem invocadas, os
benefícios poderiam ser perdidos.
10 Estamos criando uma sociedade bipolar de insiders alfabetizados em computador e
todos os outros? Ou uma sociedade multipolar de várias categorias distintas?
Estamos desprivilegiando algum setor da sociedade, como os mortais comuns e as
pessoas que não têm recursos de informática?
11 Quais são as implicações da segurança do computador na pesquisa acadêmica?
O sigilo desnecessário é claramente uma preocupação. Assim como a privacidade
inadequada. A perda de integridade é outra preocupação, com a possibilidade de
alteração ou falsificação de dados experimentais e resultados de pesquisas.
Autenticidade (a capacidade de fornecer garantia de que algo é genuíno) e não
repudiabilidade subsequente (a capacidade de fornecer alguma garantia de que
algo atribuído a um indivíduo realmente foi atribuído corretamente) são questões
técnicas ilustrativas relacionadas a essa questão.
12 As regulamentações transnacionais de troca de dados existentes apresentam
obstáculos à cooperação internacional, incluindo a disseminação de conhecimento,
programas e outras informações on-line? Se esses regulamentos fossem relaxados,
haveria sérias consequências, por exemplo, com respeito a questões sociais,
econômicas, políticas e integridade nacional? A segurança do computador poderia
ajudar a fornecer controles que permitiriam que as fronteiras nacionais fossem
transcendidas com segurança? Ou deve ser um impedimento? Ou ambas as alternativas
são realmente verdadeiras ao mesmo tempo?

A lista de itens acima não está completa. Apenas sugere algumas das
tópicos mais espinhosos que podem ser de interesse para uma discussão mais aprofundada.

Antecedentes Adicionais

Informações adicionais sobre segurança de computadores são encontradas em Clark et al.


(1990). enquanto vários exemplos de mau uso do sistema são analisados em Denning
(1990) e Hoffman (1990). Exemplos de eventos acidentais e intencionais que resultaram em
sérios problemas relacionados ao computador estão resumidos em Neumann (1991a).
(Para a versão mais recente do Neumann'sResumo de Riscos,veja o seguinte URL:http://
catless.ncl.ac.uk/Risks .)

Referências

Clark, David D. et ai. (1990).Computadores em risco: computação segura nas informações


Era.Conselho Nacional de Pesquisa. Imprensa da Academia Nacional. 2101
Constitution Ave., Washington, DC 20418, 5 de dezembro. Relatório final do
Comitê de Estudo de Segurança do Sistema. ISBN 0-309-04 388-3. (Uma lista
completa dos membros do comitê é fornecida no relatório acessado em
http://www7.nationalacademies.org/cstb/pub_computersatrisk.htm)
Denning, Dorothy E. (1991). "Responsabilidade e culpa na segurança do computador." Em Terrell
Ward Bynum, Walter Maner. e John L. Fodor (eds.).Segurança Computacional. Centro
de Pesquisa em Computação e Sociedade, 1992.
Denning, Dorothy E., Neumann Peter G. e Parker Donn B. (1987). "Aspectos Sociais da
Segurança Informática."Anais da 10ª Conferência Nacional de Segurança
Informática.Baltimore MD, setembro.
Denning, Peter J. (ed.) (1990).Computadores sob ataque: intrusos, worms e
Vírus,ACM Press, 1990. Veja particularmente os capítulos sobre The Internet Worm
(artigos 10-15). implicações sociais, legais e éticas (artigos 26-37). Número de pedido
ACM 706900.
Hoffman. LJ (ed.) (1990).Programas desonestos: Vírus, Worms e Cavalos de Tróia.furgão
Nostrand Reinhold.
Lunt, Teresa F. (1988). "Análise de Trilha de Auditoria Automatizada e Detecção de Intrusão: Um
Enquete."11ª Conferência Nacional de Segurança Informática,Médico de Baltimore. Outubro.
Fumegar. Teresa F. e Jagannathan, R. (1988). "Um protótipo de detecção de intrusão em tempo real
Sistema inteligente."Anais do Simpósio de Segurança e Privacidade de 1988, IEEE
Computer Society, Oakland CA, abril, pp. 59–66.
Neumann, Peter G. e Parker. Donn (1989) "Um resumo do uso indevido do computador
Técnicas."Anais da 12ª Conferência Nacional de Segurança da Computação,
Baltimore MD, 10–13 de outubro, pp. 396–407.
Neumann, PG (1988). "O risco relacionado ao computador do ano: abuso de computador."
Anais do COMPASS (Computer Assurance),Junho, pp. 8–12. IEEE
88CH2628–6.
Neumann, PG (1990a). "O Risco Relacionado ao Computador do Ano: Controle Distribuído."
Anais do COMPASS (Computer Assurance).Junho. págs. 173–7. IEEE
90CH2830.
Neumann, PG (1990b). "Uma Perspectiva do Fórum RISKS." Artigo 39 em Peter J.
Denning (ed.),Computadores sob ataque.ACM Press, pp. 535–43.
Neumann, PG (1991a). "Riscos ilustrativos para o público no uso de sistemas de computador
e Tecnologia Relacionada."SEN,16/1 (janeiro): 2–9. (Índice dos arquivos
publicados do RISKS.)
Neumann, PG (1991b). "Os papéis da estrutura em segurança e proteção." Posição do papel
para um Workshop da IFIP sobre Confiabilidade, Segurança e Proteção de Sistemas de Computador:
Falhas Acidentais x Intencionais, Grand Canyon, 22 a 4 de fevereiro.
Neumann, PG (1991c). "Computadores, Ética e Valores, Riscos Internos."
Comunicações da ACM,Julho, na contracapa.
Spafford. Eugênio (1992). "As arrombamentos de hackers de computador são éticos?"revista de sistemas
e Software,Janeiro. [Capítulo 10 abaixo de,pág.227 .]

Perguntas básicas de estudo

1. Descreva como a aplicação da segurança do computador pode funcionar como "uma faca de dois
gumes". Inclua alguns dos exemplos de Neumann.
2. Cite e descreva alguns dos efeitos potencialmente negativos que podem ocorrer com o aumento da
segurança do computador.
3. Discuta a necessidade de instrução sobre questões éticas relacionadas ao computador.
4. Cite e descreva as três lacunas fundamentais que podem permitir o mau comportamento relacionado ao
computador.
5. Por que a segurança do computador seria necessária mesmo se não houvesse uso indevido
intencional?
6. Descreva a gama de expectativas de segurança do computador que os usuários tendem a ter.
7. Quais são algumas considerações de segurança que precisam ser levadas em consideração ao
projetar e implementar sistemas de computador?
8. Que tipos de preocupações operacionais Neumann identifica e descreve em relação aos
administradores de sistemas de computador?
9. Descreva algumas das várias consequências sociais que Neumann identifica em relação a
comportamentos antissociais envolvendo sistemas de computador.
10. Como a autorização afeta a identificação e a responsabilidade pelo mau comportamento do
computador?

Perguntas para reflexão


1. Dado que a segurança informática podeNuncaser perfeito, as três "lacunas" discutidas por
Neumann podem ser fechadas de forma razoável?
2. Qual é a relação entre privacidade e segurança do computador? Como a privacidade pode ser tanto uma
ajuda quanto um obstáculo para a segurança do computador?
3. A segurança do computador é boa ou ruim para a pesquisa acadêmica? - bom ou ruim para os negócios?
– bom ou ruim para a defesa nacional? Por quê?
CAPÍTULO 10

As invasões de hackers de computador são éticas?

Eugene H. Spafford

Eugene H. Spafford, "As arrombamentos de hackers de computador são éticos?" Este capítulo foi
publicado pela primeira vez noJornal de Sistemas e Software,1992. Uma versão anterior apareceu em
Tecnologia da Informação Trimestral,IX (1990). © 1991, 1997 por Eugene H. Spafford, todos os direitos
reservados. Reimpresso com permissão do autor.

Introdução

Incidentes recentes [isto é, no final dos anos 1980 e início dos anos 1990] de intrusão não
autorizada de computadores trouxeram discussões sobre a ética de invadir computadores.
Alguns indivíduos argumentaram que, desde que não resultem danos significativos, os
arrombamentos podem servir a um propósito útil. Outros contestam com a expressão de que
os arrombamentos são quase sempre prejudiciais e errados.
Este artigo lista e refuta muitas das razões apresentadas para justificar invasões de
computador. É a alegação do autor que arrombamentos são éticos apenas em situações
extremas, como uma emergência crítica à vida. O artigo também discute por que nenhum
arrombamento é "inofensivo".
Em 2 de novembro de 1988, um programa foi executado na Internet que se
replicava em milhares de máquinas, muitas vezes carregando-as ao ponto de não
conseguirem processar solicitações normais (Seeley 1989. Spafford 1989a e b). Este
programa Internet Worm [vercaixa 1 ] foi interrompido em questão de horas, mas a
polêmica gerada por seu lançamento durou anos. Outros incidentes recentes,
como os "hackers astutos"1rastreado por Cliff Stoll (1989), os membros da "Legion of
Doom" que supostamente roubaram o software 911 da companhia telefônica
(Schwartz 1990). e o crescimento do problema do vírus de computador (Spafford et al.
1989; Hoffman 1990: Stang 1990; Denning 1991) contribuíram para a discussão. O que
constitui acesso impróprio a computadores? Alguns arrombamentos são éticos? Existe
algo como um "hacker moral" (Baird et al. 1987)?
Caixa 1 O Worm da Internet

Na noite de 2 de novembro de 1988, um programa auto-replicante foi lançado na


Internet. Este programa (um worm) invadiu computadores VAX e Sun-3 rodando versões
do Berkeley UNIX, e usou seus recursos para atacar ainda mais computadores. No espaço
de horas, esse programa se espalhou pelos EUA, infectando centenas ou milhares de
computadores e tornando muitos deles inutilizáveis devido à carga de sua atividade. A
Internet nunca havia sido atacada dessa maneira antes, embora houvesse muita
especulação de que um ataque estava reservado. A maioria dos administradores de
sistema não estava familiarizada com o conceito de worms, e levou algum tempo até que
pudessem estabelecer o que estava acontecendo e como lidar com isso (Seeley 1989).

Todo esse episódio deve nos levar a refletir sobre a ética e as leis relativas ao acesso a
computadores. A tecnologia que usamos desenvolveu-se tão rapidamente que nem sempre é
simples determinar onde podem estar os limites adequados da ação moral. Muitos profissionais
de informática seniores começaram suas carreiras anos atrás invadindo sistemas de computador
em suas faculdades e locais de trabalho para demonstrar seus conhecimentos. No entanto, os
tempos mudaram e o domínio da ciência da computação e da engenharia da computação agora
envolve muito mais do que pode ser demonstrado usando o conhecimento íntimo das falhas em
um sistema operacional específico. Empresas inteiras agora dependem, sabiamente ou não, de
sistemas de computador. O dinheiro das pessoas, suas carreiras e possivelmente até suas vidas
podem depender do funcionamento imperturbável dos computadores. Como sociedade, não
podemos arcar com as consequências de tolerar ou incentivar comportamentos que ameacem ou
danifiquem os sistemas de computador. Como profissionais, cientistas da computação e
engenheiros de computação não podem tolerar a romantização de vândalos e criminosos de
computador (Spafford 1989c).

É importante discutirmos essas questões. A evolução contínua de nossa base


tecnológica e nossa crescente dependência de computadores para tarefas críticas
sugere que futuros incidentes podem ter consequências mais graves do que as
que vimos até agora. Com a natureza humana tão variada e extrema como é, e
com a tecnologia disponível como é, devemos esperar experimentar mais desses
incidentes.
Neste artigo, apresentarei algumas das principais questões que esses incidentes
levantaram e apresentarei alguns argumentos relacionados a eles. Para esclarecimento,
separei algumas questões que muitas vezes foram combinadas quando debatidas; é possível
que a maioria das pessoas esteja de acordo em alguns desses pontos, uma vez que são vistos
como questões individuais.
O que é Ético?
O Webster's Collegiate Dictionary define ética como: "A disciplina que lida com o que é
bom e ruim e com dever e obrigação moral". Mais simplesmente, é o estudo do que é
certofazer em uma determinada situação - o que nósdeveriafaçam. Alternativamente,
às vezes é descrito como o estudo do que éBoae como alcançar esse bem. Para sugerir
se um ato é certo ou errado, precisamos concordar com um sistema ético que seja fácil
de entender e aplicar à medida que consideramos a ética das invasões de
computadores.

Os filósofos vêm tentando há milhares de anos definir o certo e o errado, e não


farei mais uma tentativa de tal definição. Em vez disso, sugiro que façamos a
suposição simplificadora de que podemos julgar a natureza ética de um ato
aplicando uma avaliação deontológica: independentemente do efeito, o ato em si é
ético? Será que veríamos esse ato como sensato e adequado se todos se
envolvessem nele? Embora este possa ser um modelo muito simplista (e
certamente pode-se argumentar que outras filosofias éticas também podem ser
aplicadas), é uma boa primeira aproximação para fins de discussão. Se você não
estiver familiarizado com qualquer outro método formal de avaliação ética, tente
aplicar essa avaliação aos pontos que levantarei mais adiante neste artigo. Se os
resultados forem obviamente desagradáveis ou perigosos em geral,

Observe que essa filosofia pressupõe quecertoé determinado por ações e não por
resultados. Algumas filosofias éticas assumem que os fins justificam os meios; nossa
sociedade atual não opera por tal filosofia, embora muitos indivíduos o façam. Como
sociedade, professamos acreditar que "não é se você ganha ou perde, é como você joga o
jogo". É por isso que nos preocupamos com questões de devido processo legal e direitos
civis, mesmo para aqueles que defendem pontos de vista repugnantes e cometem atos
hediondos. O processo é importante independentemente do resultado, embora o
resultado possa ajudar a resolver uma escolha entre dois cursos de ação quase iguais.

As filosofias que consideram os resultados de um ato como a medida final do bem


são muitas vezes impossíveis de aplicar devido à dificuldade em entender exatamente
o que resulta de qualquer atividade arbitrária. Considere um exemplo extremo: o
governo ordena que 100 fumantes, escolhidos ao acaso, sejam decapitados ao vivo na
televisão nacional. O resultado pode muito bem ser que muitas centenas de milhares
de outros fumantes parassem de fumar, prolongando assim suas vidas.
Também pode impedir que centenas de milhares de pessoas comecem a fumar,
melhorando assim a saúde e a longevidade da população em geral. A saúde de
milhões de outras pessoas melhoraria, pois não seriam mais submetidas à
fumaça secundária, e o impacto geral no meio ambiente seria muito favorável,
pois toneladas de poluentes do ar e do solo não seriam mais liberados por
fumantes ou empresas de tabaco.
No entanto, apesar do grande bem que isso pode trazer para a sociedade,
todos, exceto alguns extremistas, condenariam talAjacomo imoral. Provavelmente
objetaríamos mesmo que apenas uma pessoa fosse executada. Não importa qual
seja a lei sobre tal assunto: não sentiríamos que o ato era moralmente correto,
nem veríamos os fins como justificando os meios.
Observe que seríamos incapazes de julgar a moralidade de tal ação avaliando os
resultados, porque não conheceríamos o alcance total desses resultados. Tal ato pode
ter efeitos favoráveis ou não, em questões de direito, saúde pública, uso de tabaco e
programas de TV diurnos por décadas ou séculos seguintes. Um sistema de ética que
considerasse prioritariamente apenas os resultados de nossas ações não nos
permitiria avaliar nossas atividades atuais no momento em que precisaríamos de tal
orientação; se formos incapazes de discernir o curso de ação apropriado antes de sua
comissão, nosso sistema de ética terá pouco ou nenhum valor para nós. Para obter
orientação ética, devemos basear nossas ações principalmente nas avaliações das
ações e não nos resultados possíveis.
Mais ao ponto deste artigo, se tentarmos julgar a moralidade de uma invasão de
computador com base na soma total de todos os efeitos futuros, seríamos incapazes de
fazer tal julgamento, seja para um incidente específico ou para o geral. classe de atos. Em
parte, isso ocorre porque é muito difícil determinar os efeitos a longo prazo de várias
ações e discernir suas causas. Não podemos saber, por exemplo, se uma maior
conscientização e restrições de segurança são melhores para a sociedade a longo prazo,
ou se essas restrições adicionais resultarão em maiores custos e aborrecimentos ao usar
sistemas de computador. Também não sabemos quantas dessas mudanças são
diretamente rastreáveis a incidentes de arrombamentos de computadores.
Um outro ponto deve ser feito aqui: sem dúvida, é possível imaginar cenários em
que uma invasão de computador seria considerada o curso de ação preferível. Por
exemplo, se dados médicos vitais estiverem em um computador e forem necessários
para salvar a vida de alguém em uma emergência, mas os usuários autorizados do
sistema não puderem ser localizados, invadir o sistema pode ser considerado a coisa
certa a fazer. No entanto, essa ação não torna o arrombamento ético. Em vez disso,
tais situações ocorrem quando um erro maior indubitavelmente ocorreria se
o ato antiético não foram cometidos.
Raciocínio semelhante se aplica a situações como matar em legítima defesa.
Na discussão a seguir, assumirei que tais conflitos não são a causa raiz dos
arrombamentos; tais situações muito raramente devem se apresentar.

Motivações

Indivíduos que invadem sistemas de computador ou que escrevemvandalismo


costumam usar uma das poucas racionalizações para suas ações. (Veja, por exemplo,
Landreth 1984 e a discussão em Adelaide et al. 1990.) A maioria desses indivíduos
nunca pensaria em andar por uma rua, tentando todas as portas para encontrar uma
destrancada, e então vasculhar as gavetas dos móveis dentro. No entanto, essas
mesmas pessoas parecem não pensar duas vezes em fazer repetidas tentativas de
adivinhar senhas de contas que não possuem e, uma vez em um sistema, navegar
pelos arquivos no disco.
Esses ladrões de computadores muitas vezes apresentam as mesmas razões para
suas ações na tentativa de racionalizar suas atividades como moralmente justificadas,
apresento e refuto algumas das mais comumente usadas a seguir; motivos envolvendo
roubo e vingança não são incomuns, e sua natureza moral é simples de discernir, por isso
não os incluirei aqui.

A ética hacker
Muitos hackers argumentam que seguem uma ética que orienta seu comportamento e
justifica suas invasões. Essa ética hacker afirma, em parte, que todas as informações
devem ser gratuitas (veja Baird et al. 1987). Essa visão sustenta que a informação
pertence a todos, e não deve haver limites ou restrições para impedir que alguém
examine a informação. Richard Stallman (1986) afirma a mesma coisa em seu
Manifesto GNU. Ele e outros afirmaram ainda em vários fóruns que, se a informação é
gratuita, segue-se logicamente que não deve haver propriedade intelectual e não há
necessidade de segurança.
Quais são as implicações e consequências de tal filosofia? Em primeiro lugar, levanta algumas
questões perturbadoras de privacidade. Se todas as informações são (ou deveriam ser) gratuitas, a
privacidade não é mais uma possibilidade. Para que as informações sejam gratuitas para todos e
para que os indivíduos não possam mais reivindicá-las como propriedade, significa que qualquer
pessoa pode acessar as informações, se desejar. Além disso, como é
não é mais propriedade de nenhum indivíduo, o que significa que qualquer pessoa
pode alterar as informações. Itens como saldos bancários, registros médicos,
históricos de crédito, registros de emprego e informações de defesa deixam de ser
controlados. Se alguém controla a informação e controla quem pode acessá-la, a
informação obviamente não é gratuita. Mas sem esse controle, não poderíamos mais
confiar na veracidade das informações.
Em um mundo perfeito, essa falta de privacidade e controle pode não ser motivo
de preocupação. No entanto, se todas as informações fossem livremente disponíveis e
modificáveis, imagine quanto dano e caos seriam causados em nosso mundo real por
tal filosofia! Toda a nossa sociedade se baseia em informações cuja exatidão deve ser
assegurada. Isso inclui informações mantidas por bancos e outras instituições
financeiras, agências de crédito, agências e profissionais médicos, agências
governamentais como o IRS, agências de aplicação da lei e instituições educacionais.
Claramente, tratar todas as suas informações como "gratuitas" seria antiético em
qualquer mundo onde possa haver indivíduos descuidados e antiéticos.
Argumentos econômicos também podem ser feitos contra essa filosofia. além da
necessidade premente de privacidade e controle da precisão das informações. A informação
não é universalmente gratuita. Ele é mantido como propriedade por questões de privacidade e
porque muitas vezes é coletado e desenvolvido com grandes custos. O desenvolvimento de um
novo algoritmo ou programa, ou a coleta de um banco de dados especializado, pode envolver
o gasto de grandes somas de tempo e esforço. Afirmar que é livre ou deveria ser livre é
expressar uma visão ingênua e irrealista do mundo. Usar isso como justificativa para
arrombamentos de computadores é claramente antiético. Embora nem todas as informações
atualmente tratadas como privadas ou controladas como proprietárias precisem dessa
proteção, isso não justifica o acesso não autorizado a elas ou a quaisquer outros dados.

Os argumentos de segurança

Esses argumentos são os mais comuns dentro da comunidade de computadores. Um


argumento comum era o mesmo usado com mais frequência por pessoas que tentavam
defender o autor do programa Internet Worm em 1988: arrombamentos ilustram problemas
de segurança para uma comunidade que, de outra forma, não notaria os problemas.
No caso do Worm, uma das primeiras questões a serem amplamente discutidas
nas listas de discussão da Internet tratava da intenção do criminoso – exatamente por
que o programa worm foi escrito e lançado. As explicações dos membros da
a comunidade variou de simples acidente às ações de um sociopata. Uma explicação
comum era que o Worm foi projetado para ilustrar defeitos de segurança para uma
comunidade que, de outra forma, não prestaria atenção. Isso não foi apoiado pelo
testemunho durante o julgamento do autor, nem é apoiado pela experiência anterior
dos administradores do sistema.
O autor do Worm, Robert T. Morris, parece ter sido bem conhecido em algumas
universidades e grandes empresas, e seus talentos eram geralmente respeitados. Se ele
tivesse simplesmente explicado os problemas ou oferecido uma demonstração a essas
pessoas, ele teria sido ouvido com atenção considerável. Um mês antes de lançar o
programa Worm na Internet, ele descobriu e divulgou um bug no programa de
transferência de arquivos ftp; as notícias da falha se espalharam rapidamente, e uma
correção oficial foi anunciada e disponibilizada em questão de semanas. O argumento de
que ninguém ouviria seu relatório de deficiências de segurança é claramente falacioso.

No caso mais geral, esse argumento de segurança também não tem mérito. Embora
alguns administradores de sistema possam ter sido complacentes com a segurança de
seus sistemas antes do incidente do Worm, a maioria dos fornecedores de computadores,
gerentes de instalações governamentais de computadores e administradores de sistemas
nas principais faculdades e universidades têm estado atentos aos relatos de problemas de
segurança. As pessoas que desejam relatar um problema com a segurança de um sistema
não precisam explorá-lo para denunciá-lo. Por analogia, não se incendeia o shopping do
bairro para chamar a atenção para um risco de incêndio em uma das lojas e, em seguida,
tenta justificar o ato alegando que os bombeiros nunca ouviriam relatos de riscos.

O argumento mais geral que algumas pessoas fazem é que os indivíduos que
invadem os sistemas estão realizando um serviço ao expor falhas de segurança e,
portanto, devem ser incentivados ou até recompensados. Este argumento é
severamente falho de várias maneiras. Primeiro, ele assume que há uma necessidade
imperiosa de forçar os usuários a instalarem correções de segurança em seus sistemas
e, portanto,ladrõesjustificam-se em atividades de "arrombamento e invasão". Levado
ao extremo, sugere que seria perfeitamente aceitável se envolver em tais atividades de
forma contínua, desde que possam expor falhas de segurança. Isso perde
completamente de vista o propósito dos computadores em primeiro lugar – servir
como ferramentas e recursos, não como exercícios de segurança. O mesmo raciocínio
implicaria que os vigilantes têm o direito de tentar invadir as casas do meu bairro
continuamente para demonstrar que são suscetíveis a ladrões.
Outra falha com este argumento é que ele ignora completamente os aspectos técnicos
e fatores econômicos que impedem muitos sites de atualizar ou corrigir seus softwares. Nem
todos os sites têm recursos para instalar um novo software de sistema ou para corrigir o
software existente. Em muitos locais, os sistemas são executados como sistemas turnkey
– empregados como ferramentas e mantidos pelo fornecedor. Os proprietários e
usuários dessas máquinas simplesmente não têm a capacidade de corrigir ou manter
seus sistemas de forma independente e não podem pagar o suporte de software
personalizado de seus fornecedores. Invadir tais sistemas, com ou sem danos, é
efetivamente invadir locais de negócios; fazer isso em um esforço vigilante para forçar
os proprietários a atualizar sua estrutura de segurança é presunçoso e repreensível.
Um roubo não é justificado, moral ou legalmente, pelo argumento de que a vítima tem
fechaduras ruins e, portanto, estava "pedindo por isso".
Um argumento relacionado foi feito de que os fornecedores são responsáveis pela
manutenção de seus softwares e que tais violações de segurança devem exigir
imediatamente que os fornecedores emitam correções para seus clientes, passadas e
presentes. Afirma-se que, sem invasões altamente visíveis, os fornecedores não
produzirão ou distribuirão as correções necessárias para o software. Essa atitude é
ingênua e não é economicamente viável nem tecnicamente viável. Certamente, os
fornecedores devem ter alguma responsabilidade pela adequação de seu software
(Mcllroy 1990), mas não devem ser responsáveis por corrigir todas as falhas possíveis em
todas as configurações possíveis.
Muitos sites personalizam seus softwares ou executam sistemas
incompatíveis com as versões mais recentes do fornecedor. Para que um
fornecedor seja capaz de fornecer uma resposta rápida a problemas de
segurança, seria necessário que cada cliente executasse combinações de
software e hardware completamente padronizadas para garantir a
exatidão das atualizações fornecidas pelo fornecedor. Não só isso seria
consideravelmente menos atraente para muitos clientes e contrário à sua
prática usual, mas o aumento do custo de tal distribuição fixa
"instantânea" aumentaria o preço de tal sistema - aumentando muito o
custo suportado pelo cliente. Não é razoável esperar que a comunidade
de usuários sacrifique a flexibilidade e pague um custo muito mais alto
por unidade simplesmente por correções mais rápidas para uma falha de
segurança ocasional.
O caso do Internet Worm é um bom exemplo do argumento de segurança e suas
falhas. Além disso, é um bom exemplo do conflito entre a valorização dos fins e dos
meios da ética. Várias pessoas argumentaram que o autor do Worm nos fez um favor
ao expor falhas de segurança. No julgamento do Sr. Morris no Federal
acusações decorrentes do incidente, os advogados de defesa também
argumentaram que seu cliente não deveria ser punido por causa do bem que o
Worm fez ao expor essas falhas. Outros, incluindo os promotores do governo,
argumentaram que o ato em si estava errado, independentemente do
resultado. Sua alegação foi que o resultado não justifica o ato em si, nem o
argumento da defesa abrange todas as consequências do incidente.
Isso é certamente verdade; os resultados completos do incidente ainda não
são conhecidos. Houve muitos outros arrombamentos e worms de rede desde
novembro de 1988, talvez inspirados pela cobertura da mídia desse incidente. Mais
tentativas possivelmente serão feitas, em parte inspiradas pelo ato de Morris.
Alguns sites na Internet têm acesso restrito às suas máquinas e outros foram
removidos da rede; Ouvi falar de sites onde foi tomada a decisão de não buscar
uma conexão, mesmo que isso dificulte a pesquisa e as operações. Combinado
com as muitas décadas de horas-pessoa dedicadas à limpeza depois, isso parece
ser um preço alto a pagar por um "favor" reivindicado.
As consequências jurídicas deste ato também ainda não são conhecidas. Por exemplo,
muitos projetos de lei foram apresentados ao Congresso e às legislaturas estaduais nos
anos subsequentes como resultado (parcial) desses incidentes. Uma peça de legislação
apresentada na Câmara dos Deputados, HR-5061, intitulada "A Lei de Erradicação de Vírus
de Computador de 1988", foi a primeira de uma série de ações legislativas que tinham o
potencial de afetar significativamente a profissão de computador. Em particular, o
HR-5061 se destacou porque sua redação o impediria de ser
aplicado a vírus de computador verdadeiros.2A aprovação de legislação similar bem
intencionada, mas mal definida, pode ter um grande efeito negativo na profissão de
computação como um todo.

O argumento do sistema ocioso

Outro argumento apresentado por hackers de sistema é que eles estão simplesmente fazendo uso de
máquinas ociosas. Eles argumentam que, como alguns sistemas não são usados em nenhum nível
próximo à sua capacidade, o hacker tem, de alguma forma, o direito de usá-los.
Esse argumento também é falho. Em primeiro lugar, esses sistemas geralmente não estão em
serviço para fornecer um ambiente de usuário de uso geral. Em vez disso, eles estão em uso no
comércio, medicina, segurança pública, pesquisa e funções governamentais. A capacidade não
utilizada está presente para necessidades futuras e surtos repentinos de atividade, não para o
apoio de indivíduos externos. Imagine se um grande número de pessoas sem
computador tirasse vantagem de um sistema com capacidade de processador ocioso: o
sistema seria rapidamente sobrecarregado e severamente degradado ou indisponível para
os legítimos proprietários. Uma vez no sistema, seria difícil (ou impossível) expulsar esses
indivíduos se uma capacidade extra repentina fosse necessária pelos legítimos
proprietários. Mesmo as maiores máquinas disponíveis hoje não forneceriam capacidade
suficiente para acomodar tal atividade em grande escala.
Não consigo pensar em nenhum outro item que alguém possa comprar e manter, apenas
para que outros reivindiquem o direito de usá-lo quando estiver ocioso. Por exemplo, o
pensamento de alguém caminhando até meu carro caro e dirigindo simplesmente porque ele
não está sendo usado no momento é ridículo. Da mesma forma, como estou fora do trabalho,
não é adequado fazer uma festa em minha casa, porque de outra forma não está sendo usada.
As posições relacionadas de que a capacidade de computação não utilizada é um recurso
compartilhado e que meu software desenvolvido em particular pertence a todos são posições
igualmente tolas (e antiéticas).

O argumento do estudante hacker

Alguns invasores afirmam que não estão causando danos e não alterando nada – eles
estão simplesmente aprendendo sobre como os sistemas de computador operam. Eles
argumentam que os computadores são caros e que eles estão apenas promovendo sua
educação de maneira econômica. Alguns autores de vírus de computador afirmam que
suas criações pretendem ser inofensivas e que estão simplesmente aprendendo a escrever
programas complexos.
Há muitos problemas com esses argumentos. Primeiro, como educador,
afirmo que escrever vandalware ou invadir um computador e ver os arquivos
não tem quase nada a ver com educação em informática. A educação
adequada em ciência da computação e engenharia envolve exposição
intensiva a aspectos fundamentais da teoria, abstração e técnicas de design.
Navegar em um sistema não expõe alguém ao amplo escopo da teoria e
prática da computação, nem fornece o feedback crítico tão importante para
uma boa educação (cf. Denning et al. 1989; Tucker et al. 1991). Nem escrever
um programa de vírus ou worm e liberá-lo em um ambiente não
supervisionado fornece qualquer experiência educacional adequada. Por
analogia, roubar carros e passear não fornece educação em engenharia
mecânica,
Além disso, os indivíduos "aprendendo" sobre um sistema não podem saber como
tudo funciona e o que resulta de suas atividades. Muitos sistemas foram danificados
acidentalmente por intrusos ignorantes (ou descuidados); a maioria dos danos causados
por vírus de computador (e pelo Worm da Internet) parecem ser causados por interações
inesperadas e falhas de programa. Danos a sistemas médicos, controle de fábrica,
informações financeiras e outros sistemas de computador podem ter efeitos drásticos e de
longo alcance que nada têm a ver com educação e certamente não podem ser
considerados inofensivos.
Uma refutação relacionada da alegação tem a ver com o conhecimento da
extensão da intrusão. Se sou o responsável pela segurança de um sistema informático
crítico, não posso presumir que qualquer intrusão seja motivada apenas por
curiosidade e que nada tenha sido prejudicado. Se eu souber que o sistema foi
comprometido, devo temer o pior e realizar uma verificação completa do sistema
quanto a danos e alterações. Não posso aceitar a palavra do intruso, pois qualquer
intruso que realmente causou danos procuraria escondê-los alegando que estava
"apenas olhando". A fim de recuperar a confiança no comportamento correto do meu
sistema, devo gastar uma energia considerável para examinar e verificar cada aspecto
dele.
Aplique nossa abordagem universal a essa situação e imagine se esse comportamento
"educativo" fosse generalizado e comum. O resultado seria que passaríamos todo o nosso
tempo verificando nossos sistemas e nunca poderíamos confiar totalmente nos resultados.
Claramente, isso não é bom e, portanto, devemos concluir que essas motivações
"educativas" também são antiéticas.

O argumento do protetor social

Um último argumento, mais ouvido na Europa do que nos EUA, é que os hackers invadem
os sistemas para observar casos de abuso de dados e ajudar a manter o "Big Brother" à
distância. Nesse sentido, os hackers são protetores e não criminosos. Novamente, isso
pressupõe que os fins justificam os meios. Também assume que os hackers são realmente
capazes de alcançar um bom final.
Inegavelmente, há algum uso indevido de dados pessoais por empresas e pelo
governo. O uso crescente de sistemas e redes de registros baseados em
computador pode levar a mais abusos. No entanto, não está claro que invadir
esses sistemas ajudará a corrigir os erros. Se alguma coisa, isso fará com que essas
agências se tornem ainda mais secretas e usem as invasões como desculpa para
acesso mais restrito. Arrombamentos e vandalismo não resultaram em novas leis
de abertura de registros, mas resultaram na introdução e aprovação de novos
estatutos criminais. Essa atividade não apenas não conseguiu deter o "Big
Brother", mas também resultou em segmentos significativos do público pedindo
mais leis e aplicação da lei mais agressiva - o oposto direto do suposto objetivo.
Também não está claro se esses são os indivíduos que queremos nos
"protegendo". Precisamos ter os projetistas e usuários dos sistemas – profissionais
de informática treinados – preocupados com nossos direitos e cientes dos perigos
envolvidos com o uso inadequado de monitoramento e manutenção de registros
de computadores. A ameaça é relativamente nova, pois os computadores e as
redes se tornaram amplamente utilizados apenas nas últimas décadas. Levará
algum tempo para que a conscientização sobre os perigos se espalhe por toda a
profissão. Esforços clandestinos para violar a segurança dos sistemas de
computador não fazem nada para aumentar a consciência dos indivíduos
apropriados. Pior, eles associam esse objetivo louvável (preocupação aumentada)
com atividade criminosa (invasões de computadores), desencorajando o
comportamento proativo dos indivíduos em melhores posições para agir em nosso
favor.

Observações Finais

Argumentei aqui que arrombamentos de computadores, mesmo quando não há


resultados óbvios de danos, são antiéticos. Esta deve ser a conclusão considerada mesmo
que o resultado seja uma melhoria na segurança, porque a atividade em si é perturbadora
e imoral. Os resultados do ato devem ser considerados separadamente do ato em si,
especialmente quando consideramos o quão difícil é compreender todos os efeitos
decorrentes de tal ato.
Claro, eu não discuti todas as razões possíveis para um arrombamento. Pode muito
bem haver um caso em que um arrombamento seja necessário para salvar uma vida ou
para preservar a segurança nacional. Nesses casos, realizar um ato errado para evitar um
erro maior pode ser a coisa certa a fazer. Está além do escopo ou da intenção deste artigo
discutir tais casos, especialmente porque nenhuma invasão de hackers conhecida foi
motivada por tais casos.
Historicamente, os profissionais de computação como um grupo não se preocuparam
muito com questões de ética e propriedade no que se refere aos computadores.
Indivíduos e algumas organizações tentaram resolver esses problemas, mas toda a
comunidade de computação precisa estar envolvida para resolver os problemas de
maneira abrangente. Muitas vezes, vemos os computadores simplesmente como
máquinas e algoritmos, e não percebemos as sérias questões éticas inerentes à
seu uso.
Quando consideramos, no entanto, que essas máquinas influenciam a qualidade de vida
de milhões de indivíduos, direta e indiretamente, entendemos que há questões mais amplas.
Os computadores são usados para projetar, analisar, dar suporte e controlar aplicativos que
protegem e orientam a vida e as finanças das pessoas. Nosso uso (e mau uso) de sistemas de
computação pode ter efeitos além de nossa imaginação. Assim, devemos reconsiderar nossas
atitudes em relação a atos que demonstrem falta de respeito aos direitos e à privacidade dos
computadores e dados de outras pessoas.
Devemos também considerar quais serão nossas atitudes em relação aos futuros
problemas de segurança. Em particular, devemos considerar o efeito de publicar amplamente
o código-fonte de worms, vírus e outras ameaças à segurança. Embora precisemos de um
processo para divulgar rapidamente as correções e as informações de segurança à medida que
se tornam conhecidas, devemos perceber que a ampla publicação de detalhes
colocar em perigo sites onde os usuários não querem ou não podem instalar atualizações e correções.3
A publicação deve servir a um propósito útil; pôr em perigo a segurança das
máquinas de outras pessoas ou tentar forçá-las a fazer mudanças que não
podem fazer ou pagar não é ético.
Finalmente, devemos decidir essas questões de ética como uma comunidade de
profissionais e depois apresentá-las à sociedade como um todo. Não importa quais leis sejam
aprovadas, e não importa quão boas as medidas de segurança possam se tornar, elas não
serão suficientes para que tenhamos sistemas completamente seguros. Também precisamos
desenvolver e agir de acordo com alguns valores éticos compartilhados. Os membros da
sociedade precisam ser educados para que compreendam a importância de respeitar a
privacidade e a propriedade dos dados. Se fechaduras e leis fossem tudo o que impedisse as
pessoas de roubar casas, haveria muito mais ladrões do que há agora; os costumes
compartilhados sobre a santidade dos bens pessoais são uma influência importante na
prevenção de roubos. É nosso dever, como profissionais informados, ajudar a estender esses
costumes ao reino da computação.

Referências

Adelaide, JPB, Bluefire, RJ, Brand, R., Stoll, C, Hughes. D., Drake, F., Homeboy,
E.). Goldstein, E., Roberts, H., Gasperini. J., JIMG, Carroll. JR. Felsenstein, L.,
Mandel. T., Horvitz, R., Stallman, R.. Tenney, G., Acid Phreak e Phiber Optik.
(1990). "A invasão de computadores é um crime?"Revista Harper,280/1678:
45-57. Baird, BJ. Baird Jr., LL. e Ranauro, RP (1987). "O Cracker Moral?"Computadores
e Segurança,6/6 (dezembro): 471–8.
Denning, PJ (ed.) (1991).Computadores sob ataque: intrusos, worms e vírus.
ACM Books/Addison-Wesley.
Denning. PJ, Comer. DE, Gries, D., Mulder, M. C, Tucker, A., Turner, AJ e
Jovem. PR (1989). "Computação como uma Disciplina",Comunicações da ACM. 32/1
(janeiro): 9–23.
Hoffman. L. (ed.) (1990).Programas desonestos: Vírus, Worms e Cavalos de Tróia.furgão
Nostrand Reinhold.
Landreth, B. (1984).Fora do Círculo Interno: Um Guia do Hacker para Segurança de Computadores.
Imprensa da Microsoft.

Mcllroy. MD (1990). "Inseguro a qualquer preço."Tecnologia da Informação Trimestral,IX/2:


21-3.
Schwartz, J. (1990). "A Rede Hacker".Newsweek,65/18 (abril).
Seeley, D. (1989). "Um passeio do verme."In Proceedings of the Winter 1989 Usenix
Conferência(Janeiro). Associação Usenix.
Spafford, EH (1989a). "O Verme da Internet: Crise e Consequências."Comunicações de
o ACM,32/6 (junho): 678–98.
Spafford. EH (1989b). "Uma Análise do Worm da Internet." Em C. Ghezzi e JA
McDermid (eds.).Anais da 2ª Conferência Europeia de Engenharia de
Software.Springer-Verlag. págs. 446-68.
Spafford, EH (1989c). "O Programa Worm da Internet: Uma Análise".Computador ACM
Revisão de Comunicação,19/1: 17–57.
Spafford. EH, Heaphy. KA, e Ferbrache, D.|. (1989).Vírus de computador: Lidando
com Vandalismo Eletrônico e Ameaças Programadas.ADAPSO.
Stallman, R. (1986). GNUManual do EMac,"O Manifesto GNU." Software Livre
Fundação, pp. 239–48.
Stang, DJ (1990).Vírus informáticos,2ª ed. Segurança Nacional de Computadores
Associação.
Stoll. C. (1989).Ovo de Cuco.Dia duplo.
Tucker, AB, Barnes, BH, Aiken, RM, Barker, K., Bruce, KB, Cain, JT, Conry,
SE, Engel, GL, Epstein. RG, Lidtke, DK. Mulder, M.C, Rogers, JB, Spafford.
EH e Turner, AJ (1991).Currículos de Computação 1991. IEEE Society
Press.

Perguntas básicas de estudo

1. De acordo com Spafford. Quais são os dois modelos éticos que podem ser usados para determinar a
moralidade de um ato? Qual abordagem Spafford prefere e por quê?
2. A Spafford reconhece quaisquer circunstâncias nas quais possa ser ético invadir o
computador de outra pessoa sem permissão? Se sim, explique como seriam
essas circunstâncias.
3. O que, de acordo com Spafford, está errado com a visão de que toda informação deve ser
gratuita?
4. Discuta o chamado argumento de "segurança aprimorada" para justificar as invasões de hackers. Dentro
particular, explique por que o argumento não é convincente.
5. Qual é o argumento do "sistema inativo" e como ele é falho?
6. Qual é o argumento do "hacker de estudante" e como ele é falho?
7. Qual é o argumento do "protetor social" e como ele é falho?
8. De acordo com Spafford.tudoinvasões de hackers não autorizadas são prejudiciais, mesmo aquelas em que o
hacker supostamente "não causou nenhum dano". Explique o ponto de Spafford.

Perguntas para reflexão


1. Invadir o computador de alguém sem permissão é o mesmo, eticamente, como o
crime de "invadir" a casa ou o escritório de alguém? Por que ou por que não?
2. Qual é a diferença, se houver, entre vigilantes cidadãos que se encarregam
de fazer cumprir a lei sem realmente serem policiais e "hackers"
que se encarregam de "proteger a sociedade" de supostos "criminosos" em corporações
ou agências governamentais? Você gostaria de viver em uma sociedade onde qualquer
um que suspeite que outros cometeram crimes decida se tornar um vigilante e aplicar a
lei por conta própria?

1 Percebo que muitos indivíduos cumpridores da lei se consideramhackers–atermo


anteriormente usado como um elogio. A imprensa e o público em geral cooptaram o termo, no
entanto, e agora é comumente visto como pejorativo. Aqui, usarei a palavra como o público em
geral a usa agora.
2 Previa penalidades apenas nos casos em que os programas fossem introduzidos em sistemas de
computador; um vírus de computador é um segmento de código anexado a um programa existente que
modifica outros programas para incluir uma cópia de si mesmo (Spafford et al. 1989).

3 Para antecipar o comentário muito usado de que os "bandidos" já possuem essas informações: nem
todo ladrão de computadores conhece ou conhecerá todas as fraquezas do sistema - a menos que
forneçamos análises detalhadas.
CASO A ANALISAR: UM VÔO DE FANTASIA NA AEROWRIGHT

Embora o caso apresentado abaixo não tenha realmente acontecido, é semelhante a


vários casos que ocorreram. Ele ilustra as tensões e riscos que podem surgir quando a
necessidade de segurança é confrontada com um desejo de conveniência e facilidade de
acesso. O leitor é convidado a analisar este caso usando os métodos descritos em
Capítulo 3 acima de.

Na altamente competitiva indústria aeroespacial mundial, a comunicação de informações


importantes é vital para os envolvidos na negociação de contratos de projetos complexos.
Isso pode fazer a diferença entre ganhar ou perder um grande contrato para projetar e
fabricar componentes da próxima geração de aeronaves. AeroWright é um jogador
importante nesta indústria. Embora relativamente pequena em comparação com seus
concorrentes, a AeroWright floresceu por ter negociadores tecnicamente capazes e
talentosos apoiados por uma rede de informações globalmente acessível conhecida como
AirNET. A AeroWright está constantemente atualizando o AirNET para aproveitar os mais
recentes avanços tecnológicos.
Um recente declínio na demanda por novas aeronaves pelas operadoras aéreas
em todo o mundo levou a AeroWright a revisar mais uma vez a adequação da versão
atual do AirNET. Tornou-se claro que as informações agora precisavam estar
disponíveis sob demanda durante as negociações reais. Anteriormente, os
negociadores acessavam a AirNET antes das reuniões. Isso foi feito a partir dos
escritórios internacionais da AeroWright ou de seus agentes. Arthur Daly, diretor
comercial responsável pela negociação do contrato, fez a revisão. Foi feito do ponto de
vista do negócio.
Daly acreditava que a configuração atual do AirNET ainda era adequada, pois oferecia
acesso ilimitado a todas as informações contidas nos bancos de dados da empresa. O
problema estava no fato de os negociadores não conseguirem se conectar à AirNET
virtualmente em qualquer lugar a qualquer momento. A solução, como Daly viu, era fornecer
uma maneira pela qual os negociadores pudessem usar seus laptops ou computadores de
mão para se conectarem à AirNET enquanto estivessem em reuniões. Ele se lembrou de ter
participado recentemente de um seminário sobre redes locais sem fio (WLAN), onde ficou
impressionado com as observações finais sobre a WLAN fornecer a infraestrutura
que garante uma mudança ampla para a rede sem fio para funcionários que precisam de
acesso a informações em qualquer lugar e atualizado. Isso parecia ser exatamente o que era
necessário.
Daly entrou em contato com um fornecedor de WLAN para saber mais. Ele foi
informado de que a tecnologia sem fio oferecia muitos benefícios, incluindo conveniência,
facilidade de conexão e menos problemas estruturais. O custo de atualização dos
computadores existentes era mínimo e os custos gerais de configuração e funcionamento
eram baixos. Na verdade, parecia que a economia poderia ser feita através da redução das
instalações de rede nos escritórios internacionais que compensariam virtualmente todas
as novas despesas. O que foi particularmente atraente foi o prazo de entrega muito curto
na implantação da WLAN. Cada computador precisava ser atualizado para permitir uma
conexão sem fio ao AirNET. Os negociadores usariam os mesmos sistemas de aplicativos
para lhes dar acesso ilimitado aos bancos de dados do AeroWright. Os procedimentos de
segurança existentes ainda estariam operacionais. Tais atualizações pareciam estar dentro
da alçada de Daly'
A decisão foi tomada para fornecer acesso sem fio ao AirNET usando os laptops e
computadores portáteis atualizados dos negociadores. Uma breve conversa com o
engenheiro de segurança do sistema ocorreu antes que o pedido final fosse feito. Ele
alertou sobre os problemas de segurança de rede associados a uma abertura sem
precedentes aos sistemas internos da AeroWright. Usar AirNET com WLAN pode ser
multifacetado e complexo. Daly sentiu que esta foi uma resposta automática do
pessoal de segurança que é sempre extremamente cauteloso. O que foi proposto não
foi uma grande mudança, e a AirNET nunca sofreu qualquer forma de violação de
segurança.
O trabalho foi adiante para instalar WLAN. Levou apenas duas semanas para que todos os
negociadores tivessem a capacidade de acesso aprimorada ao AirNET. Foi um sucesso
imediato. A conveniência e a velocidade de acesso às informações tornaram os negociadores
mais receptivos nas reuniões. Os negociadores passaram a usar ainda mais o AirNET e
passaram a acessar novos tipos de informação. Seis meses após a instalação da WLAN, Daly
sentiu-se satisfeito de que a ação correta havia sido tomada. A demanda do mercado, no
entanto, ainda estava em declínio. A AeroWright estava ganhando pedidos, mas os pedidos
eram pequenos e as margens eram mínimas. A AeroWright estava lutando para sobreviver,
assim como muitos de seus concorrentes. O sucesso de cada negociação de contrato
subsequente parecia se tornar mais crítico.
Na semana passada, a AirNET sofreu uma violação de segurança. Isso foi realizado usando um
ataque de construção de dicionário que, após a análise do tráfego de aproximadamente um dia,
permitiu a descriptografia automatizada em tempo real do tráfego na AirNET. Empresa chave
as informações confidenciais foram acessadas e postadas em todos os quadros de avisos
usados pela indústria aeroespacial. Isso resultou na AeroWright perdendo um grande
contrato que precisava desesperadamente ganhar e sofrendo uma perda muito séria de
credibilidade no mercado. Ontem a AirNET foi novamente infiltrada. Todos os documentos de
projeto para a asa de um novo jato de fuselagem larga foram destruídos. Daly renunciou. O
engenheiro de segurança do sistema renunciou por uma questão de princípio. Amanhã, teme-
se, AeroWright estará fora do negócio.
LEITURAS ADICIONAIS E RECURSOS DA WEB

Leituras adicionais
Denning, PJ (ed.) (1991).Computadores sob ataque: intrusos. Vermes e Vírus.
ACM Books/Addison-Wesley.
Manion, M. e Goodrum, A. (2000). "Terrorismo ou Desobediência Civil: Rumo a um
Ética Hacktivista."Computadores e Sociedade,30/2 (junho): 14–19. Neumann. PG (1995).
Riscos Relacionados ao Computador.ACM Press/Addison-Wesley. Spafford, E., Heaphy. KA e
Ferbrache, DJ (1989).Vírus de computador: Lidando
com Vandalismo Eletrônico e Ameaças Programadas.ADAPSO.
Tavani, HT (2000). "Definindo os limites do crime de computador: pirataria. Invasões,
e Sabotagem no Ciberespaço."Computadores e Sociedade,30/3 (setembro): 3–9.

Recursos da Web

Centro de Ensino e Pesquisa em Garantia e Segurança da Informação (CERIAS) em


Universidade de Purdue. Eugene H. Spafford, Diretor,http://
www.cerias.purdue.edu/ ComputerSecurityGroup,CambridgeUniversity.UK.
http://www.cl.cam.ac.uk/Research/Security/ Instituto de
Segurança de Computadores, http://www.gocsi.com/
Computer Security Research Center, London School of Economics. http://csrc.lse.ac.uk/ The Risks
Digest: Fórum sobre riscos para o público em computadores e sistemas relacionados,
Comitê da ACM sobre Informática e Políticas Públicas, Peter G. Neumann, Moderador.
http://catless.ncl.ac.uk/Risks
Privacidade e computação
Introdução dos editores

No final do século XIX, o termo "privacidade" referia-se principalmente anão intrusão


na casa de alguém, na propriedade de alguém ou no "espaço pessoal" de alguém,
como um quarto de hotel ou uma cabine em um navio. Em meados do século XX, o
significado de "privacidade" foi ampliado para incluirnão interferênciaem decisões
pessoais ou familiares que afetam a saúde, a vida amorosa ou o planejamento familiar.
E no final do século XX, especialmente nas nações industrializadas, o termo
"privacidade" tornou-se "informacionalmente enriquecido" pela tecnologia do
computador (ver James H. Moor emcapítulo 1 acima de). O significado de "privacidade"
expandiu-se para incluir – até para enfatizar – a capacidade de controlar ou restringir o
acesso a informações pessoais sobre si mesmo.
Por que a tecnologia da informação e comunicação (TIC) teve tanto impacto no
conceito de privacidade? E por que as TIC aumentaram dramaticamente a preocupação de
que a privacidade pessoal está se desgastando e desaparecendo? As respostas a estas
importantes questões residem na natureza das TIC e no seu rápido desenvolvimento no
final do século XX.

DigitalizaçãoNas décadas de 1930 e 1940, com a invenção dos computadores eletrônicos,


tornou-se possível digitalizar informações e processá-las em altíssimas velocidades.
Inicialmente, a informação e o processamento eram de natureza matemática; mas logo
ficou claro que todos os tipos de informação poderiam ser codificados digitalmente e o
processamento poderia incluir manipulação lógica.

Bancos de dados massivos e recuperação de alta velocidadeNo início, as informações digitalizadas


eram armazenadas fisicamente em objetos como cartões perfurados e fitas de papel; no entanto, o
armazenamento eletrônico em fitas magnéticas, discos e tambores logo se seguiu. Enormes quantidades
de informação poderiam então ser armazenadas eletronicamente e rapidamente recuperadas. No início
da década de 1960, bancos de dados maciços contendo informações sobre pessoas individuais tornaram-
se comuns, especialmente em agências governamentais como departamentos fiscais. recenseamentos,
departamentos de justiça criminal, militares
agências e departamentos de saúde pública. Nos países industrializados, as pessoas começaram a
se preocupar com o "governo do Big Brother" se intrometendo em suas vidas pessoais e, assim, no
início da década de 1970, os governos dos Estados Unidos e da Europa começaram a estabelecer
leis de privacidade para proteger os cidadãos do acesso inadequado a seus dados pessoais.

Redes de computadoresNa década de 1970, redes de computadores governamentais,


educacionais e empresariais tornaram-se comuns; e muitas grandes corporações
desenvolveram bancos de dados massivos de informações pessoais sobre clientes e
consumidores. Na década de 1980, a Internet foi criada e cresceu em proporções globais –
conectando não apenas computadores governamentais, educacionais e empresariais, mas até
mesmo "computadores pessoais" que os indivíduos tinham em suas casas.

A World Wide WebNa década de 1990, a World Wide Web surgiu e se expandiu
rapidamente. A chamada "infraestrutura de informação global" ou "super rodovia da
informação" conectou eletronicamente mais de 200 países do mundo.

Coleta de dados, correspondência de dados e mineração de dadosNo final do século XX, uma
grande variedade de métodos foi desenvolvida para extrair, coletar, armazenar, categorizar e
interpretar grandes quantidades de informações sobre pessoas individuais. Essas informações
foram coletadas de bancos de dados governamentais e empresariais, cartões de crédito, cartões de
débito, cartões inteligentes, "cartões de digitalização" de supermercados, registros de "navegação"
na Internet, cookies de sites e muitas outras fontes. Data-matching, data-mining, reconhecimento
de padrões e uma variedade de outras técnicas foram empregadas para enriquecer os registros já
existentes. A correspondência de dados e o perfil de dados tornaram-se uma forma de combater
vários tipos de fraude. Nos Estados Unidos, comprar e vender "perfis pessoais" de informações
sobre indivíduos tornou-se uma indústria multibilionária.
As organizações estão cada vez mais informatizando o processamento de informações
pessoais. Isso pode ocorrer sem o consentimento ou conhecimento dos indivíduos
envolvidos. Os avanços na tecnologia de computadores levaram ao crescimento de bancos
de dados que contêm informações pessoais e outras informações confidenciais em vários
formatos, incluindo texto, imagens e som. A escala dos dados coletados, seu tipo e a
escala e a velocidade da troca de dados mudaram com o advento dos computadores. O
potencial para violar a privacidade das pessoas a um custo menor e com maior vantagem
continua a aumentar. Organizações responsáveis garantirão que a privacidade do
indivíduo seja protegida enquanto eles realizam suas atividades comerciais.

Protegendo o direito à privacidade


Todos esses desenvolvimentos preocuparam muitos governos e pessoas que temem que
cidadãos individuais possam ser prejudicados se suas informações pessoais forem
acessadas inadequadamente – informações sobre sua saúde, estilo de vida, situação
econômica, hábitos de compra, preferências políticas, preferências religiosas, gênero,
origem genética. up, herança étnica e muitos outros assuntos pessoais.
De acordo com James H. Moor, emcapítulo 11 , intitulado "Rumo a uma teoria da
privacidade na era da informação", uma vez que as informações pessoais são digitalizadas e
inseridas em um computador em uma rede, as informações se tornam "dados lubrificados"
que podem facilmente passar pelas redes e entrar em muitos computadores diferentes. Como
resultado, as informações pessoais não podem mais ser controladas e as pessoas podem
acessá-las sem o direito de fazê-lo. Moor apresenta uma teoria da privacidade para analisar
esse problema espinhoso e desenvolver formas de preservar nosso direito à privacidade na era
da informação.
Nos Estados Unidos, as leis de privacidade foram aprovadas na década de 1970
principalmente para proteger os cidadãos da interferência do governo em suas vidas
privadas. Possíveis invasões de privacidade por empresas, por outro lado, permaneceram
em grande parte não regulamentadas pelo governo nos EUA. Em vez disso, a comunidade
empresarial americana foi essencialmente autorizada a se regular em relação à
privacidade.
Na Europa, no entanto, os governos assumiram um papel muito mais ativo,
aprovando leis de "proteção de dados" destinadas a defender o direito à privacidade
regulando a coleta e o processamento de dados pessoais. Um bom exemplo da
abordagem europeia são os "Data Protection Acts" do Reino Unido, descritos em
capítulo 12 , "Proteção de dados em um mundo em mudança", de Elizabeth France,
que é a Comissária de Informações do Reino Unido.
CAPÍTULO 11

Rumo a uma teoria da privacidade na era da informação

James H. Moor
James H. Moor. "Para uma teoria da privacidade na era da informação." Este capítulo foi publicado
pela primeira vez emComputadores e Sociedade, 27(setembro de 1997). págs. 27–32. © 1997 por
James H. Moor. Reimpresso com permissão do autor.
Dados lubrificados

Quando pensamos em problemas éticos envolvendo computação, provavelmente nenhum é


mais paradigmático do que a questão da privacidade. Dada a capacidade dos computadores de
manipular informações – armazenar infinitamente, classificar eficientemente e localizar sem
esforço – estamos justificadamente preocupados que em uma sociedade computadorizada
nossa privacidade possa ser invadida e que informações prejudiciais a nós sejam reveladas. É
claro que relutamos em abrir mão das vantagens de uma informação computadorizada rápida
e conveniente. Apreciamos o fácil acesso a dados informatizados no momento de fazer
reservas, utilizar caixas automáticos, comprar novos produtos na web. ou investigando tópicos
em bancos de dados de computador. Nosso desafio é tirar proveito da computação sem
permitir que a computação tire vantagem de nós. Quando a informação é informatizada, é
untadopara deslizar fácil e rapidamente para muitos portos de escala. Isso torna a
recuperação de informações rápida e conveniente. Mas preocupações legítimas sobre
privacidade surgem quando essa velocidade e conveniência levam à exposição indevida de
informações. Informações lubrificadas são informações que se movem como um relâmpago e
são difíceis de segurar.
Considere, por exemplo, números de telefone listados que foram rotineiramente
disponíveis por meio de uma operadora de telefonia e uma lista telefônica, mas que agora
estão disponíveis, juntamente com informações de endereço, em gigantes listas telefônicas
eletrônicas na Internet. A lista telefônica de Hanover, New Hampshire (a lista telefônica de
onde moro) é bastante difícil de localizar na maioria dos lugares do mundo, mas agora
qualquer pessoa em qualquer lugar com acesso à Internet pode descobrir facilmente meu
número de telefone, quem é minha esposa, e onde eu moro. É até possível recuperar um mapa
da minha área residencial. Não considero que isso seja uma violação de privacidade, mas uso
isso para apontar como as mesmas informações, que tecnicamente são públicas há muito
tempo, pode mudar drasticamente os níveis de acessibilidade praticamente falando quando
colocado em formato eletrônico em redes de computadores. É irônico que meu nome seja difícil de
encontrar na lista telefônica da Internet porque está listado de forma anacronística e abreviada.
"James" é abreviado como "Jas.", uma abreviação que nunca uso e vi apenas em antigas listas
telefônicas impressas, presumivelmente introduzidas para economizar espaço de impressão, mas
copiadas desnecessariamente quando colocadas na Internet. Não conte a ninguém!
A lubrificação das informações torna as informações tão fáceis de acessar que podem
ser usadas repetidas vezes. Os computadores têm memórias de elefante – grandes.
precisos e de longo prazo. A capacidade dos computadores de lembrar tão bem por tanto
tempo mina a fragilidade humana que auxilia a privacidade. Nós, humanos, esquecemos a
maioria das coisas. A maioria das memórias de curto prazo nem chega à memória de
longo prazo. Toda vez que vou a um supermercado movimentado, sou um novo cliente.
Quem se lembra do que comprei da última vez que estive lá? Na verdade, um computador
faz. Na maioria das vezes eu compro em uma loja de alimentos da cooperativa que dá um
desconto no final do ano. Quando compro comida, dou ao caixa o número da minha conta
(pelo menos lembro disso na maioria dos dias). O caixa verifica minhas compras, que
aparecem em uma tela ao lado do nome do item e seu preço. Esta informação é
definitivamente lubrificada. Ele aparece tão rápido quanto o verificador pode mover os
itens pelo leitor de código de barras. Em seguida, meu total é exibido e as informações são
adicionadas ao meu total geral de compras nas quais recebo uma certa porcentagem de
volta a cada ano. Repare que além do total das minhas compras, o mercado também tem
informações sobre o que comprei. Ele ajuda o mercado a manter o controle de seu
estoque. Mas, também significa que a loja tem um perfil sobre meus hábitos de compra.
Eles sabem quanto vinho eu compro, meu gosto pelo cereal Raisin Bran e o tipo de
vegetais que prefiro. Em princípio, tais provas poderiam ser intimadas se meus hábitos
alimentares fossem relevantes para um processo judicial. Esse acúmulo de informações
viola minha privacidade? Suponho que não, mas é lubrificado para que se mova facilmente
e seja mais acessível por um longo período de tempo do que nunca. Praticamente falando,
a informação nunca é esquecida. Um histórico documentado de compras gera a
possibilidade de invasão de privacidade que não existe sem ele.

No caso de minhas compras de alimentos, a coleta de informações é óbvia para mim.


Posso ver meus hábitos alimentares e minha força de vontade limitada piscando na tela
enquanto as calorias caem na esteira. Mas as informações sobre nós podem ser coletadas
sutilmente quando não percebemos. A lubrificação de informações permite que outros
computadores capturem e manipulem informações de maneiras que não esperamos.
Considere um último exemplo pessoal para ilustrar isso. Não muito tempo atrás eu vivia
por alguns meses em Edimburgo. Nos dias em que não estava com vontade de cozinhar, às vezes pedia uma pizza. A pizza foi entregue no

meu apartamento e, portanto, foi uma maneira conveniente de obter uma refeição rápida. No entanto, fiquei um pouco surpreso na segunda

vez em que telefonei para o estabelecimento de pizza. Antes de eu fazer meu pedido, os pizzaiolos já pareciam saber meu endereço e minha

pizza favorita. Eu queria ter outra calabresa média e cogumelo entregue? Eu não estava em Edimburgo há muito tempo. Como eles poderiam

conhecer meu gosto (ou falta de gosto) tão rapidamente? A resposta. é claro. foi o uso do chamador II). Sem mistério aqui. Eu tinha ligado

antes e dado informações sobre minha preferência de pizza e meu endereço de entrega, e eles o vincularam ao meu número de telefone.

Quando liguei pela segunda vez, meu número de telefone foi capturado eletronicamente pela pizzaria e usado para selecionar as outras

informações da minha primeira ligação. Minha privacidade foi invadida? Provavelmente não. mas confesso que inicialmente senti uma leve

indignação por meu perfil de pizza ter sido guardado sem que eu soubesse. Se eu fosse um cliente frequente em um restaurante de linha e o

garçom tivesse memorizado meus gostos. Eu me sentiria elogiado por ele se lembrar de mim. Mas. tão eficiente quanto o sistema de

identificação de chamadas/computador. Não encontrei nenhum ganho em auto-estima fazendo com que um computador de uma pizzaria

lembrasse minha ingestão de pizza de pepperoni e cogumelos. Se eu fosse um cliente frequente em um restaurante de linha e o garçom

tivesse memorizado meus gostos. Eu me sentiria elogiado por ele se lembrar de mim. Mas. tão eficiente quanto o sistema de identificação de

chamadas/computador. Não encontrei nenhum ganho em auto-estima fazendo com que um computador de uma pizzaria lembrasse minha

ingestão de pizza de pepperoni e cogumelos. Se eu fosse um cliente frequente em um restaurante de linha e o garçom tivesse memorizado

meus gostos. Eu me sentiria elogiado por ele se lembrar de mim. Mas. tão eficiente quanto o sistema de identificação de chamadas/

computador. Não encontrei nenhum ganho em auto-estima fazendo com que um computador de uma pizzaria lembrasse minha ingestão de

pizza de pepperoni e cogumelos.

Menciono esses três exemplos na lista telefônica da Internet. a política de reembolso do


supermercado com base em dados de código de barras. e o identificador de chamadas da pizzaria -
não porque representam alguma traição profunda, mas porque são atividades perfeitamente
comuns e ilustram como as informações são coletadas e transmitidas sem esforço, sem que
nenhum de nós pense duas vezes. Uma vez que as informações são capturadas eletronicamente
para qualquer finalidade, elas são lubrificadas e prontas para qualquer finalidade. Em um mundo
computadorizado, deixamos pegadas eletrônicas em todos os lugares e os dados coletados para
um propósito podem ser ressuscitados e usados em outros lugares. O problema da privacidade do
computador é manter a vigilância adequada sobre onde essas informações podem e devem ir.

Na maioria das vezes, a necessidade de privacidade é como uma boa arte: você a
reconhece quando a vê. Mas às vezes nossas intuições podem ser enganosas e é importante
tornar o mais claro possível o que é privacidade, como ela é justificada. e como é aplicado em
situações éticas. Neste capítulo, reunirei peças de uma teoria geral da privacidade e tentarei
defendê-la. Na era do computador. durante um período em que a tecnologia da informação
está crescendo rapidamente e suas consequências são difíceis de prever mais do queafew dias
de antecedência, se houver. é mais importante do que nunca determinar como a privacidade
deve ser compreendida e protegida.
Privacidade de aterramento

Do ponto de vista da teoria ética, a privacidade é um valor curioso. Por um lado,


parece ser algo de grande importância e algo vital para defender, e. por outro lado.
a privacidade parece ser uma questão de preferência individual, culturalmente
relativa e difícil de justificar em geral. A privacidade é um valor primordial? Como
podemos justificar ou fundamentar a importância da privacidade?
Discutirei duas formas padrão de justificar a privacidade, ambas as quais já usei antes,
e descreverei as limitações dessas duas abordagens. Em seguida, apresentarei uma
terceira forma de justificar a importância da privacidade que agora considero mais
defensável. Os filósofos freqüentemente distinguem entre valores instrumentais e valores
intrínsecos. Os valores instrumentais são aqueles valores que são bons porque levam a
outra coisa que é boa. Os valores intrínsecos são valores que são bons em si mesmos. Os
valores instrumentais são bons como meios: os valores intrínsecos são bons como fins.
Meu computador é bom como meio de me ajudar a escrever artigos, enviar e-mail e
calcular meus impostos. Meu computador tem valor instrumental. No entanto, a alegria
que ganho ao usar meu computador é boa em si. A alegria não precisa levar a nada para
ter valor. A alegria tem valor intrínseco. E, como os filósofos desde Aristóteles têm
apontado. algumas coisas, como a saúde, têm valor instrumental e intrínseco. Essa
distinção filosófica familiar entre valores instrumentais e intrínsecos sugere duas maneiras
comuns de tentar justificar a privacidade.
Quase todo mundo concordaria que a privacidade tem valor instrumental. Essa é sua
justificativa mais comum. A privacidade nos oferece proteção contra danos. Por exemplo, em
alguns casos, se a condição médica de uma pessoa fosse conhecida publicamente, essa pessoa
correria o risco de ser discriminada. Se a pessoa testar HIV+, um empregador pode estar
relutante em contratá-la e uma companhia de seguros pode estar relutante em segurá-la.
Exemplos dessa natureza são bem conhecidos e não precisamos acumular mais exemplos para
fazer um caso convincente de que a privacidade tem valor instrumental. Mas, palitos de dente
também. Para justificar o alto valor instrumental da privacidade, precisamos mostrar que não
apenas a privacidade tem valor instrumental, mas que leva a algo muito, muito importante.
Uma das tentativas mais conhecidas de fazer isso foi dada por James Rachaels. Rachaels sugere
que a privacidade é valiosa porque nos permite formar relacionamentos variados com outras
pessoas (1975, p. 323). A privacidade nos permite formar laços íntimos com outras pessoas que
podem ser difíceis de formar e manter em público. Mas a necessidade de se relacionar com os
outros de forma diferente pode não fundamentar a privacidade de forma segura, porque nem
todos podem querer formar relacionamentos variados, e aqueles que desejam podem não
precisar de privacidade para fazê-lo. Algum
as pessoas simplesmente não se importam com a forma como são percebidas pelos outros.

A justificativa da privacidade seria mais segura se pudéssemos mostrar que ela tem valor
intrínseco. Deborah Johnson sugeriu uma maneira inteligente de fazer isso. Johnson propõe
que consideremos "a privacidade como um aspecto essencial da autonomia" (1994, p. 89).
Assim, assumindo que a autonomia é intrinsecamente valiosa e que a privacidade é uma
condição necessária para a autonomia, temos a forte e atraente afirmação de que a
privacidade é uma condição necessária para um bem intrínseco. Se a privacidade não é um
bem intrínseco em si, é a próxima melhor coisa. Mas, é verdade que “a autonomia é
inconcebível sem privacidade” (ibid.)?
Propus um experimento mental sobre Tom, um bisbilhoteiro eletrônico, que, acredito, mostra que a afirmação de Johnson é incorreta

(Moor 1989, pp. 61-2). Neste experimento mental, Tom é muito bom com computadores e eletrônicos e tem um verdadeiro carinho por saber

sobre você – tudo sobre você. Tom usa computadores secretamente para pesquisar seus registros financeiros, seus registros médicos e seus

registros criminais. Ele sabe sobre seus pagamentos atrasados da hipoteca, suas hemorroidas persistentes e aquela acusação de dirigir

embriagado que você achava que estava esquecida há muito tempo. Tom está tão fascinado com sua vida que tem câmeras clandestinas

instaladas que gravam todos os seus movimentos. Você não sabe nada sobre isso, mas Tom realmente gosta de assistir você, especialmente

aqueles replays instantâneos. "Para Tom, Mas o que é isso? Não é que ele esteja te prejudicando diretamente. Ele não usa nenhuma dessas

informações para te machucar. Ele não compartilha as informações com mais ninguém nem tira vantagem de você de forma alguma. Além

disso, você tem total autonomia, apenas sem privacidade. Assim, segue-se que a privacidade não é uma condição essencial para a autonomia.

É concebível ter autonomia sem privacidade. No entanto, eu concordaria que algumas pessoas, inclusive eu, consideram a privacidade

intrinsecamente valiosa, não apenas instrumentalmente valiosa. Mas o que é isso? Não é que ele esteja te prejudicando diretamente. Ele não

usa nenhuma dessas informações para te machucar. Ele não compartilha as informações com mais ninguém nem tira vantagem de você de

forma alguma. Além disso, você tem total autonomia, apenas sem privacidade. Assim, segue-se que a privacidade não é uma condição

essencial para a autonomia. É concebível ter autonomia sem privacidade. No entanto, eu concordaria que algumas pessoas, inclusive eu,

consideram a privacidade intrinsecamente valiosa, não apenas instrumentalmente valiosa. segue-se que a privacidade não é uma condição

essencial para a autonomia. É concebível ter autonomia sem privacidade. No entanto, eu concordaria que algumas pessoas, inclusive eu,

consideram a privacidade intrinsecamente valiosa, não apenas instrumentalmente valiosa. segue-se que a privacidade não é uma condição

essencial para a autonomia. É concebível ter autonomia sem privacidade. No entanto, eu concordaria que algumas pessoas, inclusive eu,

consideram a privacidade intrinsecamente valiosa, não apenas instrumentalmente valiosa.

Agora deixe-me considerar uma terceira abordagem para justificar a importância da


privacidade. Desejo sustentar que existe um conjunto de valores, que chamo de "valores centrais",
que são compartilhados e fundamentais para a avaliação humana. O teste para um valor central é
que é um valor encontrado em todas as culturas humanas. Aqui está uma lista de alguns dos
valores que acredito serem fundamentais:vida, felicidade, liberdade, conhecimento, habilidade,
recursos,esegurança.Minha afirmação é empírica. Estou afirmando que todas as culturas humanas
sustentáveis exibirão esses valores. Não estou sugerindo nem por um momento que todas as
culturas sejam morais ou que esses bens sejam distribuídos de forma justa em
cada cultura. Lamentavelmente, eles quase nunca são. Uma teoria ética requer uma explicação
da justiça, bem como uma explicação dos valores centrais. O que estou afirmando é que toda
cultura viável exibirá uma preferência por esses valores. Considere a cultura mais primitiva e
imoral que você pode imaginar. Por mais bárbaro e repulsivo que seja, seus membros devem
encontrar alimento e criar seus filhos se a cultura quiser sobreviver. Essas atividades requerem
pelo menos o reconhecimento implícito dos valores centrais. Abandonar completamente os
valores centrais é abandonar a existência.
A privacidade é um valor fundamental? Eu gostaria que fosse. Isso tornaria a
justificativa da privacidade muito mais fácil. Mas, após reflexão, fica claro que não está no
núcleo. Pode-se facilmente imaginar culturas humanas sustentáveis e florescentes que
não valorizam a privacidade. Considere um homem e uma mulher que vivem juntos, mas
não dão privacidade um ao outro e que não se importam com privacidade.
Presumivelmente, muitos casais vivem dessa maneira e não têm problemas para existir.
Agora imagine uma família ou pequena tribo com igual desinteresse pela privacidade.
Todos no grupo podem saber o quanto quiserem sobre todos os outros. Eles podem
acreditar que sua sociedade funciona melhor sem segredos. Um anti-Rachaelsean na
sociedade pode sustentar que eles têm relações humanas melhores e mais variadas só
porque eles podem saber tudo sobre todos! O conceito de privacidade tem um aspecto
distintamente cultural que vai além dos valores centrais. Algumas culturas podem valorizar
a privacidade e outras não.
Como então devemos justificar a privacidade? Como é aterrado? Deixe-me propor uma justificativa de
privacidade usando os valores fundamentais. Os valores centrais são os valores que todos os humanos e
culturas normais precisam para sobreviver. O conhecimento, por exemplo, é crucial para a sobrevivência
contínua de indivíduos e culturas. A transmissão da cultura de uma geração para a seguinte, por definição,
envolve a transmissão de conhecimento. Enfatizo os valores centrais porque eles fornecem uma estrutura de
valores comuns, um conjunto de padrões, pelos quais podemos avaliar as atividades de diferentes pessoas e
culturas (Moor, 1998). Os valores centrais nos permitem fazer julgamentos transculturais. Os valores centrais
são os valores que temos em comum como seres humanos. Focar no núcleo é focar nas semelhanças. Mas,
agora vamos nos concentrar nas diferenças. Indivíduos e culturas articulam os valores centrais de forma
diferente, dependendo do ambiente e das circunstâncias. A transmissão do conhecimento é essencial para a
sobrevivência de toda cultura, mas não é o mesmo conhecimento que deve ser transmitido. Recursos como
alimentos são essenciais para todos, mas nem todos devem preferir o mesmo tipo de alimento. Assim, embora
haja uma estrutura comum de valores, também há espaço para muita variação individual e cultural dentro da
estrutura. Vamos chamar a articulação embora haja uma estrutura comum de valores, também há espaço para
muitas variações individuais e culturais dentro da estrutura. Vamos chamar a articulação embora haja uma
estrutura comum de valores, também há espaço para muitas variações individuais e culturais dentro da
estrutura. Vamos chamar a articulação
de um valor central para um indivíduo ou uma cultura a "expressão de um valor central".
Embora a privacidade não seja um valor central em si, é a expressão de um valor central, ou
seja, o valor da segurança. Sem proteção, espécies e culturas não sobrevivem e florescem. Todas as
culturas precisam de algum tipo de segurança, mas nem todas precisam de privacidade. À medida
que as sociedades se tornam maiores, altamente interativas, mas menos íntimas, a privacidade
torna-se uma expressão natural da necessidade de segurança. Buscamos proteção de estranhos
que podem ter objetivos contrários aos nossos. Em particular, em uma cultura grande e altamente
informatizada na qual muitas informações pessoais são lubrificadas, é quase inevitável que a
privacidade surja como uma expressão do valor central, a segurança.

Considere mais uma vez a dicotomia entre valores instrumentais e intrínsecos.


Como a privacidade é fundamental para apoiar todos os valores fundamentais, ela é
fundamental para assuntos importantes; e porque a privacidade é um meio necessário
de apoio em uma cultura altamente informatizada, a privacidade é instrumentalmente
bem fundamentada para nossa sociedade. Além disso, como a privacidade é uma
expressão do valor central da segurança, ela é uma candidata plausível a um bem
intrínseco no contexto de uma sociedade computadorizada e altamente populosa.
Tom, o bisbilhoteiro eletrônico, que não prejudica seu alvo quando espia, no entanto
parece estar fazendo algo errado intrinsecamente. A segurança do sujeito está sendo
violada por Tom. mesmo que nenhum outro dano aconteça à pessoa. As pessoas têm
o direito básico de serem protegidas, o que, do ponto de vista de nossa cultura
informatizada,
Argumentei que, ao usar a estrutura de valores centrais, a privacidade pode ser
fundamentada instrumental e intrinsecamente – instrumentalmente, como suporte de
todos os valores centrais, e intrinsecamente, como uma expressão de segurança. Estou, no
entanto, preocupado que a compreensão instrumental/intrínseca tradicional possa ser
enganosa. Tradicionalmente, as análises instrumentais/intrínsecas nos empurram na
direção de uma busca por umsummum bonum,um bem maior. Tentamos encontrar a
única coisa à qual todas as outras levam. Na abordagem de valor central que estou
defendendo, alguns valores podem ser mais importantes que outros, mas não há uma
summum bonum.Em vez disso, o modelo é de uma estrutura de suporte. Os valores
centrais, como as vigas de uma treliça, apoiam-se mutuamente. Perguntar se um valor
central ou a expressão de um valor central é instrumental ou intrínseco é como perguntar
se uma viga de uma treliça está apoiada ou apoiada. É essencialmente ambos. Os valores
fundamentais para todos nós se apoiam mutuamente. Algumas pessoas irão enfatizar
alguns valores mais do que outros. Um atleta enfatizará a habilidade, um empresário
enfatizará os recursos, um soldado enfatizará a segurança, um
erudito irá enfatizar o conhecimento, e assim por diante. No entanto, todos e todas as culturas
precisam de todos os valores fundamentais para existir e florescer. A privacidade, como
expressão de segurança, é um membro crítico e interligado em nossos sistemas de valores em
nossa cultura cada vez mais informatizada.

A Natureza da Privacidade

Compreender a privacidade como a expressão do valor central da segurança tem a


vantagem de explicar a mudança na concepção de privacidade ao longo do tempo. A
privacidade não é mencionada explicitamente nem na Declaração de Independência dos
Estados Unidos nem em sua Constituição (Moor 1990). É estranho que um valor que nos
parece tão importante agora nem tenha sido mencionado pelos líderes revolucionários e
estadistas tão impressionados com os ideais das liberdades individuais. O conceito de
privacidade vem evoluindo nos EUA de um conceito de não-intrusão (por exemplo, a
Quarta Emenda à Constituição dos EUA, oferecendo proteção contra buscas e apreensões
governamentais não razoáveis), para um conceito de não interferência (por exemplo, o
Roe v. Wade decisão que dá à mulher o direito de optar por fazer um aborto), ao acesso
limitado à informação (por exemplo, a Lei de Privacidade de 1974 restringindo a coleta,
uso e distribuição de informações por agências federais). A privacidade é um conceito que
foi dramaticamente ampliado ao longo do tempo à medida que se desenvolveu. Em nossa
era do computador, a noção de privacidade se estendeu ainda mais. Agora, o conceito de
privacidade tornou-se tão enriquecido informacionalmente (Moor 1998; ver também
capítulo 1 acima) que "privacidade" no uso contemporâneo normalmente se refere à
privacidade informacional, embora, é claro, outros aspectos do conceito permaneçam
importantes.
Considere uma distinção útil que ajuda a evitar alguns mal-entendidos sobre a
natureza da privacidade. O termo "privacidade" às vezes é usado para designar
uma situação em que as pessoas são protegidas de intrusão ou observação por
circunstâncias naturais ou físicas. Alguém explorando sozinho estaria em uma
situação naturalmente privada (e provavelmente perigosa). Ninguém pode vê-la na
caverna que ela está explorando. Além da privacidade natural, há a privacidade
normativa. Uma situação normativamente privada é uma situação protegida por
normas éticas, legais ou convencionais. Consultas com um advogado ou médico
seriam situações normativamente privadas. Obviamente, muitas situações
normativamente privadas também são naturalmente privadas. Enviamos correio
em envelopes lacrados. Quando uma entrada não autorizada é feita em uma
situação normativamente privada,
Agora, se juntarmos as concepções de privacidade em evolução com a distinção
entre privacidade normativa e natural, obteremos uma explicação útil da natureza da
privacidade:

Um indivíduo ou grupo tem privacidade normativa em uma situação em relação a outros


se e somente se nessa situação o indivíduo ou grupo estiver normativamente protegido
contra intrusão, interferência e acesso à informação por outros. (Culver et al. 1994, p. 6)

Eu uso o termo geral "situação" deliberadamente porque é amplo o suficiente para


abranger muitos tipos de privacidade:Localizaçõescomo o diário em um arquivo de
computador,relacionamentoscomo e-mail para a farmácia, eAtividadescomo a
utilização de históricos de crédito computadorizados.
As situações que são normativamente privadas podem variar significativamente de cultura
para cultura, de lugar para lugar e de época para época. Isso não mostra que os padrões de
privacidade sejam arbitrários ou injustificados; eles são apenas diferentes. Por exemplo, em
uma faculdade privada os salários dos professores são mantidos em sigilo, mas em algumas
faculdades estaduais os salários dos professores, pelo menos os salários acima de um certo
nível, são publicados. Presumivelmente, as faculdades particulares acreditam que proteger as
informações salariais reduzirá as disputas e constrangimentos; enquanto as faculdades
estaduais (ou as legislaturas estaduais) acreditam que os contribuintes que apóiam a
instituição têm o direito de saber quanto os membros do corpo docente estão sendo pagos.
Essas são políticas diferentes, mas defensáveis, para proteger e liberar informações.
Claramente, algumas informações pessoais são muito sensíveis e devem ser protegidas.
Precisamos criar zonas de privacidade, uma variedade de situações privadas, para que as
pessoas possam garantir que as informações sobre si mesmas, que podem ser prejudiciais se
divulgadas em geral, sejam protegidas. Com diferentes zonas de privacidade, pode-se decidir
quanta informação pessoal manter privada e quanto tornar pública. Observe que, na minha
opinião, a noção de privacidade realmente está ligada a uma situação ou zona e não à
informação em si. Por exemplo, se um funcionário do Internal Revenue Service usa um
computador para acessar e processar a declaração de imposto de renda de uma estrela de
cinema, então o funcionário não está invadindo a privacidade da estrela. Ele tem permissão
nesta situação para investigar a declaração de imposto de renda da estrela. No entanto, se
esse mesmo funcionário chamasse essa mesma estrela' s retorno de imposto em seu
computador depois do expediente apenas para navegar, o funcionário estaria violando a
privacidade da estrela, embora o funcionário não obtenha novas informações. O funcionário
tem acesso legítimo na primeira situação, mas não na segunda.
A teoria que estou propondo é uma versão da visão de acesso restrito de
privacidade (Moor 1990, pp. 76-80). A principal visão oposta é a teoria do controle da
privacidade. Um proponente dessa visão, Charles Fried, escreve: "A privacidade não é
simplesmente a ausência de informações sobre nós na mente dos outros, mas sim a ao
controletemos mais informações sobre nós mesmos" (Fried 1984, p. 209). Concordo que é
altamente desejável que controlemos informações sobre nós mesmos. No entanto, em
uma cultura altamente informatizada isso é simplesmente impossível. Não controlamos
grandes quantidades de informações sobre nós mesmos. As informações pessoais sobre
nós são bem lubrificadas e deslizam rapidamente pelos sistemas de computador em todo
o mundo, 24 horas por dia. Portanto, para nos protegermos, precisamos garantir que as
pessoas certas, e apenas as pessoas certas, tenhamAcessoinformações relevantes no
momento certo. Assim, a visão de acesso restrito coloca o foco no que devemos considerar
ao desenvolver políticas para proteger a privacidade. No entanto, a conta de acesso
restrito, pelo menos na forma que estou propondo, tem todas as vantagens da teoria do
controle para um dos objetivos na definição de políticas para dar aos indivíduos tanto
controle (consentimento informado) sobre os dados pessoais quanto possível. Por esse
motivo, rotularei minha conta como uma teoria de privacidade de "controle/acesso
restrito".
A concepção de privacidade de controle/acesso restrito tem a vantagem de que as
políticas de privacidade podem ser ajustadas. Diferentes pessoas podem ter diferentes
níveis de acesso para diferentes tipos de informação em diferentes momentos. Um bom
exemplo ocorre em um hospital moderno e informatizado. Os médicos têm acesso a
informações médicas on-line que os secretários não recebem. No entanto, os médicos
geralmente não têm permissão para ver todas as informações sobre um paciente que um
hospital possui. Por exemplo, eles não têm acesso à maioria dos registros de cobrança. Em
alguns hospitais, algumas informações médicas, como entrevistas psiquiátricas, podem
ser acessíveis a alguns médicos e não a outros. Ao invés de considerar a privacidade como
uma proposição de tudo ou nada – ou só eu sei ou todo mundo sabe – é melhor considerá-
la como um complexo de situações em que a informação é autorizada a fluir para algumas
pessoas em algum momento. Idealmente, quem precisa saber sabe, quem não sabe, não
sabe.
A concepção de controle/acesso restrito também explica algumas anomalias sobre
situações privadas. Normalmente, quando consideramos a privacidade, estamos pensando em
situações em que os indivíduos possuem informações pessoais possivelmente prejudiciais que
desejam impedir que outras pessoas saibam. Mas as situações podem ser privadas em outras
circunstâncias. Imagine uma situação em um restaurante com dezenas de pessoas jantando.
Um casal começa a discutir alto e, eventualmente, cada um grita para o outro sobre um
problema conjugal que estão tendo. Eles entram em detalhes excruciantes sobre vários
tipos de disfunção sexual e necessidades corporais. Todos podem ouvi-los e muitos
clientes do restaurante se sentem desconfortáveis enquanto prosseguem com sua
refeição. Finalmente, o garçom, que pensa que pode ajudar, não aguenta mais. Ele
caminha até o casal e pergunta se eles gostariam de seu conselho. O casal em
uníssono lhe diz: "Não, é um assunto privado."
Por mais irônico que seja o comentário, faz sentido em vários níveis. Em situações
privadas o acesso à informação pode ser bloqueado em ambas as direções. Este casal
não quis permitir informações do garçom embora eles próprios tivessem sido
indiscretos em revelar detalhes a toda a população do restaurante. Além disso, em
nossa cultura, algumas atividades devem ser feitas em particular. As discussões sobre
os problemas conjugais íntimos podem ser um deles. A privacidade é uma forma de
proteção e pode proteger a população em geral, bem como os indivíduos.

Definindo e Ajustando Políticas para Situações Privadas

Até agora, comentei sobre o efeito lubrificador que a informatização tem sobre a
informação e os problemas potenciais que a informatização da privacidade apresenta.
Propus uma justificativa para a privacidade como expressão de um dos valores
centrais e como membro essencial da estrutura central de valores para uma sociedade
informatizada. Caracterizei a natureza da privacidade como um conceito em evolução
que se tornou informacionalmente enriquecido com o desenvolvimento da
computação. E argumentei que a privacidade é melhor compreendida em termos de
uma conta de controle/acesso restrito. Agora é hora de focar em políticas práticas para
a proteção da privacidade. Como exemplo, usarei informações coletadas de testes
genéticos. Este é um caso interessante porque, na prática, os testes genéticos não
seriam possíveis sem a tecnologia da informação e com a tecnologia da informação os
testes genéticos são uma das maiores ameaças potenciais à nossa privacidade
individual. A divulgação inadequada de nossas informações genéticas pode ser a
violação final de nossa privacidade.
Suponha que uma paciente decida fazer o teste de um gene de câncer de mama.
Ela não tem câncer de mama, mas o câncer de mama é de sua família e ela quer saber
se está geneticamente predisposta a ter câncer de mama. Ela vai ao hospital fazer
testes para o gene e os resultados são positivos. Os resultados são colocados em seu
prontuário médico para que as informações estejam disponíveis aos médicos para
incentivar testes agressivos para a doença no futuro. A informação será informatizada,
o que significa que muitos prestadores de cuidados de saúde em todo o
estado pode ter acesso às informações. A companhia de seguro de saúde do
paciente também terá acesso a ele. Informações desse tipo podem ser
prejudiciais para o paciente ao obter seguro de vida ou seguro de saúde futuro
e, eventualmente, se a informação deslizar por redes de computadores
suficientes, pode ser prejudicial para os filhos do paciente ao obter seguro e
solicitar emprego, embora tenham não mostraram sinais da doença e nunca
foram testados.
Ao formular políticas, devemos tentar minimizar o excesso de danos e riscos. Em
casos como este, pode ser difícil de fazer. Claramente, os prontuários devem ser tratados
de forma confidencial, mas isso pode não ser suficiente para proteger o paciente. Como os
registros são informatizados e, portanto, bem lubrificados, as informações serão enviadas
rapidamente pelas redes e coletadas por terceiros que podem encontrar usos próprios
para elas. Novas políticas legais podem ser úteis aqui, incluindo a aprovação de leis que
protegem os pacientes da discriminação com base em testes genéticos. Além disso, o
hospital pode considerar a criação de uma zona de privacidade para pacientes que
desejam apenas fazer testes preditivos. Existe uma diferença entre o teste genético
preditivo, no qual o paciente é testado para obter informações genéticas que podem ser
indicativas de uma doença futura, e o teste diagnóstico, no qual o paciente é testado para
obter informações genéticas que podem confirmar o diagnóstico de uma doença
existente. O hospital poderia estabelecer uma situação privada para testes preditivos para
que os prontuários do paciente não fossem incorporados ao prontuário médico regular.
Esses registros seriam informatizados, mas não acessíveis a todos aqueles que têm acesso
ao prontuário geral. Esta é uma forma de ajustar as condições de acesso para aumentar o
nível de privacidade do paciente. Naturalmente, o paciente deve ser informado sobre o
que acontecerá com as informações do teste. O paciente pode preferir ter as informações
incluídas em seu prontuário médico.
Um dos princípios que devem nortear o estabelecimento de políticas de
privacidade é o Princípio da Publicidade:

O Princípio da PublicidadeAs regras e condições que regem as situações privadas devem


ser claras e conhecidas das pessoas por elas afetadas.

Com efeito, podemos planejar para proteger melhor nossa privacidade se soubermos onde estão
as zonas de privacidade e sob quais condições e a quem serão fornecidas as informações. Se um
empregador pode ler o e-mail de alguém, a solicitação de um novo emprego é feita de forma mais
discreta, não usando o e-mail. O princípio da publicidade encoraja o consentimento informado e a
tomada de decisão racional.
Uma vez que as políticas são estabelecidas e conhecidas, às vezes surgem circunstâncias
que nos convidam a violar a política. Obviamente, as violações da política devem ser
evitadas tanto quanto possível, pois prejudicam a confiança na política. No entanto, às
vezes ocorrem circunstâncias verdadeiramente excepcionais. Suponha que, após alguns
testes genéticos preditivos serem executados, novas informações sobre as consequências
dos resultados dos testes sejam descobertas. Novas evidências científicas em combinação
com os resultados dos testes mostram que a paciente certamente deve ter transmitido
uma doença devastadora para sua prole, mas que a doença pode ser tratada de forma
eficaz se detectada a tempo. Em tais circunstâncias, parece que o hospital deveria notificar
não apenas a paciente, mas também seus filhos adultos, mesmo que isso não fizesse parte
do acordo original. O dano causado pela divulgação será tão menor do que o dano evitado
que a violação é justificada.

O Princípio da Justificativa das ExceçõesUma violação de uma situação privada é


justificada se e somente se houver uma grande probabilidade de que o dano causado
pela divulgação seja muito menor do que o dano evitado que uma pessoa imparcial
permitiria uma violação nesta e em situações moralmente semelhantes.

Essas circunstâncias excepcionais não devem ser mantidas em segredo de futuros


usuários da política. Portanto, precisamos de um princípio para divulgação e ajuste na
própria declaração de política:

O Princípio do AjusteSe circunstâncias especiais justificarem uma mudança nos


parâmetros de uma situação privada, então a alteração deve tornar-se parte
explícita e pública das regras e condições que regem a situação privada.

Neste exemplo, aqueles que continuaram a fazer testes genéticos preditivos saberiam
quais informações seriam divulgadas nas circunstâncias excepcionais declaradas. Eles
saberiam as possíveis consequências de sua decisão de fazer testes genéticos
preditivos e poderiam planejar de acordo. A teoria do controle/acesso restrito pode
dar aos indivíduos o máximo de escolha pessoal possível, enquanto ainda se preocupa
com o fluxo de informações além do controle individual.

Conclusão

Em uma sociedade informatizada a informação é lubrificada. Ele se move como um relâmpago


e terá aplicações e reaplicações que são impossíveis de imaginar quando inseridas inicialmente
em um computador. Em uma sociedade informatizada a preocupação com a privacidade é
legítima e bem fundamentada. A privacidade é uma das nossas expressões do valor central da
segurança. Indivíduos e sociedades que não são seguros não
florescem e não existem por muito tempo. É, portanto, imperativo que criemos zonas de
privacidade que permitam aos cidadãos planear racionalmente as suas vidas sem medo.
As zonas de privacidade estarão contidas em situações privadas com diferentes tipos e
níveis de acesso para diferentes indivíduos. É importante pensar a privacidade em termos
de uma conta de controle/acesso restrito, porque essa concepção incentiva o
consentimento informado tanto quanto possível e fomenta o desenvolvimento de políticas
práticas, refinadas e sensíveis para proteger a privacidade quando não o é.

Referências

Culver. C., Mouro. J., Duerfeldt, W., Knapp, M. e Sullivan, M. (1994). "Privacidade."
Éticas profissionais,3/3,4: 3–25.
Fried, C. (1984). "Privacidade", em FD Schoeman (ed.),Dimensões Filosóficas da
Privacidade.Cambridge University Press, pp. 203-22. Johnson,
DG (1994).Ética do Computador.2ª ed. Prentice-Hall.
Atracar. J. (1985). "O que é Ética do Computador?"Metafilosofia.16/4: 266–75.
Moor, J. (1989). "Como invadir e proteger a privacidade com computadores." Em Carol C. Gould
(ed.).A Web da Informação.Westview Press, pp. 57–70.
Moor, J. (1990). "Ética da Proteção da Privacidade".Tendências da Biblioteca.39/1, 2: 69-82. Moor, J.
(1998). "Razão, Relatividade e Responsabilidade na Ética do Computador."Computadores
e Sociedade,28/1: 14–21. [Capítulo 1 acima de,pág. 21 ]
Rachels, J. (1975). "Por que a privacidade é importante?"Filosofia e Relações Públicas,4
(Verão): 323-33.

Perguntas básicas de estudo

1. O que Moor quer dizer com "dados lubrificados" e por que ele os chama de lubrificados?
2. Moor dá três exemplos de como as informações sobre nós são facilmente coletadas quando estamos
vivendo nossas vidas diárias. Descreva esses três exemplos de forma breve e clara.
3. Explique a diferença entre valores "instrumentais" e "intrínsecos".
4. Explique como a privacidade pode ser vista como um valor instrumental.
5. Deborah Johnson argumentou que a privacidade tem valor intrínseco porque é necessária para a
autonomia. O que é autonomia?
6. Descreva o caso de "Peeping Tom". Como Moor usa esse caso para argumentar contra a visão de
Johnson de que a privacidade tem valor intrínseco?
7. O que Moor quer dizer com o termo "valores fundamentais"? Dê cinco exemplos de valores centrais
que Moor identifica em seu artigo.
8. Por que, segundo Moor, a privacidade énãoum valor central? Embora, segundo Moor, a
privacidade não seja um valor central, ele diz que é "uma expressão de um valor central".
Explique clara e cuidadosamente o que ele quer dizer.
9. Explique de forma clara e cuidadosa o que é "privacidade natural" e também o que "
privacidade" é.
10. Explique de forma clara e completa o que Moor quer dizer com "zonas de privacidade".
11. Explique em detalhes a conta de privacidade de "controle/acesso restrito" de Moor.
12. Explique os três princípios de Moor para formular novas políticas de privacidade.

Perguntas para reflexão


1. Discuta as vantagens e desvantagens dos dados lubrificados no dia a dia das pessoas.
Há mais danos ou benefícios? Existem maneiras de maximizar os benefícios e
minimizar os danos?
2. O que os usuários de computador podem fazer para manter a privacidade das informações pessoais?
3. Existe alguma forma de uma empresa acompanhar os hábitos de uma pessoa (compras,
navegação na web, etc.) sem invadir sua privacidade? Explique.
CAPÍTULO 12

Proteção de dados em um mundo em mudança

Elizabeth França

Elizabeth França. "Proteção de dados em um mundo em mudança." © 2002 por Elizabeth França.
Impresso aqui com permissão do autor.

Alguns destaques históricos

A Lei de Proteção de Dados foi encontrada nos livros de estatuto em um número crescente
de países desde que a Suécia estabeleceu o ritmo na década de 1970; e desde outubro de
2001 tem havido implementação substantiva de uma União Européia (UE)
Diretiva1que procura harmonizar a legislação de proteção de dados em toda a Europa.
Essa diretiva começou a vida em rascunho em 1990. A primeira diretiva geral da UE deste
tipo, baseia-se em dois instrumentos internacionais anteriores, ambos surgidos uma
década antes. Em 1980 foram estabelecidas as diretrizes da OCDE (Organização para
Cooperação e Desenvolvimento Econômico) sobre privacidade e fluxos transfronteiriços de
dados pessoais e no ano seguinte a Convenção do Conselho da Europa, Tratado
108, estava aberto para ratificação.2
A Convenção do Conselho da Europa levou diretamente ao desenvolvimento da
primeira Lei de Proteção de Dados do Reino Unido. Uma série de relatórios do Reino
Unido publicados durante a década de 1970 – Crowther em 1971; Mais jovem em 1972;
e Lindopin 1978 – fizeram referência à necessidade de proteção da privacidade
individual, mas sua articulação dos riscos não foi suficiente para levar o governo a agir.
Havia uma escassez de informações sobre como o processamento de dados afetaria a
maioria dos membros do público. De fato, Younger, no capítulo de
seu relatório3que tratou de informática, admitiu que a situação era atualmente de
"apreensão e medo e até agora não de fatos e números". Em 1978, Lindop foi
persuadido (ele precisava de legislação e um banco de dados independente
autoridade de proteção;4mas foi a necessidade de ratificar o Tratado 108 do Conselho da Europa
para fins comerciais, em vez de um reconhecimento real pelo governo do risco à
privacidade, o que levou à aprovação da Lei de Proteção de Dados de 1984.

Um Direito Fundamental e Oito Princípios de Manuseio Justo de


Informações

A Lei de Proteção de Dados de 1984 entrou plenamente em vigor em 1987. A natureza da


redação dessa Lei dá poucas pistas sobre os antecedentes dos direitos fundamentais
evidentes nos instrumentos internacionais em que se baseia. Na verdade, o clima da época
não teria justificado. No entanto, os primeiros relatórios anuais do primeiro Registrador de
Proteção de Dados, Eric Howe, mostram uma compreensão clara da filosofia subjacente,
um entendimento de que a lei de proteção de dados fornece uma estrutura legal que
protege o direito ao respeito pela vida privada em relação ao processamento de dados
pessoais dados. Em seu primeiro relatório anual em junho de 1985, o secretário disse: "
Um outro objetivo primário deve ser estabelecer uma medida significativa de
conscientização pública sobre os direitos do indivíduo sob a Lei e uma compreensão da
maneira pela qual esses direitos podem ser exercidos. No mesmo
tempo é importante que os usuários de dados estejam cientes de suas responsabilidades."5
Os oito princípios exequíveis da prática de manipulação de informações justas
estabelecidos em um Anexo da Lei de 1984 estavam no centro da lei. Foram esses
princípios que refletiram tanto os princípios da OCDE quanto as disposições do Tratado do
Conselho da Europa. São esses princípios que podem ser encontrados de forma variada
em qualquer lei de proteção de dados em qualquer lugar do mundo e que fornecem a
ligação entre a Lei de 1984 e a lei atual do Reino Unido. De fato, em resumo, há pouca
variação entre eles (vertabela 1 ). A estrutura da Lei de 1984, no entanto, deu ênfase ao
processo burocrático de "registro", que dominou a percepção de muitos quanto ao
objetivo principal da Lei. Havia o perigo de que fosse visto como nada mais do que um
exercício de preenchimento de formulários destinado a obstruir a exploração de novas
tecnologias pelas empresas. Esse nunca foi o seu papel, mas a visão talvez tenha sido
reforçada pelo nível relativamente baixo de preocupação com seus direitos de privacidade
expressos por indivíduos ("titulares de dados", como a lei os descreve). Nos dias da
computação de mainframe, as pessoas estavam menos cientes de que o processamento
de seus dados pessoais estava acontecendo, e o conhecimento dos riscos potenciais era
mantido por um número relativamente menor de pessoas do que hoje.

Tabela 1 Leis de Proteção de Dados do Reino Unido, 1984 e 1998


Lei de Proteção de Dados de Lei de Proteção de Dados de

1984 Os Princípiosuma 1998 Os Princípiosb

Um usuário de dados deve: Os dados devem ser:

1. obter e processar dados pessoais de 1. processado de forma justa e legal;


forma justa e legal: 2. processados para fins limitados;
2. manter os dados apenas para os fins 3. adequado, relevante e não
especificados em seu registro; excessivo;
3. usar os dados apenas para os fins e
4. preciso:
divulgar apenas para as pessoas listadas
5. não mantido por mais tempo do que
em sua entrada de Cadastro;
o necessário:
4. Guardar apenas os dados adequados.
6. processados de acordo com os direitos dos
relevantes e não excessivos em relação à
titulares dos dados;
finalidade para a qual os dados são
mantidos; 7. seguro;
5. garantir que os dados pessoais sejam precisos 8. não transferido para países fora do
e, quando necessário, mantidos atualizados: Espaço Económico Europeu, a menos que
existam salvaguardas adequadas.
6. reter os dados por mais tempo do que o
necessário;

7. permitir aos indivíduos o acesso às


informações detidas sobre eles e. quando
apropriado, corrija-o ou apague-o;

8. tomar medidas de segurança para


evitar acesso não autorizado ou
acidental, alteração, divulgação ou perda
e destruição de informações.

uma Para texto completo, consulte o Anexo 1 da Lei de Proteção de Dados de 1984

b Para texto completo, consulte o Anexo 1 da Lei de Proteção de Dados de 1998

Um escopo mais amplo

A Lei de 1984 sobreviveu como uma ferramenta valiosa na era do PC em rede e do


cartão inteligente porque os princípios aplicáveis foram escritos de uma forma
que não era específica da tecnologia. Também foi possível, antecipando as
mudanças na lei que a Diretiva da UE trouxe, começar a desviar o foco do registro e
mais claramente para os direitos individuais. Era 1995 quando o
EU Directive reached its final form. That Directive was brought into domestic
law in the United Kingdom by the Data Protection Act 1998, which was given
Royal Assent in July of that year. An extensive transitional period, taking until
October 24, 2001, was allowed for those who process personal information
(referred to in the Act as 'data controllers') to apply the changes in the law to any
processing which was already under way. For the United Kingdom the new law
was not in any way a change of direction. It built upon the old. Those who
processed personal data in a way that was fully in line with the requirements of
the old law should not have found it difficult to comply with the new. However,
there are some key differences, largely in the scope of the legislation.
Without exhaustively detailing the scope of the first Data Protection Act it
may be helpful to set out three of the key definitions to be found in the new law:

What is a data controller? A data controller is a person who, (either alone or


jointly or in common with other persons), determines the purposes for which and
the manner in which any personal data are, or are to be processed.

What is personal data? Personal data means data which relate to a living
individual who can be identified (a) from those data, or (b) from those data and
other information which is in the possession of or likely to come into the
possession of the data controller.

What is processing? "Processing" means obtaining, recording, or holding the


data or carrying out any operation or set of operations on the data including:

1 organization, adaptation or alteration of the data:


2 retrieval, consultation or use of the data:
3 disclosure of the data by transmission, dissemination or otherwise making
available: or
4 alignment, blocking, erasure or destruction of the data.

These three definitions taken together give a feel for the breadth of the 1998 Act.
Other key definitions are those for data, which shows the extension of the law to
cover some manual files, and for "sensitive" data included separately and with
more safeguards required, for the first time. Put at its simplest, in an age where
information is all around us and so much of it relates to individuals, it is likely
that doing anything with that information, indeed even simply holding such
information, will bring the data controller within the scope of the legislation.
Although there are many who would like to suggest that such a broad scope
inhibits processing, that is to misunderstand the law. The role of the legislation
is, in fact, designed to ensure the free flow of information to meet business
needs. To ensure that there can be such a free flow it sets out a framework of
obligations which, if adhered to, will ensure respect for the private lives of
individuals. It applies to all sectors, and must be interpreted in context.

A Model Code of Practice: Closed Circuit Television


An early example of how the new law could be applied to a specific area of
technology without the primary legislation itself having made any such
references lies in the way that we developed a code of practice for the use of
closed circuit television (CCTV) in public places. As the foreword which I
produced to that code of practice says, CCTV surveillance is an increasing
feature of daily lives in the United Kingdom. There is an ongoing debate over
how effective CCTV is in reducing and preventing crime, but one thing is
certain: its deployment is commonplace in a variety of areas to which members
of the public have free access. We might be caught on camera while walking
down the street, visiting a shop or bank, or traveling through a railway station or
airport. The House of Lords Select Committee on Science and Technology
expressed its view that if public confidence in CCTV systems was to be
maintained there needed to be some tighter control over their deployment and
use (5th Report – Digital Images as Evidence).
There was no statutory basis for systematic legal control of CCTV
surveillance over public areas until the Data Protection Act 1998 came into
force. Because, as has been explained, definitions in this new Act are broader
than those of the Data Protection Act 1984, they more readily cover the
processing of images of individuals caught by CCTV cameras than did the
previous data protection legislation. The same legally enforceable information
handling standards as have previously applied to those processing personal data
on computer can now be seen to cover CCTV.
One important new feature of the 1998 Act is a power to issue a
Commissioner's code of practice (section 51 (3)(b), Data Protection Act 1998)
setting out guidance for the following of good practice. In my 14th Annual
Report to Parliament, I signaled my intention to use this power to provide
guidance on the operation of CCTV as soon as those new powers became
available to me. Work is also going on to produce a code of practice for
employers on their use of personal data, but the code of practice on the use of
CCTV in public places was the first Commissioner's code to be issued under the
Data Protection Act 1998.
The code deals with surveillance in areas to which the public have largely
free and unrestricted access because, as the House of Lords Committee
highlighted, there is particular concern about a lack of regulation and central
guidance in this area. Although the Data Protection Act 1998 covers other uses
of CCTV, the code of practice addresses the area of widest concern. Many of its
provisions will be relevant to other uses of CCTV and will be referred to as
appropriate when we develop other guidance. There are some existing standards
that have been developed by representatives of CCTV system operators and,
more particularly, the British Standards Institute. While such standards are
helpful, they are not legally enforceable. The changes in data protection
legislation mean that for the first time legally enforceable standards will apply to
the collection and processing of images relating to individuals.
The code of practice on the use of CCTV in public places has the dual
purpose of assisting operators of CCTV systems to understand their legal
obligations while also reassuring the public about the safeguards that should be
in place. It sets out the measures which must be adopted to comply with the Data
Protection Act 1998, and it goes on to set out guidance for the following of good
data protection practice. The code makes clear what the standards are which
must be followed to ensure compliance with the Data Protection Act 1998, and
then it indicates those standards which are not strict legal requirements but do
represent the following of good practice.
The pattern developed in producing this code of practice has set a model for
us. It allows flesh to be put on the bones of the law so that high-level statements
can be explained in context. Codes of practice within a statutory framework
allow flexibility, for they can more readily be amended than the law itself, while
giving assistance to those trying to comply with the law by indicating how the
enforcement body will interpret it in particular circumstances.

Electronic Government
The nature of the law also allows comment on emerging government policy. It
has been pleasing to see the way in which those responsible for policy
development at the national and local levels increasingly recognize the
importance of their obligations in relation to the processing of personal
information and seek advice before finalizing policy. The recognition,
particularly in the context of e-government, of the importance of ensuring that
the citizen is confident about what is being done with personal data is apparent.
Sometimes called "joined-up government," sometimes "information age
government," sometimes "electronic government," the government's vision has
several strands. There is a target of delivering 100 percent of government
services electronically by 2005 through mechanisms such as the government
portal, call centers, and one-stop shops. In general terms, the challenge is simple:
to ensure that the system works in the way in which it is supposed to. If it
doesn't, citizens will lose confidence and interest. Setting and meeting data
protection standards is a key component. It is always important for a regulator to
work with those it regulates, and in this context we will continue to work with
relevant parts of government (currently the Office of the e-Envoy and the
Cabinet Office) to develop these standards. In the area of on-line authentication
and identification, in particular, there is still much work to be done.
In promoting e-government, stress is often laid upon the use of technology to
deliver the same services in a smarter way. For instance, a "joined-up" change-
of-address service has recently been piloted. In other scenarios the whole point
of the deployment of new technology is that it allows different objectives to be
achieved through the use of data-mining and profiling. Whereas, previously,
benefit claims or tax returns might be sampled for accuracy, today it is possible
to check, say, all applications for taxi licenses against all applications for benefit,
to identify all possible cases of error and to automatically rank cases in order of
the likelihood of fraud. Not only does this raise questions as to whether the
"quality" of the data is sufficient to support the conclusions that are drawn, it
also raises questions about transparency. Is information about how data are to be
used and the purposes for which they are disclosed made sufficiently clear to
data subjects? Without transparency, the necessary public debate about the
extent to which it is right that individual conduct should be routinely monitored
can never take place.
Another strand of the modernizing agenda of e-government is the use of
information technology to reconfigure service delivery. For example joint
initiatives between Social Services Departments and National Health Service
Trusts depend upon the sharing of information about clients between partners
who do not necessarily have the same attitudes towards issues such as
confidentiality. One of the ways in which data protection and privacy concerns
have been addressed within multi-agency environments has been through the
development of local information-sharing protocols. In some cases national
model protocols have been successfully developed, allowing local agreements to
be put in place relatively easily; but this has not always been the case, and too
often local bodies are struggling to agree upon standards.
In July 2001, I also set out in my annual report6 the importance of improving
data quality. Data quality is a critical issue in looking at large databases in the
public and the private sectors and one which the Data Protection Act requires to
be addressed, particularly to ensure that the quality of the data is fit for the
purpose that the data are intended to fulfill.

Complaints and Requests for Assessment


What of individuals' perspectives in this changing world? The fact that today
most people in the UK are aware that their personal information is being
processed, and that many people will be processing information about others in
their workplace, has made them far more appreciative of the risks to respect for
private life which processing of personal data can bring. The number of
individuals who come to us alleging that there has been a breach of their rights is
at an all-time height.
Section 42 of the Data Protection Act 1998 provides that persons who
believe that they are directly affected by any processing of personal data may
request the Commissioner to make an assessment whether the processing is
likely or unlikely to have been carried out in compliance with the Act. In
practice, most requests for assessment are complaints from individuals who
believe that their personal data have not been processed in compliance with the
Act. In a considerable number of cases, even though it is clear that the person
making the request has concerns regarding the processing in question, we are not
provided with sufficient information to enable us to make an assessment, but we
are able to provide authoritative advice. Such cases, where we provide written
advice, are counted as inquiries. These are to be distinguished from requests
from data controllers for advice regarding their own compliance. Alleged
breaches of the Telecommunications Regulations are not technically requests for
assessment but are included in our caseload figures.
The total of requests for assessment, and those "complaints" where an
assessment is not made but which are recorded as enquiries, may be broadly
compared with the annual totals of complaints received under the Data
Protection Act 1984. The 2000/01 annual total of some 8,875 requests for
assessment and enquiries the office had dealt with by March 31, 2001 (including
1,721 complaints of breaches of the Telecommunications Regulations),
therefore, indicate a very significant increase in casework for compliance staff.
Especially as this is in addition to work undertaken in closing 1,121 complaints
received under the Data Protection Act 1984 (see figure 1). Requests were
received about:

Consumer Credit 24.5%


Telecommunications 16.6%
Direct Marketing 4.0%
Other 47.9%

What happens if it appears that there has been a breach of the law? An
independent supervisory authority must be able to apply sanctions. Where there
has been a breach of principle, enforcement action is possible, designed to
remedy the breach. The approach of the Office over the years has been to seek to
achieve compliance with the law without the need to resort to formal action.
Indeed, the number of formal actions taken is small, but there are many
occasions on which the knowledge that the failure to move to compliant
processing would lead to such action has assisted the change.
For some individuals, remedying a breach may provide no relief. If, for
example, inaccurate information is corrected, or a name on a mailing list is
successfully suppressed, or a breach in security is remedied, or information
required in response to a subject access request is belatedly provided, the
individual may still have been damaged and distressed by the original failure of
compliance. In those circumstances individuals can seek compensation in the
court.
* Figures since 1994/95 refer to the financial year commencing April 1 and ending
March 31 rather than using the previous reporting period for the Data Protection
Registrar's Annual Report, which ran from June 1 to May 31.

# This figure for the financial year 1999/2000 is based on the number of complaints
recived for the eleven months to February 29, 2000, adjusted to provide a 12-month
estimate.

Figure 1 Complaints/requests for assessment received 1990 to 2001

There are also some criminal offences which I can, as Information


Commissioner, prosecute. These relate to the requirement of notifying and to the
unsavory practice of those people and organizations who seek to obtain other
people's personal details by deception and then pass them on at a price.

European and Global Considerations


While the European Union Directive is intended to harmonize data protection
across Europe, the detail of the law and the nature of enforcement powers will
vary, reflecting culture and legal systems. [For an example of a data-protection
issue between the EU and another region of the world, see box 2.] The Directive
itself recognized the need to be proactive about working to achieve the greatest
possible harmonization. To that end, meetings of Commissioners are held
regularly to advise government representatives. These are, however, global
issues. Beyond Europe, informal networks and working groups of various kinds
meet to address common problems.

Box 2 The Safe Harbor Agreement


The EU passed its data protection directive in 1998. It states that data must be: fairly
and lawfully processed for limited purposes, adequate, relevant and not excessive,
accurate. not kept longer than necessary, processed in accordance with the data
subject's rights, secure and not transferred to countries without adequate protection.
This last point prompted a dispute with the US where people do not have the
same level of protection as in the EU. The US has a "safe harbor" arrangement
under which American companies agree to give a certain level of protection and this
is self-regulated. The EU has now accepted the "safe harbor" principle but the
agreement is controversial as many people find the US system as inadequate. The
US Federal Trade Commission published a report to the US Congress in May 2000
which found that only 20 percent of companies were complying with the US fair
information practice principles (EUBusiness (2001), "EU data protection overview".
EUBusiness. Item 1923. http://www.eubusiness.com/item/19123).

Starting points for consideration of data protection issues vary: language used and legal
contexts vary: our own law might benefit from change. A review of the Directive will
give the UK government an opportunity to comment.7 However, the concept and
approach provided in UK law has shown itself to be of value in a fast changing world.
While technological development moves ever faster, the fundamental rights to be
protected are unchanging.

Basic study questions


1. How long have data protection laws existed in at least some European countries, and
when was the first European-Union-wide data protection directive fully
implemented?
2. State the "fundamental right" that data protection laws are intended to protect.
3. The UK Data Protection Act 1984 and the UK Data Protection Act 1998 share eight
"principles of fair information handling." What are these principles?
4. Three important ideas included in the Data Protection Act 1998 are "data controller."
"personal data," and "data processing." Define these important terms.
5. What is the overall goal of the Data Protection Act 1998?
6. What is a "code of practice" and how does it differ from a law like the Data
Protection Act 1998? (Use, as an example to illustrate your answer, the UK code of
practice for the use of CCTV in public places.)
7. What are the benefits of adopting codes of practice to supplement laws like the Data
Protection Act 1998?
8. What is e-government? Why are data protection laws needed to make e-government
possible?
9. Why is "data quality" an important consideration for data protection?
10. What explains the dramatic increase in "complaints" and "requests for assessment"
from individual citizens during recent years?
11. What happens when the Office of the Information Commissioner determines that the
Data Protection Act 1998 has been violated by a person or an organization?

Questions for further thought


1. Even though different countries have different cultures and different legal systems,
there are many on-going efforts around the world to harmonize data protection laws
and practices from country to country. Why is this happening, and how likely is it
that these efforts will eventually succeed?
2. Explain how the "codes of practice" described above by Elizabeth France are related
to James Moor's notion of "zones of privacy."
3. Data subjects under European legislation are living people. Consider the privacy
ramifications of this restriction with the advent of, for example, genetic data.
4. CCTV raises many privacy issues. With the advent of computer face recognition
Smart CCTV is now being used in public spaces. What additional issues does this
raise and how might they be addressed?

1 Directive 95/46/EC on the protection of individuals with regard to the processing of


personal data and on the free movement of such data, adopted by the Council on July 24,
1995.
2 Council of Europe Convention of the protection of individuals with regard to
automatic processing of personal data. European Treaty Scries No. 108. Strasbourg 1981.
3 The Younger Report (1972) Cmnd 5012.
4 The Lindop Report (1978) Cmnd 7541.
5 First Report of the Data Protection Registrar. June 1985, HMSO, ISBN 0-10-24708 5-
J.
6 Information Commissioner annual report and accounts for the year ending March 31.
2001. HMSO. June 2001, ISBN 0-10-291017-0.
7 Data Protection Act 1998: Post-Implementation Appraisal. Summary of responses to
September 2000 consultation. Lord Chancellor's Department. CP(R)99/01, December
2001.
CASE TO ANALYZE: A SMALL MATTER OF PRIVACY

The imagined case presented below illustrates the risks to privacy that can occur
when information management technology is deployed to help solve pressing
human and social problems. In this case, the areas of medical research and
medical information management are involved; but similar risks are present in
many other human endeavors. The reader is invited to analyze this case using the
case-analysis method described in chapter 3 above.

Jimmy Small, aged 39, lives in a small rural community where his family has
lived for generations. His extended family is one of the largest families in the
area. Local people often comment on how Small women live a lot longer than
Small men. Indeed it is small wonder that Jimmy is teased about how his sisters
will be around long after Jimmy. The Smalls are generally of good health but
nevertheless are all, including Jimmy, registered with one of the doctors at the
Micham Medical Center (MMC), which is one of three medical centers in the
area. Tradition is prevalent with the Smalls, and they have used MMC since it
was formed over 70 years ago.
MMC has steadily grown from its meager beginnings and now provides a
full range of medical care. Clinicians comprise six doctors, five nurses, two
midwives, one counselor and one physiotherapist. These are supported by the
medical practice manager and six administrators. MMC prides itself on being at
the forefront of medical practice and administration. Since 1990 MMC has used
computer systems to support both medical practice and administration. Currently
there is a network of 25 computers used by clinicians and administrators.
Clinicians directly enter information onto electronic patient records (EPR).
Administrators transpose clinical information from other sources onto EPRs.
Pathology results and X-ray reports are received electronically and added to the
EPRs by administrators.
As part of the regional medical network (RMN) MMC links into Medlink,
which enables EPRs to be transferred between hospitals, medical practices,
medical research centers, and a group of authorized organizations, including
pharmacists, social care organizations, and medical appliance services. MedLink
has been fully operational for nine months. A recent report has been issued by
the RMN which suggests that EPR transfer is helping to provide a more effective
and efficient service to individuals and with an additional benefit of providing
new evidence for medical researchers in the area of public health and healthcare.
One month ago Jimmy Small had to visit his doctor, Dr Measures at MMC.
as he was complaining of unusual tiredness. It is standard practice at MMC for
doctor and patient to share and contribute to the EPR as part of the consultation.
Dr Measures asked Jimmy some searching questions about his condition and
entered the details onto Jimmy's EPR. The two of them discussed the
information on Jimmy's EPR. He had had few medical ailments throughout his
life. Dr Measures suggested that a set of routine tests should be undertaken, the
results of which would be back in 10 days. Jimmy made an appointment to
discuss the results.
By the time he returned to see Dr Measures, the results of the test had been
added to the EPR. But Dr Measures had some additional information for Jimmy
that was to radically change his life. One of the medical research centers in the
RMN had for sometime been investigating life expectancy and natural causes of
death in the region's population. This research used empirical data as well as
genetic data. Use had been made of the region's EPRs that were now available
on Medlink. It had enabled families to be studied in detail. This had led to a
predictive life expectancy and cause of death model being developed which was
to be used in the long-term planning of medical resources in the region covered
by RMN.
It turned out that the Small family was a unique case. Genetic data from
Jimmy's predecessors had revealed a rare medical condition that meant Small
males were likely to die prematurely due to a medical disorder. This made them
susceptible to a range of illnesses and diseases. The last ten Small males had
each died of a different cause, but it had been triggered by this hereditary
disorder. Once triggered, there was little chance of recovery. When Jimmy's test
results had arrived at MMC, the Medical Research Center had also received
them and sent a communication to MMC about their findings. Dr Measures
explained to Jimmy that the trigger had been set and that his condition would
deteriorate gradually over 5 years. After that, life expectancy was unpredictable.
Devastated, Jimmy left MMC in a daze. Since then, he seemed to have been
living in a dream world. Today, Jimmy was in the local shop when Sharon
Webb, who worked as an administrator at MMC, walked in. She was a friend of
Jimmy and had been one of those who had teased him about the Small women.
Today was different; she smiled and apologized for the teasing she had done in
the past. Jimmy was shocked that Sharon seemed to know about his condition.
He went home where he found the mail had arrived. There was a renewal notice
for his medical insurance. He discovered that his premiums had been tripled due
to a profiling exercise that the company had just completed. "Is there anyone
who does not know about my condition?" thought Jimmy.
ADDITIONAL READINGS AND WEB RESOURCES

Additional readings
Elgesem. D. (1999). "The Structure of Rights in Directive 95/46/EC on the Protection of
Individuals with regard to the Processing of Personal Data and the Free Movement
of Such Data." Ethics and Information Technology, 1: 283–93.
Introna, L. I. (1997). "Privacy and the Computer: Why We Need Privacy in the
Information Society." Metaphilosophy, 28/3: 259–75.
Nissenbaum. H. (1997). "Toward an Approach to Privacy in Public: Challenges of
Information Technology." Ethics and Behavior, 7/3: 207–19.
Tavani, H. T. (1999). "Informational Privacy. Data Mining and the Internet." Ethics and
Information Technology, 1: 137–45.
Tavani, H. T., and Moor, J. H. (2001). "Privacy Protection, Control of Information, and
Privacy-Enhancing Technologies." In R. A. Spinello and H. T. Tavani (eds.),
Readings in CyberEthics. Jones and Bartlett, pp. 378–91.
van den Hoven. J. (1997). "Privacy and the Varieties of Informational Wrongdoing."
Computers and Society, 27: 33–7.

Web resources
The Electronic Privacy Information Center at http://www.epic.org
The Information Commissioner of the United Kingdom at
http://www.dataprotection.gov.uk
The Office of the Federal Privacy Commissioner, Australia at http://www.privacy.gov.au
Privacy International at http://www.privacy.org/pi/
Privacy.net at http://www.privacy.net
Privacy.org at http://www.privacy.org
Computing and Intellectual Property
Editors' Introduction

"Greased" Property
With recent advances in computer technology, most forms of intellectual
property can now be digitized – for example, novels, stories, essays, poems,
diaries, journals, magazines, newspapers, charts, diagrams, maps, drawings,
photos, databases, musical recordings, movies, television programs, university
courses, and on and on. But digitizing intellectual property has led to a nest of
thorny ethical problems that could take decades to resolve. How did information
technology bring about such a crisis for intellectual property? The answer lies in
the fact that ownership essentially involves the right to control what one owns,
and digitizing one's property can cause one to lose control of it.
Copies of digital entities are essentially identical to their originals. And, as
Moor has pointed out (see chapter 11 above), once an item has been digitized
and entered into a networked computer system, it becomes "greased data" that
can easily slip from computer to computer across the network. Owners can
thereby lose control of their property. Perhaps the most important loss for most
owners is the ability to sell, lease, or rent the property and thereby make a protit.
The ease and trivial costs of digital copying have thereby "greased" the world's
intellectual properties, making them vulnerable to worldwide dissemination free
of charge. Famous examples of this phenomenon include Napster-disseminated
music files [see box 3] and Morpheus-enabled swapping of movies and
television programs. New possibilities like these have led to major "policy
vacuums" requiring significant revision of ownership laws, treaties, and
acceptable business practices. Society might even be forced to rethink the
fundamental concept of "ownership" itself.

Box 3 Napster
The most well publicized IPR [intellectual property rights] issue on the Internet
involves the digital exchange of music. The very existence of Napster (and related
software such as Gnutella) raises pressing ethical questions. The Napster software
program was originally created to allow Internet users to quickly and easily
exchange files for free over the Internet. However. Napster is primarily used for the
exchange of copyrighted songs. A product whose only use is for illegal activities is
clearly unethical, but a product which has both legal and illegal uses is more
problematic. If a product is created for legal purposes but is then used almost
exclusively for illegal acts, is the creator responsible?
Napster has been involved in an ongoing legal battle with major music
companies who are trying to prevent their songs from being downloaded with the
software. This issue is such a complex one that it has even caused rifts within the
community of musicians.
Music companies claim that they are losing tremendous amounts of profits
because potential customers are stealing music online instead of purchasing it
directly from the companies. The companies are supported in their claims by several
top musicians, notably the hard rock band Metallica who brought on the original
lawsuit.
On the other side of the argument are unknown musicians who see Napster as an
opportunity to spread their music. The purpose of IPR laws is to expand knowledge
and intellectual property. Unknown musicians say that this can happen just as well
through Napster. Many musicians also see Napster as a way to free themselves from
the high fees of music companies, allowing them to directly reach their fans.

Source: From Gros, M. and Meir. A. (2001). Values for Management, 6 (April).
http://www.besr.org/journal/besr_newsletter_6.html

What is Ownership and How Can It Be Justified?


What does it mean to say that someone "owns" a house, a car, a musical
composition, or a computer program? Ownership is typically explained as
having a set of rights to control one's property, including the right to use it as
well as the right to say whether and how others may use it. If you own a house,
for example, you have the right to live in it, to raise your family in it, to entertain
friends in it, and so on. You also have the right to determine who else may use
your house and for what purposes. This includes the right to sell it or lease it to
others, or give it away as a gift, or leave it to someone in your will.

The right to control one's property, however, is not absolute. For example, a
person may not burn down his house if doing so will endanger a neighbor's
house. If someone owns a knife, she has the right to use it for a variety of
purposes, but she does not have the right to plunge it into someone else's chest or
to give another person permission to do so. A person may drive his car down the
street, but only at an appropriate speed and only on the proper side of the road.
Ownership, then, is typically defined as a limited set of rights to control what
one owns. But how does one acquire these rights? Philosophers have offered a
number of theories to ethically justify ownership.

The labor theory of ownership Perhaps the most famous theory of ownership is
that of the English philosopher John Locke. He argued that a person who mixes
his labor with resources that are not owned by others, and thereby creates a
product, has gained the right to own the resulting product. Because the laborer
has invested a part of his life to create the item, and no one else did the same, the
laborer has a right to control what he has created. Locke added an important
proviso that the laborer must leave "as much and as good" of the original
resources for the next person, so that anyone else could also mix her labor with
those resources to create a product for herself. Although Locke applied his
theory of ownership to physical objects created from natural resources (e.g., log
cabins in the wilderness), his theory can easily be extended to cover intangible
entities – intellectual property – like poems created from the words of a
language, or musical compositions created from the notes of a music scale, or a
computer program created from the resources of a computer language. Creating
items from these resources leaves as much and as good for everyone else to
make their own intellectual properties.

The personality theory of ownership Another justification of ownership, used


by the German philosopher Hegel, is the "personality theory." This theory is
similar in many ways to Locke's, and it applies most easily to intellectual
property. A poem, a musical composition, a painting, or some other product of
human creativity is considered to be an expression or extension of the creator's
personality. The creator, therefore, has the right to control it – that is, to use it
and to say whether and under what circumstances others may use it.

The utilitarian theory of ownership According to this view, property rights


should be recognized, promoted, and protected in order to maximize happiness
and well-being within the community and minimize pain and sorrow. Humanity
benefits when people invent new products and processes that are useful,
informative, or entertaining. Property rights provide incentives for creative
people to generate a continuous flow of new creations, which in turn will
contribute to the greatest happiness for the greatest number of people.

The social contract theory of ownership This account of ownership explains


and justifies property by making it part of a complex social agreement. The
community agrees to pass laws and create conditions that are conducive to
property ownership. The owners, in return, agree to use their property in ways
that society considers appropriate. Owners and society must keep their promises
to each other by fulfilling their contracts. If the overall goal within a given
community is to maximize happiness and minimize harm, then the social
contract theory becomes a version of the utilitarian theory. But a community
might aim, instead, at different ends like obeying the commands of a god, or
establishing a meritocracy, or some other non-utilitarian goal; so the social
contract theory is not just the utilitarian theory under a different name.

Today, many countries of the world use primarily utilitarian grounds for
establishing and defending intellectual property rights. In the United States, for
example, the Constitution (Article I, Section 8) grants to Congress the power to
"Promote the Progress of Science and useful Arts, by securing for limited Times
to Authors and Inventors the exclusive Right to their respective Writings and
Discoveries." The rights of ownership, therefore, are used as incentives for the
creation or discovery of useful new products and processes that will likely
benefit society as a whole.

Current Varieties of Ownership of Intellectual Property


The three most common forms of ownership for intellectual property are (a)
copyrights, (b) patents, and (c) trade secrets.

Copyrights

When an author writes a literary work, or a composer makes a musical


composition, or an artist creates a painting, he or she can acquire a copyright for
that work in any country that has signed the Berne Convention for the Protection
of Literary and Artistic Works (149 countries by early 2002). The Berne
Convention protects nearly all text-based items, as well as musical creations,
works of art, films, videos, photographs, etc. In 1996 the World Intellectual
Property Organization (WIPO) Treaty explicitly added computer programs to the
list of copyright-protected works (see Article 4 of that treaty).
By 1996, when the WIPO Treaty was adopted, most industrialized nations
had already granted copyright protection to software (e.g., the United States did
so in 1980). Nevertheless, even today, after decades of scholarly debate and
court cases, there are issues of software ownership that have not been fully
settled. Copyright law is complex and constantly evolving, and additional
decades will likely be needed to resolve the important issues. In spite of this,
American courts have already identified several aspects of computer programs
that can be copyright protected, including (a) the original source code, (b) any
translation of the source code (including machine translations), (c) the "look and
feel" of some computer programs, and (d) the "structure, sequence and
organization" of the elements of some programs.
Copyright is a long-lasting form of ownership which extends 70 years
beyond the death of the creator. It prevents others from directly copying,
distributing, or publicly performing a work without permission from the
copyright holder. On the other hand, copyright is a rather weak form of
ownership because it does not provide monopoly control to the owner. Thus, if
someone independently creates a work that is very similar to or even identical to
an already copyrighted work, the original copyright holder cannot prevent the
new creator from using and disseminating the work. In addition, the burden of
proof is on the copyright owner if he or she believes that others have copied the
original.
For owners of computer programs, an important shortcoming of copyright
protection is the fact that copyrights do not protect the algorithm - the
underlying sequence of computer commands embedded within the program. For
most owners of a computer program, the algorithm is exactly the part that most
needs protection, since it is the "functional" part that gives software the power to
control a computer. In addition, creating the algorithm normally requires the
most time, resources and creativity.

Patents
A stronger kind of ownership is the patent, which provides monopoly control of
one's intellectual property for 17 years (often renewable for 5 more years). For
example, if someone has a patent on a piece of software, he or she can stop
anyone else – for 17–22 years – from using, copying, distributing, or marketing
that software without permission. Even if the other person did not copy the
original program, but instead created it independently, the patent holder can
nevertheless prevent the new creator from using his own independent creation.
Because patents give monopoly control to owners, it is understandable that
software writers would want patents to protect their programs. Until the early
1980s, however, courts in the United States were reluctant to grant patents for
software. Even though most computer programs did fulfill the usual
requirements of being "useful, novel and non-obvious," they were not considered
able to meet the test of being "a process, machine, manufacture or composition
of matter." Also, a computer program was viewed as a sequence of ideas or
mathematical formulas, and these are not supposed to be patented because they
are "the building blocks of science and technology." Patenting them would
remove them from the public domain and thereby impede progress in science
and technology. This would defeat the primary goal of patents, which is to
encourage new scientific and technological discoveries and inventions.
In 1981 the watershed case of Diamond v. Diehr led American courts to
view many computer programs as similar to step-by-step manufacturing
processes. As a result, after 1981 the sequences of commands (algorithms)
embedded in many software programs were allowed to be patented. This new
development opened the floodgates, and tens of thousands of computer programs
were patented after 1981. Many people today are alarmed by this new situation
because they worry that significant aspects of science and mathematics are being
removed from the public domain. In addition, it has now become very expensive
to conduct a patent search in order to make sure that one's new software does not
infringe on thousands of already patented programs. Only very wealthy
corporations can afford to conduct such searches, and this puts small software
companies and individual programmers at a huge disadvantage. Instead of
encouraging new developments in science and technology, which patents are
supposed to do, software patents may actually be hindering such progress. It
should be noted that, currently, in many other countries software patents are
unlikely to be granted.

Trade secrets
A third form of ownership for intellectual property is trade secrecy. This type of
ownership allows a company to create something in-house and then use it within
the company to carry on the business. A trade secret might be, for example, a
manufacturing process, a food recipe, a chemical formula, or a software program
used within the company. To qualify as a trade secret the protected entity must
be novel, the company has to make a significant investment of effort and
resources to create it, and the company must also make a significant effort to
keep it a secret from potential competitors. License agreements, employee
contracts, encryption efforts, and other devices are typically used to preserve
secrecy.
Trade secrecy can be used to protect the same kinds of intellectual property
as copyrights and patents combined. Nevertheless, trade secrecy has some
significant shortcomings as a form of ownership. For example, if a competitor
happens to create or discover the same thing independently, the competitor may
be allowed to use it without permission of the original owner. In some cases, the
competitor might even file for a patent or copyright and force the original
company to pay royalties. In addition, if the secret somehow leaks out, the
property may no longer be protected by law.
Trade secrecy is an especially troublesome form of ownership for software,
because most software is created for distribution to large numbers of licensees.
In spite of licensing agreements that are intended to preserve secrecy, once
thousands of copies of the software have been distributed relevant secrets may
be revealed and ownership by trade secrecy may be lost.

Do Current Forms of Ownership Ethically Protect Software?


In chapter 13, entitled "Proprietary Rights in Computer Software," Deborah G.
Johnson raises a key question about the current forms of software ownership: Do
copyrights, patents, and trade secrets adequately and justly protect the property
rights of software owners? To answer this question, she adopts the utilitarian
theory of ownership because that is the theory employed in the US Constitution.
She concludes that the relevant laws are "not bad laws," because they are "right
on target in seeking to create an environment in which invention can flourish."
However, given the kind of problems and shortcomings described above,
Johnson suggests that current laws may have to be modified, perhaps even
abandoned, for computer-related inventions. She concludes:
Whatever changes one supports, it seems clear that we must keep in mind that
our ends should be the same as those of the patent and copyright systems, to
create an environment in which creativity and invention are encouraged and
facilitated.

Unlike Johnson, Richard Stallman argues, in chapter 14, "Why Software


Should Be Free," that current forms of ownership for computer programs are
unjust and immoral, and therefore should be eliminated. Software ownership, he
says, inflicts many kinds of harm upon society. He also uses the utilitarian
theory of ownership; but, unlike Johnson, he concludes that current laws restrict
and discourage creativity and invention and therefore should be abandoned in
favor of free software.1

1 Stallman's call for "free software" eventually led to the so-called "open source
movement." This, in turn, led to free software like the LINUX operating system and the
email software SENDMAIL that is used globally on the Internet. See the article "The
Cathedral and the Bazaar." by Eric Raymond, listed in the Bibliography.
CHAPTER 13

Proprietary Rights in Computer Software: Individual


and Policy Issues
Deborah G. Johnson

Deborah G. Johnson, "Proprietary Rights in Computer Software: Individual and Policy


Issues." This chapter was originally presented as a paper at the National Conference on
Computing and Values held at Southern Connecticut State University, New Haven, CT in
August 1991. © by Research Center on Computing and Society. Southern Connecticut
State University and reprinted by permission of the author.

Introduction
In this paper I want to focus on two central moral issues surrounding the
ownership of computer software. These are the individual moral question and the
policy issue. The individual moral issue is simply this: Is it morally wrong for an
individual (or company) to make an illegal copy of a piece of proprietary
software? Here the question is one of what is right or wrong for an individual to
do, given the law, and not a question of what the law should be. The policy issue
centers on what the law should be and includes the following questions: Should
computer software be private property? Does the extant system of copyright,
patent, and trade secrecy protection adequately protect computer software? Does
the system produce good consequences? I want to sketch positions on both of
these issues, taking the copying issue first, but recognizing that the two are
somewhat interdependent.

Is it Wrong to Copy Proprietary Software?


The issue here must be clarified in at least two ways. First, making a backup
copy of a piece of software (which you have purchased) for your own protection
may not be illegal. Second, while I have used the label "individual" moral issue,
it is not just an issue for individuals but applies as well to collective units such as
companies, agencies, and institutions. The typical cases that I have in mind are
cases in which either you make a copy of a piece of proprietary software to give
to a friend, or you borrow a piece of software from someone who has purchased
it and you make a copy for your own use. These cases do not seem to differ
significantly from the case in which a company buys a single copy of a piece of
software and makes multiple copies for use within the company in order to avoid
purchasing more.
The intuition that copying a piece of software is not wrong is
understandable. Making a copy of a piece of proprietary software is easy, seems
harmless, and the laws aimed at preventing it seem ill-suited for doing the job.
Nevertheless, when I examine the arguments that are made (or might be made)
to support the conclusion, I find that I can not "buy in." I am compelled to
conclude that it is morally wrong to make an illegal copy of a piece of software,
because it is illegal. The key issue here has little to do with software per se, and
everything to do with the relationship between law and morality.
Perhaps the best way to begin is by laying out what I take to be the strongest
arguments for the moral permissibility of individual copying. The strongest
arguments claim (1) that the laws protecting computer software are bad, and,
then, either: (2a) making a copy of a piece of software is not intrinsically wrong,
or (2b) making a copy of a piece of software does no harm, or (2c) not making a
copy of a piece of software may do some harm.
I will address premise (1) in the next section of this paper when I examine
complaints about the law. For now, however, it is important to get clear on what
might be claimed in premise (1). Here are some of the possibilities: (1a) all
property law in America is unjust and the software laws are part of this; (1b) all
intellectual property laws are unjust and software laws are part of this; (lc) most
property law in America is just, but the laws surrounding computer software are
not; (1d) while the laws surrounding the ownership of software are not unjust,
they could be a lot better. The list could go on and just which position one holds
makes much of the difference in the copying argument.
I do not want to take the time to run through these arguments so I am going
to short-cut my argument here by just proclaiming that my position (to be
elaborated in the next section) is that the system of intellectual property rights in
America (in particular the patent and copyright systems) may not be the best of
all possible systems in every detail, but both copyright and patent law have good
ends and aim at the right balance between what can and what cannot be owned.
In other words, while I recognize that the extant system of copyright and patent
protection for software could be improved, I do not believe that these systems of
law are blatantly unjust or wholly inappropriate for computer software.
The next step in my argument is to claim that an individual has a prima facie
obligation to obey the laws of a roughly just system of law. "Prima facie" means
"all things being equal" or "unless there are overriding reasons." The prima facie
obligation to obey the law could be overridden by higher order obligations or by
special circumstances which justify disobedience. Higher order obligations will
override when, for example, obeying the law will lead to greater harm than
disobeying. Higher order obligations may even require civil disobedience. That
is, if the law is immoral, then disobedience is morally obligatory. Special
circumstances could justify disobedience to an otherwise good law when harm
would come from obeying the law this one time. For example, the law
prohibiting one to drive on the left side of the road is a good law, but one would
be justified in breaking it in order to avoid hitting someone.
So I am not claiming that one always has an obligation to obey the law. I
argue only that the burden of proof is on those who would disobey roughly good
laws.
Given that extant laws regarding computer software are roughly good –
which I am simply proclaiming for the moment – and given that one has a prima
facie obligation to obey roughly good laws, the second premise carries the
weight of any argument for the moral permissibility of copying. Hence premises
(2a) to (2c) have to be examined carefully.
I agree with premise (2a) that there is nothing intrinsically wrong with
making a copy of a piece of software. If there were no laws against it, such acts
would not be wrong. Indeed, I have argued elsewhere that property rights are not
natural or moral in themselves (Johnson 1993). They acquire moral significance
only when they are created by law and only in relatively just systems of law.
However, premise (2a) does not support the argument for copying because
copying has been made illegal and as such it is prima facie wrong.
According to premise (2b), making a copy of a piece of software for
personal use harms no one. If we think of copying taking place, as in (2a), in a
state of nature, this premise appears to be true, i.e., no one is harmed. However,
once we are in a society of laws, the laws create legal rights, and it seems that
one harms others by depriving them of their legal rights. When one makes a
copy of a piece of software, one deprives the owner of the legal right to control
the use of that software and to require payment in exchange for the use of the
software, and this is a harm. Those who think this is not a harm should talk to
small software companies or individual entrepreneurs who have gone into the
business of developing software, invested time and money, only to be squeezed
out of business by customers who buy one copy and make others instead of
buying more. So, premise (2b) is false in that making a copy of a piece of
software does harm someone.
Premise (2c) has the most promise, for if it were true that one would actually
be doing harm by obeying the law, then one might have a moral reason for
overriding the law. even if it were relatively good. Richard Stallman (1990) and
Helen Nissenbaum (1991) have both made arguments of this kind. Both argue
that there are circumstances in which not making a copy or not making a copy
and providing it to a friend does some harm. However, in their arguments, the
harm referred to does not seem of the kind to counterbalance the effects of a
relatively just system of property rights. Both give examples of how an
individual might be able to help a friend out by providing an illegal copy of a
piece of proprietary software. Both argue that this discourages altruism. But this
argument ignores the harm to the copyright holder or patent holder.
Even if I were to grant that not providing a copy to a friend is doing harm,
we have to compare the harms and choose the lesser one. Given what I said
above about the prima facie obligation to obey the law, it follows that there may
be some situations in which copying will be justified, namely when some fairly
serious harm can only be prevented by making an illegal copy of a piece of
proprietary software and using it. In most cases, however, the claims of the
software owner to her legal rights would seem to be much stronger than the
claims of someone who needs a copy to make her life easier.
If the position I have just sketched seems odd, consider an analogy with a
different sort of property. Suppose I own a private swimming pool and I make a
living by renting the use of it to others. I do not rent the pool everyday and you
figure out how to break in undetected and use the pool when it is not opened and
I am not around. The act of swimming is not intrinsically wrong, and swimming
in the pool does no obvious harm to me (the owner) or anyone else.
Nevertheless, you are using my property without my permission. It would hardly
seem a justification for ignoring my property rights if you claimed that you were
hot and the swim in my pool made your life easier. Similarly, if you argued that
you had a friend who was very uncomfortable in the heat and you, having the
knowledge of how to break into the pool, thought it would be selfish not to use
that knowledge to help your friend break into the pool.
Of course, there are circumstances under which your illegal entry into my
pool might be justified. For example, if someone else had broken in, was
swimming, and began to drown. You were innocently walking by, saw the
person drowning, and broke in, in order to save the other person. Here the
circumstances justify overriding my legal rights.
There seems to be no moral difference between the two cases. Breaking into
the pool and making a copy of a proprietary piece of software are both acts
which violate the legal rights of the owner. And they are legal rights created by
reasonably good laws. I will grant that these laws do prevent others from acting
altruistically, but this, I believe, is inherent to private property. Private property
is individualistic, exclusionary, and, perhaps, selfish. So, if Stallman and
Nissenbaum want to launch an attack on all private property laws, I am in
sympathy with their claims. However, I would press them to explain why they
had picked out computer software law when private ownership of other things,
such as natural resources or corporate conglomerates, seems much more
menacing.
I conclude that it is prima facie wrong to make illegal copies of proprietary
software because to do so is to deprive the owners of their legal rights, and this
is to harm them. I admit that this has been a sketchy discussion of a topic that
needs much more attention, but it is a topic that needs to be put on the table here.

Is Our System of Copyright and Patent Protection for Computer


Software Good?
To put the policy issue in a moral or value framework, let me begin by saying
that while in earlier work (Johnson 1985), I toyed with moral arguments
supporting the ownership of software, namely a Lockean labor-theory argument,
I now believe that property rights do not have a moral basis in the sense that they
would exist prior to a society of laws. That is, I believe that property rights are
social or conventional or artificial. This is entirely consistent with copyright and
patent law in America, for both these systems of law are utilitarian in character.
Both systems aim to produce good consequences for society in the long run.
Debate and discussion about what the law should be with regard to computer
software should, then, be framed in utilitarian theory.
In the late 1970s and early 1980s, a good deal of concern was being
expressed that neither copyright nor patent law would adequately protect
computer software. A sizeable literature described the extent and impact of
software piracy and illegal copying, and expressed fear that software
development would be significantly impeded because software companies would
not be able to recover the costs of development, let alone profit from their
creations. The incentive to create would be significantly dampened.
In the late 1980s and early 1990s, more and more concern is being expressed
that there is too much protection for computer software; that is, that too much
has become proprietary. The concern now is that copyright and patent protection
are being extended too far. They now get in the way of software development
(Kahin 1990).
This shift of concern goes to the heart of the aims of our intellectual property
laws, for both copyright and patent law aim to create an environment in which
invention is encouraged. This is done, on the one hand, by granting ownership in
things such that the owner can put the new invention into the marketplace and
profit when the invention is useful. On the other hand, invention is facilitated by
insuring that the "building blocks" of the technological arts and sciences are not
owned. Ownership of the building blocks would interfere with invention insofar
as new inventors would have to seek permission to use these building blocks
from private owners – owners who could refuse to grant permission (to avoid
competition, out of personal whim, or for any reason whatsoever), or drive the
price of invention prohibitively high.
When it comes to copyright, you can own the expression of an idea, but not
the idea itself; when it comes to patents, you can receive a monopoly on the use
of your invention as long as your invention is not, or does not, preempt use of a
law of nature, abstract idea, mathematical formula, etc. The rationale for these
restrictions is the same in both cases. To grant ownership of ideas, laws of
nature, mathematical formulas, etc. would interfere with progress in the
technological arts and sciences because others could not freely use these
building blocks.
So, both patent and copyright law aim at facilitating invention; that is, both
aim at producing good consequences in the technological arts and sciences. In
order to do this, both systems of law must draw a very careful line between what
can and cannot be owned. However, the line is particularly difficult to draw in
the case of computer software because the distinctions traditionally used to draw
the line, such as that between idea and expression, or that between mathematical
formula and application, get very blurry for software and other computer
technology.
Patents
The shift in concern about patent protection on software from the early 1980s to
the early 1990s can be traced to a shift in the policies and practices of the Patent
Office and the Court of Customs and Patent Appeals (CCPA) after the Diamond
v. Diehr case (Samuelson 1990). Up until Diamond v. Diehr the Patent Office
had been extremely reluctant to grant patents on computer related claims, though
its reluctance had been challenged by the CCPA. After Diamond v. Diehr the
Patent Office began granting patents and the CCPA found new reasons to grant
more. While only a handful of software related patents had been granted before
Diamond v. Diehr, thousands have been granted since then (Kahin 1990).
The new concerns about patent protection on software go to the heart of the
patent system's aim, for they suggest that because so much is owned, invention is
now being inhibited. The subject-matter limitation on what can be patented aims
to insure that the building blocks of science and technology should not be owned
so that continued development will flourish, yet complaints suggest that the
building blocks may now be owned. The situation is described roughly as
follows: Because so many patents have been granted, before putting new
software on the market, one must do an extensive and expensive patent search. If
overlapping patents are found, licenses must be bought. Even if no overlapping
patents are found, there is always the risk of late-issuing patents. Patent searches
are not guaranteed to identify all potential infringements because the Patent
Office has a poor classification system for software. Hence, there is always the
risk of a lawsuit due to patent infringement. One may invest a great deal in
developing a product, invest even more in a patent search, and then find at the
last minute that the new product infringes on something already claimed. These
factors make software development a risky business and constitute barriers to
development of new software. In particular, the costs and risks are barriers to
small entrepreneurs.
I have argued elsewhere that computer algorithms should not be patentable
and these criticisms lend support to that position. Depending on how the term
"algorithm" is defined, these criticisms suggest that an even broader subject-
matter limitation for program-related patent claims should be implemented.
Stallman (1990) proposes that we pass a law that excludes software from the
domain of patents. Samuelson (1990) argues that the Patent Office and the
CCPA have over-extended the meaning of the Supreme Court's decision in the
Diamond v. Diehr case.
Copyright
The situation with regard to copyright is less clear and I am not going to spend
as much time on it. Copyright protection has the legal advantage that the
Copyright Act was amended in 1980 to explicitly specify that it applies to
computer software. On the other hand, the meaning of copyright protection is
unclear in the sense that it is not clear what aspect of a piece of software you
own.
Copyright protection is easier to acquire in the sense that if you develop a
new program on your own, even though the new software may duplicate
something already copyrighted, you do not infringe as long as you were
unfamiliar with the copyrighted program while you were developing your own,
This is an advantage from the point of view of acquiring protection, but a
disadvantage in that the protection you acquire is weak.
It is becoming increasingly apparent that the idea/expression distinction,
which is the conceptual heart of copyright law, may not be adequate to handle
computer software. The uncertainty of the application of copyright law is itself
enough to get in the way of development in the field.

Not Bad Laws


Note that these criticisms of patent and copyright protection are not directed at
the fundamental character of the laws. The aims and strategies of copyright and
patent law seem right on target in seeking to create an environment in which
invention can flourish. In this respect they are not bad laws. But while their aims
are right, they seem to lack the conceptual tools to handle the issues posed by
computer technology. It appears that copyright law and patent law will have to
be modified or abandoned for computer-related invention. Whatever changes
one supports, it seems clear that we must keep in mind that our ends should be
the same as those of the patent and copyright systems, to create an environment
in which creativity and invention are encouraged and facilitated.

References
Johnson. D. G. (1993). "A Reply to 'Should Computer Programs Be Ownable?'"
Metaphilosophy, 24: 85–90.
Johnson, D. G. (1985). Computer Ethics. Prentice-Hall.
Kahin, B. (1990). "The Software Patent Crisis." Technology Review. 93/1 (April): 543–
58.
Nissenbaum,H. (1991). "A Plea for Casual Copying." In T. W. Bynum. W. Maner, and J.
L. Fodor (eds.), Software Ownership and Intellectual Property Rights. Research
Centre on Computing and Science. Available at
www.southernct.edu/organizations/rccs/resources/research/intellectual_property/intel_prop_conte
(accessed December 7, 2002).
Samuelson, P. (1990). "Benson Revisted: The Case Against Patent Protection for
Algorithms and Other Computer Program-Related Inventions." Emory Law
Journal. 39/4 (Fall): 1025–154.
Stallman, R. (1990). Conference paper, American Philosophical Association Meetings,
December.

Basic study questions


1. Describe the two "central moral issues" that Johnson identifies regarding the
ownership of software.
2. Why does Johnson conclude that it is morally wrong to make an illegal copy of a
piece of software?
3. What, according to Johnson, are the two strongest arguments for the moral
permissibility of individual copying of owned software? Why does she consider
these arguments to be unacceptable?
4. According to Johnson, when - if ever – is one morally justified in breaking a law?
5. Does Johnson consider copying a piece of software intrinsically wrong? What is the
reasoning behind her position?
6. Does Johnson agree that making a copy of a piece of software harms no one? Why,
or why not?
7. Are patents and copyrights the same thing? If not, explain the differences between
them with respect to the ownership of software.
8. Given her criticism of copyright and patent laws, why does Johnson believe that one
still has a moral obligation to obey them? Explain in detail.
9. What, according to Johnson, should be the major goal of any modifications to
traditional copyright and patent laws?

Questions for further thought


1. What is the "classical" theory of ownership developed by English philosopher John
Locke? This theory seems to fit well with ownership of physical objects like log
cabins in the forest, but how well does it fit with "non-physical" intellectual
property like computer software? Explain in detail.
2. What is the difference between law and ethics? Can some actions be ethical but
illegal? Can some actions be legal but unethical? Explain your answers with
examples (not necessarily involving software or computing).
3. Do you agree with Johnson's view that "property rights are not natural or moral in
themselves" – that if there were no laws and no societies, no one would have the
right to own anything? Explain in detail why you think so.
CHAPTER 14

Why Software Should Be Free


Richard Stallman

Richard Stallman, "Why Software Should Be Free." © 1991 by The Free Software
Foundation, Inc. Copying and redistribution are permitted without royalty; alteration is
not permitted.

Introduction
The existence of software inevitably raises the question of how decisions about
its use should be made. For example, suppose one individual who has a copy of
a program meets another who would like a copy. It is possible for them to copy
the program? Who should decide whether this is done? The individuals
involved? Or another party, called the "owner"?
Software developers typically consider these questions on the assumption
that the criterion for the answer is to maximize developers' profits. The political
power of business has led to the government adoption of both this criterion and
the answer proposed by the developers: that the program has an owner, typically
a corporation associated with its development.
I would like to consider the same question using a different criterion: the
prosperity and freedom of the public in general.
This answer cannot be decided by current law – the law should conform to
ethics, not the other way around. Nor does current practice decide this question,
although it may suggest possible answers. The only way to judge is to see who is
helped and who is hurt by recognizing owners of software, why, and how much.
In other words, we should perform a cost-benefit analysis on behalf of society as
a whole, taking account of individual freedom as well as production of material
goods.
In this essay, I will describe the effects of having owners, and show that the
results are detrimental. My conclusion is that programmers have the duty to
encourage others to share, redistribute, study, and improve the software we
write: in other words, to write free software, the word "free" in "free software"
refers to freedom, not to price; the price paid for a copy of a free program may
be zero, or small, or (rarely) quite large.

How Owners Justify Their Power


Those who benefit from the current system where programs are property offer
two arguments in support of their claims to own programs: the emotional
argument and the economic argument.
The emotional argument goes like this: "I put my sweat, my heart, my soul
into this program. It comes from me, it's mine!" This argument does not require
serious refutation. The feeling of attachment is one that programmers can
cultivate when it suits them: it is not inevitable. Consider, for example, how
willingly the same programmers usually sign over all rights to a large
corporation for a salary: the emotional attachment mysteriously vanishes. By
contrast, consider the great artists and artisans of medieval times, who didn't
even sign their names to their work. To them, the name of the artist was not
important. What mattered was that the work was done – and the purpose it
would serve. This view prevailed for hundreds of years.
The economic argument goes like this: "I want to get rich (usually described
inaccurately as 'making a living'), and if you don't allow me to get rich by
programming, then I won't program. Everyone else is like me. so nobody will
ever program. And then you'll be stuck with no programs at all!" This threat is
usually veiled as friendly advice from the wise. I'll explain later why this threat
is a bluff. First, I want to address an implicit assumption that is more visible in
another formulation of the argument.
This formulation starts by comparing the social utility of a proprietary
program with that of no program, and then concludes that proprietary software
development is, on the whole, beneficial, and should be encouraged. The fallacy
here is in comparing only two outcomes – proprietary software versus no
software –and assuming there are no other possibilities.
Given a system of intellectual property, software development is usually
linked with the existence of an owner who controls the software's use. As long as
this linkage exists, we are often faced with the choice of proprietary software or
none. However, this linkage is not inherent or inevitable: it is a consequence of
the specific social/legal policy decision that we are questioning: the decision to
have owners. To formulate the choice as between proprietary software versus no
software is begging the question.

The Argument Against Having Owners


The question at hand is: "Should development of software be linked with having
owners to restrict the use of it?"
In order to decide this, we have to judge the effect on society of each of
those two activities independently: the effect of developing the software
(regardless of its terms of distribution), and the effect of restricting its use
(assuming the software has been developed). If one of these activities is helpful
and the other is harmful, we would be better off dropping the linkage and doing
only the helpful one. To put it another way, if restricting the distribution of a
program already developed is harmful to society overall, then an ethical software
developer will reject the option of doing so.
To determine the effect of restricting sharing, we need to compare the value
to society of a restricted (i.e., proprietary) program with that of the same
program, available to everyone. This means comparing two possible worlds.
This analysis also addresses the simple counter–argument sometimes made that
"the benefit to the neighbor of giving him or her a copy of a program is cancelled
by the harm done to the owner." This counterargument assumes that the harm
and the benefit are equal in magnitude. The analysis involves comparing these
magnitudes, and shows that the harm is much greater. To elucidate this
argument, let us apply it in another area – road construction.
It would be possible to fund the construction of all roads with tolls. This
would entail having toll booths at all street corners. Such a system would
provide a great incentive to improve roads. It would also have the virtue of
causing the users of any given road to pay for that road. However, a toll booth is
an artificial obstruction to smooth driving – artificial, because it is not a
consequence of how roads or cars work. Comparing free roads and toll roads by
their usefulness, we find that (all else being equal) roads without toll booths are
cheaper to construct, cheaper to run, safer, and more efficient to use. In a poor
country, tolls may make the roads unavailable to many citizens. The roads
without toll booths thus offer more benefit to society at less cost; they are
preferable for society. Therefore, society should choose to fund roads in another
way, not by means of toll booths. Use of roads, once built, should be free.
When the advocates of toll booths propose them as merely a way of raising
funds, they distort the choice that is available. Toll booths do raise funds, but
they do something else as well: in effect, they degrade the road. The toll road is
not as good as the free road; giving us more or technically superior roads may
not be an improvement if this means substituting toll roads for free roads. Of
course, the construction of a free road does cost money, which the public must
somehow pay. However, this does not imply the inevitability of toll booths. We
who must in either case pay will get more value for our money by buying a free
road.
I am not saying that a toll road is worse than no road at all. That would be
true if the toll were so great that hardly anyone used the road – but this is an
unlikely policy for a toll collector. However, as long as the toll booths cause
significant waste and inconvenience, it is better to raise the funds in a less
obstructive fashion.1
To apply the same argument to software development, I will now show that
having "toll booths" for useful software programs costs society dearly: it makes
the programs more expensive to construct, more expensive to distribute, and less
satisfying and efficient to use. It will follow that program construction should be
encouraged in some other way. Then I will go on to explain other methods of
encouraging and (to the extent actually necessary) funding software
development.

The Harm Done by Obstructing Software


Consider for a moment that a program has been developed, and any necessary
payments for its development have been made; now society must choose either
to make it proprietary or allow free sharing and use. Assume that the existence
of the program and its availability is a desirable thing. One might regard a
particular computer program as a harmful thing that should not be available at
all, like the Lotus Marketplace database of personal information, which was
withdrawn from sale due to public disapproval. Most of what I say does not
apply to this case, but it makes little sense to argue for having an owner because
the owner will make the program less available. The owner will not make it
completely unavailable, as one would wish in connection with a program whose
use is harmful. Restrictions on the distribution and modification of the program
cannot facilitate its use. They can only interfere. So the effect can only be
negative. But how much? And what kind?
Three different levels of material harm come from such obstruction:
• fewer people use the program;
• none of the users can adapt or fix the program;
• other developers cannot learn from the program, or base new work on it.

Each level of material harm has a concomitant form of psychosocial harm. This
refers to the effect that people's decisions have on their subsequent feelings,
attitudes, and predispositions. These changes in people's ways of thinking will
then have a further effect on their relationships with their fellow citizens, and
can have material consequences.
The three levels of material harm waste part of the value that the program
could contribute, but they cannot reduce it to zero. If they waste nearly all the
value of the program, then writing the program harms society by at most the
effort that went into writing the program. Arguably, a program that is profitable
to sell must provide some net direct material benefit.
However, taking account of the concomitant psychosocial harm, there is no
limit to the harm that proprietary software development can do.

Obstructing Use of Programs


The first level of harm impedes the simple use of a program. A copy of a
program has nearly zero marginal cost (and you can pay this cost by doing the
work yourself), so in a free market, it would have nearly zero price. A license fee
is a significant disincentive to use the program. If a widely useful program is
proprietary, far fewer people will use it.
It is easy to show that the total contribution of a program to society is
reduced by assigning an owner to it. Each potential user of the program, faced
with the need to pay to use it, may choose to pay, or may forego use of the
program. When a user chooses to pay, this is a zero-sum transfer of wealth
between two parties. But each time someone chooses to forego use of the
program, this harms that person without benefiting anyone. The sum of negative
numbers and zeros must be negative.
But this does not reduce the amount of work it takes to develop the program.
As a result, the efficiency of the whole process, in delivered user satisfaction per
hour of work, is reduced. This reflects a crucial difference between copies of
programs and cars, chairs, or sandwiches. There is no copying machine for
material objects outside of science fiction. But programs are easy to copy;
anyone can produce as many copies as are wanted, with very little effort. This
isn't true for material objects because matter is conserved: each new copy has to
be built from raw materials in the same way that the first copy was built.
With material objects, a disincentive to use them makes sense, because fewer
objects bought means less raw materials and work needed to make them. It's true
that there is usually also a start-up cost, a development cost, which is spread over
the production run. But as long as the marginal cost of production is significant,
adding a share of the development cost does not make a qualitative difference.
And it does not require restrictions on the freedom of ordinary users. However,
imposing a price on something that would otherwise be free is a qualitative
change. A centrally imposed fee for software distribution becomes a powerful
disincentive.
What is more, central production as now practiced is inefficient even as a
means of delivering copies of software. This system involves enclosing physical
disks or tapes in superfluous packaging, shipping large numbers of them around
the world, and storing them for sale. This cost is presented as an expense of
doing business; in truth, it is part of the waste caused by having owners.

Damaging Social Cohesion


Suppose that both you and your neighbor would find it useful to run a certain
program, In ethical concern for your neighbor, you should feel that proper
handling of the situation will enable both of you to use it. A proposal to permit
only one of you to use the program, while restraining the other, is divisive;
neither you nor your neighbor should find it acceptable.
Signing a typical software license agreement means betraying your neighbor:
"I promise to deprive my neighbor of this program so that I can have a copy for
myself." People who make such choices feel internal psychological pressure to
justify them, by downgrading the importance of helping one's neighbors – thus
public spirit suffers. This is psychosocial harm associated with the material harm
of discouraging use of the program.
Many users unconsciously recognize the wrong of refusing to share, so they
decide to ignore the licenses and laws, and share programs anyway. But they
often feel guilty about doing so. They know that they must break the law in order
to be a good neighbor, but they still consider the laws authoritative, and they
conclude that being a good neighbor (which they are) is naughty or shameful.
That is also a kind of psychosocial harm, but one can escape it by deciding that
these licenses and laws have no moral force.
Programmers also suffer psychosocial harm knowing that many users will
not be allowed to use their work. This leads to an attitude of cynicism or denial.
A programmer may describe enthusiastically the work that he finds technically
exciting; then, when asked, "Will I be permitted to use it?," his face falls, and he
admits the answer is no. To avoid feeling discouraged, he either ignores this fact
most of the time or adopts a cynical stance designed to minimize the importance
of it.
Since the age of Reagan, the greatest scarcity in the United States has not
been technical innovation, but rather the willingness to work together for the
public good. It makes no sense to encourage the former at the expense of the
latter.

Obstructing Custom Adaptation of Programs


The second level of material harm is the inability to adapt programs. The ease of
modification of software is one of its great advantages over older technology.
But most commercially available software isn't available for modification, even
after you buy it. It's available for you to take it or leave it, as a black box – that is
all.
A program that you can run consists of a series of numbers whose meaning
is obscure. No one, not even a good programmer, can easily change the numbers
to make the program do something different.
Programmers normally work with the "source code" for a program, which is
written in a programming language such as Fortran or C. It uses names to
designate the data being used and the parts of the program, and it represents
operations with symbols such as + for addition and – for subtraction. It is
designed to help programmers read and change programs. Here is an example; a
program to calculate the distance between two points in a plane:
double distance (p0, p1) struct point p0, p1 :
double xdist = p1 .x – p0.x;
double ydist = p1 .y – p0.y;
return sqrt (xdist * xdist + ydist * ydist);

Here is the same program in executable form, on the computer I normally use:
Source code is useful (at least potentially) to every user of a program. But
most users are not allowed to have copies of the source code. Usually, the source
code for a proprietary program is kept secret by the owner lest anybody else
learn something from it. Users receive only the files of incomprehensible
numbers that the computer will execute. This means that only the program's
owner can change the program.
A friend once told me of working as a programmer in a bank for about six
months, writing a program similar to something that was commercially
available. She believed that if she could have gotten source code for that
commercially available program, it could easily have been adapted to their
needs. The bank was willing to pay for this, but was not permitted to – the
source code was a secret. So she had to do six months of make-work, work that
counts in the GNP but was actually waste.
The MIT Artificial Intelligence (AI) lab received a graphics printer as a gift
from Xerox around 1977. It was run by free software to which we added many
convenient features. For example, the software would notify a user immediately
on completion of a print job. Whenever the printer had trouble. such as a paper
jam or running out of paper, the software would immediately notify all users
who had print jobs queued. These features facilitated smooth operation.
Later, Xerox gave the AI lab a newer, faster printer, one of the first laser
printers. It was driven by proprietary software that ran in a separate dedicated
computer, so we couldn't add any of our favorite features. We could arrange to
send a notification when a print job was sent to the dedicated computer, but not
when the job was actually printed (and the delay was usually considerable).
There was no way to find out when the job was actually printed; you could only
guess. And no one was informed when there was a paper jam, so the printer
often went for an hour without being fixed.
The system programmers at the AI lab were capable of fixing such problems,
probably as capable as the original authors of the program. Xerox was
uninterested in fixing them, and chose to prevent us, so we were forced to accept
the problems. They were never fixed.
Most good programmers have experienced this frustration. The bank could
afford to solve the problem by writing a new program from scratch, but a typical
user, no matter how skilled, can only give up.
Giving up causes psychosocial harm – to the spirit of self-reliance. It is
demoralizing to live in a house that you cannot rearrange to suit your needs. It
leads to resignation and discouragement, which can spread to affect other aspects
of one's life. People who feel this way are unhappy and do not do good work.
Imagine what it would be like if recipes were hoarded in the same fashion as
software. You might say, "How do I change this recipe to take out the salt?," and
the great chef would respond, "How dare you insult my recipe, the child of my
brain and my palate, by trying to tamper with it? You don't have the judgment to
change my recipe and make it work right!"
"But my doctor says I'm not supposed to eat salt! What can I do? Will you
take out the salt for me?"
"I would be glad to do that; my fee is only $ 50,000." Since the owner has a
monopoly on changes, the fee tends to be large. "However, right now I don't
have time. I am busy with a commission to design a new recipe for ship's biscuit
for the Navy Department. I might get around to you in about two years."

Obstructing Software Development


The third level of material harm affects software development. Software
development used to be an evolutionary process, where a person would take an
existing program and rewrite parts of it for one new feature, and then another
person would rewrite parts to add another feature; in some cases, this continued
over a period of 20 years. Meanwhile, parts of the program would be
"cannibalized" to form the beginnings of other programs.
The existence of owners prevents this kind of evolution, making it necessary
to start from scratch when developing a program. It also prevents new
practitioners from studying existing programs to learn useful techniques or even
how large programs can be structured.
Owners also obstruct education. I have met bright students in computer
science who have never seen the source code of a large program. They may be
good at writing small programs, but they can't begin to learn the different skills
of writing large ones if they can't see how others have done it.
In any intellectual field, one can reach greater heights by standing on the
shoulders of others. But that is no longer generally allowed in the software field
– you can only stand on the shoulders of the other people in your own company.
The associated psychosocial harm affects the spirit of scientific cooperation,
which used to be so strong that scientists would cooperate even when their
countries were at war. In this spirit, Japanese oceanographers abandoning their
lab on an island in the Pacific carefully preserved their work for the invading US
Marines, and left a note asking them to take good care of it.
Conflict for profit has destroyed what international conflict spared.
Nowadays scientists in many fields don't publish enough in their papers to
enable others to replicate the experiment. They publish only enough to let
readers marvel at how much they were able to do. This is certainly true in
computer science, where the source code for the programs reported on is usually
secret.

It Does Not Matter How Sharing Is Restricted


I have been discussing the effects of preventing people from copying, changing,
and building on a program. I have not specified how this obstruction is carried
out, because that doesn't affect the conclusion. Whether it is done by copy
protection, or copyright, or licenses, or encryption, or ROM cards, or hardware
serial numbers, if it succeeds in preventing use, it does harm.
Users do consider some of these methods more obnoxious than others. I
suggest that the methods most hated are those that accomplish their objective.

Software Should be Free


I have shown how ownership of a program – the power to restrict changing or
copying it – is obstructive. Its negative effects are widespread and important. It
follows that society shouldn't have owners for programs.
Another way to understand this is that what society needs is free software,
and proprietary software is a poor substitute. Encouraging the substitute is not a
rational way to get what we need.
Vaclav Havel has advised us to "Work for something because it is good, not
just because it stands a chance to succeed." A business making proprietary
software stands a chance of success in its own narrow terms, but it is not what is
good for society.
Why People Will Develop Software
If we eliminate intellectual property as a means of encouraging people to
develop software, at first less software will be developed, but that software will
be more useful. It is not clear whether the overall delivered user satisfaction will
be less; but if it is, or if we wish to increase it anyway, there are other ways to
encourage development, just as there are ways besides toll booths to raise money
for streets. Before I talk about how that can be done. I want to question how
much artificial encouragement is truly necessary.

Programming is Fun
There are some lines of work that no one will embark on except for money –
road construction, for example. There are other fields of study and art in which
there is little chance to become rich, which people enter for their fascination or
their perceived value to society. Examples include mathematical logic, classical
music, and archaeology; and political organizing among working people. People
compete, more sadly than bitterly, for the few funded positions available, none
of which is funded very well. They may even pay for the chance to work in the
field, if they can afford to.
Such a field can transform itself overnight if it begins to offer the possibility
of getting rich. When one worker gets rich, others demand the same opportunity.
Soon all may demand large sums of money for doing what they used to do for
pleasure. When another couple of years go by, everyone connected with the field
will deride the idea that work would be done in the field without large financial
returns. They will advise social planners to ensure that these returns are possible,
prescribing special privileges, powers, and monopolies as necessary to do so.
This change happened in the field of computer programming in the past
decade. Fifteen years ago, there were articles on "computer addiction": users
were "onlining" and had $100-a-week habits. It was generally understood that
people frequently loved programming enough to break up their marriages.
Today, it is generally understood that no one would program except for a high
rate of pay. People have forgotten what they knew 15 years ago.
When it is true at a given time that most people will work in a certain field
only for high pay, it need not remain true. The dynamic of change can run in
reverse, if society provides an impetus. If we take away the possibility of great
wealth, then after a while, when the people have readjusted their attitudes, they
will once again be eager to work in the field for the joy of accomplishment.
The question, "How can we pay programmers?" becomes an easier question
when we realize that it's not a matter of paying them a fortune. A mere living is
easier to raise.

Funding Free Software


Institutions that pay programmers do not have to be software houses. Many other
institutions already exist which can do this.
Hardware manufacturers find it essential to support software development
even if they cannot control the use of the software. In 1970, much of their
software was free because they did not consider restricting it. Today, their
increasing willingness to join consortiums shows their realization that owning
the software is not what is really important for them.
Universities conduct many programming projects. Today, they often sell the
results, but in the 1970s, they did not. Is there any doubt that universities would
develop free software if they were not allowed to sell software? These projects
could be supported by the same government contracts and grants which now
support proprietary software development.
It is common today for university researchers to get grants to develop a
system, develop it nearly to the point of completion and call that "finished", and
then start companies where they really finish the project and make it usable.
Sometimes they declare the unfinished version "free;" if they are thoroughly
corrupt, they instead get an exclusive license from the university. This is not a
secret; it is openly admitted by everyone concerned. Yet if the researchers were
not exposed to the temptation to do these things, they would still do their
research.
Programmers writing free software can make their living by selling services
related to the software. I have been hired to port the GNU C compiler to new
hardware, and to make user-interface extensions to GNU Emacs. (I offer these
improvements to the public once they are done.) I also teach classes for which I
am paid.
I am not alone in working this way; there is now a successful, growing
corporation which does no other kind of work. Several other companies also
provide commercial support for the free software of the GNU system. This is the
beginning of the independent software support industry – an industry that could
become quite large if free software becomes prevalent. It provides users with an
option generally unavailable for proprietary software, except to the very wealthy.
New institutions such as the Free Software Foundation can also fund
programmers. Most of the Foundation's funds come from users buying tapes
through the mail. The software on the tapes is free, which means that every user
has the freedom to copy it and change it, but many nonetheless pay to get copies.
(Recall that "free software" refers to freedom, not to price.) Some users who
already have a copy order tapes as a way of making a contribution they feel the
programmers deserve. The Foundation also receives sizable donations from
computer manufacturers.
The Free Software Foundation is a charity, and its income is spent on hiring
as many programmers as possible. If it had been set up as a business, distributing
the same free software to the public for the same fee, it would now provide a
very good living for its founder.
Because the Foundation is a charity, programmers often work for the
Foundation for half of what they could make elsewhere. They do this because
the Foundation free of bureaucracy, and because they feel satisfaction in
knowing that their work will not be obstructed from use. Most of all, they do it
because programming is fun. In addition, volunteers have written many useful
programs for the Foundation (recently, even technical writers have begun to
volunteer).
This confirms that programming is among the most fascinating of all fields,
along with music and art. We don't have to fear that no one will want to
program.

What Do Users Owe to Developers?


There is a good reason for users of software to feel a moral obligation to
contribute to its support. Developers of free software are contributing to the
users' activities, and it is both fair and in the long-term interest of the users to
give them funds to continue. However, this does not apply to proprietary
software developers, since obstructionism deserves a punishment rather than a
reward.
We thus have a paradox: the developer of useful software is entitled to the
support of the users, but any attempt to turn this moral obligation into a
requirement destroys the basis for the obligation. A developer can either deserve
a reward or demand it, but not both.
I believe that an ethical developer faced with this paradox must act so as to
deserve the reward, but should also entreat the users for voluntary donations.
Eventually the users will learn to support developers without coercion, just as
they have learned to support public radio and television stations.

What Is Software Productivity?


If software were free, there would still be programmers, but perhaps fewer of
them. Would this be bad for society?
Not necessarily. Today the advanced nations have fewer farmers than in 1900,
but we do not think this is bad for society, because the few deliver more food to
the consumers than the many used to do. We call this improved productivity.
Free software would require far fewer programmers to satisfy the demand,
because of increased software productivity at all levels:

• wider use of each program that is developed;


• the ability to adapt existing programs for customization instead of starting
from scratch;
• better education of programmers;
• the elimination of duplicate development effort.

Those who object to cooperation because it would result in the employment of


fewer programmers, are actually objecting to increased productivity. Yet these
people usually accept the widely held belief that the software industry needs
increased productivity. How is this?
"Software productivity" can mean two different things: the overall
productivity of all software development, or the productivity of individual
projects. Overall productivity is what society would like to improve, and the
most straightforward way to do this is to eliminate the artificial obstacles to
cooperation which reduce it. But researchers who study the field of "software
productivity" focus only on the second, limited, sense of the term, where
improvement requires difficult technological advances.

Is Competition Inevitable?
Is it inevitable that people will try to compete, to surpass their rivals in society?
Perhaps it is. But competition itself is not harmful; the harmful thing is combat.
There are many ways to compete. Competition can consist of trying to
achieve ever more, to outdo what others have done. For example, in the old days,
there was competition among programming wizards – competition for who could
make the computer do the most amazing thing, or for who could make the
shortest or fastest program for a given task. This kind of competition can benefit
everyone, as long as the spirit of good sportsmanship is maintained.
Constructive competition is enough competition to motivate people to great
efforts. A number of people are competing to be the first to have visited all the
countries on Earth; some even spend fortunes trying to do this. But they do not
bribe ship captains to strand their rivals on desert islands. They are content to let
the best person win.
Competition becomes combat when the competitors begin trying to impede
each other instead of advancing themselves – when "Let the best person win"
gives way to "Let me win. best or not." Proprietary software is harmful, not
because it is a form of competition, but because it is a form of combat among the
citizens of our society.
Competition in business is not necessarily combat. For example, when two
grocery stores compete, their entire effort is aimed at improving their own
operations, not at sabotaging the rival. But this does not demonstrate a special
commitment to business ethics: rather, there is little scope for combat in this line
of business short of physical violence. Not all areas of business share this
characteristic. Withholding information that could help everyone advance is a
form of combat.
Business ideology does not prepare people to resist the temptation to combat
the competition. Some forms of combat have been banned with antitrust laws,
truth in advertising laws, and so on, but rather than generalizing this to a
principled rejection of combat in general, executives invent other forms of
combat which are not specifically prohibited. Society's resources are squandered
on the economic equivalent of factional civil war.

"Why Don't You Move to Russia?"


In the United States, any advocate of other than the most extreme form of
laissez-faire selfishness has often heard this accusation. For example, it is
leveled against the supporters of a national health care system, such as is found
in all the other industrialized nations of the free world. It is leveled against the
advocates of public support for the arts, also universal in advanced nations. The
idea that citizens have any obligation to the public good is identified in America
with Communism. But how similar are these ideas?
Communism as it was practiced in the Soviet Union was a system of central
control where all activity was regimented, supposedly for the common good, but
actually for the sake of the members of the Communist party, and where copying
equipment was closely guarded to prevent illegal copying. The American system
of intellectual property exercises central control over distribution of a program,
and guards copying equipment with automatic copying protection schemes to
prevent illegal copying.
By contrast, consider a system where people are free to decide their own
actions; in particular, free to help their neighbors, and free to alter and improve
the tools which they use in their daily lives. A system based on voluntary
cooperation, and decentralization.
Clearly it is the software owners, if anyone, who ought to move to Russia.

The Question of Premises


I make the assumption in this paper that a user of software is no less important
than an author, or even an author's employer. In other words, their interests and
needs have equal weight, when we decide which course of action is best.
This premise is not universally accepted. Many maintain that an author's
employer is fundamentally more important than anyone else. They say, for
example, that the purpose of having owners of software is to give the author's
employer the advantage he deserves – regardless of how this may affect the
public.
It is no use trying to prove or disprove these premises. Proof requires shared
premises. So most of what I have to say is addressed only to those who share the
premises I use, or at least are interested in what their consequences are. For those
who believe that the owners are more important than everyone else, this paper is
simply irrelevant.
But why would a large number of Americans accept a premise which
elevates certain people in importance above everyone else? Partly because of the
belief that this premise is part of the legal traditions of American society. Some
people feel that doubting the premise means challenging the basis of society.
It is important for these people to know that this premise is not part of our
legal tradition. It never has been. Thus, the Constitution says that the purpose of
copyright is to "promote the progress of science and the useful arts." The
Supreme Court has elaborated on this, stating in Fox Film v. Doyal that "The
sole interest of the United States and the primary object in conferring the
(copyright) monopoly lie in the general benefits derived by the public from the
labors of authors."
We are not required to agree with the Constitution or the Supreme Court. (At
one time, they both condoned slavery.) So their positions do not disprove the
owner supremacy premise. But I hope that the awareness that this is a radical
right-wing assumption rather than a traditionally recognized one will weaken its
appeal.

Conclusion
We like to think that our society encourages helping your neighbor; but each
time we reward someone for obstructionism, or admire them for the wealth they
have gained in this way, we are sending the opposite message.
Software hoarding is one form of our general willingness to disregard the
welfare of society for personal gain. We can trace this disregard from Ronald
Reagan to Jim Baker, from Ivan Boesky to Exxon, from failing banks to failing
schools. We can measure it with the size of the homeless population and the
prison population. The antisocial spirit feeds on itself, because the more we see
that other people will not help us, the more it seems futile to help them. Thus
society decays into a jungle.
If we don't want to live in a jungle, we must change our attitudes. We must start
sending the message that a good citizen is one who cooperates when appropriate,
not one who is successful at taking from others. I hope that the free software
movement will contribute to this: at least in one area, we will replace the jungle
with a more efficient system which encourages and runs on voluntary
cooperation.

Basic study questions


1. What does Stallman mean by "free" when he says that software should be "free"?
2. According to Stallman, in trying to answer the question "Should software be
owned?," we cannot decide by looking at what the current law says. Why not? How
does Stallman propose to answer this question?
3. Stallman rejects the so-called "emotional argument" in favor of ownership of
software. State the emotional argument and then explain why Stallman rejects it.
4. Stallman rejects the so-called "economic argument" in favor of ownership of
software. State the economic argument and then explain why Stallman rejects it.
5. In defense of his view that software should not be owned, Stallman makes an
analogy with toll roads. Present this analogy and explain how Stallman applies it to
the question of the ownership of software.
6. According to Stallman, allowing the ownership of software inflicts a variety of
harms upon society. Explain the harm he mentions regarding the number of people
who can use a piece of software.
7. Explain the harm that Stallman mentions with regard to adapting and fixing
software.
8. Explain the harm that Stallman mentions with regard to learning from software.
9. Explain the harm that Stallman mentions with regard to building upon already
existing software.
10. Explain the harm that Stallman mentions with regard to human relationships and
social cohesion.
11. According to Stallman, if the law did not permit people to own software, many
people would nevertheless continue to create it. Why does he think so? State his
three reasons.
12. According to Stallman, permitting the ownership of software leads to destructive
"combat" rather than constructive competition. Explain his arguments on this topic.

Questions for further thought


1. Critics of Stallman claim that his "emotional argument" is a flawed distortion of the
classical defense of ownership by British philosopher John Locke. What is Locke's
theory of ownership? Is Stallman's "emotional argument" really a distortion of
Locke's classical theory?
2. Do you agree with Stallman that "the law should conform to ethics"? If so, how can
we tell whether current software ownership laws are ethical laws?
3. Using Internet-based resources, such as Eric Raymond's web site "The Cathedral and
the Bazaar," explain the basic ideas of the so-called "open source movement" using
the LINUX operating system as an example to illustrate the key points:
http://www.tuxedo.org/~esr/writings/cathedral-bazaar/
4. What policies need to be in place to realize a free software industry?

1 The issues of pollution and traffic congestion do not alter this conclusion. If we wish to
make driving more expensive to discourage driving in general, it is disadvantageous to do
this using toll booths, which contribute to both pollution and congestion. A tax on
gasoline is much better. Likewise, a desire to enhance safety by limiting maximum speed
is not relevant: a free access road enhances the average speed by avoiding stops and
delays, for any given speed limit.
CASE TO ANALYZE: FREE-RANGE PROPERTY

Although this imagined case did not actually happen, it is very similar to cases
that have occurred in the past. It illustrates the kinds of challenge to intellectual
property ownership that information technology has frequently generated. The
reader is invited to analyze this case using the case-analysis method presented in
chapter 3 above.

George Freestuff, aged 15, is in love with computers. He owns five of them and
keeps them in his room at home. At the age of 13, he built one of his computers
himself with various parts that he bought on the Internet. Two additional
computers are gifts that he received when he was 14, one from his real mother
and one from his new step-mother. Last summer, George earned extra money
beyond his generous allowance by installing digital TV and music systems for
his father's wealthy neighbors. He also got a newspaper delivery job to earn even
more money so that he could purchase a "really cool" high-speed computer that
"does everything." That new computer is now his favorite one, although he is
also delighted with the "amazing" new laptop that his father just gave him for his
excellent achievements at school.
George spends all his spare time with the computers in his room. Instead of
playing physical games outside or at the gym, George plays computer games of
all kinds. He loves to surf the Web, playing "neat" games, participating in
"dungeons" and chat rooms, and exchanging "tons of email" with his on-line
friends. He gets lots of physical exercise, however, by running or walking on a
"really outrageous" treadmill in his room while wearing virtual-reality
equipment. This "utterly cool" equipment makes it seem as if George is running
through underground caves, or climbing a steep hill while surrounded by
dangerous animals, or chasing beautiful girls across a meadow.
A few months ago, George made several on-line friends who are "really into
open source stuff." He agreed with his new friends that "information wants to be
free," and that large software companies are "ripping people off by charging a
fortune for their software and constantly making upgrades that you have to buy."
He also agreed that music distributors and film companies are "charging much
too much for CDs and DVDs." He was very excited to find "such cool friends"
on-line.
George Freestuff and his friends have been working for more than two
months creating a new software program which they call "Free-Range Property"
(or "FRP," for short). They named it after "free-range" farm animals that are
permitted to roam across the farm, instead of being confined to barns and cages.
George and his friends are designing FRP to send digitized files – any digitized
files – across the Internet free of charge. This "awesome" program will use
"open source" code that anyone in the world can get free on the Internet. FRP
has two important parts: namely, "The Capsule" and "The Share List":

The Capsule This "utterly cool" electronic "envelope" is like an electronic safe
into which you can place any digitized file – music, video programs, films, texts,
software, graphics, games, – "any digitized stuff whatsoever!". The file is
hidden inside of the encrypted "walls" of the capsule. As the capsule travels
across the Internet, anyone who intercepts it will be unable to tell what's inside,
except for the person who is supposed to receive it. (That person has been
emailed the decryption password.) In this way, electronic "water marks" and
other ways of identifying or tracking particular digital items can be defeated, and
people can share computer files without fear of being hassled by "their so-called
owners".

The Share List Also hidden inside the capsule is a list of electronic addresses
where this same digital file, as well as many other similar files, can be acquired
free of charge. The "neat" thing about the share list is that it is constantly being
updated and expanded by people who received the same file in the past. Each
person who receives an FRP capsule is supposed to add to the list any similar
files he is willing to share and also new electronic addresses where similar files
can be acquired. In this way, the share list keeps expanding and changing to take
account of new developments. When the list gets bigger than a certain size, it is
automatically cut in half, with the latest entries preserved and the earliest ones
deleted.

George and his on-line friends are really excited about FRP because it has so
many "really awesome" features. The share list feature, for example, makes it
possible for people to share files with each other over the Internet – and find new
files to acquire and share – without the need for a specific server or web site to
function as a source or coordinator. In this way, there is no server or web site
that anyone could shut down to prevent sharing on the Internet. All digitized
intellectual properties, therefore, will be able to "range freely over the net with
no fences or cages to confine them!"
George is very proud, because he believes that he is helping to overcome
"horrible injustices" in the world. "Poor people and poor countries of the world
will be able to get all sorts of benefits free – benefits that they have been denied
in the past," he said. "The world's music and films will be available to everyone!
Libraries, works of art, games and newspapers will be free! Huge corporations
will no longer be able to rip off the little people! Struggling artists and musicians
will be able to share their works with the world and become famous! This is
going to be really awesome!"
When George told all this to his school friend Lizzy, she was not impressed.
Indeed, she began to lecture George about companies that will go out of
business, and artists who won't be able to earn a living from selling their works.
"Movie studios will stop making movies, because there won't be any income!"
she said.
George just laughed and said, "Oh, Lizzy, businesses will just have to find
new ways to make money. Information wants to be free! And tomorrow me and
my friends will set it free on the Internet with FRP. Set it free with FRP! Set it
free with FRP!"
ADDITIONAL READINGS AND WEB RESOURCES

Additional readings
Barlow, J. P. (1994). "The Economy of Ideas: A Framework for Rethinking Patents and
Copyrights in the Digital Age (Everything You Know About Intellectual Property
is Wrong)." Wired (March): 85–129.
Johnson, D. G. (2001). "Property Rights in Computer Software." Computer Ethics, 3rd
edn. Prentice Hall, pp. 137–67.
McFarland, M. C. (1999). "Intellectual Property. Information and the Common Good." In
R. A. Spinello, and H. T. Tavani (eds.). Readings in CyberEthics. Jones and
Bartlett. pp. 252–62.
Samuelson, P. (1997). "The US Digital Agenda at WIPO." Virginia Journal of
International Law Association, 37: 369–439.

Web resources
Electronic Frontier Foundation, "Intellectual Property Online: Patent, Trademark,
Copyright." Archive http://www.eff.org/pub/Intellectual_property
Raymond, E. "The Cathedral and the Bazaar." A web site on the open source movement.
http://www.firstmonday.dk/issues/issue 3_3/raymond/
Software Ownership and Intellectual Property Rights: A Monograph (see especially the
article "A Plea for Casual Copying." by Helen Nissenbaum).
http://www.southernct.edu/organizations/rccs/resources/research/intellectual_property/ownership_
Volkman, R., "Softward Ownership and Natural Rights."
http://www.southernct.edu/organizalions/rccs/resources/research/intellectual_property/volkman_n
rights.html
World Intellectual Property Organization, http://www.wipo.org
Global Information Ethics
Editors' Introduction

According to James H. Moor's influential definition of the field of computer


ethics (see chapter 1), information technology is so powerful and so flexible that
it enables people and organizations to do things that they never could do before.
Because such things were never done before, there may be no laws or standards
of good practice or shared expectations to regulate them or to guide one's
judgments about how to proceed. In Moor's view, it is the role of computer
ethics to identify and analyze such "policy vacuums" and to recommend new
policies to fill those vacuums.
In chapter 15, Krystyna Gorniak-Kocikowska points out that the Internet
makes possible – for the first time in history – a genuinely global discussion
about ethics and human values. This is a worldwide discussion that was not
possible before the invention of information and communication technology, and
it has implications for social policy that we can only begin to imagine.
Traditional borders and barriers between countries have now become less
meaningful because people and organizations in most countries are
interconnected by the Internet. For this reason, individuals, companies, and
organizations in every culture can engage in global business transactions,
distance education, cyber-cmployment, discussions of social and political issues,
sharing and debating of values and perspectives. Will this global "conversation"
bring about better understanding between peoples and cultures? – new shared
values and goals? – new national and international laws and policies? Or will
individual cultures become "diluted," homogenized, and blurred? These are just
a few of the many social and ethical issues emerging from the "globalization"
brought about by information and communication technology.
The worldwide nature of the Internet has already led to many policy
vacuums to clarify and resolve. For example, if sexually explicit materials are
provided on a web site in a culture in which they are permitted, and then they are
accessed by someone in a different culture where such materials are outlawed as
"obscene," whose laws and values should apply? Should the "offending" person
in the first culture be extradited to the second culture and prosecuted there as a
purveyor of pornography? Should the values of the first culture be permitted to
undermine those of the second culture via the Internet? How can such cultural
clashes be reasonably resolved?
One suggestion that is sometimes offered to help avoid or resolve cultural
clashes on the Internet is to avoid doing anything that might offend someone – to
be sensitive to the values and beliefs of cultures other than one's own. But how
does one know what could be offensive to others? Almost anything could offend
somebody somewhere; so does this mean that we should simply stop using the
Internet? These and related questions are examined by John Weckert in chapter
16, "Giving Offense on the Internet."
Another set of "policy vacuums" generated by the Internet concerns business
transactions in cyberspace: Whose laws apply to business on the Internet? When
people in one country purchase goods and services from merchants in another
country, who should regulate or tax the transactions? And how will
"cyberbusiness" in a global market affect local business? – local tax collections?
– local unemployment? What new laws, regulations, rules, and practices should
be adopted, and who should create or enforce them? What policies would be fair
to all concerned?
How will global cyberbusiness affect the gap between rich and poor nations?
Will that gap get even wider? Will the Internet lead to a "new colonialism" in
which the information rich lord it over the information poor? Will economic and
political rivalries emerge to threaten peace and security? What kinds of conflict
and misunderstanding might arise, and how should they be handled? – and by
whom?
Or consider cyber medicine: Medical advice and psychological counseling
on the Internet, "keyhole" surgery conducted at a distance, medical tests and
examinations over the net, "cyber prescriptions" for medicine written by doctors
in one part of the world for patients in other parts of the world – these are just a
few of the medical services and activities that already exist in cyberspace. How
safe is cyber medicine? Who will have access to sensitive information held in
electronic patient records? Who should regulate, license, and control cyber
medicine?
Or consider education in cyberspace: Hundreds of universities and colleges
worldwide now offer educational credit for courses and modules. But when
students earn university credits from all around the globe, who should set the
standards? Who should award degrees and certify "graduates"? Will there be a
"Cyber University of the World"? Will thousands of "ordinary" teachers be
replaced by a handful of "Internet-superstar teachers"? – or perhaps by teams of
multimedia experts? – or even by educational software? Would such
developments be wonderful new learning opportunities, or instead be
educational disasters? What policies, rules, and practices should be adopted and
who should develop them?
At the social and political level of education, what will be the impact upon
previously uneducated peoples of the world when they suddenly gain access to
libraries, museums, newspapers, and other sources of knowledge? How will
access to the world's great newspapers affect "closed" societies with no free
press? Are democracy and human rights necessary consequences of an educated
population with access to a free press? Will the Internet foster global
democracy? – or will it become a tool for control and manipulation of the masses
by a handful of powerful governments? – or powerful corporations?
It is clear from the above discussion that "global information ethics" is a vast
and growing area of computer ethics with a wide diversity of newly emerging
policy vacuums to be analyzed and resolved. Individuals, organizations,
communities, whole societies, and humankind in general will be coping with
such challenges for decades to come. The articles and other resources presented
in this part of the present book are mere examples of the wide diversity of issues
in this important field of research and human endeavor.
CHAPTER 15

The Computer Revolution and Global Ethics


Krystyna Gorniak-Kocikowska
Krystyna Gornniak-Kocikowska, "The Computer Revolution and Global Ethics." This is
a shortened version of "The Computer Revolution and the Problem of Global Ethics",
presented at ETHICOMP95 and published in the conference proceedings, ed. Simon
Rogerson and Terrell Ward Bynum. Reprinted in Science and Engineering Ethics, 2:2
(special issue. 1996), pp. 177–190. © 1995 by Krystyna Gorniak–Kocikowska and
reprinted by permission of the author.

Introduction
This paper is based upon my view of the nature of the Computer Revolution that
is currently transforming the world. That view can be summarized by the
following five points:

1 The Computer Revolution causes profound changes in peoples' lives


worldwide. In cyberspace, there are no borders in the traditional sense. The
borders, as well as the links between individuals worldwide, will be
increasingly defined in terms of the degree of an individual's ability to
penetrate cyberspace.
2 Because of the global character of cyberspace, problems connected with or
caused by computer technology actually or potentially have a global
character. This includes ethical problems. Hence, computer ethics has to be
regarded as global ethics.
3 Up to the present stage of evolution of humankind there has not been a
successful attempt to create a universal ethic of a global character. The
traditional ethical systems based on religious beliefs were always no more
powerful than the power of the religion they were associated with. And no
religion dominated the globe, no matter how widespread its influence was.
The ethical systems that were not supported by religion had an even more
restricted influence.
4 The very nature of the Computer Revolution indicates that the ethic of the
future will have a global character. It will be global in a spatial sense, since
it will encompass the entire globe. It will also be global in the sense that it
will address the totality of human actions and relations.
5 The future global ethic will be a computer ethic because it will be caused by
the Computer Revolution and it will serve the humanity of a Computer
Era. Therefore, the definition of computer ethics ought to be wider than
that proposed, for example, by James Moor in his classic paper, "What Is
Computer Ethics?" (1985). If this is the case, computer ethics should be
regarded as one of the most important fields of philosophical investigation.

The Computer Revolution


In his presentation of the anatomy of the Computer Revolution, Moor (1985)
uses an analogy with the Industrial Revolution in England. He notes that the first
stage of the Industrial Revolution took place during the second half of the
eighteenth century, and the second stage during the nineteenth century. This is a
span of about 150 years. Let me compare this with what happened after the
printing press was invented in Europe. (Of course, books were printed in China
already around the year 600 CE.1)
Johann Gutenberg printed the "Constance Mass Book" in 1450, and in 1474
William Caxton printed the first book in the English language. Already in 1492
"the profession of book publishers emerges, consisting of the three pursuits of
type founder, printer and bookseller" (Grun 1982). This was, roughly speaking,
40 years after the invention of the printing press, the same amount of time Moor
says the Computer Revolution needed for its introduction stage. In 1563, the first
printing presses were used in Russia. (This was the same year in which the term
"Puritan" was first used in England, one year before the horse-drawn coach was
introduced in England from Holland, and two years before pencils started to be
manufactured in England.) And in 1639, the same year in which the English
settled at Madras, two years after English traders were established in Canton and
the Dutch expelled the Portuguese from the Gold Coast, the first printing press
was installed in North America, at Cambridge, Massachusetts. This is about 140
years from the first publication of Gutenberg's printed text – almost the same
amount of time Moor considers for both stages of the Industrial Revolution.2
Another point made by Moor in "What is Computer Ethics?" is just how
revolutionary the computer is. He argues that logical malleability makes the
computer a truly revolutionary machine – computers can be used to do almost
any task that can be broken down into simple steps. Moor challenges the
"popular conception of computers in which computers are understood as number
crunchers, i.e., essentially as numerical devices" (1985, p. 269). He further
writes:

The arithmetic interpretation is certainly a correct one, but it is only one


among many interpretations. Logical malleability has both a syntactic
and a semantic dimension. . . . Computers manipulate symbols but they
don't care what the symbols represent. Thus, there is no ontological basis
for giving preference to numerical applications over non-numerical
applications. (Ibid., p. 270)

Here, too, the similarity between a computer and a printing press seems to be
evident. Like the printing press, computers serve to transmit thoughts. The
appearance of the printing press meant both a technological revolution, as well
as a revolution in the transport of ideas – communication between human minds.
The same can be said about a computer.
On the other hand, the function of the most important machines invented at
the end of the eighteenth century – the steam engine and the spinning machine –
was replacement of manual labor. But the primary function of the printing press,
and the computer as well, lies in the fact that both increase so incredibly the
efficiency of the labor of human minds – and not only the individual mind.
Computers, like the printing press, allow human minds to work faster and more
efficiently, because of their ground-breaking impact on the communication and
exchange of ideas. Like the printing press, they are creating a new type of
network between human individuals, a community existing despite the spatial
separation of its members.
I have written elsewhere about the impact of the printing press on the
Western hemisphere. (Gorniak-Kocikowska 1986) Here, I would like to mention
only two of the many changes caused by the invention of movable typeface.
Mass-production of texts, and hence their growing accessibility, made reading
and writing skills useful and caused a profound change in the very idea of
education, Gradually, the ability to read and write became an indispensable
condition of a human being's effectiveness in functioning in the world.
Printed texts also made it possible to acquire knowledge individually (i.e.,
not through oral public presentation) and freely (i.e., without control of either the
individual tutor or the owner of the collection of manuscripts). One of the results
of this situation was the loss of belief that knowledge means possession of a
mystery, a secret wisdom, inaccessible to outsiders. Knowledge became an
instrument which everyone could and should use. Faith in the power and
universal character of the individual human mind was born – and with it a new
concept of the human being. The masses of believers who used to obey the
possessors of knowledge discovered that they were rational individuals capable
of making their own judgments and decisions. This paved the way for the two
new ethical theories that were ultimately created by Immanuel Kant and Jeremy
Bentham.

The Printing Press and Ethics


Since many authors who write on the subject of computer ethics, including such
prominent scholars as James Moor, Terrell Bynum and, above all, the author of
the first major textbook in the field, Deborah Johnson, use the ethics of Bentham
and Kant as the point of reference for their investigations, it is important to make
clear that both these ethical systems arrived at the end of a certain phase of
profound and diverse changes initiated by the invention of movable printing
type.3 The question is: were these ethical systems merely solving the problems
of the past or were they vehicles driving humankind into the future?
The ethical systems of Kant and Bentham were created during the time of
the Industrial Revolution, but they were not a reaction to, nor a result of, the
Industrial Revolution of the eighteenth and nineteenth centuries. There was no
immediate reaction in the form of a new ethical theory to the invention of the
printing press. Rather, problems resulting from the economic, social, and
political changes that were caused by the circulation of printed texts were at first
approached with the ethical apparatus elaborated during the high Middle Ages
and at the time of the Reformation. Then, there was a period of growing
awareness that a new set of ethical rules was necessary. The entire concept of
human nature and society had to be revised. Hobbes, Locke, Rousseau, and
others did that work. Finally, new ethical systems like those of Kant and
Bentham were established. These ethics were based on the concept of a human
being as an independent individual, capable of making rational judgments and
decisions, freely entering "the social contract." Such a concept of the human
being was able to emerge in great part because of the wide accessibility of the
printed text.
The ethics of Bentham and Kant, then, were both manifestations of and
summaries of the European Enlightenment. They were created at a time when
Europeans were experimenting with the idea of society's being a result of an
agreement (a "social contract") between free and rational human individuals,
rather than submission to divine power or to the power of Nature. Moreover,
such a new, contractual society could have been created in separation from
traditional social groups. The conquest of the world by Europeans – called by
them geographic "discoveries" and colonization of "new" territories – made it
possible. Locke's definition of property as appropriation of nature by one's own
labor, plus lack of a concept of private property in most of the invaded societies,
helped that task.
Thus, despite their claims to universalism, Kant's as well as Bentham's
concept of human being refers to European man as defined by the Enlightenment
– free and educated enough to make rational decisions. "Rational" means here
the type of rationality that grew out of Aristotelian and scholastic logic and those
mathematical theories of the time of the printing press revolution. This tradition
was strengthened by ideas from Pascal, Leibniz, and others; and it permitted one
to dismiss from the ranks of partners in discourse all individuals who did not
follow the iron rules of that kind of rationality. The term "mankind" did not
really apply to such individuals. Finally, this tradition turned into Bentham's
computational ethics and Kant's imperialism of duty as seen by calculating
reason.
The nature of both these ethical systems must be very attractive and
tempting for computer wizards, especially for those who grew up within the
influence of the "Western" set of values. It is quite easy to imagine that there
could be a "yes" answer to a question asked by James Moor – "Is Ethics
Computable?" (1996) –if one has Bentham's or even Kant's ethical systems in
mind.
It now seems to me very likely that a similar process of ethical theory
development will occur, although probably less time will be needed for all
phases to be completed. The Computer Revolution is revolutionary; already
computers have changed the world in profound ways. At present, though, we are
able to see only the tip of the iceberg. Computer technology generates many new
situations and many new problems, and some of these are ethical in nature.
There are attempts to solve these problems by applying existing ethical rules and
solutions. This procedure is not always successful, and my claim is that the
number and difficulty of the problems will grow. Already, there is a high tide of
discussions about an ethical crisis in the United States. It is starting to be
noticeable that traditional solutions do not work anymore. The first reaction is,
as is usual in such situations, "let's go back to the old, good values." However,
the more computers change the world as we know it, the more irrelevant the
existing ethical rules will be and the more evident will be the need for a new
ethic. This new ethic will be the computer ethic.

The Global Character of Ethics in the Computer Era


Revolution, more than any other kind of change, means that two processes take
place simultaneously: the process of creation and the process of destruction. The
problem is that in a human society this usually causes conflict, because both
creation and destruction can be regarded as a positive (good) or negative
(bad/evil) process. The assessment depends on the values accepted by the people
(individuals or groups) who are exposed to the revolutionary changes.
Moor writes: "On my view, computer ethics is a dynamic and complex field
of study which considers the relationships among facts, conceptualizations,
policies and values with regard to constantly changing computer technology"
(1985, p. 267). This is a broad enough definition to be accepted by almost
everybody; but a problem arises when we realize how many people may be
affected by and interested in those "facts, conceptualizations, policies and
values" – how diverse this group is. In my opinion, we are talking about the
whole population of the globe! Computers do not know borders. Computer
networks, unlike other mass media, have a truly global character. Hence, when
we are talking about computer ethics, we are talking about an emerging global
ethic – and we are talking about all areas of human life, since computers affect
them all. What does this mean for the understanding of what computer ethics is?
For one thing, computer ethics cannot be just another professional ethics.
Writers like Deborah Johnson (1994) and Donald Gotterbarn (1992) sometimes
appear to assert that computer ethics is simply a kind of professional ethics. I
support wholeheartedly the idea of a code of ethics for computer professionals.
However, at least two problems arise if we take computer ethics to be just a type
of professional ethics:

1 Unlike, say, physicians or lawyers, computer professionals cannot prevent


or regulate activities that are similar to their own but performed by non-
professionals. Therefore, although many of the rules of conduct for
physicians or lawyers do not apply to those outside of the profession, the
rules of computer ethics, no matter how well thought through, will be
ineffective unless respected by the vast majority of – maybe even all –
computer users. This means that, in the future, the rules of computer ethics
should be respected by the majority (or all) of the human inhabitants of the
Earth. In other words, computer ethics should become universal, it should
be a global ethic.
2 Let us assume that computer ethics applies only to computer professionals.
Such professionals are not totally isolated from the society in which they
function. The role of their profession is significantly determined by the
general structure of the society in which they are included. At present,
there exist various societies and cultures on earth. Many of them function
within different ethical systems than those predominantly accepted in the
United States or even in the "western world". Hence, professional ethics,
including ethical codes for computer professionals. may differ among
cultures to the point of conflict. And even if they do not differ, conflict
may still be unavoidable. Example: Computer professionals in two
countries who happen to be at war may obey the same rule that computers
should be used to strengthen national security. In such a situation,
computers may become a weapon more deadly than the atomic bomb.
Discussions such as those about scientists responsible for the use of
nuclear energy may now apply to computer professionals. And given the
power of computer technology, the potential for destruction may be even
greater than the case of the atomic bomb.
Or consider another example: It is well known that the United States'
CIA monitors the Internet for security reasons. However, the question
arises whether this means that certain ethical rules, such as respecting
privacy, do not apply to certain people? If the CIA does not need to respect
an ethical code, who else is entitled to break the rules and on what
grounds? If one country can do it, what moral imperatives should stop
other countries from doing the same? Let us assume that such moral rules
could be found. If they are better, why shouldn't they be applied on a
global scale?

Problems like those described above will become more obvious and more
serious in the future when the global character of cyberspace makes it possible to
affect the lives of people in places very distant from the acting subject's location.
This happens already today, but in the future it will have a much more profound
character. Actions in cyberspace will not be local. Therefore, the ethical rules for
such actions cannot be rooted in a particular local culture, unless the creators of
computer ethics accept the view that the function of computers is to serve as a
tool in gaining and maintaining dominion over the world by one particular group
of humans. I would like very much to believe that this is not the case. I would
like to believe Smarr's optimistic comment (quoted in Broad 1993, p. C10):

It's the one unifying technology that can help us rise above the epidemic of tribal
animosities we're seeing worldwide. One wants a unifying fabric for the human
race. The Internet is pointing in that direction. It promotes a very egalitarian
culture at a time when the world is fragmenting at a dizzying pace.

This may be yet another example of wishful thinking, though. And I worry that
scholars in computer ethics may contribute to the problem if they do not fully
realize the importance of their undertaking. It seems to me that, unfortunately,
the scholars who have chosen to explore the field of computer ethics have been
too modest in defining the area of investigation, as well as the importance of the
subject.

References
Broad, W. J. (1993). "Doing Science on the Network: A Long Way from Gutenberg." The
New York Times, Tuesday, May 18.
Gorniak–Kocikowska, K. (1986). "Dialogue – A New Utopia?" In Conceptus. Zeitschrift
für Philosophie, XX/51: 99–110 (in German). English translations published in
Occasional Papers on Religion in Eastern Europe, Princeton, VI/5 (October): 13–
29. and in Dialectics And Humanism, Warsaw, XVI/3–4:133–47.
Gotterbarn, D. (1992). "The Use and Abuse of Computer Ethics." In T. W. Bynum, W.
Maner, and J. L. Fodor (eds.), Teaching Computer Ethics. Research Center on
Computing and Society, pp. 73–83.
Grun, B. (1982). The Timetables of History: A Horizontal Linkage of People and
Events, new. updated edn. Based on Werner Stein's Kulturfahrplan, Simon and
Schuster, Touchstone Edition.
Johnson, D. G.(1994). Computer Ethics, 2nd edn. Prentice Hall.
Moor. J. H. (1985). "What is Computer Ethics?" Metaphilosophy, 16: 226–75.
Moor, J. H. (1996). "Is Ethics Computable?" Metaphilosophy, 27: 1–21.

Basic study questions


1. Briefly describe two important social changes brought about by the invention of
movable printing type.
2. According to Gorniak, the philosophers Kant and Bentham both presuppose the
same conception of human nature. What is it?
3. What are some of the similarities between the printing press revolution and the
Computer Revolution?
4. Why, according to Gorniak, must computer ethics be considered a global ethics?
5. What two reasons does Gorniak offer to believe that computer ethics is much more
than a kind of professional ethics?
6. What important concern about computer ethics does Gorniak express at the end of
her article?

Questions for further thought


1. Discuss the idea that the Computer Revolution is bringing about an alternative
reality to Nature – a "second world" for humans to inhabit.
2. According to Gorniak. a genuine social revolution involves two processes that
inevitably lead to conflict. Describe the two processes and how they relate to the
Computer Revolution.

1 The fact that print did not revolutionize life in China the way it did in Europe is itself
an interesting subject for analysis.
2 Timetables for the Industrial Revolution vary greatly depending upon sources and
criteria. The timetable chosen by Moor is very popular, but the view that the Industrial
Revolution began with the invention of the printing press is very popular as well.
3 Of course, the printing press was not the only cause of such profound changes, but
neither was the steam engine or the spinning machine. I do recognize the tremendous
complexity of the processes we are talking about.
CHAPTER 16

Giving Offense on the Internet


John Weckert

John Weckert, "Giving Offense on the Internet." This chapter was originally presented as
a paper at The Computer Ethics Conference, Linköping University, Sweden. It was first
published in G. Collste (ed.). Ethics and Information Technology (New Academic
Publishers, 1998), pp. 104–18. © 1997 by John Weckert. Reprinted by permission of the
author.

Introduction
A concept, central to Internet ethics but rarely examined in that context, is
offense. This concept underlies much of the discussion of freedom of speech and
censorship, especially where the discussion has a global setting as it does on the
Internet, a setting where various religions, customs, and moralities come into
contact. In this paper we examine the notion of offense, and argue that its
importance arises because of its close links with respect for others and with self-
respect. This then gives a basis for attempting to discover what, if anything, is
wrong with giving offense. We then propose and defend criteria for the
acceptable and unacceptable giving of offense. Clearly not all offense giving can
be outlawed. One would be condemned to silence. These criteria are discussed
particularly in relation to pornography, cultural, racial, and religious vilification
on the Internet. Our argument is that an examination of offense can help to give
guidelines for conduct on the Internet.
If one believes the popular press and politicians, there seems to be a plethora
of offensive material on the Internet which some people want banned, some
want restricted and some want protected. The US Communications Decency Act
talks of material which is "patently offensive" (Communications Decency Act
1996), the new Internet content legislation in Australia talks of offensive
material and of "offensive fetishes" (Broadcasting Services Amendment (Online
Services) Bill 1999), a recently published paper is entitled "Illegal and Offensive
Content on The Information Highway" (Sansom 1995), and in "Content on the
Internet: Free or Unfettered", Burton (1996) repeatedly speaks of offensive
material.
A number of important issues underlie discussions of offensive material.
One of these issues is that we know what offensive material is, and another is
that offense can be used as a criterion for drawing a line between what is
acceptable material or communication on the Internet and what is not. These
questions will be considered in turn.

What Is Offense?
We get an idea of what is thought offensive by looking at some of the
discussions mentioned above. The Communications Decency Act (1996) has a
quite clear account where it talks of:

any comment, request, suggestion, proposal, image, or other communication


that, in context, depicts or describes, in terms patently offensive as measured by
contemporary community standards, sexual or excretory activities or organs.
(Section 223 (2) (d) (1) (B))

From this it appears that offensive material is sexual in content. The one virtue
of this is that it seems to give a fairly simple way of establishing whether or not
some material is offensive: just see if it is sexual.
While sexual material, or certain types, can be offensive to some, perhaps
even to most, equating 'offensive' with 'sexual' is very odd when we consider
what typically offends us and what typically offends others. All sorts of things
offend, and different people are offended by different things. Burton raises two
pertinent points with respect to this:
[W]hat offends me may not offend you: have I the right to say you should not
view it or read it? Attitudes to material which could be deemed offensive are so
often part of a nation's culture, and so will differ widely: consider the example of
the Netherlands [attitude to soft drugs] quoted earlier, or the difference between
Scandinavian and Middle Eastern attitudes to nudity. Jack Schofield has recently
raised similar questions: could fundamentalists ban discussion on theories of
evolution, or could the Vatican seek to ban sites on birth control? (1996. p. 5)

Religious (or anti-religious) statements can offend, as can those on politics,


gender, and race, to mention just a few of the more important. What is obvious
from this is that it offensiveness is to be used as a criterion for censorship, it will
need to be spelt out much more carefully. This is what will be attempted now.
Strictly speaking, we are not offended by things, but by people. I might not
be offended by a rock formation which looks much like part of a human's
anatomy, but very offended by a photograph of that same part, or even, in the
right context, by a photograph of the rock formation. The difference is intention.
This need not necessarily be the intention to offend, but the utterance, picture, or
whatever must have been the intended result of some human action. It is not easy
to spell out clearly just what it is to have intentions, but here it is sufficient to say
that if a person P performs action A intentionally, then P performs A in order to
achieve some goal G. P believes that performing A will achieve G. The goal G
might be to offend, but it might be something completely harmless or even
benelicial. If someone is offended by A, it will typically be because it is thought
that the goal G is an inappropriate goal. The reason that this is worth saying is
that talk of offensive material gives the impression that things offend, whereas
the discussion should focus on people offending other people.
At what is offense taken? I might be offended by a chance remark about my
new shirt, by not being invited to a party, or by jokes mocking stereotypical
Australian traits. An Australian newspaper has recently carried items about
teachers and parents who find an increase in education bureaucrat's salary
offensive, about the offensiveness of the policies of a new political party, and
about how the homosexual community is offended by a statement of a
government minister. The same newspaper also published a large, digitally
altered, version of Leonardo da Vinci's The Last Supper with a well-known
local food critic sealed at one end of the table, in earnest discussion with several
of the disciples. The picture accompanied an article on that critic. This alteration
would undoubtedly be considered offensive to many Christians, and perhaps also
by some art lovers. Many other examples are supplied by Feinberg, ranging from
public nudity and copulating to racist and religious actions. The least offensive
he calls "offensive nuisances," while the more serious are termed "profound
offenses" (Feinberg 1985).
First, what is offense and what is involved in giving offense? Offense,
typically, is a sort of unease, unhappiness, mental distress, or mental suffering of
some variety. An offended person has his or her feelings hurt in some way. A
central point is that something will only offend someone if that person takes
offense. We cannot offend in quite the same way that we can punch. Offense is
closely related to beliefs, attitudes, feelings, and so on. I cannot offend meat-
eaters by eating meal in front of them, but a vegetarian might find such behavior
offensive. Giving offense, then, is not quite the same as causing physical harm,
even though in some sense it might harm. I can only harm a person by offending
that person if he or she has particular beliefs, attitudes, or feelings. It might be
that people only take offense if they are overly sensitive or if they cherish certain
beliefs too much. In a sense, therefore, if they are hurt by something said or
shown, they have only themselves to blame. But this is loo swift. In fact, while it
is good not to take offense too easily, there can be something a little sad, perhaps
even pathetic, about people who never lake offense, even though they may be
objects of ridicule or discrimination, but for some reason do not realize it, or
have such low self-esteem that they see it as just. We might even question
whether we respect people who are never offended by things which degrade
them.

Offense and Respect


In an effort to learn more about what offense really is, we will ask two questions:
(1) What, if anything, is wrong with giving offense, and (2) why do people take
offense? In answer to (1), one may be inclined to say that there is nothing really
wrong with giving offense. After all, if people are so silly or sensitive that they
become offended at something heard or seen, so much the worse for them. We
cannot spend all of our lives worrying about who might not like what we say or
do. While this contains an element of truth, it is a bit hard, as we saw a moment
ago. It is probably true that any offense taken at the mocking of a football team
might not matter much, but the mocking of a physical disability or a tragedy, for
example, might not only be in bad taste, but also extremely hurtful even for
those not overly sensitive. Even if no offense is taken in the sense of feelings or
pride being hurt, it might be that painful memories are awakened. However, not
all offense is like this. People are offended by blasphemy, language to do with
sexual activity, ridicule of race, class, occupation, political belief, and a host of
other things. Some of these seem not too worrying; however, others are
troublesome.
We will attempt to answer (2), why people take offense, before looking for a
solution to (1). Obviously, offense is taken for different reasons by different
people and over a wide range of areas. We will look at three areas, the first of
which concerns things which are not necessarily directed at any person or group,
such as sexually explicit language and nudity (but excluding pornography, which
raises other issues). Some people are offended by certain language and pictures.
Part of the explanation for the offense taken clearly has to do with upbringing
and socialization. This, however, is not a complete explanation. Why offense
rather than anger? There might be anger where something is not liked because it
is thought that it will have harmful consequences, for example that it will
contribute to the corruption of youth, or the general lowering of standards in the
community. Offense seems to involve something more than this. If I find
something offensive, I take it personally in some way. I am hurt, not just
angered. A reasonable explanation of why I am hurt is that I identify closely
with beliefs that this sort of behavior is wrong, and in a way I feel violated. If
you expose me to these things that you know I do not like, then you are not
showing me the respect that I deserve as a person. Even if it was not directed at
me in particular, I may feel that people like me are not respected enough. In both
cases. that is, where it is directed at us in particular and where it is not, we may
feel devalued as persons.
The second area is the ridiculing or even just criticizing of beliefs and
commitments, particularly perhaps religious and political. A reason that offense
is taken here is that we tend to identify with a set of beliefs or with a group in a
way that makes those beliefs or that group part of our self-image. So when
ridicule is directed at those beliefs or that group, we feel that we are being
ridiculed, and again can feel that we are not being respected as persons.
The third and final area is the offense taken at language or conduct which is
racist or sexist or which "makes fun of " or otherwise denigrates those with
mental or physical disabilities or the victims of accidents or crimes. What these
all share is that there is no choice involved in being a member of any of these
groups. There is a real sense here in which our identity and self-image is
inextricably linked with the group of this type of which we find ourselves
members. Offense will almost always be bound up with self-respect.
These three examples all show that there is a close connection between the
taking of offense and respect, both respect for others and self-respect or esteem.
When someone makes a remark or exhibits conduct that we find offensive, we
may feel that we are not being respected as persons in the way that we ought to
be. Our self-respect may be lessened to some extent. Too much of this conduct
can cause us to see ourselves as people of little worth. If something which is an
integral part of me is mocked – say, my height, race, gender, or intelligence –
this is evidence that others do not value me as a person. They are not showing
me the respect that I deserve as a person. If I identify very closely with a football
team or with a religion and if that team or religion is ridiculed, I may feel the
same (although it will be argued later that there are relevant differences in these
cases). So perhaps we can say that what is wrong with giving offense in general
is that it is showing a lack of respect for others and that it may cause them to lose
some of their self-respect.
The argument is not that all lack of respect causes loss of self-respect, nor
does it imply that all that is wrong with showing a lack of respect is this link
with self-respect. However, it is claimed that there is an important link. The
respect under consideration is respect for persons, as distinct from respect for a
role occupied by a person. I might show little respect for someone as a
professor, for example, but still respect him or her as a person. This is not a
sharp distinction, particularly in societies where people are to a large extent
identified with their occupations, but it is still a viable one. If someone shows me
lack of respect as a person, and if I recognize this, it is difficult for my self-
respect not to be dented. However, if I am not respected as a professor by
someone who believes that universities ought to be places for the totally free
exchange of ideas, with no academic hierarchy, there is nothing to take as a
personal slight, except perhaps in the sense that I am willingly participating in a
corrupt system.
There are two respects in which this account fits in with commonly held
beliefs. First, it explains why offense connected with race, gender, and physical
disability, for example, seems to be much more serious than offense related to
football or political allegiances or non-pornographic pictures of naked humans.
If we choose to make a commitment to something, or admit that we do not like
something, we should be prepared, to some extent anyway, to accept the
consequences of making that commitment or admission. At any rate, there is an
important difference between areas in which we have some choice, like football
team allegiance, and those in which we do not – for example, race.
There are, of course, some cases which are anything but clear-cut. Religious
belief is one example. That there is some choice possible in religious
commitment is obvious. People do choose to join or leave particular religious
groups. But religious beliefs are also closely connected with culture, and we do
not have much choice regarding the culture in which we are raised. This perhaps
partly explains why offense at criticisms or ridicule of religious beliefs is often
so deep. Our culture helps make us what we are, and so do our religious beliefs.
Mature, thinking adults, however, cannot plausibly maintain that they have no
choice in their religious beliefs. They may have had no choice in the faith in
which they grew up, but once mature and aware of other faiths, the choice is
there to abandon their original beliefs, and this regularly happens. So criticism of
the religious beliefs of a university-educated person is not showing any lack of
respect, or not necessarily, while doing the same to an uneducated peasant who
has had no real opportunity to choose may be. In the former case it may even be
showing respect, in that we consider the person to be mature and intelligent
enough to be able to cope with criticism.
The second way that this account of offense fits in with common feelings is
that it also helps to explain why it seems more objectionable to mock or ridicule
the disadvantaged than the advantaged. If someone takes offense at some
mockery of an advantaged group, that person must first identify him or herself
with that group, that is, they must see themselves as privileged in some way. If
they can only take offense to the extent that they identify with some favored
section of society, they are unlikely to have their self-respect dented.

Offense and Harm


Is an action harmful because it is offensive, or offensive because it is harmful (or
both)? If an action is offensive because it is harmful, the notion of offense is
unimportant as a criterion for restricting freedoms. If X is harmful, there is a
ground for restricting it regardless of whether or not it is offensive as well. It is
of little concern that inflicting physical bodily harm can be offensive. That it
harms is enough for there to be laws against it.
Is something harmful because it is offensive? In one sense, yes. If offense is
a kind of unhappiness or mental distress, even if mild, then it is a kind of harm.
This is even more so if, as was argued, offense is closely related to self-respect.
In this sense something is harmful by virtue of being offensive. My not being
invited to the party is harmful to me simply because it offended me. In another
sense, however, we distinguish between offense and harm. A common debate
regarding pornography is whether or not it is harmful, or merely offensive.
Arguments for its restriction or banning often concern its supposed harmful
effects, rather than its undoubted offensiveness to many. Racial vilification
might be condemned on similar grounds. It certainly is offensive, but it can also
harm its target groups by inciting racial hatred and perhaps even violence.
The relationship, then, between offense and harm is not straightforward. In
one sense offense is harm, and in another it is not. It is tempting to argue that in
the sense in which it is harm, it is of a pretty mild variety, and so need not be
taken into consideration when examining reasons for restricting freedom of
speech and expression. While it probably is mild harm in most cases, it is not
necessarily so in all. The ridiculing of dearly held beliefs, particularly religious
ones, can cause deep distress, even if there is no other harm involved.
This leads to another distinction, one raised by Feinberg, that is the
distinction between something considered wrong because it is offensive and
something being offensive because it is believed wrong (Feinberg 1985). One
difference that Feinberg claims is important between offensive nuisances and
profound offenses is that the former are considered wrong because they are
offensive, while the latter offensive because they are wrong. While this
distinction is certainly not sharp, it does have some plausibility. Perhaps the
wrongness of publishing pictures of naked human bodies on the Internet attaches
purely to its offensiveness. In other contexts, in medical texts for example, such
pictures might not be offensive, and so not wrong. On the other hand, an anti-
abortionist is unlikely to claim that abortion is wrong because it is offensive. For
him or her it is offensive because it is wrong. Similarly, the manipulated copy of
Leonardo's The Last Supper mentioned earlier, might not be thought wrong
because it is offensive to many Christians, but offensive because it is wrong to
make light of one of Christianity's most significant events.
The relationship between offense and harm on the one hand and offense and
wrongness on the other is important. The argument that offense is a kind of harm
is more plausible in the case where offense is taken because something is
thought wrong, than when something is thought wrong just because it is
offensive.

Offense on the Internet


Discussions of offense on the Internet seem to arise most often when there is talk
of regulating its content. And, as we saw earlier, offensive material is frequently
identified with the sexual. While discussions of sex do seem to fascinate, there
are also concerns about material which is offensive because of its racial,
religious, or cultural nature, and which arise in contexts other than that of
regulation. One of these areas is web page design. Designing one's own web
pages is a feature of the Internet that is new. It shares features with paintings,
drawings, and other art work, as well as the designing of book covers, posters,
television images, and so on, but it allows people to be on the world stage, as it
were, much more easily. Few people get to design book covers, posters, and so
on, which will go on display to the world, but many design and create web pages
accessible worldwide. There are various reasons why someone might consider a
web page offensive; for example, language, images, layout, or colors. Mullet and
Sano give a few examples of icons which might offend (1995, p. 198). These
include images depicting death or violence (guns, skull and crossbones, hatchets,
tombstones), the thumbs up or down signs, which have different meanings in
different cultures, and others. There are pragmatic as well as moral reasons why
this should be taken into account by web page designers, whether individuals or
corporations. The moral argument simply is that in general we should not offend
intentionally if it can be avoided, given what was said earlier concerning the
relationship between respect and offense. Pragmatically, giving offense to
potential customers is not a wise thing if one is trying to sell goods or services. If
web pages are part of an electronic commerce effort, it would be good business
as well as morally admirable to be sensitive to what might be offensive to those
likely to view the page.
While this issue of offensiveness in web page design is one which deserves
more attention, as was said previously it is in the area of Internet content
regulation that giving offense raises its head most frequently, and to this we now
turn.

Offense as a Criterion for Internet Censorship


It has been argued that giving offense is sometimes serious. It therefore should
be taken into consideration in discussions of freedom of speech and expression,
and censorship. Clearly, however, there cannot be a law against giving offense in
general. Almost anything might offend some sensitive soul, so we would be
reduced to virtual silence. On the other hand, some offense seems serious
enough to warrant restriction. Feinberg suggests two conditions which must be
satisfied before coercion is justified with respect to offense. One is universality
and the other reasonable avoidability. Of the former he says:
For offensiveness . . . to be sufficient to warrant coercion, it should be the
reaction that could be expected from almost any person chosen at random from
the nation as a whole, regardless of sect, faction, race, age or sex. (1973. p. 44)

Of reasonable avoidability he writes:


No one has a right to protection from the state against offensive experiences if he
can effectively avoid those experiences with no unreasonable effort or
inconvenience. (Ibid.)

We will consider these in turn.


The obvious problem with universality in the context of the Internet is that it
is too weak to be useful. Given the global nature of the Internet, probably very
little will be offensive to all. Ridiculing Christianity would not be universally
offensive, as it might be in a Christian country. Mocking a national group will
not offend too widely, apart from the members of that nationality. A supporter of
this universality principle could, of course, happily go along with all of this, and
claim that all it shows is that nothing on the Internet should be restricted just on
the grounds of offensiveness. (It could be argued though that this is a reasonable
criterion when considering restrictions in any one country.)
The main problem, however, with universality, is not its weakness when
applied to the Internet context, but rather its implausibility when considered in
the light of the previous discussion of the nature of offense. Let us see why.
Things that are most offensive are commonly not those which are universally
offensive, but rather those that single out individuals or groups. To begin with a
trivial example, I feel more offended I alone amongst my group of friends do not
get invited to the party than I do if most of us do not. The reason is obvious. If I
alone am singled out, I feel slighted, and unjustly treated. I feel that I have not
been treated with the respect that I deserve. A similar point can be seen in jokes
against a particular group. I may be offended at jokes against Australians if told
by non-Australians, but I am not offended by such jokes when told by
Australians. Again, the reason is simple. In the second case I am not being 'put
down' or slighted by someone who is portraying him or herself as being superior
to me, as the joke-teller would be in the former case.
While the party and joke examples might not be too important in themselves,
they do show what is wrong with the universality principle. Offense which
singles out individuals and groups is more serious than that which is offensive to
all (or most). It is more serious simply because it treats that individual or group
as being of less consequence, or less worthy of respect, than other individuals or
groups, or less worthy than me, or my group. Our own self-respect and self-
esteem are not totally determined by our perceived status relative to others, but
that relativity is certainly important. Conduct or material which is offensive to
just certain types of individuals and groups imply that they are in some way
inferior.
Feinberg's second principle is reasonable avoidability, and this does have
some plausibility. If I am offended by certain World Wide Web sites, I can
easily avoid them, and consequently there seems to be no good reason why they
should be banned on the ground of giving offense. This situation is very different
from one where I am confronted by offensive material each time I log on to the
Internet, say by a particular welcoming message or the wording of a prompt or
image of an icon. If I am offended by the sight of nude humans on the Internet, I
seem to have little cause for complaint if I can only access such images via
tortuous paths punctuated by warnings.
The problem with this is that it is really only plausible in the case of milder
offenses - actions which are only thought wrong because they offend, and not
those which offend because they are thought wrong. If something is found
offensive because it is believed wrong, those offended will not be placated by
just keeping it away from their eyes and ears, any more than most of us are
willing to condone murder which occurs away from us. That it is happening at
all is offensive. Wolgast is right in her criticism of Feinberg's argument about
pornography, which he puts thus:

When printed words hide decorously behind covers of books sitting passively on
bookstore shelves, their offensiveness is easily avoided. . . . [T]here is nothing
like the evil smell of rancid garbage oozing right out through the covers of a
book. When an "obscene" book sits on the shelf, who is there to be offended?
Those who want to read it for the sake of erotic stimulation presumably will not
be offended (or else they wouldn't read it), and those who choose not to read it
will have no experience by which to be offended. (Feinberg 1973, p. 45)

Wolgast's response is:


The felt insult and indignity that women protest is not like a noise or bad odor,
for these are group-neutral and may offend anyone, while pornography is felt to
single women out as objects of insulting attention. . . . [W]ith pornography there
is a felt hostile discrimination. (1987, p. 112)

If offense is related to respect for others and to self-respect, as was argued


earlier, the issue of reasonable avoidability does not arise. If women or some
race or any particular group is singled out for treatment which shows lack of
respect and which is of the type to lower self-respect, it is not an issue whether
or not someone can easily avoid some instance of that treatment. One woman
might avoid seeing pornography on one occasion, and one member of the racial
group might avoid hearing some racially offensive language, but these
individuals are still being shown less respect than they deserve, simply because
they are members of these targeted groups.
Even if reasonable avoidability were a useful criterion in some contexts, it is
not so clear that it is on the Internet. Looking for material on the Internet is not
much like performing that task in a library or in a bookshop, where to a large
extent we do "judge a book by its cover." We see a title or author and explore
further. On the Internet we seek out material on the basis of words, phrases, or
names using search engines, and have little control over what is discovered.
Innocuous search terms can find sites containing almost any sort of material, so
reasonable avoidability does not have much force here.
It has been argued in this paper that offense does need to be taken seriously,
not in the sense that there should be legislation against giving offense in general
– that would be just silly; but in the sense that there needs to be careful
examination of offensive behavior to see which, if any, should be subject to
regulation. It has also been argued that the universality and reasonable
avoidability criteria proposed by Feinberg do not help much. Offense is of
particular importance on the Internet, because it is offense which causes much of
the distress and other kinds of worry. It is also important because of the
previously mentioned global nature of the Internet. Material which may offend
no one within a particular country may be offensive to many on the Internet,
where it is available to people of other beliefs, customs, and race.
Where does this discussion leave us with respect to the vexed question of
curtailing freedom of speech and expression on the Internet? A useful distinction
is that between activities, words, pictures, and so on, which offend because of
characteristics over which people have no control – for example, race, gender,
and physical appearance – and those which offend because of characteristics
over which there is some control – for instance, political beliefs, football team
allegiance, and dress. It is fairly obviously worse to ridicule a person because of
the color of his or her skin than because of the color of his or her shirt. While
both may offend, the former is showing much less respect, and is much more
detrimental to self-respect. I can always change my shirt to end the ridicule if I
cannot cope with it. Cases can, of course, arise where a shirt cannot easily be
changed, say because of poverty. But this does not weaken the usefulness of the
distinction; rather it indicates why ridiculing someone living in poverty is worse
than ridiculing the more affluent.
J. S. Mill argued that one of the strengths of freedom of speech is that it
forces people to continually re-examine their beliefs, and that, as a result, those
beliefs, or the ones that survive, would be stronger and more lively. Beliefs
unexamined wither and die (Mill 1859). On these grounds, freedom of speech
and expression can override worries about giving offense in the case of
ridiculing or criticizing beliefs and commitments. The same argument can apply
to the case in which certain language or pictures are taken as offensive in
themselves. To the extent that such language or pictures might be seen as
offensive just because of beliefs, these beliefs should be open to challenge. To
the extent that the offense is not based on beliefs but purely on something like
taste, it seems not too important. This might seem to suggest that offense is no
ground for censoring pornography. However, pornography singles out a certain
group, women, and can be seen as degrading to them, regardless of the beliefs of
individual women.
The argument Mill offers does not apply where the offense concerns race,
gender, appearance, or other factors over which we have no control. No amount
of freedom of speech is going to change my race, gender, or appearance, even if
I want it to. A plausible argument can be made that freedom of speech and
expression ought to be restricted where its offensiveness harms, or is likely to
harm, someone's self-respect, by showing a lack of respect for a person or group,
where that person or group is identified by traits which they cannot change.
Racial vilification language would be a case in point, and, as we have argued,
pornography could also be.
Offense, in summary, is a relevant consideration in censorship, but only in
those areas where self-respect is at stake, and primarily where individuals or
groups are singled out by characteristics which they have no power to change.
On these grounds there is reason to restrict conduct on the Internet which
offends, for example, racial groups and women, but not, in general, religious or
political groups or any groupings defined by their beliefs.
Finally, there is another issue of relevance in censorship of the Internet. The
effective censoring activity on the Internet will not be easy, given current
technology, without limiting its usefulness. While it may not be good that certain
sorts of things are communicated, things which may harm or offend some
people, it may well be worse overall in some cases if this form of
communication is restricted in ways which would limit the Internet's
effectiveness. Offense must be taken into account, but only serious cases should
be restricted. Not too many babies should be thrown out with the bath water. An
attempt has been made in this paper to show which cases are the serious ones.
References
Broadcasting Services Amendment (Online Services) Bill (1999). Accessed July 6, 1999,
at http://www.aph.gov.au/parlinfo/billsnet/bills.htm.
Burton, P. F. (1996). "Content on the Internet: Free or Unfettered." Revised version of a
paper presented at the 10th Annual Computers in Libraries International
Conference, London, February 20, 1996, accessed July 6, 1999, at
http://www.dis.strath.ac.uk/people/paul/CIL96.html.
Communications Decency Act (1996). Enacted by the US Congress on February 1, 1996.
Text provided by the Electronic Privacy Information Center, accessed July 6, 1999.
at http://www.fcc.gov/Reports/tcom1996.txt.
Feinberg. J. (1973). Social Philosophy. Prentice-Hall.
Feinberg, J. (1985). The Moral Limits of the Criminal Law. Vol. 2: Offense to Others.
Oxford University Press.
Mill, J.S. (1859). On Liberty,
Mullet, K. and Sano, D. (1995). Designing Visual Interfaces. Prentice-Hall.
Sansom, G. (1995). Illegal and Offensive Content on the Information Highway: A
Background Paper. Long Range Planning and Analysis (DPP), Spectrum,
Information Technologies and Telecommunications Sector (SITT), Canada, June
19. Available at http://insight.mcmaster.ca/org/efc/pages/doc/offensive.html.
Wolgast. E. H. (1987). The Grammar of Justice. Cornell University Press.

Basic study questions


1. What are the two key issues regarding offense that Weckert identifies in the
introduction of this article?
2. Name five types of materials on the Internet which, according to Weckert, are often
considered offensive.
3. According to Weckert, "we are not offended by things, but by people." Explain what
he means.
4. According to Weckert. "something will only offend someone if that person takes
offense." Does this mean that a person should never take offense at anything?
Explain your answer.
5. According to Weckert, being offended involves more than mere anger. What else is
involved and why?
6. What is the close relationship that Weckert identifies between offense and respect?
7. Why, according to Weckert, is offense connected with race, gender or physical
disability more serious than offense connected with one's favorite football team?
(Hint: What is the role of choice?)
8. According to Weckert, "there cannot be a law against giving offense in general."
Why?
9. State Feinberg's two conditions that must be satisfied before censorship would be
justified.
10. Why, according to Weckert. is Feinberg's "universality principle" unacceptable?
11. Why. according to Weckert, does Feinberg's "reasonable avoidability principle" not
apply to the Internet?
12. Why does Weckert say that only "serious cases" of offense should be censored on the
Internet? What, according to Weckert. makes an offense serious?

Questions for further thought


1. What is Weckert's view of someone who never takes offense at anything? Do you
agree with his view? Why or why not?
2. How are offense and harm related to each other? Is every case of offense harmful? Is
every case of harm offensive? Why do you think so? Give examples.
3. While designing web pages, should a person be concerned about the possibility of
offending people who view those pages? Why?
CASE TO ANALYZE: A CLEVER IDEA

The overall case described below did not really happen, but something very
much like it could easily occur in the future, and some of the events described
here did occur. This case illustrates some of the challenges that the world faces
because of the global reach of the Internet and the many policy vacuums that
have resulted. The reader is invited to analyze this case using the method
described in chapter 3 above.

Joe Clever is very excited about his future. He has just earned a degree in
international law, and he has hit upon an idea for a new kind of law firm. "This
is going to make me a multimillionaire!" he thought to himself. Joe's plan is to
create a law firm that specializes in lawsuits based upon "value clashes" on the
Internet.
While he was a law student, Joe learned about a number of "messy legal
cases" that resulted from the global reach of the Internet and the fact that
different societies and communities have different values. In one of those cases,
a powerful judge in France objected to "hate web sites" based in America and
protected by the "free speech" amendment of the US Constitution. The judge
decided to ban those web sites in France and prosecute companies and
individuals from America who make "hate sites" accessible to French citizens
over the Internet. The judge was spurred into action by many angry French
citizens who were outraged that Nazi hate messages and Nazi memorabilia were
available to French citizens over the Internet, even though they were outlawed in
France.
Many American citizens, even though they abhor Nazism and wish that it
did not exist, were nevertheless angered by the French judge's actions. They saw
him as trying to impose French law upon Americans in their own country and
trying to undermine the First Amendment "freedom of speech" protection of the
US Constitution. "The French have no right to meddle with American
democracy and freedom!" said Americans who were angry with the French
judge. "If they don't like American web sites, they don't have to sign onto them!"
Another case that Joe studied in law school involved a legal tangle between
two states within the United States. A man in Tennessee, which has strict anti-
pornography laws, objected to a pornographic Internet bulletin board based in a
region of California where pornography is legal. For a fee, the man, who lied as
part of a police "sting" operation, had downloaded sexually explicit pictures into
his home computer in Tennessee. He was angry because children in his
community managed to access that same bulletin board, even though it was
supposed to be for adults only. The angry man went to the police to have the
bulletin board owners in California extradited and tried for selling pornography
in Tennessee. The extradition took place and the California bulletin board
owners were tried and convicted in Tennessee. The bulletin board owners'
lawyer argued in court that they had not sold pornography in Tennessee, because
the server that has the bulletin board is in California and the business transaction
took place on that server. The Tennessee lawyers, however, argued that the
Californians had indeed sold pornography in Tennessee, since the pornographic
materials were received on a computer in Tennessee and the purchaser never left
the state when he bought the pornographic materials.
Internet companies and web site publishers in many countries are very
worried about the implications of such cases. If people are subject to arrest and
prosecution in other states, or even other countries, for actions which were
perfectly legal in their own home towns, how can people do anything at all on
the Internet? Just about anything they do might offend someone, somewhere!
Doesn't this undermine the usefulness of the Internet?
Joe Clever thought all this was wonderful. "This is going to generate an
endless supply of very profitable, very messy legal cases for us," Joe
enthusiastically told his future law partners. "This is terrific! Imagine all the
legal cases of people gambling on the Internet in countries where gambling is
illegal! Or creating controversial political, sexual, racial, and ethnic web sites
that will offend people all around the globe!"
As soon as his new law firm opened for business, Joe Clever hired an
"Internet business stimulator" to generate business for the firm. The "business
stimulator's" job was to get onto the Internet, using chat rooms, bulletin boards,
and email to stir up conflicts among people in different states and different
countries with different laws and values. "The more heated conflicts we stir up, "
said Joe, "the more highly profitable lawsuits we will get for our law business!
We are all going to be millionaires!"
ADDITIONAL READINGS AND WEB RESOURCES

Additional readings
Barlow, J. P. (1991). "Coming Into The Country". Communications of the ACM, 34/3
(March): 19–21.
Ess, C. (2002). "Cultures in Collision: Philosophical Lessons from Computer-Mediated
Communication." In J. H. Moor, and T. W. Bynum (eds.). Cyber Philosophy: The
Intersection of Philosophy and Computers. Blackwell, pp. 219–42.
Johnson, D. G. (1997). "Is the Global Information Infrastructure a Democratic
Technology?" Computers and Society 20–6.
Lessig, L. (2001). "The Laws of Cyberspace." In R. A. Spinello, and H. T. Tavani (eds.),
Readings in CyberEthics. Jones and Bartlett, pp. 124– 34.

Web resources
The Cyber Rights Working Group, Computer Professionals for Social Responsibility,
http://www.cpsr.org/cpsr/nii/cyber-rights/
"The Global Culture of Digital Technology and Its Ethics", abstract of a paper by
Krystyna Gorniak-Kocikowska.
http://www.ccsr.cse.dmu.ac.uk/conferences/ccsrconf/ethicomp2001/abstracts/gorniak.html
The Internet Society – an international organization for global cooperation,
http://www.isoc.org/isoc/
UNESCO's Info-Ethics Program, The United Nations,
http://www.unesco.org/webworld/infoethics/infoethics.htm
A Final Case to Analyze

Given all that you have learned from this textbook about various computer ethics
issues and methods, you are now in a position to apply the case-analysis method
presented in chapter 3 to the following imagined, but realistic, case. There are
several computer ethics issues lurking here – some of which have already been
dealt with in the chapters above, and some new ones. Your newly acquired
knowledge in computer ethics, when combined with your freshly honed case-
analysis skills, should enable you to unpack and clarify the major issues
successfully.

Corner-Shop Goes Virtual


Corner-Shop retail chain outlets sell a wide range of groceries, newspapers and
magazines, and some home maintenance products. Services such as cleaning,
photographic processing, and floral deliveries are provided. With the advent of
shopping at the hypermarket and out-of-town superstore, Corner-Shop has found
it increasingly difficult to compete. The formula of slightly increased prices in
return for local, customized service no longer seems to be attractive to the
consumer. Two years ago Corner-Shop was close to collapsing. Enter the new
chief executive Jean Webb, whose job it was to reinvent Corner-Shop and return
the chain to profitability.
Given the advances in Internet technologies and a growing expansion of
electronic commerce, Webb believed that the company's future was in providing
a range of services and products via the Internet. She hired a consulting firm to
investigate the commercial potential of electronic commerce for Corner-Shop.
The resulting report confirmed Webb's belief. It reported that there were many
benefits to be gained, including: the creation of a larger global market place,
improved competitiveness, the ability to customize services and products for all
its customers, shortened or eradicated supply chains, and substantial cost
savings, consequently, the board backed her proposal to reorganize the business,
transforming it into an electronic retailer within two years. The decision was also
taken to phase out over a two-year period the existing Corner-Shop outlets,
which would result in a large reduction in shop assistants and shop managers.
The chain is now back in profit. It now runs E.Shop as an electronic
shopping service available on the World Wide Web via a personal computer or
digital television. Customers can buy goods that can be found in a traditional
supermarket and have them delivered to their homes or collect them from a local
distribution point. This distribution network is slowly expanding. All major
cities in the country are now covered and pilot projects are nearing completion in
six other countries.
The pricing policy has used the reduction in overheads to set prices lower
than the supermarkets and set the same prices when goods are delivered to the
customer. The range of goods has been expanded to cover large household items
such as furniture and domestic appliances. Other services are now offered
including full electronic banking facilities. Gradually, customers are being
encouraged, via incentives, to use this facility to pay for their shopping. Webb's
intention is to make customers dependant upon the chain for all their daily
household needs and transactions and so enable the chain to exploit fully the
trader–customer relationship.
A potential customer has to complete an on-line registration form to become
a shopper at E.Shop. Credit-worthiness is checked and, if satisfactory, the person
is accepted and a customer profile is set up which, over time, contains a
complete history of customer purchases and visits to E.Shop. Jean Webb
explains that this history of customer activity enables goods and services to be
tailored to individual customers, and customers can also be targeted with new
promotions that they would find interesting based on their past activity. Analysis
of financial activity is dealt with separately so that valued customers are
automatically given credit limit increases as they near their existing limits. Much
of this profile-driven marketing and customer servicing is done in a way that
keeps it unnoticed by customers, because, as Webb explains, "customers simply
want to gain quick access to our virtual shop, quickly buy the goods that they
need, and leave. They are not interested in the question of how we are able to
direct them to the goods they are most likely to want. That suits both them and
us."
The profile of customers has changed since Corner-Shop became E.Shop.
Generally, the new customers are financially better off and have easy access to at
least one Internet facility. Webb welcomes this shift, for she sees a greater
potential for increasing sales to these customers than to those who shopped at
Corner-Shop outlets. Those customers tended to buy small amounts several
times a week and spend quite a lot of time in conversation with staff, which was
inefficient and costly. There have been a number of complaints from community
groups about the loss of small local shops and the impact upon local customers.
But how those customers are now serviced is of no concern to Webb or her
board, because they see their future as E.Shop.
Webb believes that the success of E.Shop is based a lot upon image. They
have worked hard to get customers to trust them. This has been achieved by
using the leading Trust Mark agency to verify their authenticity as an electronic
trader and so enable them to display the Trust Mark on their site. The site is
backed by the leading electronic commerce software vendor, and their mark is
also displayed on the site, which further instills customer confidence. The whole
image presented is one of a large organization, backed by leading computer
technology suppliers, and in close contact with its customers. In reality. E.Shop
is operated with a very small number of staff. The provision, storage, and
delivery of goods are all done by local subcontractors who automatically receive
orders and customer details as the customers shop electronically. E.Shop
maintains a secure link with its subcontractors as well as having reasonably
secure Internet access. It is the responsibility of subcontractors to insure that
information passed to them by E.Shop is held in a secure environment. E.Shop
drew up a contract with subcontractors that makes subcontractors liable for
information once received from E.Shop. E.Shop assume that subcontractors will
have adequate security in place given this contractual clause and therefore do not
monitor security arrangements. Overall uniform branding promotes this image of
a large organization rather than a group of much smaller organizations tied
together by legal contracts.
Jean Webb is proud of the progress the chain has made under her leadership.
When she took it over, it was a floundering retail chain dealing directly with
customers with small buying potential in little shops in the outskirts of many
towns. Today it is seen as a model electronic retailer providing all the goods and
services that busy people require in the modern world. Its virtual doors are open
24 hours a day, and it delivers to its customers when and where they require.
Over the next 12 months, the pilots in the six other countries will be transformed
into fully operational services. Webb sees this as the inevitable move to a global
operation of shared services, shared cost, and shared information. It is founded
on a technological infrastructure that is capable of exploiting economies of scale
and global market potential.
Traduzido do Inglês para o Português - www.onlinedoctranslator.com

Bibliografia

ACM e IEEE-CS (1991).Currículos de Computação 1991.Disponível em


http://www.computer.org/education/cc1991/
Anderson. RE (1994). "O Código de Ética ACM: História, Processo e Implicações."
Em C. Huff e T. Finholt (eds.).Questões Sociais em Computação.McGraw Hill, pp.
48–71.
Anderson. R., Johnson DG, Gotterbarn D. e Perrolle, J. (1993). "Usando o novo
Código de Ética da ACM na Tomada de Decisões."Comunicações da ACM,36
(fevereiro): 98–107.
Baase, S. (2002).Uma dádiva de fogo: questões sociais, legais e éticas na computação,2º
ed. Prentice-Hall.
Baird. RM, Rosenbaum, SE, e Ramsower, RM (eds.) (2000).Ciberética: Social
e questões morais na era do computador.Livros Prometeu.
Barlow, JP (1991). "Entrando no País."Comunicações da ACM.34/3
(março): 19-21.
Barlow, JP (1994). "A Economia das Ideias: Uma Estrutura para Repensar Patentes e
Direitos autorais na era digital (tudo o que você sabe sobre propriedade intelectual está
errado)."Com fio:85-129.
Bayles, M. (1981).Éticas profissionais.Wadsworth.
Benyon-Davies. P. (1995). "Falha em Sistemas de Informação: o Caso do London
Projeto de Despacho Auxiliado por Computador do Serviço de Ambulância."Jornal Europeu de
Sistemas de Informação,4: 171-84.
Bowyer, KW (ed.) (2000).Ética e computação: vivendo com responsabilidade em um
mundo informatizado,2ª ed. Imprensa Wiley-IEEE.
Brey. P. (2000). "Ética do Computador Divulgado".Computadores e Sociedade.30/4
(dezembro): 10-16.
Bynum, TW (1993). "Ética da Computação no Currículo de Ciência da Computação". Em TW
Bynum, W. Maner e J, L. Fodor (eds.) (1993).Ensino de Ética Informática. Centro
de Pesquisa em Computação e Sociedade (também disponível em http://
www.computerethics.org ).
Bynum, TW (1999). "A Fundação da Ética do Computador." Um discurso importante no
Conferência AICEC99, Melbourne. Austrália. Julho de 1999. (Publicado emComputadores
e Sociedade,Junho de 2000: 6–13.)
Bynum, TW (2001). "Ética do Computador: Conceitos Básicos e Visão Histórica." Em E.
Zalta (ed.),Enciclopédia Stanford de Filosofia,online em
http://plato.stanford.edu/entries/ethics-computer
Bynum, TW e Rogerson, S. (1996).Ética da Informação Global.Publicado como
Ética da Ciência e Engenharia, 2/2.
Bynum. TW e Schubert, P. (1997). "Como fazer a ética do computador: um estudo de caso -
The Electronic Mall Bodensee." Em MJ van den Hoven (ed.),Ética Informática:
Investigação Filosófica – Anais do CEPE'97,Erasmus University Press, pp. 85 - 95
(também disponível emhttp://www.computerethics.org ).
Chadwick, R. (ed.) (2001).A Enciclopédia Concisa de Ética das Novas Tecnologias.
Imprensa Acadêmica.
Collins, WR. Miller, KW, Spielman BJ. e Wherry, P. (1994). "Como é bom
Bom o bastante?"Comunicações da ACM,37 (janeiro): 81–91.
Conry, S. (1992). "Entrevista sobre Acreditação em Ciência da Computação." Em TW Bynum, e
JL Fodor, (criadores)Ética da Computação no Currículo de Ciência da Computação
(programa de vídeo). Recursos de mídia educacional.
Denning, PJ (ed.) (1991).Computadores sob ataque: intrusos, worms e vírus.
ACM Books e Addison-Wesley.
Dhillon, G. (2002).Responsabilidade Social na Era da Informação: Questões e
Controvérsias.Publicação do Grupo de Ideias.
Edgar, SL (2002).Moralidade e Máquinas: Perspectivas sobre a Ética do Computador,2ª ed.
Jones e Barlett.
Eichmann, D. (1994). "Agentes Web éticos". Anais da Segunda Internacional
World Wide Web Conference: Mosaic and the Web, Chicago, IL, 18–20 de
outubro, pp.3–13 (ver também:
http://archive.ncsa.uiuc.edu/SDG/IT94/Proceedings/Agents/eichmann.ethical/
eichm Elgesem, D. (1996). "Privacidade, Respeito às Pessoas e Risco". Em C. Ess (ed.),
Perspectivas filosóficas sobre comunicação mediada por computador.Imprensa da
Universidade Estadual de Nova York.
Elgesem, D. (1999). "A Estrutura dos Direitos na Diretiva 95/46/EC sobre a Proteção de
Indivíduos no que diz respeito ao processamento de dados pessoais e à livre
circulação de tais dados."Ética e Tecnologia da Informação,1:283-93. Epstein, RG
(1996).O Caso do Robô Assassino.John Wiley e Filhos.
Ermann, MD, Williams, MB e Shauf, MS (1997).Computadores, Ética e
Sociedade.Imprensa da Universidade de Oxford.

Ess, C. (2002). "Culturas em Colisão: Lições Filosóficas da


Comunicação." Em JH Moor, e TW Bynum (eds.),Ciberfilosofia: A interseção da
filosofia e dos computadores.Blackwell (também emMetafilosofia, janeiro de
2002).
Fairweather, NB e Rogerson, S. (2001). "Uma Abordagem Moral ao Paciente Eletrônico
Registros."Informática Médica e Internet na Medicina,26/3:219-34.
Fodor, JL e Bynum, TW (criadores) (1992).O que é ética do computador?(vídeo
programa). Recursos de mídia educacional.
Ford, PJ (2000).Computadores e Ética na Era Cibernética.Prentice-Hall.
Forester, T. e Morrison, P. (1994).Ética do computador: contos de advertência e ética
Dilemas em Computação,2ª ed. Imprensa do MIT.
Frito. C. (1984). "Privacidade." Em FD Schoeman (ed.).Dimensões Filosóficas da
Privacidade.Cambridge University Press.
Gleason, DH (1999). "Ética da Subsunção".Computadores e Sociedade,29: 29-36.
Goodman, KW (ed.) (1997). Ethics, Computação e Medicina: Informática e o
Transformação dos Cuidados de Saúde.Cambridge University Press. Gorniak-Kocikowska,
K. (1996). "A Revolução do Computador e o Problema da Globalização
Ética."Ética da Ciência e Engenharia, 2(abril): 177-90.
Gotterbarn, D. (1991). "Ética do Computador: Responsabilidade Recuperada."Fórum Nacional:
O Jornal Phi Beta Kappa, 71:26-31.
Gotterbarn, D. (1992). "Você não tem o direito de fazer errado." Disponível em www-
cs.etsu-tnedu/gotterbarn/Artpp4.htm (acessado em 7 de dezembro de 2002).
Gotterbarn, D. (1994). "Ética de Engenharia de Software." Em JJ Marciniak (ed.).
Enciclopédia de Engenharia de Software,volume 2. John Wiley and Sons, pp. 1197-201.

Gotterbarn, D. (1996). "Estabelecendo Padrões de Prática Profissional". Em T. Hall, D.


Pitt e C. Meyer (eds.),O Engenheiro de Software Responsável: Leituras Selecionadas em
Profissionalismo de TI.Springer Verlag, cap. 3.
Gotterbarn, D. (2000). "Profissionais de informática e suas responsabilidades: Virtual
Informações e o Código de Ética de Engenharia de Software." Em D. Langford (ed.), Ética
na Internet.Macmillan, pp. 200–19.
Gotterbarn, D., Miller. K. e Rogerson, S. (1997). "Código de Engenharia de Software de
Ética."Comunicações da ACM,40/11: 110–18.
Goujon, P. e Dubreuil, BH (eds.) (2001).Tecnologia e Ética: Uma Busca Europeia
para Engenharia Responsável.Descascadores.
Grodzinsky, FS (1999). "O Praticante de Dentro: Revisitando as Virtudes."
Computadores e Sociedade(Março): 9-15.
Halbert. T. e Ingulli, E. (2001).Cibertética.Publicação da South-Western College.
Hamelink, CJ (2000).A Ética do Ciberespaço.Sábio.
Hester, M. e Ford, PJ (eds.) (2001).Computadores e Ética na Era Cibernética.Aprendiz
Salão.
Himanen, P. (2001).A Ética Hacker e o Espírito da InformaçãoEra. Aleatório
Casa.
Huff, C. e Finholt, T. (eds.) (1994).Questões Sociais em Computação: Colocando Computação
em seu lugar.McGraw-Hill, Inc.
IEEE-CS e ACM (2001).Currículos de Computação 2001.Disponível em:
http://www.acm.org/sigcse/cc2001 /
Introna, LI (1997). "Privacidade e o computador: por que precisamos de privacidade no
Sociedade da Informação”.Metafilosofia,28/3: 259–75.
Jefferies, P. e Rogerson, S. (2003). "Usando a Conferência de Computador Assíncrona para
Apoiar o Ensino de Computação e Ética: Um Estudo de Caso."Anais de Casos de
Tecnologia da Informação,V.
Johnson. DG (1985).Ética do Computador.Prentice-Hall (2ª ed. 1994: 3ª ed. 2001).
Johnson. DG (1997) "Ética On-Line".Comunicações da ACM,40/1 (janeiro):
60-9.
Johnson, DG (1997). "A Infraestrutura de Informação Global é uma
Tecnologia?"Computadores e Sociedade(Setembro): pp. 20–6.
Johnson, DG (1999). "Ética do computador no século 21." Um discurso importante no
Conferência ETHICOMP99, Roma, Itália, outubro.
Johnson, DG e Nissenbaum, HF (eds.) (1995).Computadores, Ética e Social
Valores.Prentice-Hall.
Kesar, S. e Rogerson. S. (1998). "Gerenciando o uso indevido do computador". SocialCiência
Revisão do computador,16/3 (outono): 240–51.
Kizza, MJ (2001).Segurança de Redes de Computadores e Ética Cibernética.McFarland. Ladd, J.
(1989). "Computadores e Responsabilidade Moral: Uma Estrutura para uma Ética
Análise." Em CC Gould (ed.),A Web da Informação: Implicações Éticas e Sociais das
Redes de Computadores.Westview Press, pp. 207–27. Langford, D. (1999).Ética do
computador de negócios.Addison Wesley. Langford, D. (ed.) (2000).Ética na Internet.
Imprensa de São Martinho.
Lessig, L. (2001). "As Leis do Ciberespaço". Em RA Spinello e HT Tavani (eds.)
(2001).Leituras em CiberÉtica.Jones e Bartlett, pp. 124–34.
Leveson, N. e Turner. C. (1993). "Uma investigação dos acidentes Therac-25."
Computador, 26/7:18–41.
Maner, W. (1980).Starter Kit em Ética do Computador.Helvetia Press (publicado em
cooperação com o Centro Nacional de Informação e Recursos para o Ensino de
Filosofia). (Originalmente auto-publicado por Maner em 1978.)
Maneira. W. (1996). "Problemas éticos únicos em tecnologia da informação."Ciência e
Ética de Engenharia, 2/2:137-54.
Maner, W. (2002). "Métodos heurísticos para a ética do computador." Em JH Moor, e TW
Bynum (eds.),Ciberfilosofia: a interseção entre filosofia e computação, Blackwell
(veja também: http://csweb.cs.bgsu.edu/maner/heuristics).
Manion, M. e Goodrum, A. (2000). "Terrorismo ou Desobediência Civil: Rumo a um
Ética Hacktivista."Computadores e Sociedade,30/2 (junho): 14–19.
Marx. GT (1996). "Privacidade e Tecnologia."Telektronikk,1: 40–8.
Mason, RO (1986). "Quatro questões éticas da era da informação."MIS Trimestral,
01/10:5-12.
Mason, RO, Mason, FM e Culnan, MJ (1995).Ética da Informação
Gestão.Sábio.
McFarland. MC (1999). "Propriedade Intelectual, Informação e o Bem Comum". Dentro
RA Spinello e HT Tavani (eds.) (2001).Leituras em CiberÉtica.Jones e
Bartlett, pp. 252-62.
Miller, AR (1971).O Ataque à Privacidade: Computadores, Bancos de Dados e Dossiês.
Imprensa da Universidade de Michigan.
Moor, JH (1979). "Existem decisões que os computadores nunca devem tomar?"Natureza e
Sistema,1:217-29.
Moor, JH (1985). "O que é ética do computador?" Em TW Bynum (ed.),Computadores e
Ética.Blackwell, pp. 266-75. (Publicado como a edição de outubro de 1985 da
Metafilosofia.)(Também disponível em:http://www.computerethics.org ) Mouro. JH
(1996) "É a Ética Computável?"Metafilosofia, 27: 1–21.
Mouro, JH (1999). "Apenas Consequencialismo e Computação." Éticae informação
Tecnologia,1:65-9.
Moura, JH (2001). "O futuro da ética do computador: você ainda não viu nada."Ética
e Tecnologia da Informação,3/2.
Neumann, PG (1995).Riscos Relacionados ao Computador.ACM Press e Addison-Wesley.
Nissenbaum. H. (1994). "Computação e Responsabilidade".Comunicações doACM,
37/1:73-80.
Nissenbaum. H. (1997). "Rumo a uma Abordagem à Privacidade em Público: Desafios da
Tecnologia da Informação."Ética e Comportamento,03/07: 207-19.
Nissenbaum, H. (1998). "Protegendo a privacidade na era da informação: o problema da
Privacidade em público."Direito e Filosofia,17: 559-96.
Nissenbaum, H. (1999). "O significado do anonimato na era da informação."o
Sociedade da Informação,15: 141-4.
Parker, D. (1968). "Regras de Ética no Processamento de Informações".Comunicações do
ACM.11: 198-201.
Parker. D. (1978).Conflitos Éticos em Ciência da Computação e Tecnologia.Imprensa
AFIPS. Parker, D., Swope, S., e Baker, BN (1990).Conflitos Éticos na Informação e
Ciência da Computação, Tecnologia e Negócios.QED Ciências da Informação. Perrolle,
JA (1987).Computadores e Mudança Social: Informação, Propriedade e
Poder.Wadsworth.
Pratchett, L, Birch. S., Candy, S., Fairweather, NB, Rogerson, S., Stone. V., Watt, R.,
e Wingfield, M. (2002).A implementação do voto eletrônico no Reino Unido.
Publicações LGA.
Prior, M., Fairweather, NB e Rogerson. S. (2001).A TI é ética? 2000 ETHICOMP
Levantamento da Prática Profissional.Reino Unido: Institute for the Management of Information
Systems.
Anterior. M., Rogerson, S., e Fairweather, NB (2002). "As atitudes éticas de
Profissionais de Sistemas de Informação: Resultados de uma Pesquisa Inicial."Telemática e
Informática,19/01:21-36.
Rahanu, R., Davies, J. e Rogerson, S. (1999). "Análise Ética de Falha de Software
Casos."Falha e Lições Aprendidas em Gestão de Tecnologia da Informação, 3: 1–
22.
Raimundo. E. (2000).A Catedral e o Bazar(um livro e um site em
http://www.tuxedo.org/~esr/writings/cathedral-bazaar/cathedral-bazaar). Rogerson.
S. (1996). "A Ética da Computação: A Primeira e Segunda Gerações".o
Notícias da Rede de Ética Empresarial do Reino Unido(Primavera): 1–4.

Rogerson. S. (1998).Aspectos Éticos da Tecnologia da Informação: Questões para Seniores


Executivos.Instituto de Ética Empresarial.
Rogerson, S. e Bynum, T.C.(1995). "Cyberspace: The Ethical Frontier."Horários
Suplemento ao Ensino Superior, The Times,9 de junho.
Rogerson, S., Weckert, J. e Simpson, C. (2000). "Uma Revisão Ética da Informação
Desenvolvimento de Sistemas: Código de Ética e SSADM da Australian Computer
Society."Tecnologia da Informação e Pessoas,13/2:121-36.
Salehnia, A. (ed.) (2002)Questões Éticas de Sistemas de Informação.Publicação do Grupo de
Ideias. Samuelson, P. (1997). "A Agenda Digital dos EUA na OMPI."Revista Virgínia de
Associação de Direito Internacional,37: 369-439.
Spafford, E. (1992). "As arrombamentos de hackers de computador são éticos?"Revista de Sistemas e
Programas,17 (janeiro): 41–7.
Spafford, E., Heaphy. KA e Ferbrache DJ (1989).Vírus de computador: Lidando
com Vandalismo Eletrônico e Ameaças Programadas.ADAPSO.
Spier, RE (ed.) (2002).Ética da Ciência e Tecnologia.Routledge.
Spinello. RA (1997).Estudos de Caso em Informação e Ética Informática.Prentice-
Salão.
Spinello, RA (2000).Ciberética: Moral e Direito no Ciberespaço.Jones e
Bartlett.
Spinello, R. e Tavani, H. (eds.) (2001).Leituras em CiberÉtica.Jones e Barlett. Stallman,
R. (1992). "Por que o software deve ser gratuito." Em TW Bynum, W. Maner e J.
L. Fodor (eds.) (1992).Propriedade de Software e Direitos de Propriedade Intelectual.
Centro de Pesquisa em Computação e Sociedade, pp. 35–52 (também disponível em: http://
www.computerethics.org ).
Stoll, C. (1989).O ovo do cuco: rastreando um espião pelo labirinto do computador
Espionagem.Dia duplo.
Tavani. HT (1999). "Privacidade Informacional, Mineração de Dados e Internet."Ética e
Tecnologia da Informação,1: 137-45.
Tavani HT (2000). "Definindo os limites do crime de computador: pirataria, arrombamentos,
e Sabotagem no Ciberespaço."Computadores e Sociedade,30/3 (setembro): 3–9.
Tavani. HT e Moor, JH (2001). "Proteção de Privacidade. Controle de Informações e
Tecnologias que aumentam a privacidade." Em RA Spinello e HT Tavani (eds.),
Leituras em CiberÉtica.Jones e Bartlett, pp. 378-91.
A Liga para a Liberdade de Programação (1992). "Contra Patentes de Software." Em TW
Bynum, W. Maner e JL Fodor (eds.) (1992).Propriedade de Software e Direitos de
Propriedade Intelectual.Centro de Pesquisa em Computação e Sociedade (também
disponível emhttp://www.computerethics.org ).
Turkic, S. (1984).O Segundo Eu: Computadores e o Espírito Humano.Simão e
Schuster.
Turner, AJ (1991). "Resumo da Força-Tarefa Conjunta de Currículo ACM/IEEE-CS
Relatório: Currículos de Computação, 1991."Comunicações da ACM,34/6 (junho):
69–84.
van den Hoven, J. (1997). "Privacidade e as variedades de irregularidades informacionais."
Computadores e Sociedade, 27:33-7.
van Speybroeck, J. (1994). "Revisão deKit de Iniciação no Ensino de Ética em Computadores"(por T.
W. Bynum, W. Maner, e JL Fodor (eds.)),Revisões de computação(Julho): 357-8.
Weckert, J. (2002). "Ética Liliputiana do Computador." Em JH Moor e TW Bynum
(ed.).Ciberfilosofia: a interseção entre filosofia e computação.
Blackwell.
Weckert, J. e Adeney. D. (1997).Ética da Informática e da Informação.Greenwood
Grupo Editorial.
Weizenbaum, J. (1976).O Poder do Computador e a Razão Humana: Do Julgamento ao
Cálculo.Homem livre.
Westin, AR (1967).Privacidade e Liberdade.Ateneu.
Wiener, N. (1948).Cibernética: ou Controle e Comunicação no Animal e no
Máquina.Imprensa de Tecnologia.
Wiener, N. (1950).O Uso Humano de Seres Humanos: Cibernética e Sociedade.
Houghton Mifflin. (2ª rev. ed., Doubleday Anchor, 1954).
Wood-Harper, AT, Corder, S., Wood, JRG e Watson. H. (1996). "Como nós
Professa: O Analista de Sistemas Éticos."Comunicações da ACM,39/3
(março): 69–77.

Você também pode gostar