Você está na página 1de 10

Tema 4.

Tecnologias de Informação e Comunicação

1. Introdução
O conjunto das tecnologias de informação e comunicação é, por vezes,
abreviadamente referido apenas por TIC (ICT, se usamos a sigla em inglês).
Dado que as TIC são relativamente recentes – meados do século XIX para as
tecnologias de comunicação e meados do século XX para as tecnologias de informação
– e dada a novidade e o alcance ainda não completamente assumidos pela sociedade,
é natural que os aspectos éticos envolvidos não tenham ainda plenamente
consciencializados, com eventual excepção dos casos mais evidentes. Acresce que as
novas tecnologias envolvem alguns aspectos mais complexos do ser humano, como a
fala e o raciocínio, o que lhes confere uma aura de quase mistério para os seus
utilizadores.
Ao longo da evolução tecnológica, as questões éticas foram aparecendo, a princípio de
forma simples e fácil de apresentar. À medida que as TIC se foram tornando numa
parte mais importante do dia-a-dia das pessoas, a situação tem-se tornado cada vez
mais complexa. No inicio e no âmbito das comunicações interpessoais, a questão
principal era a confidencialidade da informação. Para as ligações por fios, a
confidencialidade era assegurada desde que o acesso aos circuitos e às estações de
comutação estivesse vedado, algo quase impossível de assegurar de forma
convincente. Dai que informação confidencial nunca fosse transmitida de forma clara
pelo telégrafo e menos ainda pelo telefone. Para estes casos usava-se a encriptação.
Os problemas éticos mais graves são levantados pela internet e agudizada pela
popularização conjunta da internet e das redes móveis celulares.
Neste âmbito, um primeiro problema tem que ver com direitos de autor, pois não
existe um processo que impeça que um servidor ligado à Internet disponibilize
gratuitamente programas, documentos, livros, músicas ou filmes e sem respeitar pagar
os direitos de autor. Em alguns países a legislação permite às autoridades fecharem o
acesso destes servidores à Internet, mas é relativamente fácil encontrar servidores em
qualquer outra parte do mundo que ofereçam o mesmo serviço.
Acontece que, ao descarregar informação de um servidor, o utilizador descarregue
também, sem dar-se conta, um programa malicioso que transforma o seu computador
num servidor da informação que acabou de descarregar.
Os programas maliciosos ou vírus são programados associados a textos ou programas
e infectando a outros computadores ligados á internet; outros programas maliciosos
como os worms que são capazes de explorar a vulnerabilidade do sistema operativo e
propiciar a propagação do vírus sem a intervenção do utilizador, usando os programas
habituais de partilha de ficheiros; os chamados “cavalos de Tróia” que podem ser
utilizados para criar vulnerabilidades susceptíveis de ser exploradas mais tarde por

1
outros programas maliciosos; ou os bots (designação derivada de robots, que são
programas maliciosos que, uma vez instalados, transferem o controlo do computador
infectado para um centro de comando exterior.
Um segundo problema ético está ligado à possibilidade de controlar um computador
ligado á internet com outro computador, sem que o utilizador do primeiro tenha
consciência do que se está a passar. Existem vários processos para atingir este fim. O
Mais comum é a inserção de um programa, disfarçado com um ícone apelativo, anexo
a uma mensagem de correio electrónico. Se o utilizado for incauto, ou simplesmente
curioso e “clicar” duas vezes no ícone anexo a mensagem, pode inadvertidamente,
instalar o dito programa malicioso capaz de controlar o seu computador. A situação
mais grave ocorre quando o programa malicioso vem inserido numa actualização de
um programa legítimo, por exemplo o sistema operativo.
Como consequência da hipotética presença de um programa maliciosos leva, aos
utilizadores, estabelecer mecanismos de defesa: 1) Manter constantemente
actualizado o sistema operativo, instalando as correções que os fabricantes
periodicamente fornecem; 2) Instalação de um antivírus, um programa que procura
identificar e destruir programas maliciosos, quer já instalados, quer existentes em
mensagens de correio electrónico ou noutros ficheiros; 3) a instalação de um corta-
fogo (firewall) entre a ligação á Internet e a rede a proteger. Tal como a vacinação de
uma percentagem elevada de uma população impede, eficazmente, a propagação de
uma doença, também a actualização do sistema operativo e a utilização de antivírus
ajudam a evitar a propagação de programas maliciosos.
Um terceiro problema ético tem que ver com o acesso (não autorizado) ao modo
como o utilizador navega na Internet. Muitos portais enviam dados (cookies) aos
programas navegadores (browsers) Estes dados são armanezados no computador do
utilizador, e foram criados para que o portal saiba sempre qual o estado do navegador
que o visita (por exemplo, nos portais de compras, quais os itens que o utilizador já
colocou no carrinho de compras). Cada vez que o utilizador dá um comando ao
navegador, os cookies são devolvidos ao portal, que, assim, é cpaz de recordar todos
os passos que o utilizador deu na sua visita.
Atendendo à possível invasão da privacidade do utilizador permitida pelos cookies , em
2002 a Comissão Europeia na Directiva sobre Privacidade nas comunicações
electrónicas impôs que o utilizador deva dar o seu consentimento explícito ao uso de
cookies. Mas em 2012 considerou-se que nalguns casos não era necessário e, em 2018
A Comissão Europeia modificou a sua posição exigindo o consentimento explícito
apenas na primeira que o conjunto utilizador mais navegador visita um portal.
Um quarto problema ético prende-se com o facto de a informação entrada na Internet
ficar para sempre na Internet, facto que é potencialmente susceptível de criar
prejuízos irreparáveis a um inocente. Imaginemos alguém que é acusado de cometer
cuja noticia é publicada num jornal. O portal do Jornal é indexado e o nome do
acusado fica para sempre na Internet associado ao crime, Suponhamos, agora, que o

2
acusado é julgado e considerado inocente, notícia que provavelmente não grande
interesse jornalístico e, portanto, nunca chega á Internet. Será que o acusado, agora
declarado inocente, deverá ter, para sempre, a sua reputação manchada?
Por esta razão, no contexto europeu, as leis de protecção de dados preveem o direito
ao esquecimento, pelo qual, o Tribunal Europeu de Justiça pode impor aos motores de
busca da Internet que apaguem certas informações.
Atendendo à sua importância, a Internet é, ou pode ser, alvo da vários tipos de ataque
que visam ganhar o controlo de algum processo ou impedir o uso leg+itimo de um
serviço. Por esta razão, certos serviços críticos, como as comunicações e distribuição
de energia eléctrica, tendem a utilizar redes privadas, excluindo por segurança, apesar
de comodidade e do menor custo, a ligação a Internet pública.
Um dos ataques possíveis a um servidor, conhecido pela sigla DoS (Denial of servisse),
consiste em enviar tantos pedidos (falsos) a um servidor, que este entope e, sendo
incapaz de distinguir os pedidos legítimos dos que o não, e deixa de realizar a sua
função.
A medida que a evolução tecnologia foi dotando os computadores de mais e mais
capacidade, até há bem pouco tempo exclusiva dos seres humanos, como a fala e o
raciocínio, muitas outras questões éticas complexas estão parecendo, nomeadamente
nas áreas dos algoritmos e inteligência artificial.

1. Algoritmos e computadores: Revolução Tecnológica


Autor:
Sergio C. Fanjul
Porque aunque los algoritmos existen por lo menos desde los tiempos de los babilonios,
con la llegada de los ordenadores tomaron mucho más protagonismo. La unión de
máquinas y algoritmos es lo que está cambiando el mundo. El matemático británico
Alan Turing, famoso por haber reventado la máquina Enigma de mensajes cifrados de
los nazis y por haberse suicidado mordiendo una manzana envenenada tras sufrir una
dura persecución debido a su condición homosexual, fue de los primeros que relacionó
algoritmo y ordenadores. De hecho, fue de los primeros que imaginó un ordenador tal y
como los conocemos. Incluso llegó a pensar que las máquinas podrían pensar, y hasta
escribir poemas de amor.
El famoso algoritmo de Facebook
“En el big data los algoritmos analizan millones de datos de consumidores, hay
algoritmos en los coches automáticos, o en redes sociales como Facebook o Twitter”,
dice Ricardo Peña. Están por todas partes, en Uber, en los Google Maps, los utilizamos
cada día. Por ejemplo, las modificaciones en el algoritmo que decide qué se ve en tu
muro de Facebook, conocido como EdgeRank, suelen causar grandes revuelos entre los
usuarios. A principios de 2018, la empresa decidió dar más importancia a los usuarios
particulares que empresas, marcas y medios de comunicación, en un intento de que la
red social volviera a ser más “social” y paliar fenómenos como el clickbait y las fake
news. Dada la alta dependencia actual del mundo real a Facebook, el cambio dio
bastantes quebraderos de cabeza, especialmente a empresas y medios.

3
La Máquina de Turing no es una máquina que exista en el mundo físico, sino un
constructo mental. Consiste en una cinta infinita sobre la que se van haciendo
operaciones repetitivas hasta dar soluciones, viene a ser una definición informática del
algoritmo y un ordenador, el primero, conceptualizado: “En esencia, es el precursor de
los ordenadores: tiene una memoria, unas instrucciones (un programa), unas
operaciones elementales, una entrada y una salida”, explica el profesor Peña. Lo más
interesante es que es una máquina universal, que puede llevar a cabo cualquier
programa que se le ordene. Dentro de los problemas del mundo hay de dos tipos: los
que puede resolver una Máquina de Turing (llamados computables) y los que no (los no
computables), igual que vemos en el mundo real tareas que pueden realizar las
máquinas (cada vez más) y otras que solo pueden realizar los humanos. Todos los
ordenadores, tablets, smartphones, etc, que conocemos son máquinas de Turing.
“En definitiva, el trabajo de los programadores informáticos consiste en traducir los
problemas del mundo a un lenguaje que una máquina pueda entender”, afirma Peña. Es
decir, en algoritmos que la máquina maneje: para ello hay que picar realidad en
pequeños problemas en sucesión y poner a la computadora a la tarea. Un programa de
ordenador es un algoritmo escrito en un lenguaje de programación que al final acaba
convertido en miles de sencillas operaciones que se realizan con corrientes eléctricas en
el procesador, corrientes representadas por los famosos unos y ceros, los dígitos que
caracterizan lo digital. Cuando jugamos a un videojuego en tres dimensiones, o miramos
Facebook, o utilizamos un procesador de textos, en realidad la máquina está realizando
numerosas operaciones con pequeñas corrientes eléctricas, sin saber que de todo eso
sale Lara Croft con dos pistolas. La clave es que son muchas operaciones a la vez: un
ordenador de 4 gigahertzios puede hacer 4.000 millones operaciones en solo un
segundo. En esencia, esto son los algoritmos y esto es la informática.
Mis problemas con los algoritmos
A pesar de la longevidad de los algoritmos, y de la ya madurez de las computadoras, la
palabra algoritmo se ha puesto de moda en los últimos años. ¿A qué se debe? “Los
ordenadores pueden calcular mucho más rápido que un cerebro humano y desde la
aparición de internet hay un salto y se están llegando a cosas que parecían imposibles”,
dice Miguel Toro. Por ejemplo, en disciplinas en plena ebullición como el big data o la
inteligencia artificial.
“Los algoritmos se usan para predecir resultados electorales, conocer nuestros gustos y
el mundo del trabajo se va algoritmizando: las diferentes tareas se convierten en
algoritmos y se automatiza el trabajo”, explica el catedrático. Las únicas tareas no
algoritmizables, por el momento, son las relacionadas con la creatividad y las
emociones humanas, esa es nuestra ventaja. Aunque se suele argumentar que la
Revolución Tecnológica creará nuevos puestos de trabajo, Toro cree que nunca serán
tantos como los empleos destruidos y que se concentrarán en personas y países con la
suficiente preparación. “Por eso una idea que parecía propia de la izquierda, como la
renta básica universal, está siendo propuesta hasta por Bill Gates y experimentada en
lugares como California o Finlandia. Es necesario que haya consumidores para que el
sistema económico no colapse”.
El Flash Crack
Uno de los ejemplos más llamativos de cómo pueden funcionar los algoritmos sin la
supervisión humana es el del llamado Flash Crack de 6 de mayo de 2010. En la Bolsa
los algoritmos trabajan realizando transacciones a velocidades inimaginables para un
cerebro humano, en cuestión de microsegundos, para conseguir la máxima rentabilidad.
Es el High Frecuency Trading. Ese día de 2010, la interacción de las operaciones de los

4
algoritmos produjo un desplome de 1.000 puntos, en torno a un 9%, sin explicación
aparente, que se recuperó a los pocos minutos, pero que dio una idea de los problemas
que se pueden originar. “Casos como estos ocurren cuando los algoritmos se ponen a
competir y nadie tiene la imagen del proceso completo, lo que se llama decoherencia”,
explica Toro, “por eso los algoritmos deben funcionar bajo supervisión humana”.
“Nadie se pone de acuerdo en lo que pasó en la Bolsa, nadie dio la orden, nadie quería
eso, nadie tenía realmente control sobre lo que realmente pasaba”, dice Kevin Slavin,
profesor del MIT Media Lab, en su célebre charla TED Cómo los algoritmos
configuran nuestro mundo. Otro caso interesante es el del manual The making of a fly,
de Peter Lawrence, que trata sobre la genética de moscas como la Drosophila
melanogaster, muy utilizada en laboratorios biológicos. Lo extraño de este libro, por lo
demás muy normal, es que, en 2011, su precio en Amazon alcanzó primero la cifra de
1.700 millones dólares para luego subir, unas horas más tarde, a casi 23.700 millones
dólares (más gastos de envío). Todo se debía a el funcionamiento de un algoritmo que
fijaba los precios de manera automática. “Nadie compraba ni vendía nada, ¿qué
pasaba?”, dice Slavin. “Tanto aquí como en Wall Street vemos cómo algoritmos en
conflicto, trabados entre sí, crean bucles sin ningún tipo de supervisión humana”.
Pese a todo, hay algoritmos que ya forman parte de consejos de empresas. Es el caso de
VITAL, que desde mayo de 2014 ocupa uno de los cinco sillones directivos de Deep
Knowlegde Ventures, una empresa de capital riesgo de Hong Kong especializada en
medicina regenerativa. El algoritmo recomienda inversiones después de analizar
enormes cantidades de datos y ensayos clínicos. Tiene derecho a voto en la cúpula de
esa corporación. Como señala el historiador Yuval Harari en su libro Homo Deus, breve
historia del mañana (Debate), “VITAL ha adquirido uno de los vicios de los directores
generales: el nepotismo. Ha recomendado invertir en compañías que conceden más
autoridad a los algoritmos”. Según señala Harari, puede que llegue el día en que, cuando
los algoritmos se hagan dueños del mercado laboral, la riqueza quede concentrada en
una “élite de algoritmos todopoderosos (…) los algoritmos podrían no solo dirigir
empresas sino ser sus propietarios. En la actualidad, la ley humana ya reconoce
entidades intersubjetivas, como empresas y naciones, como personas legales”. Si
entidades como Toyota o Argentina, que no tienen cuerpo ni mente, pueden poseer
tierras y dinero, demandar y ser demandadas, ¿por qué no un algoritmo?, se pregunta el
autor.
 Algoritmos celebrities
Tal vez el algoritmo más famoso del mundo, después del de la multiplicación, sea el de
Google, creado en 1998 y llamado PageRank. Su éxito revolucionario consistió en que
rastreaba la web y daba resultados de búsqueda ordenados por su importancia. “El
PageRank original medía la importancia de una web por la cantidad de webs que
estaban enlazadas a ella”, dice Andrés Leonardo Martínez Ortiz (también conocido por
el acrónimo ALMO), manager del Grupo de Desarrolladores de Google, y esa fue la
clave de su éxito. Desde entonces, según relata ALMO, el algoritmo ha ido
evolucionando hasta tener en cuenta en sus resultados al usuario (no es lo mismo ser un
adulto que un niño, o buscar en Madrid que en Silicon Valley), ofrecer mapas,
imágenes, corregir la ortografía de la búsqueda o entender cuándo en la caja de
búsqueda se escribe una pregunta. Y darle respuesta.
“En los cambios que se realizan en el algoritmo se involucra a la industria, por el
impacto que pueda tener, y se prueban con un pool de usuarios”, explica el ingeniero. El
problema es que en los algoritmos grandes a menudo aparecen sesgos. “Un algoritmo no
es una caja negra y sus resultados no se deben asumir sin cuestionarlos”, dice ALMO.

5
“Cuando se perciba una situación anómala es preciso denunciarla a la compañía para
que la analice”.
Porque, aunque a veces lo parezcan, los algoritmos no son entes autónomos, sino que
detrás hay personas. Así que algunas asociaciones de programadores e ingenieros
informáticos, como la Association for Computing Machinery (ACM) o el Institute for
Electrical and Electronic Engineers (IEEE) (de las que ALMO forma parte) ya han
desarrollado un código ético para evitar algunos de los problemas que pueda acarrear la
tecnología. “Debido a su posición en el desarrollo de sistemas software, los ingenieros
tienen suficientes oportunidades para causar beneficio o generar daño, para permitir a
otros causar beneficio o generar daño, o para influenciar a otros a causar beneficio o
generar daño”, se lee en su preámbulo. Por eso, el primer punto de sus principios dice:
“Los ingenieros de software actuarán de manera coherente con el interés social”.

2. Inteligencia artificial y sesgo algorítmico


¿Cómo podemos equilibrar la necesidad de algoritmos
más precisos con la necesidad de transparencia hacia
las personas que están siendo afectadas por los posibles
sesgos? (deturpação, distorção)

Autor: Rocío Pérez es especialista en soluciones Big Data en Oracle Ibérica y


profesora de Data Science en MIOTI 

6
Ordenadores en la Bolsa de Seúl. Lee Jin-man AP
En 1936, Literary Digest, una influyente revista estadounidense de interés general,
publicó una encuesta sobre predisposición del voto americano para las elecciones
presidenciales de ese mismo año. En ella, vaticinaba una victoria aplastante de Alf
Landon (candidato republicano) sobre Franklin D. Roosevelt.
Imprevisiblemente, Franklin D. Roosevelt fue elegido con el 61% de votos. Esto
condujo al declive de Literary Digest y al posterior cierre de la revista.
Para su encuesta, Literary Digest utilizó listas de los propietarios de automóviles y de
teléfonos fijos. Tenemos aquí un claro ejemplo de sesgo algorítmico, puesto que el
automóvil y el teléfono eran, en aquellos años, indicativos de nivel económico superior
al estadounidense medio, por lo que el modelo de predicción de voto resultó claramente
sesgado a favor del voto republicano (las grandes fortunas votan más a los
republicanos).
De la misma forma, los algoritmos de aprendizaje automático dependen de los datos de
entrenamiento que se les suministren. De esta manera, estos algoritmos pueden reflejar,
o incluso ampliar, los sesgos que están presentes en los datos.

7
Los algoritmos de aprendizaje automático dependen de los datos de entrenamiento que
se les suministren. De esta manera, estos algoritmos pueden reflejar, o incluso ampliar,
los sesgos que están presentes en los datos
Si un algoritmo se entrena con datos racistas o sexistas, las predicciones resultantes
también reflejarán esto. Es por ello que los algoritmos intentan evitar variables
obviamente problemáticas como, por ejemplo, la raza. Ningún banco querría una
denuncia de un colectivo por denegación de hipotecas por el simple hecho del color de
su piel. No obstante, incluso si se excluye el concepto de raza de los algoritmos, otras
variables pueden producir el mismo resultado sesgado. En este caso puede ser el código
postal. Si se utiliza para determinar mejores o peores condiciones crediticias, podríamos
estar excluyendo del acceso a crédito a barriadas enteras con un alto número de
personas de la misma raza y además predominantemente pobres.
Encontrar una respuesta a cuáles son las variables sustitutas correctas -también llamadas
procuradoras de tal información- y determinar cuándo una predicción o decisión está
afectada por un sesgo algorítmico puede no ser fácil, ya que:
₋ Si el algoritmo de aprendizaje automático se basa en una red neuronal complicada
hace muy buenas predicciones, pero en realidad no es capaz de explicar por qué hizo
una predicción particular, por lo que puede resultar casi imposible entender por qué, o
incluso cómo, el algoritmo emite su juicio.
₋ Por otro lado, los métodos de aprendizaje basados en árboles de decisión o las redes
bayesianas son mucho más transparentes para la inspección, pero existe el hecho de que
las compañías no van a permitir que sus algoritmos sean examinados públicamente.
¿Cómo podemos equilibrar la necesidad de algoritmos más precisos con la necesidad de
transparencia hacia las personas que están siendo afectadas por los posibles sesgos? Si
es necesario, ¿estamos dispuestos a sacrificar la precisión por la transparencia?
Porque ligado con la precisión del algoritmo vemos otro criterio social importante a
tratar: encontrar a la persona o entidad responsable del “error” del modelo. Es decir
¿podemos determinar quién es el responsable cuando un sistema falla en su tarea
asignada?
Se puede citar el primer atropello mortal de un coche sin conductor acontecido en marzo
de 2018. ¿Sobre quién ha de recaer la responsabilidad? ¿Sobre la empresa dueña del
coche? ¿O son los programadores y los científicos de datos culpables? ¿Tal vez los
usuarios finales? ¿Influiría ese conocimiento en la decisión de compra de un coche u
otro sabiendo que pase lo que pase no es nuestra responsabilidad? ¿Y si fuera nuestra
responsabilidad?
Realmente los humanos desconocemos nuestros verdaderos motivos para actuar y cómo
actuar. ¿Quién sabe seguro qué decisión tomaría dado el caso de estrellarse o no contra
algo o alguien estando en juego su vida y la de su familia? ¿Deberíamos exigir que las
máquinas sean mejores en esto de lo que realmente somos?
El desafío, por lo tanto, es establecer algoritmos que produzcan un comportamiento
ético (o que los humanos, en términos generales, podamos aceptar como ético).
Para estos nuevos requisitos en el diseño de inteligencia artificial, necesitamos encontrar
la legislación apropiada en este campo. Y antes se deben producir debates éticos
públicos al respecto. Unir, desde ya, las implicaciones éticas al desarrollo de nuevas
tecnologías es una clara necesidad en todos los sectores donde queramos aplicar los
nuevos modelos de inteligencia artificial.

8
Primer atropello mortal de un coche sin conductor

9
10

Você também pode gostar