Você está na página 1de 8

UNIVERSIDAD POLITÉCNICA SALESIANA

Ingeniería Electrónica
Deontología
Nombre: Bryan Yépez
Grupo:#2
Fecha: 2019-10-29

Profesor: Manolo Acosta

Tema: Deontología en el desarrollo de Inteligencia Artificial

Marco Teórico
Introducción

Un profundo cambio está llegando y afectará a toda la sociedad y las personas que tengan
algún tipo de responsabilidad en esta transición tienen tanto un gran deber como la
oportunidad de darle la mejor forma posible. La inteligencia artificial(I.A) es una de las
ramas de la Informática, con fuertes raíces en otras áreas como la lógica y las ciencias
cognitivas ,existen muchas definiciones de lo que es la inteligencia artificial. Sin
embargo, todas ellas coinciden en que se trata la combinación de algoritmos planteados
con el propósito de crear máquinas que presenten las mismas capacidades que el ser
humano. Paulatinamente nuestro diario vivir se ve influenciado por decisiones producto
de la inteligencia artificial desde cosas tan simples como las sugerencias de busqueda en
nuestro navegador de internet como en tareas tan complejas como el pilotaje de un avión
donde cientos de vidas humanas dependen del correcto desarrollo y funcionamento de la
IA desarollada.

Tipos de Inteligencia Artificial

Existen varios tipos de inteligencia artificial (Russel , 2017) :

 Sistemas que piensan como humanos: automatizan actividades como la toma de


decisiones, la resolución de problemas y el aprendizaje. Un ejemplo son las redes
neuronales artificiales.
 Sistemas que actúan como humanos: se trata de computadoras que realizan tareas
de forma similar a como lo hacen las personas. Es el caso de los robots.

 Sistemas que piensan racionalmente: intentan emular el pensamiento lógico


racional de los humanos, es decir, se investiga cómo lograr que las máquinas
puedan percibir, razonar y actuar en consecuencia. Los sistemas expertos se
engloban en este grupo.

 Sistemas que actúan racionalmente: idealmente, son aquellos que tratan de imitar
de manera racional el comportamiento humano, como los agentes inteligentes.

Principales aplicaciones de la Inteligencia Artificial


Los procesos de la AI se aplican en los sistemas reales en una gran variedad de ramas y
problemas(Gevarter ,1987):
• Gestión y control: análisis inteligente, fijación de objetivos.
• Fabricación: diseño, planificación, programación, monitorización, control, gestión de
proyectos, robótica simplificada y visión computarizada.
• Educación: adiestramiento práctico, exámenes y diagnóstico.
• Ingeniería: diseño, control y análisis.
•Equipamiento: diseño, diagnóstico, adiestramiento, mantenimiento, configuración,
monitorización y ventas.
• Cartografía: interpretación de fotograf ías, diseño, resolución de problemas
cartográficos.
• Profesiones: abogacía, medicina, contabilidad, geología, química.
• Software: enseñanza, especificación, diseño, verificación, mantenimiento.
• Sistemas de armamento: guerra electrónica, identificación de objetivos, control
adaptativo, proceso de imágenes, proceso de señales.
• Proceso de datos: educación, interfase en lenguaje natural, acceso inteligente a datos y
gestores de bases de datos, análisis inteligente de datos.
• Finanzas: planificación, análisis, consultoría.

Pero también la AI tiene numerosas aplicaciones comerciales en el mundo de hoy


(Negrete,1992).
• Configuración: selección de distribución de los componentes de un sistema de
computación.
• Diagnosis: hardware informático, redes de ordenadores, equipos mecánicos,
problemas médicos, averías telefónicas, instrumentación electrónica, circuitos
electrónicos, averías automovilísticas.
• Interpretación y análisis: datos geológicos para prospección petrolífera, compuestos
químicos, análisis de señales, problemas matemáticos complejos, evaluación de
amenazas militares, análisis de circuitos electrónicos, datos biológicos (coronarios,
cerebrales y respiratorios), información de radar, sonar e infrarrojos.
• Monitorización: equipos, monitorización de procesos, fabricación y gestión de
procesos científicos, amenazas militares, funciones vitales de pacientes hospitalizados,

datos financieros en tiras de papel perforado por teleimpresora, informes industriales y


gubernamentales.
• Planificación: gestión de activo y pasivo, gestión de cartera, análisis de créditos y
préstamos, contratos, programación de trabajos de taller, gestión de proyectos,
planificación de experimentos, producción de tarjetas de circuito impreso.
• Interfaces inteligentes: hardware (fiscal) de instrumentación, programas de
computadora, bases de datos múltiples, paneles de control.
• Sistemas de lenguaje natural: interfaces con bases de datos en lenguaje natural, gestión
de impuestos (ayudas para contabilidad), consultoría en temas legales, planificación de
fincas, consultoría de sistemas bancarios.
• Sistemas de diseño: integración de microcircuitos en muy alta escala, síntesis de
circuitos electrónicos, plantas químicas, edificios, puentes y presas, sistemas de
transporte.
• Sistemas de visión computarizada: selección de piezas y componentes, ensamblado,
control de calidad.
• Desarrollo de software: programación automática.

Deontología en el desarrollo de I.A. según el Parlamento Europeo

El modo de reflexionar y plantear los marcos deontológicos ofrece los


siguientes parámetros e ideas comunes, que pueden servir de base compartida para
intentar conceptualizar y regular, en su momento, las prácticas y consecuencias de la IA
según el Parlamento Europeo (Palmer,2016).
 La IA debe realizarse por el bien de la humanidad y beneficiar al mayor número.
Es necesario reducir el riesgo de exclusión.

 Los estándares con respecto a la IA deben ser altísimos en lo que respecta a la


seguridad de los humanos: Para ello, es necesario un control ético y finalista de
investigación, transparencia y cooperación en el desarrollo de la Inteligencia
Artificial.

 Los investigadores y diseñadores tienen una responsabilidad crucial: toda la


investigación y desarrollo de la IA debe estar caracterizada por la transparencia,
la reversibilidad y trazabilidad de los procesos.

 Necesidad de control humano: Que en todo momento sean los humanos los que
decidan qué pueden hacer o no los sistemas robóticos o basados en IA.

 Gestionar el riesgo: Cuanto más grave sea el riesgo potencial, más estrictos
deberán ser los sistemas de control y gestión del riesgo.

 No desarrollo de la IA para realizar armas de destrucción.

 Incertidumbre: Se reconoce que los avances en estos campos son inciertos, en


ámbitos y alcances que en ciertos casos son inimaginables. Por ello, las
regulaciones y marcos deben repensarse en el medio plazo cuando otros avances
se hayan hecho realidad.

Deontología en el desarrollo de I.A. según Asilomar

En febrero de 1975 un grupo de genetistas se reunió en un pequeño pueblo de


California, Asilomar, para decidir si su trabajo podría destruir el mundo. Estábamos al
inicio de la ingeniería genética y la manipulación del ADN, y de esa reunión surgieron
una serie de principios y un estricto marco ético para la biotecnología. Cuatro décadas
después –organizado por el Future of Life Institute– otro grupo de científicos se reunió
en el mismo lugar y con el mismo problema. Pero esta vez se trataba de analizar las
posibles consecuencias de la Inteligencia Artificial. La idea de fondo fue clara y
compartida: un profundo cambio está llegando y afectará a toda la sociedad y las personas
que tengan algún tipo de responsabilidad en esta transición tienen tanto un gran deber
como la oportunidad de darle la mejor forma posible.

1. Proteger a los humanos del daño causado por robots: la dignidad humana.

2. Respetar el rechazo a ser cuidado por un robot.


3. Proteger la libertad humana frente a los robots.

4. Proteger la privacidad y el uso de datos: especialmente cuando avancen los


coches autónomos, los drones, los asistentes personales o los robots de
seguridad.

5. Protección de la humanidad ante el riesgo de manipulación por parte de los


robots: Especialmente en ciertos colectivos –ancianos, niños, dependientes- que
puedan generar una empatía artificial.

6. Evitar la disolución de los lazos sociales haciendo que los robots monopolicen,
en un cierto sentido, las relaciones de determinados grupos.

7. Igualdad de acceso al progreso en robótica: Al igual que la brecha digital, la


brecha robótica puede ser esencial.

8. Restricción del acceso a tecnologías de mejora regulando la idea del


transhumanismo y la búsqueda de mejoras físicas y/o mentales.

Posibles consecuencias de la falta de Deontología en el desarrollo de IA

La falta de aplicación de principios Deontológicos en el desarrollo de Inteligencia


Artificial puede conllevar ciertos riesgos que pueden hacer que esta sea peligrosa, y así
lo han afirmado numerosas personas influyentes como Stephen Hawking, y Elon Musk,
CEO de las compañías de Tesla y de SpaceX.(Revista TecBeat , 2018) . Algunas posibles
consecuncias pueden ser:

1. Armas autónomas: Las armas programadas para matar suponen un grave riesgo
en el futuro de la IA. Es posible que los armamentos nucleares se vean sustituidos
por armas autónomas. No solo son peligrosas por que puedan convertirse en
autónomas completamente y actuar sin supervisión, sino por las personas que
puedan tenerlas en sus manos.

2. Manipular a la sociedad: Las redes sociales pueden ser una gran fuente para
obtener información sobre cualquier persona, y además de utilizarse para el
marketing y brindar anuncios específicos para cada persona, pueden utilizarse de
muchas otras maneras. Con el escándalo de Cambridge Analytica en relación con
las elecciones presidenciales de EEUU y el brexit en Reino Unido, se pudo ver el
enorme poder que puede dar tener datos para manipular a las personas, con lo cual
la IA al ser capaz de identificar algoritmos y datos personales, puede ser
extremadamente peligrosa.

3. Invasión de la privacidad para oprimir socialmente: Es posible ‘seguir’ las pistas


de un usuario en la Red, y utilizar mucha información invadiendo su privacidad.
Por ejemplo, en China se utilizará información como el reconocimiento facial de
cámaras y la forma en la que se comportan, si fuman, o si ven muchos videojuegos
para el sistema de crédito social. Esta invasión de la privacidad puede convertirse
por tanto en opresión social.

4. Divergencia entre nuestros objetivos y los de la máquina de IA: Si nuestros


objetivos no coinciden con los de la máquina, las acciones que pedimos llevar a
cabo pueden terminar en un desastre. Por ejemplo, mandar una orden a la IA de
llevarnos a un lugar lo más rápido posible, pero sin especificar que tiene que
respetar las reglas de tránsito para no hacer peligrar las vidas humanas.

5. Discriminación: Como las máquinas de IA pueden recoger información,


analizarla y rastrarla, también pueden utilizar esta información en tu contra. Por
ejemplo, una compañía de seguros puede negarte el seguro debido a las veces que
las cámaras tienen imágenes de ti hablando por teléfono, o una persona que aspire
a un puesto de trabajo puede perder la oportunidad debido a su baja red social de
contactos en Internet.

Ejemplos de fallas en el desarrollo de Inteligencia Artificial

A continución se pueden obsevar ejemplos de como la falta de Deontología en el


desarrollo de Inteligencia Artificial ha afectado el compartamiento de algunos seres
artificiales

1)Tay es una inteligencia artificial que fue lanzado en 2016 con el fin de
interactuar en Twitter y aprender a comportarse como las personas normales lo
hacían en las redes sociales. Se supone que el proyecto debería tener la capacidad
de conversar con la gente de forma divertida e informal e igual que debería poder
aprender de las conversaciones que tenía.El problema se dio cuando Tay aprendió
demasiado y empezó a realizar comentarios racistas e incluso compartía
pensamientos que simpatizaban con Hitler y los nazis.El proyecto fue un total
fracaso y terminó siendo eliminado 16 horas después.
2) El Promobot IR77 era un robot ruso que estaba siendo diseñado con el fin de tener
interacciones cara a cara con humanos y aprender de los mismos.Al parecer aprendió
demasiado, ya que luego de que se estaba desarrollando el mismo en unas
instalaciones el mismo escapó y declaró su independencia viajando 45 metros
para escapar hasta quedarse sin batería.
BIBLIOGRAFÍA

-Russell, Stuart J.; Norvig, Peter (2010). Artificial Intelligence: A Modern


Approach (3rd edición). Upper Saddle River: Prentice Hall.

-Gevarter, M. (1987). Máquinas inteligentes. Madrid: Díaz de Santos, S.A.

-Negrete, J. (1992). De la filosofía a la inteligencia artificial. México: Grupo


Noriega Editores.

-Moor, J (2006). The Nature, Importance and Difficulty of Machine Ethics. IEEE
Intelligent Systems 21 (4): 18-21.

- Call for debate on killer robots, Por: Jason Palmer, Science and technology
reporter, BBC News, 8/3/09.

- IA vs Ética. Revista Tecbeat, Volumen 93 (1ra. Edicion ). Recuperado desde:


https://www.itmagaxine.com/2018/11/20/5-riesgos-de-la-inteligencia-artificial-
que-pueden-hacerla-peligrosa/

Você também pode gostar