Escolar Documentos
Profissional Documentos
Cultura Documentos
El Utilitarismo Como Ética Configurable en La Inteligencia Artificial
El Utilitarismo Como Ética Configurable en La Inteligencia Artificial
net/publication/349064128
CITATION READS
1 679
1 author:
Nicolás Salvi
National University of Tucuman
11 PUBLICATIONS 8 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
Filosofía desde la ciencia VII: Nuevos cruces entre ética y ciencia View project
All content following this page was uploaded by Nicolás Salvi on 05 February 2021.
CATALOGAÇÃO NA FONTE
S471a Seminário sobre Inteligência Artificial, Proteção de Dados e
Cidadania (1. : 2020 : Santo Ângelo, RS)
Proteção de Dados e Cidadania [recurso eletrônico] /
organização: Universidade Regional Integrada do Alto Uruguai
e das Missões - URI - Santo Ângelo : EdiURI, 2020.
254 p.
ISBN 978-65-87121-05-5
1. Proteção de dados - Anais. 2. Inteligência artificial.
3. Cidadania. I. Universidade Regional Integrada do Alto
Uruguai
e das Missões - URI Santo Ângelo (org.) II. Título
CDU: 34:004.8(063)
Publicação
EdiURI – Editora da URI – Campus de Santo Ângelo – RS
Rua Universidade das Missões, 464 – CEP 98.802-470
Santo Ângelo – RS – Brasil – Fone: (55)3313-7900
– 2020 –
Universidade Regional Integrada do Alto Uruguai e das Missões (URI)
Campus de Santo Ângelo
Departamento de Ciências Sociais Aplicadas
Programa de Pós-Graduação Stricto Sensu em Direito – Mestrado e Doutorado
Coordenação Acadêmica
João Martins Bertaso
APRESENTAÇÃO����������������������������������������������������������������������������������������������������������������� 8
Nicolás Salvi1
Resumen: Este trabajo busca mostrar las dificultades de configurar una perspectiva ética en la Inteligencia
Artificial (IA). Se plantea evaluar las ventajas y desventajas de la implementación del Utilitarismo del
acto como una ética configurable en los sistemas inteligentes. A través de ejemplos como los vehículos
autónomos, autómatas militares y justicia algorítmica, se observarán las tareas que se plantean al Derecho
si se opta por esta solución.
Palabras clave: Ética configurable, Ética Normativa, Utilitarismo
Abstract: This work seeks to show the difficulties of configuring an ethical perspective in Artificial
Intelligence (AI). It is proposed to evaluate the advantages and disadvantages of the implementation of
Act Utilitarianism as a configurable ethic in intelligent systems. Through examples such as autonomous
vehicles, military automatons and algorithmic justice, the tasks that are posed to the Law will be observed
if this solution is chosen.
Keywords: Configurable Ethics, Normative Ethics, Utilitarianism
Resumo: Este trabalho procura mostrar as dificuldades de se configurar uma perspectiva ética na
Inteligência Artificial (IA). E proposto avaliar as vantagens e desvantagens da implementação do
Utilitarismo do acto como uma ética configurável em sistemas inteligentes. Por meio de exemplos como
veículos autônomos, autômatos militares e justiça algorítmica, veremos as tarefas que o Direito enfrentará
se essa solução for escolhida.
Palavras-chave: Ética Configurável, Ética Normativa, Utilitarismo
1 Introducción
La IA2 está cada día más presente en el debate público. Indefectiblemente, ante los
avances continuos en esta tecnología, las maquinas necesitan conseguir mayor autonomía para
poder prescindir del factor humano a la hora de realizar las tareas para las que fueron creadas.
Distingamos antes de avanzar a la IA como ciencia de la IA como ingeniera de
conocimiento. José Mira Mira enseña que la IA entendida como ciencia se circunscribe a la
faz analítica de un conjunto de hechos asociados a la neurología y a la cognición, que busca
como resultado una teoría computable del conocimiento humano; entretanto, concebida como
ingeniería esta es una rama aplicada, que debe usar lo estudiado en la rama analítica para crear los
modelos formales de los procesos cognitivos y programar los sistemas y maquinas que utilizaran
esta tecnología3. En este artículo nos es relevante la IA como ingeniería, ya que nos preguntamos
1 Facultad de Derecho y Ciencias Sociales, Universidad Nacional de Tucumán, Argentina. Abogado, LLM in Diritto Privato
Europeo, Maestrando en Filosofía. Email: nicolas.salvi@derecho.unt.edu.ar
2 Entenderemos a la IA como como la capacidad de las máquinas para tomar decisiones, tal como lo haría un humano, pero
mediante la utilización de algoritmos y la aprensión de datos.
3 MIRA MIRA, José. Aspectos conceptuales de la Inteligencia Artificial y la Ingeniería del Conocimiento. En PALMA
MENDEZ, José Tomás y MARÍN MORALES, Roque. (Coord.), Inteligencia Artificial: Métodos, técnicas y aplicaciones.
Madrid: McGraw-Hill, 2008, pp. 7-8.
90
Anais do I Seminário sobre Inteligência Artificial, Proteção de Dados e Cidadania
Vale recordar antes de avanzar, las características generales del Utilitarismo. Esta corriente
(en su formulación original, la de Bentham) asevera que la moralidad de las acciones se define en
tanto otorguen la mayor utilidad. La utilidad estará sustanciada con la realización de conductas
que tiendan beneficio, ventaja, placer, bondad o felicidad y eviten el dolor, la maldad o infelicidad
para el interés de la comunidad8. Esto es conocido como el “Principio de Utilidad”. En palabras
del propio filosofo británico:
“By the principle of utility is meant that principle which approves or
disapproves of every action whatsoever. according to the tendency it
appears to have to augment or diminish the happiness of the party
whose interest is in question: or, what is the same thing in other words
to promote or to oppose that happiness. I say of every action whatsoever,
and therefore not only of every action of a private individual, but of
every measure of government”9.
Aún más simple es la formulación que da el ahijado de Bentham, John Stuart Mill, quien
lo denomina “Principio de la Mayor Felicidad”: “… the Greatest Hapiness Principle, holds that
actions are right in proportion as they tend to promote happiness, wrong as they tend to produce
the reverse of happiness”10. Por felicidad (utilidad), Mill entiende al placer y ausencia de dolor;
y la infelicidad es el dolor y privación de placer11.
Se puede en base a esto, de manera rudimentaria, realizar un “calculo ético”. Lo “bueno”
o “malo” se decidirá entonces según sus consecuencias. Para esto, se tiene como factores conseguir
placer y evitar el dolor para la mayoría.
Existen diferentes propuestas en las que se ha ido presentando esta escuela a lo largo
del tiempo. Entre ellas están el Utilitarismo del acto, el de la regla, el cooperativo, el negativo o
la generalización utilitarista12. Sin embargo, nosotros nos centraremos en la vertiente clásica y
original, es decir, el Utilitarismo del acto.
Vale la pena diferenciar al Utilitarismo del acto del de la regla (que suele ser la dicotomía
clásica de estudio). Los utilitaristas del acto realizan el cálculo de utilidad sobre las consecuencias
derivadas de cada acto individual. Por otro lado, los utilitaristas de la regla aplican el cálculo
según las consecuencias de las normas morales que se optan por seguir13.
Decidimos distanciarnos del Utilitarismo de la regla dado a que el mismo suele ser
criticado por su acercamiento a las vertientes deónticas. Del mismo modo, la determinación de
estas reglas nos alejaría de nuestro objetivo, es decir, crear una ética configurable para el actuar
cotidiano de la IA. Esto no quita que podría realizarse un análisis en el que se demuestre que
este enfoque puede conseguir otras ventajas en este ámbito. No obstante, vemos que este tipo
de propuestas generan una complejidad difícil de sortear dadas ciertas circunstancias sistémicas
que expondremos en el apartado 4. Por estas razones circunscribimos el estudio al Utilitarismo
del acto14.
Conjuntamente, vemos importante justificar el porqué de la selección del Utilitarismo
frente a las demás propuestas consecuencialista. Las otras dos posiciones más desarrolladas que
8 Vale aclarar, el interés de la comunidad será dado por la suma de intereses individuales.
9 BENTHAM, Jeremy. An introduction to the principles of morals and legislation. Kitchener: Batoche Books, 2000 [1748],
p. 14.
10 MILL, John Stuart. On Liberty, Utilitarianism and Other Essays. Oxford: Oxford University Press, 2015, p.121.
11 MILL, John Stuart. On Liberty, Utilitarianism and Other Essays. Oxford: Oxford University Press, 2015, p.121.
12 FARREL, Martín Diego. Utilitarismo, liberalismo y democracia. México: Fontamara, 1997, p.41
13 FIESER, James. Moral philosophy through the ages. Mountain View: Mayfield Publishing Company, 2000, p. 196
14 A partir de aquí, cuando nos refiramos al Utilitarismo a secas, lo haremos haciendo referencia al Utilitarismo del acto.
92
Anais do I Seminário sobre Inteligência Artificial, Proteção de Dados e Cidadania
imaginando un vehículo autónomo que transporta una persona y que se encuentra con la
dificultad de que un peatón cruza una calle en infracción con el semáforo en verde. El vehículo
deberá decidir si envestir a esa persona (con posibilidad de matarla), desviarse y poner en peligro
a otros automóviles o personas, o en última instancia, autodestruirse ocasionando la muerte
segura del pasajero.
Este ejemplo nos abre el paso a dos cuestiones centrales. Por un lado, que se debe pensar
en una regulación que defina la responsabilidad en estos casos. Esto no es lo central en nuestro
análisis, ya que merece un análisis más profundo de cruce entre derecho de daños, seguros y
penal. Por otro lado, y de especial atención para nosotros, es que es menester elegir un patrón
ético a seguir para el actuar del mismo. El vehículo deberá calcular si lo más importante es la
autopreservación de sus tripulantes, obedecer las normas de tránsito o intentar realizar el menor
daño posible a las vidas en juego.
Está situación aparta al ser humano de la decisión final pero no lo libera. La cuestión
es que, al no existir un conductor, no es esta persona la que decide. Pero si lo hizo antes el
programador cuando configuró el automóvil. Filipe Medon lo explica magistralmente:
“O drama da situação dos carros autônomos é que as orientações
para as decisões tendem a já vir programadas de fábrica, isto é, o
carro se determinará segundo o que seu programador estabeleceu,
diferentemente do que aconteceria se fosse um ser humano a tomar
tal decisão naquele momento, pois, no caso do algoritmo, a decisão
já é premeditada, enquanto que o humano teria a chance de ter seu
comportamento escrutinizado dentro de um contexto de intenso
stress emocional. Os carros sairiam de fábrica, a princípio, com pesos
predeterminados para cada situação na balança de quem será salvo em
primeiro lugar”19.
Retornando a nuestra propuesta, si se opta por una configuración Utilitarista, estos
automóviles podrían salvar la mayor cantidad de vidas si se encuentran en una situación donde
el sacrificio de al menos un humano sea inevitable. De igual forma esto puede irse refinando,
otorgando distintos valores de utilidad dependiendo de lo que la sociedad a través del derecho
decida. V.g. el valor asignado a un niño puede ser mayor al de un adulto, o el propio tripulante
podría tener preminencia a través del número que se le otorga en el cálculo. Vale aclarar,
tomando este camino nos apartaríamos del Utilitarismo clásico en el que cada vida tiene el
mismo peso, aunque podría ser una variable interesante para sumar al enfoque consecuencialista
de la configuración.
De esta forma, a través de las normativas que se legislen, se pueden asignar puntos de
placer y dolor, que la IA evaluará, consiguiendo que su actuación sea siempre la misma en
iguales condiciones. Las consecuencias del evento marcarán el camino de actuación en aras de
maximizar la utilidad. Complejizando la configuración, se podrían llegar a puntos casi óptimos
en tanto no se presenten errores de software, hardware o casos fortuitos.
Esto es aplicable también en las polémicas IA militares. Sabemos que el debate es
escabroso, siendo que este tipo de autómatas violan las leyes de la robótica, y pueden ser armas
que desaten una destrucción nunca antes vista en la historia. Sin embargo, los Convenios de
Ginebra20 no gozan de un respeto integral por los líderes militares, y el factor humano suele
19 MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. Salvador: Editora
JusPodivm, 2020, p. 171.
20 Conjunto de cuatro convenios que regulan el derecho internacional humanitario en conflictos armados.
94
Anais do I Seminário sobre Inteligência Artificial, Proteção de Dados e Cidadania
complicar el cumplimiento de las llamadas “reglas de la guerra”. Una IA bien configurada podría
evitar con menor rango de error el respeto de estas, al poder diferenciar efectivos militares de
civiles, no atacar soldados heridos, no bombardear edificios protegidos, etc.
Yendo a un caso particular Thibault de Swarte, Omar Boufous y Paul Escalle destacan
como un vehículo aéreo no tripulado puede tener mayor respeto por la Ética y los valores
humanos, ya que este sufre menos estrés que un piloto humano en muchas operaciones de
guerra21.
Nos parece importante destacar que en ambos ámbitos que hemos marcado, es trabajo
del Derecho el determinar la regulación de los patrones éticos a configurar. Dejar en mano de
empresas o corporaciones los actuares éticos de estos nuevos agentes morales, podría llevar a un
descontrol legal que además de peligroso, no cumpliría al cien por ciento las aspiraciones de
previsibilidad de la sociedad para con la IA.
21 DE SWARTE, Thibault; BOUFOUS, Omar; ESCALLE, Paul. Artificial intelligence, ethics and human values: the cases
of military drones and companion robots. Artificial Life and Robotics, 2019, vol. 24, no 3, p. 291-296.
22 VON WRIGHT, Georg Henrik. Valorar (o cómo hablar de lo que se debe callar). Nuevas bases para el emotivismo (trad.
de Carlos Alarcón Cabrera). Anuario de filosofía del derecho, 2001, no 18, p. 385-398, p.385.
23 ZAVADIVKER, Nicolás. La ética y los límites de la argumentación moral: el desafío del emotivismo. San Miguel de Tucumán:
Facultad de Filosofía y Letras UNT, 2011, p. 18.
95
Anais do I Seminário sobre Inteligência Artificial, Proteção de Dados e Cidadania
El mismo autor nos marca cómo a partir de esta corriente se comienzan a consagrar en las leyes
positivas, pero de manera vaga y dependiente de interpretaciones valorativas24.
Los principios y los derechos humanos se presuponen universales, pero en los hechos no
existen definiciones univocas de los mismos. La propia idea de “justicia” es la discusión central
de la axiología jurídica, y sabemos que se cuenta casi con tantas Teorías de la Justicia como
pensadores que las esbozan.
Al tener un panorama de este tipo, vemos que es difícil -sino imposible-, configurar
este tipo de conceptos deónticos en una máquina. Al no existir acuerdos, y al haber problemas
metodológicos para poder definir y ponderar a los principios y valores, sería una tarea destinada
al fracaso el poder crear una maquina con al menos cierto criterio de previsibilidad25.
Aceptando una visión principialista, se puede presentar frente a un juez lo que el jurista
español Manuel Atienza llama “Casos Trágicos”, es decir “aquellos que no tienen ninguna
respuesta correcta y que, por lo tanto, plantean a los jueces no el problema de cómo decidir ante
una serie de alternativas (o sea, cómo ejercer su discreción), sino qué camino tomar frente a un
dilema”26. Si estas situaciones trágicas son aceptadas por la praxis jurídica, y no se pretende una
solución sistemática, una IA no podrá tomar el lugar de un ser humano, o al menos no sería
beneficioso que lo haga.
La IA parece quedar relegada a labores procesales simples como los del sistema Prometea27
en Argentina. También como herramientas para la ayuda de decisión de los magistrados humanos,
como el sistema COMPAS28 (Correctional Offender Management Profiling for Alternative
Sanctions) de los Estados Unidos. O en última instancia, para juicios “menores” como el caso de
Estonia, país que planea la posibilidad de dejar en manos de una IA las sentencias de juicios con
una cuantía menor a los 7000 euros29.
Por lo tanto, para pensar en una administración de justicia que pueda contar con un papel
central de la IA (que además tome al Utilitarismo como su patrón ético a configurar), se debe
cambiar la técnica legislativa y los procesos judiciales. Esto es, estandarizando redacciones para
simplificar los procesos de formalización (que podrían encaminarse según nuestra propuesta, a un
estándar consecuencialista). Pero aún queda mucho trabajo en áreas como la Lógica Deóntica30
para poder llegar a tales grados de sofisticación.
El peligro real de la implementación del Utilitarismo en este ámbito está en que no
es extraño pensar en el sesgo que si puede existir en el algoritmo. De esta manera, lo que se
5 Conclusión
Concluimos que, aunque aún queda mucho para definir los pasos a seguir sobre la
configuración ética de la IA, el Utilitarismo del acto presenta grandes ventajas frente a las teorías
deontológicas y de la virtud de la Ética, sobre todo en autómatas con funciones que requieren
decisiones en las que el cálculo enfocado en las consecuencias puede dar un resultado que
produzca satisfacción para la mayoría de la sociedad.
En cambio, exhibe muchos baches en situaciones que demandan la ponderación de
principios ético-políticos considerados universales. Esto como vimos, está condicionado por
el Principialismo imperante en los sistemas jurídicos actuales, dando poco espacio a un criterio
consecuencialista para ser operativizado.
Fuera de la condición anterior, el peligro real se haya en la decisión primera para otorgar
los valores de placer y dolor para la realización del cálculo. Creemos por esto que es menester que,
a través de la legislación, se limite y esquematice la creación de los algoritmos a implementar,
pregonando un criterio democrático a la selección de esta decisión valorativa.
Referências
ASIMOV, Isaac. Cuentos Completos, Vol. II. Madrid: Ediciones B, 2002.
ATIENZA, Manuel. Los límites de la interpretación constitucional. De nuevo sobre los casos
trágicos. Biblioteca Virtual Miguel de Cervantes. URL: http://www.cervantesvirtual.com/obra/
los-lmites-de-la-interpretacin-constitucional-de-nuevo-sobre-los-casos-trgicos-0/. Publicación
original: 1997. Acceso em: 15/11/2020.
31 MIRÓ LLINARES, Fernando. “Inteligencia artificial y justicia penal: más allá de los resultados lesivos causados por robots”,
Revista de Derecho Penal y Criminología, 2018, no 20, p. 87-130, p. 121.
97
Anais do I Seminário sobre Inteligência Artificial, Proteção de Dados e Cidadania
CANCIO FERNANDEZ, Raúl. ¿Sueñan los jueces con sentencias electrónicas?, Análisis
Jurídico-Político, 2020, vol. 2, no 3, p. 145-168
FIESER, James. Moral philosophy through the ages. Mountain View: Mayfield Publishing
Company, 2000.
FOOT, Philippa. Virtues and Vices and Other Essays in Moral Philosophy. Oxford: Claredon
Press, 2002.
GOGOLL, Jan; MÜLLER, Julian F. Autonomous cars: in favor of a mandatory ethics setting.
Science and engineering ethics, 2017, vol. 23, no 3, p. 681-700.
MILL, John Stuart. On Liberty, Utilitarianism and Other Essays. Oxford: Oxford University
Press, 2015.
MIRÓ LLINARES, Fernando. Inteligencia artificial y justicia penal: más allá de los resultados
lesivos causados por robots, Revista de Derecho Penal y Criminología, 2018, no 20, p. 87-130
VELÁZQUEZ, Hugo Francisco. El Sistema Clásico de Lógica Deóntica: una mirada crítica.
98
Anais do I Seminário sobre Inteligência Artificial, Proteção de Dados e Cidadania
VON WRIGHT, Georg Henrik. Valorar (o cómo hablar de lo que se debe callar). Nuevas
bases para el emotivismo (trad. de Carlos Alarcón Cabrera). Anuario de filosofía del derecho,
2001, no 18, p. 385-398.