Você está na página 1de 4

Entendiendo los 4 Tipos of I.A.

11/18/2016 por Arend Hintze, Michigan State University, The Conversation

La opinión común y recurrente, de los últimos avances en investigación de inteligencia artificial,


es que las máquinas inteligentes están apenas en el horizonte. Máquinas que entienden
comandos verbales, distinguen imágenes, conducen coches y jueguen mejor de lo que hacemos.
¿Cuánto más puede ser antes de que caminen entre nosotros?

El nuevo informe de Casa Blanca sobre la inteligencia artificial toma una vista apropiadamente
escéptica de ese sueño. Dice que los próximos 20 años probablemente no veamos máquinas
que “exhiben inteligencia aplicable ampliamente comparable o superior a la de los seres
humanos," aunque también dice que, en los próximos años, "las máquinas alcanzarán y
superarán el rendimiento humano en tareas cada vez más." Pero son hipótesis acerca de cómo
esas capacidades se desarrollan en algunos puntos importantes.

Como un investigador de AI debo admitir que era bueno tener mi propio campo que destaque
al más alto nivel del gobierno americano, pero el informe se centra casi exclusivamente en lo
que yo llamo "la aburrida clase de AI". Se despidió en medio de una frase de mi rama de la
investigación del AI, sobre cómo la evolución puede ayudar a desarrollar sistemas de AI siempre
para mejorar, y modelos computacionales que nos puede ayudar entender cómo es la evolución
de nuestra inteligencia humana.

El informe se centra en lo que podría llamarse herramientas AI simples: aprendizaje y


aprendizaje profundo de la máquina. ¡Estos son los tipos de tecnologías que han sido capaces
de jugar bien “Jeopardy!”, y “Beat human Go masters”, el juego más complicado jamás
inventado. Estos sistemas inteligentes actuales son capaces de manejar grandes cantidades de
datos y realizar cálculos complejos rápidamente. Pero les falta un elemento que será clave para
la construcción de las máquinas inteligentes que nos imaginamos tener en el futuro.

Tenemos que enseñar más a las máquinas del aprender. Hemos de superar los límites que
definen los cuatro diferentes tipos de inteligencia artificial, las barreras que separan a las
máquinas de nosotros y nosotros de ellas.
Tipo I AI: Máquinas Reactivas
Los tipos más básicos de sistemas de IA son puramente reactivos y no tienen la capacidad de
formar memoria, ni usar las experiencias pasadas para informar las decisiones actuales. Deep
Blue, el superordenador ajedrecista de IBM, que derrotó al gran maestro internacional Garry
Kasparov en la década de 1990, es el ejemplo perfecto de este tipo de máquina.

Deep Blue puede identificar las piezas en un tablero de ajedrez y saber cómo cada uno se mueve.
Puede hacer predicciones sobre lo que se mueve y que puede ser luego para él y su oponente.
Y puede elegir los movimientos más óptimos entre las posibilidades.

Pero no tiene ningún concepto del pasado, ni ningún recuerdo de lo que ha sucedido antes.
Aparte de reglas de ajedrez específicos raramente usada repitiendo el mismo movimiento tres
veces, Deep Blue hace caso omiso de todo antes del momento presente. Lo único que hace es
mirar las piezas en el tablero de ajedrez tal y como está ahora y elegir entre posibles próximos
movimientos.

Este tipo de inteligencia implica el ordenador percibir directamente el mundo y actuar sobre lo
que ve. No dependen de un concepto interno del mundo. En un papel similar, el investigador AI
Rodney Brooks argumentó que sólo deberíamos construir máquinas como esta. Su principal
razón fue que las personas no son muy buenas en programación exacta y mundos simulados
para los equipos a utilizar, lo que se llama en estudios básicos de AI una "representación" del
mundo.

Las máquinas inteligentes actuales en que nos maravillamos no tienen ningún concepto del
mundo, o tienen uno muy limitado y especializado para sus funciones particulares. La innovación
en el diseño de Deep Blue no fue ampliar la gama de posibles películas del equipo considerado.
Los desarrolladores encontraron una manera de limitar su visión, para dejar de perseguir un
futuro potencial de movimientos, basada en cómo clasifica su resultado. Sin esta capacidad,
Deep Blue tendría que ser un equipo aún más poderoso para vencer realmente a Kasparov.

Asimismo, AlphaGo de Google, que ha vencido a expertos humanos, no puede evaluar todos los
movimientos futuros potenciales tampoco. Su método de análisis es más sofisticado que Deep
Blue, con una red neuronal para evaluar la evolución del juego.

Estos métodos mejoran la capacidad de los sistemas de AI para jugar mejores juegos específicos,
pero no puede ser fácilmente modificados o aplicados a otras situaciones. Estas imaginaciones
computarizadas no tienen ningún concepto del resto del mundo – lo que significa que no pueden
funcionar más allá de las tareas específicas que le están asignados, y son fácilmente engañados.

Ellos no pueden participar interactivamente en el mundo, de la forma que podemos imaginar


sistemas de AI un día. En cambio, estas máquinas se comportarán exactamente de la misma
manera cada vez que encuentran la misma situación. Esto puede ser muy bueno para garantizar
que un sistema de AI es confiable: desea que su coche autónomo pueda ser un conductor
confiable. Pero es malo si queremos máquinas que realmente se comprometan, y respondan al
mundo. Estos sistemas más simples del AI no son aburridos, o interesados o tristes.
Tipo II AI: Memoria Limitada
Este tipo II clase contiene máquinas que puede mirar en el pasado. Los coches auto-guiados ya
hacen algo de esto. Por ejemplo, observan de otros coches la velocidad y dirección. No se puede
hacer en un solo momento, pero más bien requiere identificar objetos específicos y hacer
seguimiento en el tiempo.

Estas observaciones se suman a pre programadas representaciones de los coches auto-guiados,


que también incluyen marcas de carriles, semáforos y otros elementos importantes, como
curvas en el camino. Son incluidos cuando el coche decide cuando cambiar de carril, para evitar
el corte de otro conductor o ser atropellado por un coche cercano.

Pero estas piezas simples de información sobre el pasado son sólo transitorias. No están
guardados como parte de una biblioteca de experiencias que pueden aprender de las formas
humanas como controladores de compilación con años de experiencia detrás del volante.

Entonces, ¿cómo podemos construir sistemas de AI que contengan representaciones completas,


recuerden sus experiencias, y aprenden a manejar nuevas situaciones? Brooks tenía razón en
que es muy difícil hacerlo. Mi propia investigación en métodos inspirados en la evolución
darwiniana puede empezar a compensar las deficiencias humanas dejando que las máquinas a
construir sus propias representaciones.

Tipo III AI: Teoría de la mente


Podríamos parar aquí y llamar a este punto la brecha importante entre las máquinas que
tenemos y las máquinas que se construirán en el futuro. Sin embargo, es mejor ser más
específico para discutir los tipos de representaciones que se necesitan formar las máquinas y lo
que necesitan para ser.

Las máquinas en la clase siguiente, más avanzadas, no sólo formarán representaciones sobre el
mundo, sino también de otros agentes o entidades en el mundo. En psicología, esto es llamado
"teoría de la mente" – el entendimiento de que personas, criaturas y objetos en el mundo
pueden tener pensamientos y emociones que afectan su comportamiento.

Esto es crucial para cómo los seres humanos formamos grupos, porque nos permitieron tener
interacciones sociales. Sin comprender los motivos e intenciones y sin tomar en cuenta lo que
alguien sabe tanto acerca de mí o el medio ambiente, trabajar juntos es difícil en el mejor, en el
peor de los casos imposible.

Si los sistemas de IA en verdad van a caminar entre nosotros, tendrán que ser capaces de
entender que cada uno de nosotros tiene pensamientos y sentimientos y las expectativas de
cómo lo tratamos. Y tendrá que ajustar su conducta en consecuencia.
Tipo IV AI: La auto-conciencia
El paso final del desarrollo de la IA es construir sistemas que pueden formarse representaciones
sobre sí mismos. En definitiva, que AI los investigadores tendrán que entender no sólo el sentido,
sino construir máquinas que los tengan.

Esto es, en cierto sentido, una extensión de la "teoría de la mente" poseído por inteligencias
artificiales de tipo III. La Conciencia es también llamado "auto-conocimiento" por una razón.
("Quiero ese tema" es una declaración muy diferente de "Sé que quiero ese tema".) Seres
conscientes son conscientes de sí mismos, saben acerca de sus estados internos, y son capaces
de predecir los sentimientos de los demás. Suponemos que alguien tocando la bocina detrás de
nosotros en tráfico está enfadado o impaciente, porque así es como nos sentimos cuando nos
toca a nosotros. Sin una teoría de la mente, no podríamos hacer esas clases de inferencias.

Aunque probablemente estamos lejos de crear máquinas que son autoconscientes, debemos
centrar nuestros esfuerzos hacia la comprensión de la memoria, el aprendizaje y la posibilidad
de basar las decisiones en experiencias pasadas. Este es un paso importante para comprender
la inteligencia humana por sí sola. Y es crucial si queremos diseñar o desarrollar máquinas que
son más excepcionales a clasificar lo que ven frente a ellos.

Você também pode gostar