Você está na página 1de 10

“AÑO DEL DIALOGO Y LA RECONCILIACION NACIONAL”

DOCENTE: ING.JUAN MANUEL JACINTO SANDOVAL.

ALUMNO: DOMINGUEZ GONZALES NICK ANDERSON.

CURSO: PROCESAMIENTO DIGITAL DE SEÑALES I.

TEMA: INTELIGENCIA ARTIFICIAL.


DEEP LEARNING, VISIÓN ARTIFICIAL.

FACULTAD: CIENCIAS.
INTELIGENCIA ARTIFICIAL
En la actualidad uno de los proyectos más ambiciosos de la informática es la inteligencia
artificial, por tal motivo es difícil definir exactamente qué es y los alcances que tiene. Es
de fundamental importancia conocer los orígenes de su nombre, es decir el significado de
la palabra inteligencia y así mismo el de la palabra artificial, mismos que según (Arauz,
1998) son:
 Inteligencia, es la potencia intelectiva, la facultad de conocer o de entender. El grado en
que un individuo puede resolver satisfactoriamente una nueva situación o un problema.
La inteligencia está basada en el nivel de conocimientos individuales y en la habilidad de
manipular y reformular apropiadamente los conocimientos en base a los datos que se
proporcionan como requerimientos para resolver algún problema o situación.
 Artificial, es lo hecho por mano y arte del hombre, falso, no natural. Por otro lado
(Zampayo, 2004) sugiere también que:
 Inteligencia, es la capacidad de comprender, evocar, movilizar e integrar
constructivamente lo que se ha aprendido y de utilizarlo para enfrentarse a nuevas
situaciones.
 Artificial, es aquel cuyo producto origen es no natural, sino que fue hecho por la mano
o arte del hombre. El nombre de Inteligencia Artificial como tal, surgió en la conferencia
de John McCarthy en 1956 en el Dartmouth College, New Hamspshire. En el foro, Marvin
Minsky, Claude Shannon y N. Rochester entre otros, discutieron acerca de cómo simular
la inteligencia humana a través de las máquinas. Ahora bien, según (Gutiérrez, 2006) la
inteligencia artificial es una de las áreas más fascinantes y con más retos de las ciencias
de la Computación ya que ha tomado a la inteligencia como la característica
universalmente aceptada para diferenciar a los humanos de otras criaturas ya sean vivas
o inanimadas, para construir programas o computadoras inteligentes. SGMA. Inteligencia
Artificial Capítulo 4 114 Por otro lado (Bourcier, 2003) dice que la inteligencia artificial
es una rama de la informática que intenta reproducir las funciones cognitivas humanas
como el razonamiento, la memoria, el juicio o la decisión y, después, confiar una parte de
esas facultades, que se consideramos signos de inteligencia, a los ordenadores.
Conservando el enfoque de los autores anteriores, se puede decir que la Inteligencia
Artificial es una disciplina eminentemente tecnológica que persigue la construcción de
máquinas y programas capaces de realizar complejas tareas con una habilidad y eficiencia
iguales o superiores a las que consigue el ser humano. En general se puede decir que la
inteligencia artificial es aquella disciplina que tiene como objetivo el estudio de la
conducta humana, mediante el análisis del comportamiento inteligente del ser humano,
mismo que se puede denominar análisis de los procesos cognoscitivos, debido a que estos
se enfocan en el estudio de los procesos internos que conducen al aprendizaje. Se puede
decir que en la actualidad la inteligencia artificial es una disciplina fundamental en la
ciencia y la tecnología, misma que tras el paso del tiempo ha creado una serie de
conocimientos básicos que le permiten emular diversas capacidades del ser humano para
exhibir comportamientos inteligentes. Debido a lo anterior se han desarrollado diversos
sistemas que tienen por objetivo perfeccionar las distintas capacidades del ser humano
con el fin de la reproducción de las mismas.
MACHINE LEARNING
Una vez que ya hemos acotado qué es Inteligencia Artificial, pasamos a la definición de
Machine Learning que está muy relacionada con los avances y nuevos usos de la IA
El Machine Learning en su forma más básica es la práctica de usar algoritmos para
analizar datos, aprender de ellos y luego hacer una determinación o predicción sobre algo
en el mundo. Por lo tanto, en lugar de rutinas de software de codificación manual con un
conjunto específico de instrucciones para realizar una tarea en particular, la máquina está
“entrenada” utilizando grandes cantidades de datos y algoritmos que le dan la capacidad
de aprender a realizar la tarea.
El Machine Learning vino directamente de las mentes de las primeras comunidades de
IA, y los enfoques algorítmicos a lo largo de los años incluyeron el aprendizaje del árbol
de decisiones, la programación de la lógica inductiva, agrupamiento, aprendizaje
reforzado y redes bayesianas, entre otros. Como sabemos, ninguno logró el objetivo final
de la IA general, e incluso la IA estrecha estuvo fuera de su alcance con los primeros
enfoques de Machine Learning.
Resultó que una de las mejores áreas de aplicación para el Machine Learning durante
muchos años fue la Visión Computacional (Computer Visión), aunque todavía requería
una gran cantidad de codificación manual para hacer el trabajo. La gente entraba y
escribía clasificadores codificados a mano como filtros de detección de bordes para que
el programa identificara dónde se inició y se detuvo un objeto; detectores de forma; un
clasificador para reconocer las letras “S-T-O-P”, etc. todos los clasificadores codificados
a mano, desarrollaron algoritmos para dar sentido a la imagen y “aprender” a determinar,
por ejemplo, si había una señal de alto en una foto.
Las predicciones del detector de señales de STOP eran buenas, pero no alucinantemente
precisas. Especialmente al haber un día con niebla o poca luz y el cartel no es
perfectamente visible.
Hay una razón por la que la Visión Computacional y la detección de imágenes no se
acercaban a compararse con los humanos hasta hace muy poco, era demasiado frágil y
demasiado propenso al error. El tiempo, los algoritmos de aprendizaje correctos y el Deep
Learning marcaron la diferencia.
DEEP LEARNING:
De la Inteligencia Artificial al Machine Learning y de ahí al Deep Learning o aprendizaje
profundo. Un nuevo paso en los procesos y la evolución de los sistemas de Inteligencia
Artificial que se acerca, cada vez más, al reto de conseguir sistemas informáticos que, de
forma autónoma y sin apenas intervención humana, sean capaces de imitar
comportamientos y razonamientos propios del ser humano.
Estamos hablando de un nuevo nivel en el desarrollo de los sistemas de Inteligencia
Artificial y Machine Learning y, por el momento, de lo más parecido al pensamiento
humano que podemos encontrar. De hecho, estas redes neuronales son capaces de generar
procesos que incluyen el pensamiento abstracto (lenguaje propio y razonado) o, incluso,
según algunos expertos, en un futuro no muy lejano, de la capacidad de crear.
Otro acercamiento algorítmico de los primeros especialistas en Machine Learning fueron
las Redes Neuronales Artificiales llegaron para quedarse a través de las décadas. Las
redes neuronales se inspiran en nuestra comprensión de la biología de nuestros cerebros,
todas esas interconexiones entre las neuronas. Pero, a diferencia de un cerebro biológico
donde cualquier neurona se puede conectar a cualquier otra neurona dentro de una cierta
distancia física, estas redes neuronales artificiales tienen capas discretas, conexiones y
direcciones de propagación de datos.
Se podría, por ejemplo, tomar una imagen, cortarla en un grupo que se ingresan en la
primera capa de la red neuronal. En la primera capa, las neuronas individuales pasan los
datos a una segunda capa. La segunda capa de neuronas hace su tarea, y así
sucesivamente, hasta que se produce la capa final y la producción final.
Cada neurona asigna una ponderación a su entrada: qué tan correcta o incorrecta es en
relación con la tarea que se realiza. El resultado final se determina luego por el total de
esas ponderaciones. En el ejemplo de reconocimiento de una señal de STOP. Los atributos
de una imagen de señal de STOP son cortados y “examinados” por las neuronas: su forma
octogonal, la tonalidad de su color rojo, sus letras distintivas, la altura, entre otros. La
tarea de la red neuronal es concluir si esto es una señal de STOP o no. Se trata de un
“vector de probabilidad”, realmente una suposición altamente educada, basada en la
ponderación. En nuestro ejemplo, el sistema puede tener un 86% de confianza de que la
imagen es una señal de alto, un 7% de confianza es un signo de límite de velocidad y un
5% es una cometa atrapada en un árbol, y así sucesivamente, y la arquitectura de red le
dice a la red neuronal si es correcto o no
Incluso este ejemplo se está adelantando a sí mismo, porque hasta hace poco las redes
neuronales eran casi rechazadas por la comunidad de investigación de IA. Habían existido
desde los primeros días de la IA, y habían producido muy poco en el camino de la
“inteligencia”. El problema era que incluso las redes neuronales más básicas eran muy
computacionalmente intensivas, simplemente no era un enfoque práctico. Aun así, un
pequeño grupo de investigación herético liderado por Geoffrey Hinton en la Universidad
de Toronto lo siguió, finalmente paralelizando los algoritmos para supercomputadoras
para ejecutar y probar el concepto, pero no fue hasta que las GPU fueron desplegadas
como un esfuerzo para hacer realidad el concepto.
Nuevamente en el ejemplo de señal de STOP, es muy probable que a medida que la red
esté siendo ajustada o “entrenada” surjan respuestas incorrectas. Lo que la neurona
necesita es entrenamiento. Necesita ver cientos de miles, incluso millones de imágenes,
hasta que la ponderación de las entradas de las neuronas se sintonice de manera tan precisa
que tenga la respuesta correcta prácticamente siempre, halla niebla o ausencia de niebla,
sol o lluvia. Es en ese punto que la red neuronal se ha enseñado a sí misma cómo se ve
una señal de STOP, o la cara de tus amigos en el caso de Facebook; o un gato, que es lo
que Andrew Ng hizo en 2012 en Google.
El avance de Ng fue tomar estas redes neuronales, y esencialmente hacerlas
enormes, aumentar las capas y las neuronas, y luego ejecutar grandes cantidades de datos
a través del sistema para entrenarlo. En el caso de Ng, se trataba de imágenes de 10
millones de videos de YouTube. Ng puso la palabra “deep” en el Deep Learning, que
describe todas las capas en estas redes neuronales.
Hoy en día, el reconocimiento de imágenes por máquinas entrenadas a través del Deep
Learning en algunos escenarios es mejor que el de los humanos, y eso va desde identificar
gatos hasta la identificación de indicadores de cáncer en sangre y tumores en las imágenes
por resonancia magnética. El AlphaGo de Google aprendió el juego y se entrenó para su
partido de Go, sintonizó su red neuronal jugando contra sí mismo una y otra y otra vez.

Gracias a Deep Learning, la Inteligencia Artificial tiene un futuro brillante


Deep Learning ha permitido muchas aplicaciones prácticas de Machine Learning y, por
extensión, el campo general de IA. El Deep Learning desglosa las tareas de manera que
hace que todo tipo de asistencia en máquinas parezca posible, incluso probable.
Los automóviles sin conductor, una mejor atención médica preventiva, incluso mejores
recomendaciones de películas, están todos aquí hoy o en el horizonte. La Inteligencia
Artificial es el presente y el futuro. Con la ayuda del Machine Learnin y Deep Learning,
puede llegar a ese estado de ciencia ficción que tanto tiempo hemos imaginado.
APLICACIONES DE DEEP LEARNING
En Las Compañías:
Estos algoritmos han sido utilizados para mejorar técnicas como el reconocimiento facial,
de voz y el procesamiento del lenguaje natural; funciones que se han considerado hasta
hace poco tiempo específicas de los humanos. Diversos expertos en este campo señalan
que el Deep Learning tiene un amplio campo de investigación en técnicas avanzadas de
seguridad unidas a los algoritmos de probabilidad, gracias a su aplicación en el mundo
del Big Data y el Internet de las Cosas.
Google, Apple e IBM fueron de las primeras grandes compañías que apostaron por el
Deep Learning y que actualmente siguen avanzando apoyándose en startups que les
aportan la innovación que necesitan.
Algunas aplicaciones en las que los algoritmos de Deep Learning se están usando con
éxito son el lenguaje natural hablado y escrito, reconocimiento de voz, la visión
computacional, el reconocimiento de caras, la interpretación semántica o los traductores
inteligentes.
Otro de los ejemplos son los vehículos inteligentes que han sido desarrollados por
diversas compañías con diferentes grados de autonomía. Así, la conducción autónoma de
Tesla o Uber se basa en el reconocimiento de ciertos patrones de conducción que
proporciona, incluso, el poder de predecir accidentes o errores en la carretera.
Visión Artificial:
Una máquina que es capaz de ver, detectar y percibir detalles del mundo que le rodea, tal
como lo hacen las personas.
Esta rama de la inteligencia artificial ha mejorado con el tiempo y, apoyada con sensores
de proximidad y movimiento, por ejemplo, ofrece mayor libertad de movimiento a las
máquinas entre las líneas de producción y los operadores.
La visión por computadora se ha aplicado a la fabricación en tareas como clasificación
de productos, detección de artículos defectuosos, etcétera, pero gracias al avance de
tecnologías de Industria, ha sido posible añadirle técnicas de aprendizaje profundo, como
las redes neuronales convolucionales, que pueden lograr una precisión sorprendente, a
menudo alcanzando o incluso superando las capacidades de visión humanas.
Pese a que el mercado ofrece modelos de código abierto y pre-entrenados para detectar
objetos genéricos, el avance del aprendizaje profundo permite entrenar algoritmos para
detectar objetos muy específicos (por ejemplo, distinguir entre bebidas pequeñas y
grandes corriendo en la misma línea de producción). Se tomarán en cuenta cuatro casos
de uso en los que la visión artificial está mejorando los procesos industriales.
Problemas con el manejo de inventario:
Este es uno de nuestros favoritos y donde en Gesta Labs hemos desarrollado aplicaciones
para resolver problemas de nuestros clientes. Imagina que tienes una aplicación móvil en
tu celular, con un modelo de visión artificial encapsulado, que te permite optimizar el
tiempo que invierte tu personal en el conteo de productos en un almacén con tan solo
tomar una foto, la cual le indica a la APP las existencias reales con un alto grado de
exactitud. Nosotros hemos hecho posible esto.
Este tipo de aplicaciones son perfectamente amigables con el usuario, pues han sido
pensadas para resolver problemas de logística (y la logística es tiempo, y el tiempo,
dinero).
De igual manera, piensa en cámaras instaladas que cada cierto tiempo toman fotos y las
envían a un sistema previamente entrenado cuyos algoritmos detectan si el almacén
requiere ser reabastecido y, de inmediato, envían las órdenes a la planta o al centro de
distribución.
No tienes idea de cuántos problemas en almacenes pueden resolverse o, en todo caso, qué
cantidad de procesos puede ser más eficiente con el uso de algoritmos de inteligencia
artificial.
Inspección en el proceso de empaque
Si has estado en alguna planta farmacéutica o de alimentos y bebidas, seguramente has
visto cientos de miles de productos desfilando por sus líneas de producción. El proceso
de conteo de los productos antes de empaquetarlos debe ser gigantesco, y exige un alto
grado de precisión. La comisión de errores suele ser frecuente.
En esta área, la aplicación de visión artificial, en combinación con sistemas electrónicos
para el conteo de productos, puede resolver estos problemas.
Generalmente, apoyada en el uso de estos sistemas, una computadora, enlazada a los
robots, realiza la función de conteo y, además, tiene la característica de detectar objetos
que puedan tener defectos. Una maravilla.
Lectura de código de barras
En nuestro blog anterior hablábamos de la aplicación de visión artificial en la fabricación
de placas de circuito impreso (PCB), una industria cuyas diminutas y complejas piezas,
sumadas a la altamente dinámica productiva, hacen imposibles los procesos de inspección
para las personas. Por ejemplo, los teléfonos celulares y los dispositivos móviles
requieren placas de circuito impreso (o PCB) cada vez más pequeñas. De acuerdo con el
sitio web DevTeam.Space, para atender la demanda, los fabricantes usan un sistema de
penalización, el cual consiste en imprimir varias placas de circuito idénticas en un panel
grande, para luego separar cada circuito para hacer pruebas finales.
El sistema de visión artificial puede emplearse para inspeccionar las placas y realizar las
pruebas finales.
Máxima calidad, mínimos defectos
Tradicionalmente, la detección de defectos ha sido realizada por personas. Aunque el
proceso es históricamente confiable, la visión artificial puede ayudar a hacerlo más rápido
y con un grado mayor de precisión, detectando los productos con defectos, al tiempo que
extrae y almacena información relacionada con esa falla.
Hoy existen sistemas que, a medida que los artículos desfilan a través de la línea de
producción, clasifican los defectos según su tipo y les asigna una calificación de
acompañamiento.
Al hacer esto, los fabricantes pueden diferenciar entre los diferentes tipos de defectos y
tomar decisiones al respecto.
De acuerdo con el sitio DevTeam.Space, los sistemas de inspección de visión artificial
pueden variar ampliamente en términos de su implementación, algunos requieren un
operador, mientras que las soluciones basadas en visión más complejas son 100%
automatizadas.
CONCLUSIONES
 Llegamos a concluir que la diferencia principal entre Machine Learning y Deep
Learning es que uno es de aprendizaje automático (Machine Learning), y el otro
aprendizaje no supervisado (Deep Learning).
 Otro punto muy importante es que un tiempo atrás. El Deep Learning no era de
muy factible utilización, debido a que no había la suficiente información para que
el sistema pueda aprender de ella, pero con el surgimiento de muchas aplicaciones,
sistemas, internet, y todo en cuanto a tecnología e información que se ve hoy en
día. Generan los millones de datos necesarios, que hace un tiempo atrás no había.
que es aprovechada por el Deep Learning
BIBLIOGRAFIA
1.https://www.blog.andaluciaesdigital.es/deep-learning-inteligencia-artificial-y-
machine-learning/
2. https://planetachatbot.com/claves-de-inteligencia-artificial-machine-learning-y-deep-
learning-53a2032aaad
3. https://medium.com/@spot_blog/la-diferencia-entre-inteligencia-artificial-machine-
learning-y-deep-learning-cc415f20e63a
4. https://planetachatbot.com/la-revoluci%C3%B3n-de-la-visi%C3%B3n-artificial-en-4-
ejemplos-e7d438bfc8a8
5.
http://www.ptolomeo.unam.mx:8080/xmlui/bitstream/handle/132.248.52.100/219/A7.p
df

Você também pode gostar