Você está na página 1de 14

REDE DE ENSINO GENOMA

CURSO TÉCNICO EM MANUTENÇÃO E SUPORTE EM INFORMÁTICA

INTELIGÊNCIA ARTIFICIAL: O FUTURO NA PALMA DA MÃO

Christian dos Santos Sales


Evaldo Junio de Souza Castro
Igor Junio
José Augusto Honório da Silva
Samuel Isac

BETIM, 2022
Christian dos Santos Sales
Evaldo Junio de Souza Castro
Igor Junio
José Augusto Honório da Silva
Samuel Isac

INTELIGÊNCIA ARTIFICIAL: O FUTURO NA PALMA DA MÃO

Trabalho de Conclusão de Curso


apresentado como requisito parcial à
obtenção do título de Técnico em
Segurança do Trabalho da Rede de
Ensino Genoma de Betim.

Orientador: Prof. Wanderson


Co-orientador: Profª Ionara L. Carvalho

BETIM, 2022
Sumário

1-
INTRODUÇÃO......................................................................................4
2-OBJETIVOS..........................................................................................4
2.1-OBJETIVOS GERAIS........................................................................5
2.2-OBJETIVOS ESPECÍFICOS..............................................................6
3- REFERÊNCIAL TEÓRICO...................................................................6
3.1-COMO SURGIU A IDEIA DA IA.........................................................6
3.1.1-VERÃO DE 1965: LOGIC THEORIST............................................7
4- METODOLÓGIA DA IA........................................................................8
5- MACHINE LEARNING.........................................................................9
5.1- BIG DATA.........................................................................................9
5.2-DEEP LEARNING............................................................................10
5.3- PERCEPTRON................................................................................10
6-TEÓRIAS (SWORD ART ONLINE: NEAVER GEAR)........................11
6.1- O PESCADOR.................................................................................12
6.1.1-YUI.................................................................................................12
6.1.2-RAY TRACING..............................................................................12
7. ALEXA................................................................................................12
8.CONCLUSÃO......................................................................................13
REFERÊNCIAS......................................................................................13
1. INTRODUÇÃO

Inteligência Artificial, um tema bastante discutido e testado nos dias atuais. O


objetivo é simular a mente humana em uma máquina e fazer com que a mesma
tome ações como um ser humano.

O presente trabalho abordará como a A.I (artificial Inteligence) já chega e ainda


chegará com grandes novidades a fim de mudar completamente o estilo de vida da
humanidade.

Atualmente o mundo passa pela 4º Revolução Industrial, que é uma expressão que
engloba algumas tecnologias de automação e troca de dados. Diante disso, se vê o
crescimento frenético de novas tecnologias, tais como a própria A.I.

As pessoas sofrem com problemas relacionados à tecnologia, já que evolui muito,


porém, a informação sobre sistemas, entendimento sobre plataformas,
comunicação, repetição, entre tantas modalidades tecnológicas, não é de fácil
entendimento. A inteligência Artificial veio para solucionar tais problemas, e facilitar o
uso de várias aplicações. Dito isso, bem-vindo ao futuro no presente.

2. OBJETIVOS

Como o nome sugere, a inteligência artificial visa simular uma característica humana
muito específica: a inteligência. Seu foco é desenvolver sistemas que possam
simular perfeitamente o raciocínio humano. A inteligência artificial vai além das
linhas de programação e busca criar máquinas que possam se adaptar, aprender e
realizar tarefas como humanos.
No entanto, simular a condição da mente humana era muito mais difícil do que ele
havia imaginado no início de seus estudos. Isso se deve principalmente à dificuldade
de compreensão e funcionamento de todos os processos biológicos que ocorrem no
cérebro humano.
A inteligência artificial desempenha um papel muito maior na vida humana do que as
pessoas imaginam. Está presente nas inúmeras atividades, recursos e programas
que existem hoje. Mais de uma pessoa pode argumentar que a IA não é um robô
que substitui humanos em uma determinada tarefa. Sua importância vai além da
automação.
De corretores ortográficos móveis a análises móveis do mercado de ações de
bilhões de dólares, a tecnologia de IA tornou-se parte da vida humana cotidiana.
O mundo atual traz à nossa realidade uma riqueza de informações que está além da
compreensão de qualquer um. Há uma enorme quantidade de dados e informações
que precisam ser analisadas, e isso só é possível com máquinas especializadas.
A IA é capaz de automatizar o aprendizado repetitivo por meio da análise de dados.
Ao contrário da automação robótica, que é guiada por sistemas de hardware, ela
pode executar de forma eficiente e confiável a automação de muitas tarefas
altamente informatizadas sem ser cansativa. A intervenção humana só é necessária
se o sistema estiver configurado corretamente.

A IA de hoje é mais adicionada a produtos que se tornaram parte da nossa realidade


do que vendida como uma coisa separada. É por isso que muitas pessoas acabam
por desconhecer a sua presença no quotidiano, utilizam smartphones com
assistentes, sistemas de navegação, redes sociais, etc.

Portanto, a inteligência artificial não é importante apenas em nossas tarefas diárias,


mas principal ente no campo de pesquisa e análise de grandes quantidades de
dados. Isso é fundamental para os tremendos avanços tecnológicos que estamos
vendo hoje, especialmente quando lidamos com informações que não estão
disponíveis apenas para humanos.

2.1 OBJETIVO GERAL


A inteligência artificial (IA) também é um campo científico que visa estudar,
desenvolver e usar máquinas para realizar atividades humanas de forma autônoma.
Também está ligado a tecnologias como robótica, aprendizado de máquina, fala e
reconhecimento visual.

2.2 OBJETIVOS ESPECÍFICOS

As soluções de IA virtual são capazes de usar algoritmos para realizar uma


segmentação mais precisa para recomendar produtos com base nos perfis de
consumidores analisados. Isso aumenta as chances de desenvolver uma boa
estratégia de negociação.

A IA também é altamente reproduzível no processo, pois os sistemas que a


compõem são capazes de realizar a mesma análise repetidamente. Isso garante que
qualquer fluxo de trabalho se torne escalável.

Obter informações relevantes de relatórios também pode ser mais rápido. Isso
porque já existem algoritmos de mineração de texto que podem analisar documentos
e encontrar informações neles.

Esses fatores trazem conveniência, pois podem ser feitos de maneira mais rápida e
fácil com soluções de IA.

3. REFÊRENCIAL TEÓRICO

3.1 Como surgiu a ideia da IA

A inteligência artificial surgiu há mais tempo do que se pensa. Mesmo sendo um


tema bastante atual, os debates sobre este conteúdo datam desde de 1940. Na
década de 1940, esse conceito já se esboçava como uma tentativa de criar
funcionalidades para o advento do computador. Foi também nessa década, que a
eclosão da Segunda Guerra Mundial impulsionou as pesquisas com a finalidade de
desenvolver armamentos e tecnologias bélicas. A tecnologia teve sua definição nos
meados de 1950 na Universidade Carnegie Mellon.
Os cientistas Herbert Simon e Allen Newell foram os pais dessa ciência, criando,
nessa universidade, o primeiro laboratório dedicado à inteligência artificial no âmbito
acadêmico.

O termo inteligência artificial, surgiu no famoso encontro de Dartmouth. Dentre os


presentes a este encontro incluíam-se Allen Newell, Herbert Simon, Marvin Minsky,
Oliver Selfridge e John McCarthy. No final dos anos 50 e início dos anos 60, os
cientistas Newell, Simon, e J. C. Shaw introduziram o processamento simbólico. Ao
invés de construir sistemas baseados em números, eles tentaram construir sistemas
que manipulassem símbolos. A abordagem era poderosa e foi fundamental para
muitos trabalhos posteriores. Desde então, as diferentes correntes de pensamento
em IA têm estudado formas de estabelecer comportamentos "inteligentes" nas
máquinas. Portanto, o grande desafio das pesquisas em IA, desde a sua criação,
pode ser sintetizado com a indagação feita por Minsky em seu livro "Semantic
Information Processing", há quase trinta anos: "Como fazer as máquinas
compreenderem as coisas?"

3.1.1 Verão de 1965: Logic Theorist

No verão de 1965, John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel


Rochester organizaram uma conferência sobre o assunto do que eles chamavam de
"inteligência artificial".

Simon era um cientista político que já havia produzido trabalhos clássicos no estudo
de como funcionam as burocracias, bem como desenvolveu sua teoria da
racionalidade limitada (pela qual ele mais tarde ganharia um Prêmio Nobel). O
estudo de organizações empresariais requer, como a inteligência artificial, uma
compreensão da natureza da resolução de problemas e da tomada de decisões
humanas. Simon se lembra de ter consultado a RAND Corporation no início dos
anos 1950 e de ter visto uma impressora digitando um mapa, usando letras e
pontuação comuns como símbolos. Ele percebeu que uma máquina que poderia
manipular símbolos poderia muito bem simular a tomada de decisão e
possivelmente até o processo do pensamento humano.

O programa que imprimiu o mapa foi escrito por Newell, um cientista da RAND que
estuda logística e teoria organizacional. Para Newell, o momento decisivo foi em
1954, quando Oliver Selfridge veio para a RAND para descrever seu trabalho em
correspondência de padrões. Assistindo à apresentação, Newell de repente
entendeu como a interação de unidades simples e programáveis poderia realizar um
comportamento complexo, incluindo o comportamento inteligente de seres humanos.
"Tudo aconteceu em uma tarde", diria ele mais tarde. Foi um raro momento de
epifania científica.
Tive uma sensação de clareza de que este era um novo caminho, e um que
eu iria trilhar. Não tive essa sensação muitas vezes. Sou muito cético, então
normalmente não saio em um apito, mas eu fiz naquele. Completamente
absorvido nisso - sem existir com os dois ou três níveis de consciência para
que você esteja trabalhando, e ciente de que está trabalhando, e ciente das
consequências e implicações, o normal modo de pensar. Não.
Completamente absorvido por dez a doze horas.

2. METODOLOGIA DA IA

Com a popularização dos dispositivos móveis, o crescimento das redes sociais e a


utilização massiva dos objetos conectados devido à internet das coisas, tem-se hoje
uma explosão de dados sendo produzidos a cada segundo em todo o mundo.

Nesse mar de informações, quem tiver as ferramentas certas e o conhecimento para


estruturar os dados mudará de patamar o setor de planejamento estratégico de sua
empresa. Nesse cenário, uma atitude muito importante é a utilização do Machine
Learning, Deep Learning e Big Data.
3. Machine Learning

O aprendizado de máquina é uma técnica em que os computadores são capazes de


aprender com base nas respostas esperadas, correlacionando dados diferentes, que
podem ser imagens, números e tudo o que a tecnologia pode reconhecer. Machine
learning é o termo em inglês para a tecnologia conhecida como machine learning no
Brasil.

Ao desenvolver sistemas de aprendizado de máquina, as estruturas usadas na


programação são diferentes da programação de software tradicional. Na abordagem
tradicional, um conjunto de regras é criado para gerar respostas a partir do
processamento dos dados de entrada.

Os algoritmos de aprendizado de máquina são criados com base nos dados a serem
analisados e nas respostas (ou resultados) esperados dessa análise e, ao final do
processo, o sistema cria suas próprias regras ou perguntas.

Resumindo, o Machine Learning, é a capacidade da máquina de aprender algo


como se fosse um cérebro humano. Um dos exemplos que se pode usar, é o de
que, o Machine Learning é como uma criança, que ao encostar em uma panela
quente e se queimar, ela não irá encostar de novo por aprender que aquilo
machuca, então está tecnologia funciona igualmente.

3.1 Big Data

Big data é um termo em tecnologia da informação (TI) para lidar com grandes
conjuntos de dados que precisam ser processados e armazenados, e o conceito de
big data começa com os 3 Vs: velocidade, volume e variedade.
Hoje, todas as pessoas com quem converso e que conhecem nosso trabalho de
business intelligence na Cetax Consultoria me perguntam: E esse big data, hã,
Marco? Eu até vi na Veja... todo mundo está falando sobre isso! ou "Vejo que os
cientistas de dados estão
carreira futura", "Eu quero ser um cientista de dados".
Big data tem perfis de trabalho diferentes, mas encontramos: engenheiro de dados,
cientista de dados, administrador de big data, etc.

Big Data pode ser definido, de maneira mais simplista, como um conjunto de
técnicas capazes de se analisar grandes quantidades de dados para a geração de
resultados importantes que, em volumes menores, dificilmente seria possível.
Em tese, podemos definir o conceito de Big Data como um conjunto de dados
extremamente amplos que, por isto, necessitam de ferramentas especiais para
comportar o grande volume de dados que são encontrados, extraídos, organizados,
transformados em informações que possibilitam uma análise ampla e em tempo
hábil.

3.2 Deep Learning

O aprendizado profundo é um tipo de aprendizado de máquina que treina


computadores para executar tarefas como humanos, incluindo reconhecimento de
fala, reconhecimento de imagem e previsão. Em vez de organizar os dados para
operar por meio de equações predefinidas, o aprendizado profundo define
parâmetros básicos sobre os dados e treina os computadores para aprender por
conta própria, reconhecendo padrões em várias camadas de processamento.
Em resumo, o Deep Learning funciona como uma rede neural com camadas de
conhecimento que retém dados e os passam para a máquina.

3.3 Perceptron

O perceptron é um tipo de rede neural artificial inventada em 1958 por Frank


Rosenblatt no Cornell Aeronautical Laboratory. Ele pode ser visto como o tipo mais
simples de rede neural feedforward um classificador linear.
O funcionamento da rede Perceptron é muito simples, as entradas representam as
informações do processo que desejamos mapear, sendo que cada uma das
entradas terá um peso sináptico ponderado que representa a importância de cada
entrada em relação ao valor de saída desejado. O resultado da somatória das
entradas ponderadas será somado ao limiar de ativação e então repassado como
argumento da função de ativação g, a qual terá como resultado a saída desejada.
Normalmente a função de ativação costuma ser do tipo função degrau ou degrau
bipolar.
Os pesos sinápticos, assim como o limiar do Perceptron, serão corrigidos através do
processo de treinamento supervisionado por meio da regra de aprendizado de Hebb,
para cada amostra dos sinais de entrada. Se a saída produzida coincidir com a
saída desejada, os pesos sinápticos e os limiares serão incrementados
proporcionalmente aos valores de seus sinais de entrada. Do contrário, caso a saída
seja diferente, seus valores serão decrementados.

4. Teorias (Sword Art Online: Neaver Gear)

Após a explanação de tantos fatos científicos e estudos, nada mais justo que entrar
de cabeça em teorias. Jogos, vídeo games e entretenimento. Nomes que andam de
mãos dadas, e que estão em constante crescente. Dentro disso, pode-se dissertar
sobre vários tipos de teorias sobre como vão introduzir tais estudos dentro dos
games.

Sword Art Online, uma Light Novel escrita por Reki Kawahara que foi adaptada para
anime em 10 de Outubro de 2012. Este anime, apresenta um protagonista chamado
Kazuto Kirigaya que gosta de jogar jogos em uma espécie de console futurístico
(Neaver Gear), que possibilita o player a entrar em mundos 100% virtuais através de
impulsos mandados ao cérebro. Dentro desse ambiente virtual, além de milhares de
player, também há uma infinidade de NPC’s, que se comportam 100% como
humanos. Todos os NPC’s do jogo, conseguem prosseguir uma conversa
processando em tempo real qualquer tipo de fala direcionada a eles. Entre todos
esses NPC’s, em especial se tem 2, o pescador e a Yui.

6.1 O pescador
Em um dos episódios mais calmos desse anime, Kirito se muda para uma casa em
um dos andares de Aicrad (o reino do jogo). Nesse lugar ele conhece esse
pescador, que por sua vez, age exatamente como um player. Ele conversa e chega
a ensinar como se pesca com Kirito. Essa capacidade de um NPC que em jogos
atuais são programados para conversas simples, específicas e sobre qualquer
assunto, é algo incrível, e que está mais perto de acontecer do que se imagina.

6.1.1 Yui

Este exemplo é ainda mais incrível. Yui era somente um protótipo que ficava na
programação do jogo, mas ao ver Kirito no jogo, ela gostou bastante de como ele
era, e então, Yui, simplesmente sai da programação e segue até ele. Então, aqui se
tem algo que seria o ápice da IA, que é realmente a capacidade de uma máquina se
comportar 100% como ser humano, poder tomar decisões por conta própria sobre
sua programação e aja completamente independente.

6.1.2 Ray Tracing

Outro exemplo que já acontece é o caso do Ray Tracing. O Ray Tracing é um


algoritmo de computação gráfica usado para síntese de imagens tridimensionais. O
método utilizado pelo algoritmo baseia-se na simulação do trajeto que os raios de luz
percorreriam no mundo real, mas, neste caso, de trás para a frente.

Ou seja, é simplesmente uma IA que pega os gráficos de um jogo, que antes eram
simples, e modifica para parecerem o mais possível com a realidade. Exemplo que
pode ser usado é o do Minecraft. O jogo Minecraft é um jogo totalmente quadrado,
feito para ser exatamente simples assim, porém, com a utilização do Ray Tracing,
mesmo quadrado, o jogo fica com gráficos incríveis, ajustando a luz, e a fazendo
comportar como a luz na vida real. Algum dos vídeos sobre esta tecnologia são
incríveis, e às vezes, é confundível com a vida real.

7. ALEXA
A Alexa é uma assistente virtual que passou a estar presente em muitos lares por
conta dos dispositivos Echo. Desenvolvida pela Amazon, essa ferramenta
conta com diversas funções que podem entreter, informar e também ter bastante
utilidade no dia a dia.

Alexa é o nome da assistente virtual da Amazon, introduzida em 2014 com a Echo,


sua primeira caixa de som inteligente. Diferente do que Apple, Google e Microsoft
faziam até então, com Siri, Google Assistente e Cortana, a Alexa já nasceu com foco
em atender o usuário nas tarefas do dia a dia, principalmente se forem compras na
loja.

Assim como suas concorrentes a Alexa é uma assistente conversacional, capaz de


entender contexto até certo ponto e executar tarefas simples, como configurar
alarmes, informar a situação do trânsito ou a previsão do tempo, executar uma lista
de músicas ou reproduzir podcasts.

Mas, por não estar atrelada a um sistema operacional, a Alexa é compatível com
iPhone, Android, Windows e até consoles de videogame, além de ser capaz de se
conectar a uma vasta gama de dispositivos terceiros.

8. CONCLUSÃO

Dados os fatos acima, pode se ver que a Inteligência Artificial já chega para
melhorar grandemente os caminhos das pessoas. O mundo é incrível por si só, e
imaginar que a tecnologia pode chegar a se comportar tal qual como um ser
humano, é realmente fascinante. O futuro chegou, é só olhar ao redor.

REFERÊNCIAS

https://icmcjunior.com.br
https://tecnoblog.net
https://embarcados.com.br
https://brasilescola.uol
www.youtube.com/c/CienciaTodoDia
www.youtube.com/c/CodigoFonteTv

Você também pode gostar