Você está na página 1de 22

ERP – Enterprise resource planning

Com processos automatizados (como quotas de vendas, submissão de


pedidos/ordens de encomenda, processamento, com contas de cliente,
histórico de contactos/vendas, os níveis de inventário e os dados logísticos,
etc.), a empresa ganha total visibilidade da cadeia de fornecimento – Visão
Holística e Integrada.

Eis os principais benefícios de um ERP:

• Facilita o planejamento e a calendarização centrada nas exigências do


Cliente, através da empresa e dos seus fornecedores.

• Melhora a experiência do Cliente, ao proporcionar ao cliente, através dos


canais disponíveis, o acesso aos serviços e informações da empresa (ex:
disponibilizar via Internet o estado da entrega de um produto a qualquer hora e
onde quer que estes se encontrem).

• Otimiza as operações – permite basear os processos e o funcionamento na


prioridade ao Cliente, ao fornecer informação do cliente em tempo real.
(ex: permite resolver os problemas dos clientes de forma eficiente e no menor
espaço de tempo) - workflow.

• Empowerment do Marketing e das vendas, ao dar acesso aos vendedores à


informação do cliente, preços e disponibilidades, em tempo real, e permite ao
cliente configurar diretamente os produtos/serviços.

• Serviço pós-venda possibilita aos empregados visualizar informação e


detalhes sobre o Cliente, aceder ao histórico de transações e contactos do
Cliente, num único interface.

• Standardização/uniformização dos dados e dos processos.

• Incremento da eficiência possibilita a adequação das respostas às


necessidades e exigências dos Clientes, correspondendo (ou superando) as

1
suas expectativas.

• Contribui para Servir mais e melhor os Clientes, através do Conhecimento do


Cliente (atuar em Knowledge bases) e da melhoria da cadeia de Valor.

• Aprofunda o Relationship Management, ao incrementar a Personalização, a


Confiança, a Reciprocidade (Learning Relationship) - contribui para o aumento
da quota de mercado, através de relações duradouras.

• Constitui uma proposta de valor em uma perspectiva de LTV (Life-time Value),


ajudando à Fidelização dos Clientes, como Parceiros de Negócios.

Atualmente, a solução empresarial para alcançar benefícios e resultados nas


empresas, em tempo recorde, passa pela implementação de uma estratégia de
ERP. Diversas empresas, nomeadamente PME’s, implementaram soluções de
ERP, para transformar a sua relação com os Clientes. Este modelo garante
resultados vantajosos para as empresas que o instalam. O objetivo
fundamental é identificar, atrair e reter os clientes (atuais e potenciais),
incrementar a sua satisfação e otimizar a rentabilidade dos negócios.

No entanto, esta adoção rápida do software corre o risco de fracasso, se não


for acompanhada por uma alteração de mentalidades dos RH da organização.
Com efeito, um software ERP, não é uma “ferramenta mágica”, por esse
motivo, não se podem descurar fatores determinantes: implementação
apropriada, formação adequada das equipas, cultura empresarial...

De outro modo, toda a informação útil que se pode obter através desta
aplicação resulta infrutífera.

Os benefícios dos sistemas ERP são clarividentes, tanto como sistemas de


redução de custos de fundo, como de crescimento de topo, baixo estoque e
custos operacionais, produção mais eficiente com melhoramento da qualidade
e desperdício, maior procura dos consumidores e melhor “cash-flow”, gestão de
investimentos e despesas.

2
Além destas qualidades, os novos sistemas de ERP são mais que a “espinha
dorsal” da empresa são uma clara aproximação da organização ao meio
organizacional que a rodeia, nomeadamente a cadeia de fornecimento em que
é parte integrante. Assim sendo pode-se definir os novos ERP como sendo
uma versão melhorada (ERP II) em que sistemas que se desenvolveram em
paralelo como SCM e CRM surgem como parte integrante do sistema principal
e funciona como um elo de informação entre as diferentes empresas do plano
empresarial da sua cadeia de fornecimento.

Conclui-se que os ERP estão em vias de desenvolvimento, e segundo as


últimas notícias também em expansão, para exemplo, basta verificar a aposta
forte da Microsoft em criar um sistema ERP para PME, mas que implemente e
integre todas as funcionalidades que as grandes empresas já têm
implementadas nos seus ERP, e estas funcionalidades são prometidas com
alto nível de compatibilidade e integrabilidade com os modelos já usados nas
grandes multinacionais permitindo assim a ligação informacional entre
organizações criando assim uma sinergia com um valor incalculável para todas
as empresas.

Contudo, muitas vezes ocorre que, por questões financeiras, em vez de ser o
sistema a adaptar-se às necessidades da empresa, é a empresa que tem que
se adaptar às funcionalidades do sistema, gerando falta de resposta para
algumas áreas de negócio da empresa.

Na tentativa de superar a concorrência, temos assistido a associações de


empresas que são dependentes entre si (produtoras, distribuidoras,
revendedoras, empresas de serviço pós-venda, etc.). Assim é possível manter
o padrão de qualidade do produto/serviço não só na produção, mas também ao
nível de todos os intervenientes, desde a produção, à distribuição, à venda e à
pós-venda. Neste âmbito, todo o grupo fica fortalecido perante as emergentes
exigências do mercado, tendo como objetivo a capacidade de resposta face à
concorrência.

Como consequência da união entre empresas, surge à necessidade da


redução de custos, nomeadamente a nível de comunicação. Uma das formas

3
de limitar estes gastos é, por exemplo, a utilização do VOIP (Voice over IP),
que é uma ferramenta de comunicação áudio/audiovisual através da Internet,
permitindo assim a redução de custos. Por outro lado, assiste-se a uma
necessidade das empresas em expandir os seus negócios para além do seu
país de origem, constituindo assim o VOIP uma excelente ajuda, quer a nível
de contacto com os clientes, quer a nível do serviço pós-venda.

EIS – Executive Information Systems

O sistema de informação executivo, com o acrônimo (EIS) foi inventado pelo


Instituto de Tecnologia de Massachusetts (MIT) nos finais dos anos 70 e início
dos anos 80 e, desde cedo, conheceu uma enorme adesão por parte de
grandes empresas Norte-americanas.

Um estudo conduzido pelo centro do MIT para a pesquisa dos sistemas de


informação revelou que, em 1985, aproximadamente um terço das grandes
companhias norte americanas tinha instalado algum tipo de sistema de
informação executiva e que esses sistemas eram, principalmente, utilizados por
executivos de topo. Mais recentemente esta tendência alastrou-se aos quadros
médios e a outros colaboradores nas organizações que podem e devem ter
acesso a este tipo de sistema de informação.

Tradicionalmente, os sistemas de informação executivos foram desenvolvidos


como programas para computador de mainframe. Estes sistemas foram
desenvolvidos para destacar variações entre previsões ou orçamentos e
resultados reais. Os sistemas foram principalmente desenhados para diretores
financeiros, diretores de marketing, e para cargos executivos e o seu propósito
era fornecer dados imediatos de desempenho de vendas ou dados do

4
mercado, tendo como objetivo final desenvolver as aplicações do computador
que se dirigiriam às necessidades de informação dos executivos.

Tipicamente, um EIS não armazena todos os dados de uma empresa, apenas


os dados necessários para suportar as decisões executivas. A geração atual de
EIS abrange um maior número de utilizadores, transcendendo mesmo os
limites hierárquicos típicos de uma empresa. Os EIS são instalados atualmente
num qualquer computador pessoal ou em qualquer área empresarial.

Vantagens

-Fácil utilização para os executivos, não sendo necessária experiência ou


formação específica;
-Fornece informação oportuna para a tomada de decisões;
-A informação fornecida é de fácil compreensão;

-Filtra dados para a gerência.

Desvantagens

-As funções são limitadas, não podem executar cálculos complexos;


-Dificuldade em esclarecer os seus benefícios e justificar a sua implementação;
-As chefias poderão não saber gerir o volume de informação;
-O sistema pode ficar demasiado lento e difícil de gerir;

-Pequenas empresas terão dificuldades em implementar um EIS devido ao seu


elevado custo.

5
SAD – Sistema de Apoio à Decisão

O SAD faz parte do conjunto de Sistemas de informações que regem empresas


em todo o mundo. O que o diferencia dos demais sistemas de informação é
que ela é direcionada ao planejamento estratégico, ajudando a resolver
problemas organizacionais rotineiros, auxilia o gerenciamento dos dados
específicos. Surgiu do desafio de um mercado competitivo que tem exigido a
cada dia mais eficiência em relação à localização e gerenciamento de dados
para a tomada de decisão. Sob a necessidade de ter informações sempre
atuais, de forma rápida, acompanhamento de atividades da empresa, os
empresários aderiram a esse sistema, sabendo que este seria favorável às
atividades, sem contar com as concorrências externas que estavam na frente
em relação à tecnologia.

Com o SAD é possível trabalhar com diversas fontes de dados e variedades


de relatórios. Necessita que se tenham informações específicas sobre o
problema para que o gerente possa ter uma decisão tomada em questão de
minutos. O SAD, além de economizar tempo na decisão, dá ao administrador
apenas as informações necessárias para a situação especifica. Dentro do SAD
está o SADG (Sistema de apoio a decisão em grupo) onde gerentes filiais
distintas utilizam esse sistema para tomada de decisão. Ele pode funcionar
como um grande depósito de informações organizacionais, onde ele sempre
atualiza de acordo com os comandos a eles acionados. Ele pode ter desde um
modelo estatístico, previsão até um modelo de otimização entre outras
variedades.

Podemos citar exemplos de aplicação desse sistema, pois são muitos os


campos de conhecimento que ele atinge. Na logística ele funciona como
sistema de gerenciamento de dados que chegará a conclusões precisas,

6
tornando o trabalho mais eficiente em relação à localização, transporte e
estoques, armazenando dados úteis a essas transações. Sob o ponto de vista
empresarial ele funciona como uma importante ferramenta para reduzir seus
custos, manter-se focada na sua estratégia e ganhar vantagem competitiva ao
longo do tempo, mantendo-se no mercado globalizado e que a cada dia é mais
exigente.

SGBD – Sistema de gerenciamento de banco de dados

Um Sistema Gerenciador de Banco de Dados (como no Brasil) ou Sistema


Gestor de Base de Dados (SGBD) é o conjunto de programas de computador
(softwares) responsáveis pelo gerenciamento de uma base de dados. O
principal objetivo é retirar da aplicação cliente a responsabilidade de gerenciar
o acesso, manipulação e organização dos dados. O SGBD disponibiliza uma
interface para que os seus clientes possam incluir, alterar ou consultar dados.
Em bancos de dados relacionais a interface é constituída pelas APIs ou drivers
do SGBD, que executam comandos na linguagem SQL.

Conceito e Arquitetura de um SGBD

Modelo de Dados:

Uma das principais características da abordagem banco de dados, é que a


mesma fornece alguns níveis de abstração de dados omitindo ao usuário final,
detalhes de como estes dados são armazenados. Um modelo de dados é um
conjunto que podem ser utilizados para descrever a estrutura lógica e física de
um banco de dados. Por estrutura podemos compreender o tipo dos dados, os
relacionamentos e as restrições que podem recair sobre os dados.

Os modelos de dados podem ser basicamente de dois tipos:

 Alto nível: ou modelo de dados conceitual, que fornece uma visão mais
próxima do modo comum os usuários visualizam os dados realmente;

7
 Baixo nível: ou modelo de dados físico, que fornece uma visão mais
detalhada do modo como os dados estão realmente armazenados no
computado

Esquema e Instância

Em qualquer modelo de dados utilizado, é importante distinguir a descrição do


banco de dados do banco de dados por si próprio. A descrição de um banco de
dados é chamada de esquema de um banco de dados, e é especificada
durante o projeto do banco de dados. Geralmente, poucas mudanças ocorrem
no esquema de banco de dados.

Os dados armazenados em um banco de dados em um determinado instante


do tempo formam um conjunto chamado de instância do banco de dados. A
instância altera toda vez que uma alteração no banco de dados é feita.

O SGBD é responsável por garantir que toda instância do banco de dados


satisfaça ao esquema do banco de dados, respeitando sua estrutura e suas
restrições. O esquema de um banco de dados também pode ser chamado de
intenção de um banco de dados e a instância de extensão de um banco de
dados.

Arquitetura: Três Esquemas

A principal meta da arquitetura “três esquemas” é separar as aplicações dos


usuários do banco de dados físico. Os esquemas podem ser definidos como:

 Nível interno: ou esquema interno, o qual descreve a estrutura de


armazenamento físico do banco de dados; utiliza um modelo de dados e

8
descreve detalhadamente os dados armazenados e os caminhos de
acesso ao banco de dados;

 Nível conceitual: ou esquema conceitual, o qual descreve a estrutura do


banco de dados como um todo; é uma descrição global do banco de
dados, que não fornece detalhes do modo como os dados estão
fisicamente armazenados;

 Nível externo: ou esquema de visão, o qual descreve as visões do banco


de dados para um grupo de usuários; cada visão descreve quais
porções do banco de dados de um grupo de usuários terá acesso.

DW – Data warehouse

Sua função principal é o armazenamento de informações de um banco de


dados referente a uma ou mais atividades de uma empresa de forma
consolidada, voltada à tomada de decisões. É como um agrupamento
inteligente de dados de uma mesma fonte, como: origem, formato, nomes, tipo
de negócio, regras, conexões entre outros. Este princípio é muito discutido
quando relacionado a Business Intelligence. Tudo isso favorece um resultado
completo ao usuário, sem a necessidade de executar várias consultas
(relatórios), cruzá-las e finalmente chegar a um resultado.

Por enquanto pense que em Data Warehouse os relatórios são exibidos


dinamicamente de acordo com a necessidade focando pontos estratégicos.
Seu objetivo é trabalhar com uma grande quantidade de informação e
principalmente dados históricos. Estamos falando de sistemas transacionais
OLTP, que, de uma forma bem ampla, são sistemas responsáveis por registrar
todos os acontecimentos de uma organização. Se analisarmos bem, são os

9
acontecimentos históricos que nos levam a uma melhor tomada de decisão e à
prevenção de eventos futuros. Esses dados estão no Data Warehouse. Por
definição esses dados armazenados não mudam, exatamente por serem dados
históricos, salvo quando é necessário executar correções em alguma
informação específica. Um detalhe importante é que esses dados estão
disponíveis somente para consulta. Uma base modificável deixa de ser uma
Data Warehouse. O que faz a leitura dessa base histórica e inalterável é
chamado de OLAP, nada mais do que um processador das informações
contidas na Data Warehouse. É através dele que o usuário consegue visualizar
os resultados palpáveis através de relatórios consistentes e inteligentes (a
possibilidade de tomada de decisão descrita acima).

IA - Inteligência Artificial

A inteligência artificial (IA) é uma área de pesquisa da ciência da computação


dedicada a buscar métodos ou dispositivos computacionais que possuam ou
simulem a capacidade humana de resolver problemas, pensar ou, de forma
ampla, ser inteligente.

O desenvolvimento da área começou logo após a Segunda Guerra Mundial,


com o artigo "Computing Machinery and Intelligence" do matemático inglês
Alan Turing, e o próprio nome foi cunhado em 1956. Seus principais
idealizadores foram os cientistas Herbert Simon, Allen Newell, John McCarthy,
Warren MuCulloch e Walter Pitts,Marvin Minsky, entre outros.

A construção de máquinas inteligentes interessam a humanidade há muito


tempo, havendo na história um registro significante de autômatos mecânicos
(reais) e personagens míticos, como Frankenstein, que demonstram um
sentimento ambíguo do homem, composto de fascínio e de medo, em relação à
Inteligência Artificial.

Apenas recentemente, com o surgimento do computador moderno, é que a


inteligência artificial ganhou meios e massa crítica para se estabelecer como
ciência integral, com problemáticas e metodologias próprias. Desde então, seu

10
desenvolvimento tem extrapolado os clássicos programas de xadrez ou de
conversão e envolvido áreas como visão computacional, análise e síntese da
voz, lógica difusa, redes neurais artificiais e muitas outras.

Inicialmente a IA visava reproduzir o pensamento humano. A Inteligência


Artificial abraçou a idéia de reproduzir faculdades humanas como criatividade,
auto-aperfeiçoamento e uso da linguagem. Porém, o conceito de inteligência
artificial é bastante difícil de definir. Por essa razão, Inteligência Artificial foi (e
continua sendo) uma noção que dispõe de múltiplas interpretações, não raro
conflitantes ou circulares.

Visão geral

A questão sobre o que é "inteligência artificial", mesmo como definida


anteriormente, pode ser separada em duas partes: "qual a natureza do
artificial" e "o que é inteligência". A primeira questão é de resolução
relativamente fácil, apontando no entanto para a questão de o que poderá o
homem construir.

A segunda questão é consideravelmente mais difícil, levantando a questão da


consciência, identidade e mente (incluindo a mente inconsciente) juntamente
com a questão de que componentes estão envolvidos no único tipo de
inteligência que universalmente se aceita como estando ao alcance do nosso
estudo: a inteligência do ser humano. Os estudos de animais e de sistemas
artificiais que não são modelos triviais começam a ser considerados como
matéria de estudo na área da inteligência.

11
TPS – SISTEMA DE PROCESSAMENTO DE
TRANSAÇÃO

O Sistema de Processamento de Transação (SPTs) são sistemas de suporte,


em nível operacional, às atividades do dia a dia da organização. São utilizados
na automação de tarefas repetitivas e transacionais, como as de controle de
estoques, contabilidade, sistemas de cobrança e pago de contas, folha de
pagamento, etc. É o mais antigo tipo de sistema de informação. Os sistemas
deste tipo geralmente são padronizados, isto é, que devem ser operados da
mesma forma. Como eles suportam as operações da empresa, as respostas do
sistema devem ser rápidas, o sistema também deve ser confiável.

Características de um SPT

Cada transação do SPT requer:

 Entrada e alimentação de dados


 Processamento e armazenamento
 Geração de documentos e relatórios

Objetivos de um SPT

Desde a década de 50, os SPT evoluíram dos sistemas lentos e manuais para
os computadorizados mais avançados. Mesmo então, os SPT estavam "onde
vivem as organizações". O mesmo continua sendo verdade atualmente: muito
poucas organizações podem sobreviver sem um meio de processar
eficientemente pedidos de vendas, faturas ou outras transações. Os SPTs são
desta forma, fundamentais para assegurar o movimento normal das operações
comerciais, preservarem o fluxo de caixa e a lucratividade e dar apoio ao
sucesso da organização.

Como qualquer estrutura, os Sistemas de Informação de uma organização são


apenas tão bons quanto os fundamentos sobre os quais estão construídos, e
os SPT é esta base. Devido à sua importância de processamento de

12
transações, as organizações esperam que seus SPTs atinjam um número de
objetivos específicos, incluindo os seguintes:

 Processar dados gerados por e sobre transações. O principal objetivo de


qualquer SPT é capturar, processar e armazenar transações e produzir
uma variedade de documentos relacionados às atividades comerciais
rotineiras.

 Manter um alto grau de precisão. Um objetivo de qualquer SPT é a


entrada e o processamento de dados sem erros.

 Assegurar a integridade dos dados e da informação. Outro objetivo do


um SPT é assegurar que todos os dados e informações armazenados
nos bancos de dados estejam exatos, atuais e apropriados.

 Produzir documentos e relatórios em tempo. Os SPTs manuais podem


levar dias, semanas ou mesmo meses para produzir documentos de
rotina. Felizmente, os SPT computadorizados têm sido capazes de
reduzir significativamente este tempo de resposta. A capacidade de
conduzir transações de negócios de forma imediata pode ser muito
importante para a operação lucrativa da organização.

 Aumento da eficiência do trabalho. Antes dos computadores, os SPTs


manuais constituíam um trabalho intenso. Eram necessárias salas
cheias de funcionários e equipamentos para processar as transações de
negócios manualmente. Hoje, os SPT podem reduzir substancialmente
as exigências de trabalho de funcionários e outros. Para muitas
empresas, um sofisticado SPT computadorizado pode Ter o seu custo
justificado apenas pela economia de trabalho.

Aplicações do Processamento de transações:

 Processamento de pedidos
 Fatura
 Controle de Estoques
 Contas a pagar
 Contas a receber

13
 Compras
 Recebimento
 Expedição
 Folha de pagamento
 Contabilidade Geral

DATA MINING

Data Mining, ou Mineração de Dados, pode ser entendido como o processo de


extração de informações, sem conhecimento prévio, de um grande banco de
dados e seu uso para tomada de decisões. É uma metodologia aplicada em
diversas áreas que usam o conhecimento, como empresas, indústrias e
instituições de pesquisa. Data Mining define o processo automatizado de
captura e análise de grandes conjuntos de dados para extrair um significado,
sendo usado tanto para descrever características do passado como para
predizer tendências para o futuro.

Para encontrar respostas ou extrair conhecimento interessante, existem


diversos métodos de Data Mining disponíveis na literatura. Mas, para que a
descoberta de conhecimentos seja relevante, é importante estabelecer metas
bem definidas. Essas metas são alcançadas por meio dos seguintes métodos
de Data Mining: Classificação, Modelos de Relacionamento entre Variáveis,
Análise de Agrupamento, Sumarização, Modelo de Dependência, Regras de
Associação e Análise de Séries Temporais, conforme citação e definição feita
por Fayyad et al. (1996). É importante ressaltar que a maioria desses métodos
é baseada em técnicas das áreas de aprendizado de máquina, reconhecimento
de padrões e estatística. Essas técnicas vão desde as tradicionais da
estatística multivariada, como análise de agrupamentos e regressões, até
modelos mais atuais de aprendizagem, como redes neurais, lógica difusa e
algoritmos genéticos.

Os métodos tradicionais de Data Mining são:

14
 Classificação: associa ou classifica um item a uma ou várias classes
categóricas pré-definidas. Uma técnica estatística apropriada para
classificação é a análise discriminante. Os objetivos dessa técnica
envolvem adescrição gráfica ou algébrica das características diferenciais
das observações de várias populações, além da classificação das
observações em uma ou mais classes predeterminadas. A idéia é
derivar uma regraque possa ser usada para classificar, de forma
otimizada, uma nova observação a uma classe já rotulada.Segundo
Mattar (1998), a análise discriminante permite que dois ou mais grupos
possam ser comparados, com o objetivo de determinar se diferem uns
dos outros e, também, a natureza da diferença, de forma que, com base
em um conjunto de variáveis independentes, seja possível classificar
indivíduos ou objetos em duas ou mais categorias mutuamente
exclusivas.

 Modelos de Relacionamento entre Variáveis: associa um item a uma ou


mais variáveis de predição de valores reais, consideradas variáveis
independentes ou exploratórias. Técnicas estatísticas como regressão
linear simples, múltipla e modelos lineares por transformação são
utilizadas para verificar o relacionamento funcional que, eventualmente,
possa existir entre duas variáveis quantitativas, ou seja, constatar se há
uma relação funcional entre X e Y. Observa-se, conforme Gujarati
(2000), que o método dos mínimos quadrados ordinários, atribuído a
Carl Friedrich Gauss, tem propriedades estatísticas relevantes e
apropriadas, que tornaram tal procedimento um dos mais poderosos e
populares métodos de análise de regressão.

 Análise de Agrupamento (Cluster): associa um item a uma ou várias


classes categóricas (ou clusters), em que as classes são determinadas
pelos dados, diversamente da classificação em que as classes são pré-
definidas.Os clusters são definidos por meio do agrupamento de dados
baseados em medidas de similaridade ou modelos probabilísticos. A
análise de cluster (ou agrupamento) é uma técnica que visa detectar a
existência de diferentes grupos dentro de um determinado conjunto de
dados e, em caso de sua existência, determinar quais são eles. Nesse

15
tipo de análise, segundo Pereira (1999), o procedimento inicia com o
cálculo das distâncias entre os objetos estudados dentro do espaço
multiplano constituído por eixos de todas as medidas realizadas
(variáveis), sendo, a seguir, os objetos agrupados conforme a
proximidade entre eles. Na seqüência, efetuam-se os agrupamentos por
proximidade geométrica, o que permite o reconhecimento dos passos de
agrupamento para a correta identificação de grupos dentro do universo
dos objetos estudados.

 Sumarização: determina uma descrição compacta para um dado


subconjunto. As medidas de posição e variabilidade são exemplos
simples de sumarização. Funções mais sofisticadas envolvem técnicas
de visualização e a determinação de relações funcionais entre variáveis.
As funções de sumarização são freqüentemente usadas na análise
exploratória de dados com geração automatizada de relatórios, sendo
responsáveis pela descrição compacta de um conjunto de dados. A
sumarização é utilizada, principalmente, no pré-processamento dos
dados, quando valores inválidos são determinados por meio do cálculo
de medidas estatísticas como mínimo, máximo, média, moda, mediana e
desvio padrão amostral, no caso de variáveis quantitativas, e, no caso
de variáveis categóricas, por meio da distribuição de freqüência dos
valores. Técnicas de sumarização mais sofisticadas são chamadas de
visualização, que são de extrema importância e imprescindíveis para se
obter um entendimento, muitas vezes intuitivo, do conjunto de dados.
Exemplos de técnicas de visualização de dados incluem diagramas
baseados em proporções, diagramas de dispersão, histogramas e box
plots, entre outros. Autores como Levine et al. (2000) e Martins(2001),
entre outros, abordam com grande detalhamento esses procedimentos
metodológicos.

 Modelo de Dependência: descreve dependências significativas entre


variáveis. Modelos de dependência existem em dois níveis: estruturado
e quantitativo. O nível estruturado especifica, geralmente em forma de
gráfico, quais variáveis são localmente dependentes. O nível quantitativo
especifica o grau de dependência, usando alguma escala numérica.

16
Segundo Padovani (2000), análises de dependência são aquelas que
têm por objetivo o estudo da dependência de uma ou mais variáveis em
relação a outras, sendo procedimentos metodológicos para tanto a
análise discriminante, a de medidas repetidas, a de correlação canônica,
a de regressão multivariada e a de variância multivariada.

 Regras de Associação: determinam relações entre campos de um banco


de dados. A idéia é a derivação de correlações multivariadas que
permitam subsidiar as tomadas de decisão. A busca de associação entre
variáveis é, freqüentemente, um dos propósitos das pesquisas
empíricas. A possível existência de relação entre variáveis orienta
análises, conclusões e evidenciação de achados da investigação. Uma
regra de associação é definida como se X então Y, ou X ⇒Y, onde X e
Y são conjuntos de itens e X ∩Y = ∅. Diz-se que X é o antecedente da
regra, enquanto Y é o seu conseqüente. Medidas estatísticas como
correlação e testes de hipóteses apropriados revelam a freqüência de
uma regra no universo dos dados minerados. Vários métodos para medir
associação são discutidos por Mattar (1998), de natureza paramétrica e
não paramétrica, considerando a escala de mensuração das variáveis.
 Análise de Séries Temporais: determina características seqüenciais,
como dados com dependência no tempo. Seu objetivo é modelar o
estado do processo extraindo e registrando desvios e tendências no
tempo. Correlações entre dois instantes de tempo, ou seja, as
observações de interesse, são obtidas em instantes sucessivos de
tempo, por exemplo, a cada hora, durante 24 horas – ou são registradas
por algum equipamento de forma contínua, como um traçado
eletrocardiográfico. As séries são compostas por quatro padrões:
tendência, variações cíclicas, variações sazonais e variações
irregulares. Há vários modelos estatísticos que podem ser aplicados a
essas situações, desde os de regressão linear (simples e múltiplos), os
lineares por transformação e regressões assintóticas, além de modelos
com defasagem, como os auto-regressivos (AR) e outros deles
derivados. Uma interessante noção introdutória ao estudo de séries
temporais é desenvolvida por Morettin & Toloi (1987).

17
Diante da descrição sumária de metodologias estatísticas aplicáveis ao
procedimento de Mineração de Dados, registra-se que, embora Hand
(1998) afirme que o termo Data Mining possa trazer uma conotação
simplista para os estatísticos, Fayyad et al. (1996a) mostraram a relevância
da estatística para o processo de extração de conhecimentos, ao afirmar
que essa ciência provê uma linguagem e uma estrutura para quantificar a
incerteza resultante quando se tenta deduzir padrões de uma amostra a
partir de uma população. De acordo com Hand (1998), a estatística
preocupa-se com a análise primária dos dados, no sentido de que eles são
coletados por uma razão particular ou por um conjunto de questões
particulares a priori. Data Mining, por outro lado, preocupa-se também com
a análise secundária dos dados, num sentido mais amplo e mais indutivo do
que uma abordagem hipotético-dedutiva, freqüentemente considerada como
o paradigma para o progresso da ciência moderna. Assim, Data Mining
pode ser visto como o descendente direto da estatística, já que são técnicas
metodológicas complementares.

SE – Sistema especialista

Um sistema especialista (expert system) é um sistema computacional que


emula a estratégia de resolução de problemas de um especialista humano.
Apesar de que um SE não pode chegar a possuir a capacidade cognitiva de um
especialista humano, na ausência deste constitui-se em uma ferramenta
importante de resolução de problemas.

As atividades típicas que desempenha um sistema especialista são as


seguintes:
 

 Interpretação

 Predição

 Diagnóstico

18
 Síntese

 Planejamento

 Monitoramento

 Correção de falhas

 Instrução

 Controle

Utilização de sistemas especialistas

Geralmente os SE são utilizados em situações nas quais o especialista


humano não está disponível. Porém em alguns casos, ainda com a presença
do especialista humano, os SE são úteis:

Em situações de emergência em que o "stress" diminui consideravelmente a


capacidade de resolução de problemas dos seres humanos. Por exemplo, no
caso de operadores de processo diante de alarmes.

Em situações nas quais a velocidade de resolução de problemas é altamente


importante. Por exemplo, em monitoramento em tempo real.

Quando se deseja padronizar ações tomadas por diferentes especialistas


humanos. Por exemplo, operadores de processo de diferentes turnos atuam de
forma diferenciada diante de uma mesma situação, o que pode originar
variações no produto final.

Quando comparado com um especialista humano, o sistema especialista tem


as seguintes deficiências:

 Capacidade de aprendizagem: é natural para o ser humano mas


extremamente limitada para a máquina.

 Criatividade:  o ser humano é criativo diante de situações novas, isso


não acontece com a máquina.

19
 Espectro de atuação: abrangente para o ser humano e pequeno para a
máquina.

 Capacidade de interação com o mundo exterior: o ser humano


apresenta uma elevada capacidade de percepção do mundo exterior
através de informação visual, auditiva, táctil e olfativa. Para a máquina
toda essa capacidade é limitada.

Um sistema especialista comparado com um especialista humano apresenta


vantagens tais como:

 Atuação consistente, independente de fatores circunstanciais.

 Disponibilidade total.

 Facilidade de transferência e replicação.

 Por exemplo, o desenvolvimento de um SE para treinamento de


operadores, possibilita um treino uniforme e simultâneo de operadores, a
qualquer horário e em qualquer lugar.
 
 

Classificação dos sistemas especialistas

Os sistemas especialistas podem ser classificados em relação a uma série de


atributos. Os atributos mais importantes são:

Forma de representação do conhecimento: dependendo do formalismo de


representação do conhecimento empregado, os SE se denominam baseados
em regras, orientados a objetos, etc.

Operação da máquina de inferência: os SE podem ser orientados por dados,


por objetivos, ou ambos no caso as duas estratégias de inferência fossem
empregadas.

Interface com o usuário: este atributo especifica os recursos que o SE dispõe


para interatuar com o usuário. Por exemplo: recursos gráficos, sonoros, etc.

20
Operação on-line ou off-line: especifica se o SE atua ou não em tempo real e
ligado a um sistema físico.

Capacidade de extensão: se está disponível ou não a capacidade de ampliar


ou adaptar o conhecimento do sistema às nossas necessidades.

Componentes de um sistema especialista

Um sistema especialista fundamentalmente está composto por uma base do


conhecimento que abriga o conhecimento adquirido do especialista do domínio.
A base do conhecimento pode ser subdividida em: memória de trabalho,
máquina de inferência e memória de conhecimento. A memória de trabalho
contém os dados acessíveis globalmente pelos restantes componentes do
sistema especialista e a máquina de inferência controla o processo dedutivo da
base do conhecimento. Memória do conhecimento é o componente que contém
os formalismos de representação do conhecimento. Se o SE empregar regras,
este componente denomina-se base de regras.

Dependendo do software de suporte empregado em seu desenvolvimento, um


SE pode apresentar outros componentes tais como:

 Editores dedicados. Acompanham o processo de inferência passo a


passo com a idéia de corrigir falhos no desempenho do sistema.

 Editores gráficos. Suportam a implementação de recursos gráficos


aumentando a capacidade interativa do sistema especialista.

 Interfaces para outros sistemas de informação. Suportam o acesso do


SE a informação armazenada na base de dados, planilhas eletrônicas,
etc.

 Módulo de explicação. Estes mecanismos fornecem a sequência de


heurística empregada para obter certa conclusão.

21
Bibliografia :

http://www.dee.ufma.br 

http://marketingfaculty.blogspot.com.br

http://www.administradores.com.br

http://topicosdeinformaticaadm.blogspot.com.br

http://www.oficinadanet.com.br

http://www.alvoconhecimento.com.br

http://ensino.univates.br

http://www.unimep.br

22

Você também pode gostar