Você está na página 1de 33

SISTEMAS CRÍTICOS

DEFINIÇÃO
São sistemas técnicos ou sociotécnicos dos quais as
pessoas ou os negócios dependem. Caso esses sistemas
falhem, os problemas serão gravíssimos.
Existem 3 tipos de Sistemas críticos.
 Sistemas críticos de segurança – Sistemas cuja a falha
pode resultar em prejuízo, danos sérios ou ao ambiente.
 Sistemas críticos de missão – Sistemas cuja falha pode
causar problemas em objetivos, missões etc.
 Sistemas críticos de negócios – Sistemas em cuja a
falha pode acarretar perdas financeiras em algum
negócio.
A propriedade mais importante de um sistema critico é a
confiança. O termo confiança é abrangido para
relacionar á atributos como: disponibilidade,
confiabilidade, segurança e proteção.
Algumas razões para que a confiança seja a propriedade
mais importante.

 Sistemas não confiáveis, inseguros ou desprotegidos


são frequentemente rejeitados por seus usuários.
 Os custos de falha de sistema podem ser muitos altos.

 Sistemas não confiáveis podem causar perda


informações.
Por serem tão importantes, sistemas críticos são
geral são desenvolvidos usando técnicas já consagradas
em vez de técnicas mais recentes.
Um motivo pelo qual os métodos convencionais
são mais usados, é que eles ajuda a reduzir a
quantidade dos testes necessários. Em sistemas críticos,
custos de validação são geralmente muito altos,
representando mais de 50% dos custos totais de
desenvolvimento do sistema.
FALHAS DO SISTEMA

Quando ocorrem falhas nesse tipo de sistemas, os


custos e complexos que geralmente é necessários
que pessoas assumam o controle, para poder
contornar as dificuldades. Existem três tipos de
falhas que podem ocorrer em sistemas críticos.
 O hardware pode falhar.

 O software pode falhar.

 Os operadores podem falhar.


CONFIANÇA NO SISTEMA

A confiança em um sistema de computador é uma


propriedade do sistema cuja contrapartida é o
merecimento a essa confiança.
Há quatro dimensões de confiança.
 DISPONIBILIDADE: Informalmente, a
disponibilidade de um sistema é a probabilidade de
que ele esteja pronto e em execução, capaz de
fornecer serviços úteis a qualquer instante.
 CONFIABILIDADE: Informalmente, a confiabilidade
de um sistema é a probabilidade, em um dado
período de tempo, de que o sistema forneça
corretamente os serviços, conforme esperado pelo
usuário.
 SEGURANÇA: Informalmente, a segurança de um
sistema é um julgamento da probabilidade de que
um sistema cause danos para pessoas ou para o
ambiente.

 PROTEÇÃO: Informalmente, a proteção do sistema


é um julgamento da probabilidade de que um
sistema possa resistir a intrusões ou intencionais.
Assim como as quatro dimensões principais, outras
propriedades de sistema podem também ser
consideradas sob o aspecto da confiança:

 FACILIDADE DE REPAROS: As falhas de sistemas


são inevitáveis, mas interrupção causada por falhas
pode ser minimizada se o sistema puder ser reparado
rapidamente.

 FACILIDADE DE MANUTENÇÃO: Um software fácil


de manter é aquele que pode ser adaptado com baixo
custo para absorver os novos requisitos e no qual
existe uma baixa probabilidade de que as mudanças
introduzam novos erros no sistema.
 CAPACIDADE DE SOBREVIVÊNCIA: A capacidade de
sobrevivência é a capacidade do sistema continuar a
fornecer o serviço sob ataque e, potencialmente,
enquanto parte do sistema estiver desativada.

 TOLERANCIAS A ERROS: Esta propriedade pode ser


considerada como parte da usabilidade e reflete até
onde o sistema foi projetado para evitar e tolerar erros
de entrada do usuário.
DISPONIBILIDADE E CONFIABILIDADE

 Confiabilidade: Probabilidade de operação de sistema


livre de falha durante um período especificado, em um
dado ambiente para um objetivo específico
 Disponibilidade: Probabilidade que um sistema, em
um determinado instante, estará operacional e será
capaz de fornecer os serviços requisitados.
CONFIABILIDADE?

 Algumas vezes é possível incluir a disponibilidade de


sistema sob a confiabilidade de sistema Obviamente,
se um sistema está indisponível, não está fornecendo
os serviços de sistema especificados. Contudo, é
possível haver sistemas com baixa confiabilidade
disponíveis. Contanto que as falhas de sistema sejam
rapidamente reparadas e não causem danos aos
dados, a baixa confiabilidade talvez não seja um
problema.
DISPONIBILIDADE

 Alguns sistemas podem ter um requisito de alta


disponibilidade, mas um requisito de confiabilidade
muito baixo mais se o sistema puder se recuperar
sem que deixe amostrar essa falha ai o sistema
pode ter requisitos de confiabilidade baixos
EXEMPLO

 Um sistema de telefonia os
usuários ao fazer uma
ligação esperam o tom de
discar assim que levam o
fone portanto o sistema tem
requisitos de alta
disponibilidade no entanto se
uma falha no sistema causar
um problema na conexão
esta geralmente e
recuperada sem que o cliente
possa perceber tornando a
disponibilidade mais do que a
confiabilidade seja um
requisito de confiança para
os clientes
TIPOS DE FALHAS

 A confiabilidade e a disponibilidade são


comprometidas pelas falhas do sistema essas
falhas ocorrem como consequência de erros de
especificação ou falhas em sistemas quando se
discute a confiabilidade e proveitosos distinguir os
termos: Defeito Erro e Falha
DIFERENÇAS ENTRE ERROS DE SISTEMAS
COMO MEDIR A CONFIABILIDADE?

 Medir a confiabilidade do sistema em bastante


amplo, um ambiente no qual o sistema e usado e
objetivo para o qual ele e usado devem ser levados
em consideração se você medir a confiabilidade de
um sistema não será possível supor que ela será a
mesma em outro ambiente onde o sistema e usado
de forma diferente
 Depende muito também de como se usar o sistema
e para quais tarefas ele vai realizar
FALTA DE CONFIABILIDADE

 Uma causa comum de falta de confiabilidade


percebida e que a especificações de um sistema
não atende as expectativas dos seus usuários
quando são incompletas e incorretas interpretações
de como os sistema deve se comportar e deixada
para os engenheiros de software como eles não
são especialista do domínio não podem
implementar o comportamento que o usuário
espera
USUÁRIOS E DEFEITOS

 Cada usuário utiliza o sistema de formas diferentes


defeitos que afetam a confiabilidade do sistema
para um usuário nunca ser revelados sob um modo
de trabalho de outra pessoa alem do mais usuário
pode se adaptar ao software com defeitos
conhecidos e compartilhar as informações de como
contornar esses problemas e também usuários
experientes frequentemente contornam s defeitos
de software conhecido que causam falhas.
SEGURANÇA
O sistemas de segurança críticos são aqueles
em que e essencial que a operação seja sempre
segura. Isso significa que o sistema não poder
causa danos as pessoas ou ao meio ambiente
mesmo que o sistema venha a falhar.
Exemplos: um controlador de um queimador
doméstico ele pode falhar, mas em modo seguro, ou
seja ele desligar a combustão quando uma falha é
detectada. Os sistemas de armas nucleares são
sistemas seguros, porque se o sistema de
comunicações falhar os lançamentos não podem ser
ordenados.
Atualmente os sistemas são tão complexo
que não podem ser controlador só por hardware e
o controle de software passa a ser essencial. É
por isso cada vez mais e importante considerar a
segurança do software à medida que mais e mais
sistemas incorporam sistemas de controle
baseados em software.
ASPECTOS CRÍTICOS DE SEGURANÇA
Sistemas críticos primários de segurança

Sistemas de software embutidos cuja


falha do software pode causar a falha do
hardware associado o que pode resultar
em danos para pessoas e o meio
ambiente.
Sistemas críticos secundários de segurança

Sistemas cuja falha resulta em defeitos em


outros sistemas que podem ameaçar as
pessoas. Exemplo um banco de dados
SEGURANÇA E CONFIABILIDADE
 Segurança e confiabilidade estão relacionadas, mas são
distintas

-Em geral, confiabilidade e disponibilidade


são condições necessárias, porém, não
suficientes para a segurança de sistemas.
RAZÕES DE QUE POR QUE OS SISTEMAS CONFIÁVEIS
DE SOFTWARE NÃO SÃO NECESSARIAMENTE SEGUROS

 Erros de especificação:
– Se a especificação de sistema está incorreta, o
sistema pode se comportar conforme especificado e, no
entanto, causar acidentes.
 Falhas de hardware gerando entradas espúrias

– Difíceis de prever na especificação.


REALIZAÇÃO DE SEGURANÇA
 Prevenção de perigos: Sistema projetado para a
prevenção de perigo. Exemplo sistema de uma
maquina de corte.
 Detecção e remoção de perigos: O sistema é
projetado de tal forma que os perigos são
detectados e removidos antes de causarem um
acidente. Exemplo sistema de indústria química.
 Limitação de danos: O sistema inclui recursos de
proteção que minimizem os danos resultantes de um
acidente. Exemplo motor de uma aeronave.

Quase todos os acidentes são resultado de


combinações de mau funcionamentos. É impossível
prever todas as combinações de problemas e, em
especial, em sistemas controlados por software; sendo
assim, obter segurança completa é impossível.
PROTEÇÃO
 A proteção é uma propriedade que reflete a habilidade
do sistema de se proteger de um ataque externo
acidental ou deliberado.
 A proteção está se tornando cada vez mais importante à
medida que os sistemas são colocados em rede e, desse
modo, o acesso externo ao sistema por meio da Internet
é possível.
 Proteção é um pré-requisito essencial para
disponibilidade, confiabilidade e segurança.
PROTEÇÃO FUNDAMENTAL
 Se um sistema opera em rede e inseguro, então,
as declarações sobre sua confiabilidade e
segurança não são confiáveis.
 Essas declarações dependem da execução do
sistema e de que o sistema desenvolvido seja o
mesmo. No entanto, uma intrusão pode mudar a
execução do sistema e/ou seus dados.
 Portanto, a confiabilidade e a garantia de
segurança não são mais válidas.
DANOS DE FALTA DE PROTEÇÃO
 Recusa de serviço: O sistema é forçado para um
estado em que serviços normais tornam-se
indisponíveis, ou então, a provisão de serviços é
significativamente degradada.

 Corrupção de programa ou dados: Os programas ou


dados de um sistema podem ser alterados de uma
maneira não autorizada.

 Abertura de informação confidencial: A informação


gerenciada pelo sistema pode ser exposta a pessoas
que não estão autorizadas a ler ou usar essa
informação.
GARANTIA DE PROTEÇÃO
 Prevenção de vulnerabilidade: O sistema é
projetado de maneira que as vulnerabilidades não
ocorram. Por exemplo, se não há uma conexão de
rede externa, um ataque externo é impossível.
 Detecção e neutralização de ataque: O sistema
é projetado de tal modo que ataques à
vulnerabilidades são detectados e neutralizados
antes de causarem uma exposição. Um exemplo
disso são os verificadores de vírus, que encontram
e removem os vírus antes de infectarem um
sistema.
 Limitação de exposição: O sistema é projetado de tal
modo que as consequências adversas de um ataque
bem sucedido sejam minimizadas. Por exemplo, uma
política de backup permite que informações danificadas
sejam restauradas.

Você também pode gostar