Você está na página 1de 17

UNIVERSIDADE ANHANGUERA – UNIDERP

CENTRO DE EDUCAÇÃO À DISTÂNCIA


CURSO
NOME DO (S) AUTOR (ES) EM ORDEM ALFABÉTICA - RA

PROJETO INTEGRADO

Cidade
2022
NOME DO (S) AUTOR (ES) EM ORDEM ALFABÉTICA - RA

PROJETO INTEGRADO

Trabalho apresentado à Universidade ANHANGUERA,


como requisito parcial para a obtenção de média
semestral nas disciplinas norteadoras do semestre letivo.

Tutor (a): XXXXXXXXX

Cidade
2022
SUMÁRIO

1 INTRODUÇÃO.......................................................................................................3
2 DESENVOLVIMENTO...........................................................................................4
2.1 TAREFA 1..........................................................................................................4
2.2 TAREFA 2..........................................................................................................5
2.3 TAREFA 3..........................................................................................................7
2.4 TAREFA 4..........................................................................................................9
2.5 TAREFA 5........................................................................................................12
3 CONCLUSÃO......................................................................................................15
REFERÊNCIAS...........................................................................................................16
3

1 INTRODUÇÃO

Há vários cenários que podem levar uma pessoa a querer mais de um


sistema operacional no computador e, por isso, existe o recurso dual boot. Com ele, é
possível instalar dois ou mais sistemas no HD e, na hora de ligar, escolher qual você
desejar inicializar. 
É preciso ter todos os drivers antes de instalar um novo sistema. Caso
pretenda ter várias versões do Windows, instale a mais antiga em primeiro lugar. Alguns
sistemas operacionais conseguem coexistir na mesma partição, mas não é sempre o
caso. Leia a documentação ou crie uma partição separada para cada sistema.
Conhecer os melhores processadores para PC é um passo fundamental
para definir o desempenho do seu próximo computador. Ele é como um cérebro da
máquina e define, por exemplo, a velocidade do processamento e a capacidade de rodar
jogos e programas mais pesados.
A Arquitetura de Sistemas de Informação tem como foco principal a
análise das necessidades dos usuários dentro de um possível sistema a ser
desenvolvido. Para isto, a mesma procura não se aprofundar em detalhes tecnológicos,
mas sim se concentrar em que o cliente realmente precisa, levando em conta ainda as
características do negócio em que o mesmo está inserido.
As vantagens da tecnologia de containers estão sendo cada vez mais
exploradas pelos profissionais de TI. Essa tecnologia, que é uma tendência ainda pouco
utilizada, deve ter a sua adoção amplificada na medida em que o mercado vai se
adequando e aprendendo a trabalhar com ela.
4

2 DESENVOLVIMENTO

2.1 TAREFA 1

É importante saber as inconveniências que envolvem ter dois sistemas


com dual boot. Para trocar de sistema, você deverá sempre reiniciar o PC, algo que
pode tomar muito tempo se essa mudança ocorrer com muita frequência. Além disso,
programas instalados em um lado não são acessíveis do outro, o que pode gerar custos
extras em apps como Photoshop e Microsoft Word, por exemplo.
Certifique-se de que seu disco tem espaço suficiente sobrando. Analise
qual o uso que você vai aplicar a cada sistema – se vai rodar jogos pesados, armazenar
muitas fotos e vídeos e baixar programas grandes – e separe gigabytes com folga para
cada lado. O Windows requer cerca de 20 gigabytes para funcionar, mas é importante
reservar bem mais do que isso para evitar problemas. Se seu HD for de 1 TB, por
exemplo, vale a pena reservar ao menos 100 GB para o sistema da Microsoft.
Se você já é familiarizado com a criação de partições no Windows, esse
passo não será de todo complicado. Porém, caso você nunca tenha ouvido falar no
procedimento, vale ficar atento: é importante criar outra partição no HD enquanto há
somente um sistema operacional instalado, e alocar os espaços corretamente.
É necessário instalar o Windows antes do outro sistema operacional,
caso não o tenha feito ainda. Os outros sistemas, como o Linux, conseguem trabalhar
facilmente em conjunto com um Windows já presente na máquina, mas é mais difícil
fazer a instalação na ordem inversa.
Além disso suponha que tenha o Windows 10 instalado no computador e
deseja instalar o Windows 7, para ter os dois sistemas operacionais no computador, mas
a ordem pode ser invertida.
1. A primeira coisa que precisamos fazer é particionar o disco rígido do
seu computador para liberar espaço para instalação do segundo sistema operacional,
que no nosso exemplo, será o Windows 7.
2. Pressione as teclas Windows + R para abrir o Executar, digite
diskmgmt.msc e pressione Enter.
3. Localize a partição do sistema que provavelmente deve ser o “C:” no
Disco 0, clique com o botão direito e selecione a opção “Diminuir Volume” para liberar
espaço para o outro sistema operacional.
5

4. Em seguida, digite o “tamanho do espaço” que deseja reduzir na


partição do sistema para fazer a instalação do outro sistema operacional. Por exemplo,
para liberar 30GB de espaço, digite “30000”.
5. Uma vez feito isso, faça a instalação da outra versão do Windows
usando DVD ou pendrive. Note que para iniciar a instalação, você precisará reiniciar o
computador e iniciá-lo pelo pendrive ou DVD.
6. Prossiga com a instalação e quando solicitado, selecione o espaço
vazio que você criou no disco rígido após diminuir a partição do sistema e prossiga com
a instalação do novo sistema operacional.
7. Uma vez terminada a instalação, sempre que você ligar e reiniciar o
computador, será exibido um menu durante a inicialização para você escolher qual
sistema operacional deseja usar no momento.

2.2 TAREFA 2

O conceito de programação em paralelo é fazer com que um programa


seja visto como um conjunto de partes em que possa ser resolvido de forma
concorrente, a sua construção é feita de forma sequencial mas é feita de tal modo que
possa
ser executada de forma paralela em diferentes processadores.Programas de
computador paralelos logicamente são feitos de forma diferente aos sequenciais e de
forma mais
complexa, pois a comunicação e a sincronização das subtarefas se torna um empecilho
para a elaboração de bons programas. O programador deve ter o cuidado de saber
quais
e quando as instruções vão ser executadas em paralelo, em que ordem e definir o nível
de paralelismo
Atualmente existem 4 formas de programação paralela, em bit,
instrução, dado ou de tarefa, que são determinadas por:
 Em bits: deve-se ao aumento da quantidade de bits de uma instrução
(palavra), aumentando os bits diminui-se a quantidade de instrução
 Instrução: reordenar as instruções, de forma que não altera seu
resultado, para que estas aproveitem aomáximo os estágios dispostos pelo pipeline
(tratamento de hazards)
6

 Dado: utilização de loops de forma inteligente e correta em que um


laço não dependa de dados de laços anteriores que ainda estão por ser calculados
 Tarefa: Evitar que vários cálculos sejam executados por um mesmo
conjunto de dados
Os principais motivos para usar a programação em paralelo são resolver
processos mais complexos com maior dimensão e reduzir o tempo para solucionar um
problema. Ela induz a falsa crença que com o seu uso o desempenho de execução de
suas instruções possa dobrar, porem uma pequena parcela do programa que não pode
ser paralelizada limitará este desempenho, por isso é sempre bom estar buscando os
paralelismos nos códigos para se obter o máximo de benefícios que esta técnica
proporciona.
O conceito de threads está em fazer um escalonamento de programas
que estejam executando para serem processados pelo processador, como os multicores
trabalham com mais de um núcleo em seus processadores esta atividade é definida por
multi-threads e tem o escalonamento dos programas distribuídos entre os núcleos dos
processadores.
Para melhorar o funcionamento dos multicores foi desenvolvido uma
técnica chamada de simultaneous multithreading (SMT) e tem por objetivo executar
várias threads simultaneamente evitando os desperdícios horizontais do processador
(unidades funcionais não
utilizadas), ele interpreta que existem vários programas em execução, e com a
maximização da utilização das unidades funcionais das threads aumenta o CPI dos
programas e consequentemente o desempenho do processador.
O SMT permite que as threads sejam processadas em paralelo dentro
de cada núcleo, o processador executa normalmente as instruções de threads a cada
ciclo de processamento, quando este fica em estado de espera executa em paralelo
outra thread, exemplo:Enquanto o processador espera uma execução de ponto flutuante
seja finalizada outras instruções podem ser executadas em threads de inteiros.
Por causa do uso do SMT que é apresentado no gerenciador de tarefas
do windows as ilustrações do uso da CPU duplicada como se a maquina tivesse mais
processadores do que realmente tem.
Uma das arquiteturas utilizadas pelos multicores é conhecida como SMP
(Simultaneous Multiprocessing), que nada mais é do que ter múltiplos cores do
processador compartilhando as demais memorias de níveis inferior, ela favorece o uso
7

de múltiplos processos e de threads fazendo assim com que aumentem o troughput das
máquinas. A arquitetura em si utilizada pelos multicores não diferencia- se com a
ideologia da arquitetura de Von Neumann que é utilizada nos single cores, os multi-
nucleos mantem a mesma interação processador-memória-dispositivos entrada/saída, a
logica de seu funcionamento será a mesma, o diferencial
entre os dois modelos é a quantidade de núcleos que atuam na CPU do computador
utilizando uma memória compartilhada.
Os multicores sugiram com o intuito de manter o alto desempenho de
processamento das máquinas sem ter que investir em seus resfriamentos, devido ao
aquecimento causado pela alta velocidade e frequência que as instruções eram
processadas pela CPU. Com o surgimento dessa nova linha de montagem de
processadores programas distintos podem ser executados simultaneamente e permite o
uso de um novo conceito que é a programação em paralelo, que aproveita ao máximo as
vantagens disponíveis das threads.

I. Modelo: Processador para PC AMD Ryzen 9 3950X


II. Frequência: 3.5 GHz
III. Núcleos: 16 Núcleos fisicos
IV. Threads: 32 threads
V. Cache: 64 MB
VI. Frequência: Frequência máxima de 3200Mhz
VII. Turbo max: TDP de 105W
O processador para PC AMD Ryzen 9 3950X é um modelo de alto
desempenho, indicado para quem precisa de muito poder de processamento em suas
atividades. Sendo encontrado a partir de R$ 6.477, o modelo é voltado para um público
específico, por conta do seu valor.

2.3 TAREFA 3

Modulação é o processo de variação de altura (amplitude), de


intensidade, frequência, do comprimento e/ou da fase de onda numa onda de transporte,
que deforma uma das características de um sinal portador (amplitude, fase ou
frequência) que varia proporcionalmente ao sinal modulador.
Modulação é o processo no qual a informação transmitida numa
8

comunicação é adicionada a ondas eletromagnéticas. O transmissor adiciona a


informação numa onda especial de tal forma que poderá ser recuperada na outra parte
através de um processo reverso chamado demodulação.
A maioria dos sinais, da forma como são fornecidos pelo transmissor,
não podem ser enviados diretamente através dos canais de transmissão.
Conseqüentemente, é necessário modificar esse sinal através de uma onda
eletromagnética portadora, cujas propriedades são mais convenientes aos meios de
transmissão. A modulação é a alteração sistemática de uma onda portadora de acordo
com a mensagem (sinal modulante), e pode incluir também uma codificação.
Demodulação e o processo que nos permite reverter o processo da
modulação. também chamado de detecção, envolve dispositivos eletrônicos, chamados
modems, encarregados de detectar a onda portadora modulada e extrair dela o sinal
modulante.
No processo da demodulação para sinais digitais, a forma de onda não é
importante pois ela já é conhecida. O problema se resume a determinar se o pulso está
presente ou ausente, portanto, o ruído do canal não tem influência nesse sentido.
Entretanto o ruído do canal poderá causar certos erros nas decisões. A decisão na
detecção pode ser facilitada com a passagem do sinal através de filtros que reforçam o
sinal útil e suprimem o ruído ao mesmo tempo. Isso permite melhorar muito a relação
sinal/ruído reduzindo a possibilidade de erro.
É interessante notar que muitas formas de comunicação envolvem um
processo de modulação, como a fala por exemplo. Quando uma pessoa fala, os
movimentos da boca são realizados a taxas de freqüência baixas, na ordem dos 10
Hertz, não podendo a esta frequência produzir ondas acústicas propagáveis. A
transmissão da voz através do ar é conseguida pela geração de tons (ondas) portadores
de alta frequência nas cordas vocais, modulando estes tons com as ações musculares
da cavidade bucal. O que o ouvido interpreta como fala é, portanto, uma onda acústica
modulada, similar, em muitos aspectos, a uma onda elétrica modulada.
O dispositivo que realiza a modulação é chamado modulador.
Basicamente, a modulação consiste em fazer com que um parâmetro da
onda portadora mude de valor de acordo com a variação do sinal modulante, que é a
informação que se deseja transmitir.
Dependendo do parâmetro sobre o qual se atue, temos os seguintes
tipos de modulação:
9

 Modulação em amplitude (AM)


 Modulação em fase (PM)
 Modulação em frequência (FM)
 Modulação em banda lateral dupla (DSB)
 Modulação em banda lateral única (SSB)
 Modulação de banda lateral vestigial (VSB, ou VSB-AM)
 Modulação de amplitude em quadratura (QAM)
 Modulação por divisão ortogonal de frequência (OFDM)
Quando a OFDM é utilizada em conjunção com técnicas de codificação
de canal, se denomina Modulação por divisão ortogonal de frequência codificada
(COFDM).
Também se empregam técnicas de modulação por pulsos, entre elas:
 Modulação por pulso codificado (PCM)
 Modulação por largura de pulso (PWM)
 Modulação por amplitude de pulso (PAM)
 Modulação por posição de pulso (PPM)

Quando o sinal modulador é um sinal digital, com um conjunto de


símbolos digitais (p.ex, 0 ou 1), transmitidos (chaveados) em determinada velocidade de
codificação (bauds), designa-se essas modulações, com uma transição abrupta de
símbolos, por:

 Modulação por chaveamento de amplitude (ASK)


 Modulação por chaveamento de frequência (FSK)
 Modulação por chaveamento de fase (PSK)
 Modulação por chaveamento de fase e amplitude (APSK ou APK)

2.4 TAREFA 4

A maioria das definições de Segurança da Informação (SI) (Brostoff,


2004; Morris e Thompson, 1979; Sieberg, 2005; Smith, 2002) pode ser sumarizada como
a proteção contra o uso ou acesso não-autorizado à informação, bem como a proteção
contra a negação do serviço a usuários autorizados, enquanto a integridade e a
confidencialidade dessa informação são preservadas. A SI não está confinada a
10

sistemas de computação, nem à informação em formato eletrônico. Ela se aplica a todos


os aspectos de proteção da informação ou dados, em qualquer forma. O nível de
proteção deve, em qualquer situação, corresponder ao valor dessa informação e aos
prejuízos que poderiam decorrer do uso impróprio da mesma. É importante lembrar que
a SI também cobre toda a infraestrutura que permite o seu uso, como processos,
sistemas, serviços, tecnologias, e outros.
A Segurança da informação refere-se à proteção existente sobre as
informações de uma determinada empresa ou pessoa, isto é, aplica-se tanto às
informações corporativas quanto às pessoais. Entende-se por informação todo e
qualquer conteúdo ou dado que tenha valor para alguma organização ou pessoa. Ela
pode estar guardada para uso restrito ou exposta ao público para consulta ou aquisição.
Podem ser estabelecidas métricas (com o uso ou não de ferramentas)
para a definição do nível de segurança existente e, com isto, serem estabelecidas as
bases para análise da melhoria ou piora da situação de segurança existente. A
segurança de uma determinada informação pode ser afetada por fatores
comportamentais e de uso de quem se utiliza dela, pelo ambiente ou infraestrutura que a
cerca ou por pessoas mal intencionadas que têm o objetivo de furtar, destruir ou
modificar tal informação.
A tríade CIA (Confidentiality, Integrity and Availability) —
Confidencialidade, Integridade e Disponibilidade — representa os principais atributos
que, atualmente, orientam a análise, o planejamento e a implementação da segurança
para um determinado grupo de informações que se deseja proteger. Outros atributos
importantes são não-repúdio (irretratabilidade), autenticidade e conformidade. Com a
evolução do comércio eletrônico e da sociedade da informação, a privacidade é também
uma grande preocupação.
Portanto os atributos básicos da segurança da informação, segundo os
padrões internacionais (ISO/IEC 17799:2005) são os seguintes:
 Confidencialidade: propriedade que limita o acesso a informação tão somente às
entidades legítimas, ou seja, àquelas autorizadas pelo proprietário da informação;
 Integridade: propriedade que garante que a informação manipulada mantenha
todas as características originais estabelecidas pelo proprietário da informação,
incluindo controle de mudanças e garantia do seu ciclo de vida (Corrente,
intermediária e permanente). O ciclo de vida da informação orgânica - criada em
ambiente organizacional - segue as três fases do ciclo de vida dos documentos
11

de arquivos; conforme preceitua os canadenses da Universidade do Quebec


(Canadá): Carol Couture e Jean Yves Rousseau, no livro Os Fundamentos da
Disciplina Arquivística;
 Disponibilidade: propriedade que garante que a informação esteja sempre
disponível para o uso legítimo, ou seja, por aqueles usuários autorizados pelo
proprietário da informação;
 Autenticidade: propriedade que garante que a informação é proveniente da fonte
anunciada e que não foi alvo de mutações ao longo de um processo;
O suporte para as recomendações de segurança pode ser encontrado
em:
 Controles físicos: são barreiras que limitam o contato ou acesso direto a
informação ou a infraestrutura (que garante a existência da informação) que a
suporta. Mecanismos de segurança que apoiam os controles físicos: portas,
trancas, paredes, blindagem, guardas, etc.
 Controles lógicos: são barreiras que impedem ou limitam o acesso a
informação, que está em ambiente controlado, geralmente eletrônico, e que, de
outro modo, ficaria exposta a alteração não autorizada por elemento mal
intencionado. Mecanismos de segurança que apoiam os controles lógicos:
 Mecanismos de cifração ou encriptação: permitem a transformação
reversível da informação de forma a torná-la ininteligível a terceiros. Utiliza-
se para tal, algoritmos determinados e uma chave secreta para, a partir de
um conjunto de dados não criptografados, produzir uma sequência de
dados criptografados. A operação inversa é a decifração.
 Assinatura digital: Um conjunto de dados criptografados, associados a um
documento do qual são função, garantindo a integridade e autenticidade do
documento associado, mas não a sua confidencialidade.
 Mecanismos de garantia da integridade da informação: usando funções
de "Hashing" ou de checagem, é garantida a integridade através de
comparação do resultado do teste local com o divulgado pelo autor.
 Mecanismos de controle de acesso: palavras-chave, sistemas
biométricos, firewalls, cartões inteligentes.
 Mecanismos de certificação: atesta a validade de um documento.
 Honeypot: é uma ferramenta que tem a função de propositalmente simular
falhas de segurança de um sistema e colher informações sobre o invasor
12

enganando-o, fazendo-o pensar que esteja de fato explorando uma


vulnerabilidade daquele sistema. É uma espécie de armadilha para
invasores. O honeypot não oferece nenhum tipo de proteção.
 Protocolos seguros: uso de protocolos que garantem um grau de
segurança e usam alguns dos mecanismos citados aqui.
Atualmente existe uma grande variedade de ferramentas e sistemas que
pretendem fornecer segurança. Alguns exemplos: antivírus, firewalls, filtros anti-spam,
fuzzers, detectores de intrusões (IDS), analisadores de código, etc.

2.5 TAREFA 5

Há dois principais sistemas para se trabalhar com essa tecnologia:


Jelastic, focado em projetos pequenos e pessoas físicas, e o Red Hat OpenShift, focado
em empresas e projetos Enterprise.
Quando uma empresa opta por trabalhar com a virtualização pura, cria-
se uma dependência por profissionais para a realização do monitoramento, controle,
manutenções e atualizações de sistemas operacionais Linux e Windows. Quando
escolhe adotar uma solução como o Red Hat OpenShift, para utilização de Docker e
Containers, a empresa ganha um ambiente pronto, eliminando estas dependências. Por
isso, a ferramenta é considerada um grande atalho para empresas que procuram migrar
seus ambientes para a tecnologia de containers.
Por exemplo: digamos que você, como gestor de TI, escolha trabalhar
com o Windows Server ou qualquer outro sistema operacional para gerenciar as
aplicações da sua empresa. Isto vai demandar instalações, configurações
personalizadas e gerenciamento, sendo necessário ter profissionais qualificados para a
função. Toda a responsabilidade pela implementação e manutenção recai sobre estes
profissionais. Mas quando o ambiente é migrado para a tecnologia de containers,
usando por exemplo o Red Hat OpenShift dentro de um provedor de cloud, a empresa
recebe um ambiente pronto, gerenciado e um suporte técnico mundialmente
reconhecido.
A conteinerização, também conhecida como virtualização baseada em
containers, é um método utilizado na implantação e execução de aplicativos distribuídos
sem a necessidade de configuração de uma VM completa para cada um deles. Em vez
disso, vários sistemas isolados, chamados de containers, são executados em um único
13

host de controle, acessando um único kernel.


Como os containers compartilham o mesmo kernel do sistema
operacional, tornam-se mais eficientes do que as VMs, que exigem instâncias
separadas.
Cada recipiente mantêm os componentes necessários para executar o
software desejado, como banco de dados, variáveis de ambientes e bibliotecas. O
sistema operacional utilizado pelo OpenShift, por sua vez, restringe o acesso de cada
container a recursos físicos. Com isso, um único container não é capaz de consumir
toda a memória e CPU do host disponível.
Os containers representam a evolução natural das implementações de
TI, uma vez que contribuem para a redução da necessidade de investimentos em
equipes próprias para cuidar de um sistema operacional.
A tecnologia de containers é uma tendência natural para todas as
empresas que possuem a otimização como objetivo para tornar o negócio mais
competitivo. Quando enxergamos o processo dentro da lógica do container, fica óbvio
como ele pode ajudar a resolver problemas, que na maioria das vezes são crônicos. As
principais vantagens são:
 economia com mão de obra: como não há mais a necessidade de instalar e
configurar sistemas operacionais, a empresa também não precisa mais de
profissionais especializados na instalação, manutenção e atualização deles,
liberando força de trabalho para outras tarefas mais importantes;
 melhora da disponibilidade: a empresa aumenta a disponibilidade do ambiente
por não ter mais que realizar o gerenciamento de sistemas operacionais,
otimizando também os recursos disponíveis;
 otimização de processos: como dispensa sistemas operacionais, o foco é
unicamente nas aplicações, economizando tempo e outros recursos da empresa;
 estímulo da prática do DevOps: os containers facilitam a integração entre as
equipes de desenvolvimento e operações;
 redução custos: a tecnologia de containers ajuda a empresa a manter uma
infraestrutura mais enxuta.
Os recipientes não são perfeitos e têm seus contras e limitações.
Primeiro, uma quantidade surpreendentemente alta de trabalho de configuração é
necessária para desenvolver e lançar uma estratégia de contêiner e gerenciá-la de
forma eficaz. Não há suporte e dependência de aplicativos insuficientes e, apesar das
14

tecnologias emergentes na área, ainda não há solução completa ainda. Além disso, não
há especialistas qualificados, qualificados e experientes suficientes na área.
Enquanto os contêineres aumentam a flexibilidade do aplicativo, eles
adicionam complexidade de maneiras diferentes. Essas complexidades podem surgir em
termos de segurança, orquestração, monitoramento e armazenamento de dados.
 Segurança: em comparação com as VMs tradicionais, os contêineres têm um
risco de segurança potencialmente mais considerável. Eles precisam de
segurança de múltiplos níveis, pois têm múltiplas camadas. Portanto, você
precisa proteger o aplicativo em contêiner mais o registro, o daemon do Docker e
o sistema operacional host.
 Orquestração: você pode usar um único orquestrador para máquinas virtuais, que
vêm com uma solução virtualizada (como um orquestrador VMware para
VMware). No entanto, você precisa selecionar entre várias ferramentas de
orquestração, como Kubernetes, Mesos ou Swarm quando se trata de
contêineres.
 O armazenamento de dados para VMs é simples, mas torna-se complexo para
contêineres. Para dados de contêiner persistentes, você precisa movê-los do
contêiner do aplicativo para o sistema host ou em algum lugar com um sistema de
arquivos persistente. O design de contêineres é a razão por trás de sua perda de
dados. Os dados internos podem desaparecer para sempre quando o contêiner
for desligado, a menos que você os salve em outro lugar.
 Monitoramento: também é crucial monitorar contêineres quanto a problemas de
desempenho e segurança. Você tem a opção de usar várias ferramentas
essenciais de monitoramento, serviços de monitoramento externo e análises para
enfrentar esse desafio. O ambiente de nuvem é complicado, portanto, você
precisa de um monitoramento aprofundado dos problemas de segurança.
Ainda assim, as vantagens da containerização superam em muito as
desvantagens. Portanto, decidir se você precisa de contêineres dependerá apenas de
seus requisitos específicos de nuvem.
15

3 CONCLUSÃO

Alguns usuários escolhem usar dois (ou mais) sistemas operacionais no


mesmo computador. Esse é o famoso dual-boot, multi-boot no geral. Esse procedimento
pode ser uma ótima saída para quem não quer abrir mão de um sistema operacional por
causa de alguma incompatibilidade, ou algo do tipo, e instalar outro sistema que resolve
o problema do anterior. Geralmente as pessoas fazem dual-boot.
Por ser um dos componentes mais importantes do PC, o processador de
computador também tem grande influência no preço total do computador. Assim, se
você está montando uma máquina para estudos e navegação na internet, pode escolher
um modelo um pouco mais simples e barato.
Requisitos como desempenho, segurança, tolerância a falhas e
facilidade de manutenção deverão ser colocados em pauta, sem que porém se avance
no aspecto tecnológico da questão. Artefatos como especificações suplementares
podem ser de grande valia neste ponto, uma vez que contemplam estes aspectos que
não estão diretamente relacionados a funcionalidades do sistema, mas que podem ainda
influenciar de maneira determinante a implementação do projeto em questão.
A maioria dos sinais, da forma como são fornecidos pelo transmissor,
não podem ser enviados diretamente através dos canais de transmissão.
Consequentemente, é necessário modificar esse sinal através de uma onda
eletromagnética portadora, cujas propriedades são mais convenientes aos meios de
transmissão. A modulação é a alteração sistemática de uma onda portadora de acordo
com a mensagem (sinal modulante), e pode incluir também uma codificação.
A conteinerização está entre as últimas tendências de desenvolvimento
de software e sua adoção crescerá significativamente em magnitude e velocidade. Seus
defensores acreditam que ele permite aos desenvolvedores criar e implantar software e
aplicativos com mais rapidez e segurança do que outros métodos tradicionais. Embora
caros, os jogadores do setor esperam que os custos associados à conteinerização
caiam à medida em que seus ambientes se desenvolvem e amadurecem.
16

REFERÊNCIAS

https://www.gta.ufrj.br/grad/15_1/rfid/segurepriv.html <acesso em 16 de fev. 2022.

Você também pode gostar