Você está na página 1de 20

UNIVERSIDAD NACIONAL DE INGENIERIA

FACULTAD DE INGENIERIA ELECTRICA Y ELECTRONICA

Curso: Introducción a la ingeniería del computador


Alumno: Ledesma Casas, Bryan Brandon
Código: 20182612A
La arquitectura x86

Esta arquitectura mantiene compatibilidad con la línea de procesadores de 16 bits de Intel, que a
su vez también eran compatibles con una familia de procesadores de 8 bits. A pesar de ello, la
popularidad comercial de esta arquitectura hizo que muchos fabricantes empezaran a fabricar en
masa microprocesadores compatibles. Algunas de estas compañías son AMD, Cyrix, NEC
Corporation y Transmeta.

La arquitectura ARM para SoC

ARM es una arquitectura RISC (Ordenador con Conjunto Reducido de Instrucciones) de


32 bits y, con la llegada de su versión V8-A, también de 64 Bits, desarrollada por ARM
Holdings. Se llamó Advanced RISC Machine, y anteriormente Acorn RISC Machine. La
arquitectura ARM es el conjunto de instrucciones de 32 y 64 bits más ampliamente
utilizado en unidades producidas. Concebida originalmente por Acorn Computers para su
uso en ordenadores personales.

Un enfoque de diseño basado en RISC permite que los procesadores ARM requieran una
cantidad menor de transistores que los procesadores x86 CISC. Este enfoque de diseño
nos lleva, por tanto, a una reducción de los costes, calor y energía. Estas características
son deseables para dispositivos que funcionan con baterías, como los teléfonos móviles,
tabletas , etc. La relativa simplicidad de los procesadores ARM los hace ideales para
aplicaciones de baja potencia.

Velocidad de reloj

También denominado cielos por segundo o frecuencia, este término hace referencia a la
velocidad del procesador incorporado en la CPU del ordenador, y se mide en
megaherzios (MHz). A mayor índice de frecuencia, más rápido es el procesador y, en
consecuencia, el ordenador.

Velocidad de bus

Se denomina bus, en informática, al conjunto de conexiones físicas (cables, placa de


circuito impreso, etc.) que pueden compartirse con múltiples componentes de hardware
para que se comuniquen entre sí

Memoria caché

La caché es una memoria que se sitúa entre la unidad central de procesamiento (CPU) y la
memoria de acceso aleatorio (RAM) para acelerar el intercambio de datos. De forma similar,
cuando hablamos de caché software hablamos de un espacio de memoria que contiene los datos
calculados o copiados desde un espacio más lento.
Tecnología de fabricación

El término fabricación se define como la elaboración o confección de un producto a partir de sus


componentes. En lo referente a la aplicación industrial de este término, se suele utilizar como
sinónimo de “manufactura”.

El voltaje del microprocesador

El voltaje del núcleo del procesador es el voltaje de alimentación suministrado al procesador (el
cual es un circuito digital), a la unidad procesadora de gráficos (GPU), u otro dispositivo que
contiene un núcleo de procesamiento.

Tipos de núcleo

No necesariamente se necesita un núcleo para usar una computadora. Los programas pueden
cargarse y ejecutarse directamente en una computadora «vacía», siempre que sus autores quieran
desarrollarlos sin usar ninguna abstracción del hardware ni ninguna ayuda del sistema operativo.
Ésta era la forma normal de usar muchas de las primeras computadoras: para usar distintos
programas se tenía que reiniciar y reconfigurar la computadora cada vez. Con el tiempo, se
empezó a dejar en memoria pequeños programas auxiliares, como el cargador y el depurador, o se
cargaban desde memoria de sólo lectura. A medida que se fueron desarrollando, se convirtieron
en los fundamentos de lo que llegarían a ser los primeros núcleos de sistema operativo.

Hay cuatro grandes tipos de núcleos:

• Los núcleos monolíticos: facilitan abstracciones del hardware subyacente, realmente


potentes y variadas, en conclusión es un gran programa omnipotente.
• Los micronúcleos: proporcionan un pequeño conjunto de abstracciones simples del
hardware, y usan las aplicaciones llamadas servidores para ofrecer mayor
funcionalidad, se divide en varios programas cada uno con tareas específicas que
actúan como interfaces entre el software y el hardware.
• Los híbridos: (micronúcleos modificados) son muy parecidos a los micronúcleos
puros, excepto porque incluyen código adicional en el espacio de núcleo para que se
ejecute más rápidamente.
• Los exonúcleos: no facilitan ninguna abstracción, pero permiten el uso de bibliotecas
que proporcionan mayor funcionalidad gracias al acceso directo o casi directo al
hardware.

Procesadores con núcleo múltiple

Un procesador de núcleo múltiple es un circuito integrado (IC) al cual se ha unido dos o más
procesadores para mejorar el rendimiento, reducir el consumo de energía, y lograr el
procesamiento simultáneo más eficiente de múltiples tareas.
Un montaje de núcleo doble es algo comparable a tener múltiples procesadores separados,
instalados en la misma computadora; pero debido a que los dos procesadores están de hecho
conectados al mismo socket, la conexión entre ellos es más rápida. Idealmente, un procesador de
doble núcleo es casi dos veces tan potente que un procesador de núcleo único. En la práctica es
probable que un procesador de doble núcleo sea casi una vez y media tan poderoso como un
procesador de núcleo único.

Pipelining

La segmentación es un método por el cual se consigue aumentar el rendimiento de algunos


sistemas electrónicos digitales. Se usa principalmente en los microprocesadores.

La segmentación consiste en descomponer la ejecución de cada instrucción en varias etapas para


poder empezar a procesar una instrucción diferente en cada una de ellas y trabajar con varias a la
vez

Ejecución especulativa

Es una forma de optimización en la que un sistema informático realiza una tarea que podría no ser
necesaria; la idea consiste en llevar a cabo un trabajo antes de saber si será realmente necesario
con la intención de evitar el retraso que supondría realizarlo después de saber que sí es necesario.
Si el trabajo en cuestión resulta ser innecesario, la mayoría de los cambios realizados por ese
trabajo se revierten y los resultados se ignoran.

El objetivo de esta técnica es proporcionar una mayor concurrencia en caso de disponer de más
recursos. Esta técnica se utiliza en una variedad de áreas informáticas, incluyendo la predicción de
saltos en las CPU que soportan segmentación, la predicción de valores dirigida a explotar la
localización de valores, la prelectura de memoria y archivos, y el control de concurrencia optimista
en sistemas de bases de datos.

Hyper-Threading

HyperThreading es una marca registrada de la empresa Intel para promover la implementación de


la tecnología ''Multithreading Simultáneo'', también conocido como SMT. Permite a los programas
preparados para ejecutar múltiples hilos (multi-threaded), procesarlos en paralelo dentro de un
único procesador, incrementando el uso de las unidades de ejecución del procesador.

Ésta tecnología consiste en simular dos procesadores lógicos dentro de un único procesador físico.
El resultado es una mejoría en el rendimiento del procesador, puesto que al simular dos
procesadores se pueden aprovechar mejor las unidades de cálculo manteniéndolas ocupadas
durante un porcentaje mayor de tiempo. Esto conlleva una mejora en la velocidad de las
aplicaciones que según Intel es aproximadamente de un 60%.

SRAM
SRAM son las siglas de la voz inglesa Static Random Access Memory, que significa memoria
estática de acceso aleatorio (o RAM estática), para denominar a un tipo de tecnología de memoria
RAM basada en semiconductores, capaz de mantener los datos, mientras siga alimentada, sin
necesidad de circuito de refresco

FPM

Siglas de Fast Page Mode, memoria en modo paginado, el diseño más común de chips
de RAM dinámica. El acceso a los bits de memoria se realiza por medio de
coordenadas, fila y columna. Antes del modo paginado, los bits eran leídos pulsando la
fila y la columna de las líneas seleccionadas. Con el modo página, la fila se selecciona
solo una vez para todas las columnas (bits) dentro de la fila, dando como resultado un
rápido acceso. La memoria en modo paginado también es llamada memoria de modo
Fast Page o memoria FPM, FPM RAM, FPM DRAM. El término "fast" fué añadido
cuando los más nuevos chips empezaron a correr a 100 nanosegundos e incluso más.

EDO

Memoria Extendida de Salida de Datos. La memoria EDO permite que el CPU obtenga acceso a la
memoria de diez a quince por ciento más rápido que con los chips de memoria RAM
convencionales.

SDRAM

Siglas de Synchronous DRAM, DRAM síncrona, un tipo de memoria RAM dinámica que es casi un
20% más rápida que la RAM EDO. SDRAM entrelaza dos o más matrices de memoria interna de tal
forma que mientras que se está accediendo a una matriz, la siguiente se está preparando para el
acceso. SDRAM-II es tecnología SDRAM más rápida de 1998. También conocido como DDR DRAM
o DDR SDRAM (Double Data Rate DRAM o SDRAM), permite leer y escribir datos a dos veces la
velocidad bús. Cuyo significado es Synchronous DRAM, memoria de alta velocidad (más de 300
MHz) para adecuarse a los Pentium II.

DDR SDRAM

DDR permite a ciertos módulos de memoria RAM compuestos por memorias síncronas (SDRAM),
disponibles en encapsulado DIMM, la capacidad de transferir simultáneamente datos por dos
canales distintos en un mismo ciclo de reloj. Los módulos DDR soportan una capacidad máxima de
1 GiB (5.52 bytes).

Una de sus características es que solo tiene una muesca, y cuenta con 184 terminales de color
dorado. Esta memoria opera con 2,5 voltios

DDR2 SDRAM
Los módulos DDR2 funcionan con 4 bits por ciclo, es decir 2 de ida y 2 de vuelta en un mismo ciclo
mejorando sustancialmente el ancho de banda potencial bajo la misma frecuencia de una DDR
SDRAM tradicional (si una DDR a 200 MHz reales entregaba 400 MHz nominales, la DDR2 por esos
mismos 200 MHz reales entrega 800 MHz nominales). Este sistema funciona debido a que dentro
de las memorias hay un pequeño buffer que es el que guarda la información para luego
transmitirla fuera del módulo de memoria. En el caso de la DDR convencional este buffer tomaba
los 2 bits para transmitirlos en 1 sólo ciclo, lo que aumenta la frecuencia final. En las DDR2, el
buffer almacena 4 bits para luego enviarlos, lo que a su vez redobla la frecuencia nominal sin
necesidad de aumentar la frecuencia real de los módulos de memoria.

DDR3 SDRAM

DDR3 SDRAM permite usar integrados de 1 GB a 8 GB, siendo posible fabricar módulos de hasta 16
GB. Los DDR3 tienen 240 pines, los DIMM son físicamente incompatibles, debido a una ubicación
diferente de la muesca. DDR3 continúa la tendencia, duplicando el mínimo de lectura o escritura
en la unidad a 8 palabras consecutivas. Esto permite otra duplicación de la velocidad de bus sin
tener que cambiar la velocidad de reloj de las operaciones internas. Para mantener las
transferencias de 800-1600 Mb/s, la matriz RAM interna tiene que realizar sólo 100-200 millones
de accesos por segundo

DDR3L

Funciona con 1.35 voltios lo cual le permite tener un 15% menos de consumo que la DDR3. Puedes
encontrarla en todo tipo de equipos desde PCs de escritorio a NUCs. Tiene la posibilidad de
trabajar también a 1.5 voltios.Este tipo de memoria ha tenido mucho éxito en el mercado de los
servidores.

DDR3U

Funciona con 1.25 voltios lo cual le permite consumir un 10% menos que una DDR3L. Existen muy
pocos dispositivos en el mercado que abracen este estándar al menos por ahora. Puedes
encontrarla también en todo tipo de dispositivos y trabaja hasta 1.5 voltios.

LPDDR3

Es una memoria pensada para tablets y smartphones. Usa 1.2 voltios. En principio gasta un 30%
menos que la DDR3 pero lo más importante es que solo consume la décima parte que esta cuando
el equipo está en reposo. Además tarda mucho menos que las memorias anteriores en salir de
este modo. Se montan directamente soldadas en los SOCs junto al procesador de estos equipos

Resolución de pantalla

La resolución de pantalla es el número de píxeles que puede ser mostrado en la pantalla. Viene
dada por el producto del ancho por el alto, medidos ambos en píxeles, con lo que se obtiene una
relación, llamada relación de aspecto. En esta relación de aspecto, se puede encontrar una
variación, está de acuerdo a la forma del monitor y de la tarjeta gráfica. Se pueden diferenciar dos
tamaños de pantalla diferentes:

Tamaño absoluto: la anchura y altura de la ventana del monitor, medido generalmente en


pulgadas. Depende del monitor.

Resolución o tamaño relativo: viene determinada por el número de píxeles que se muestran en la
ventana del monitor, siendo el píxel la unidad mínima de información que se puede presentar en
pantalla, de forma generalmente rectangular. Depende de la tarjeta gráfica.

Número de colores

Los ordenadores trabajan con tres colores básicos, a partir de los cuales construyen todos los demás,
mediante un proceso de mezcla por unidades de pantalla, denominadas pixels. Estos colores son el rojo,
el azul y el verde, y el sistema sí definido se conoce como sistema RGB (Red, Green, Blue).

Cada píxel tiene reservada una posición en la memoria del ordenador para almacenar la información
sobre el color que debe presentar. Los bits de profundidad de color marcan cuántos bits de información
disponemos para almacenar el número del color asociado según la paleta usada. Con esta información, la
tarjeta gráfica del ordenador genera unas señales de voltaje adecuadas para representar el
correspondiente color en el monitor.

A más bits por píxel, mayor número de variaciones de un color primario podemos tener. Para 256
colores se precisan 8 bits (sistema básico), para obtener miles de colores necesitamos 16 bits (color de
alta densidad) y para obtener millones de colores hacen falta 24 bits (color verdadero). Existe también
otra profundidad de color, 32 bits, pero con ella no se consiguen más colores, sino que los que usemos se
muestren más rápido, ya que para el procesador es más fácil trabajar con registros que sean potencia de 2
(recordemos que trabaja con números binarios).

Modo de video

La calidad y potencia de las tarjetas de vídeo vienen dadas por su resolución. La resolución de vídeo es
el número de pixeles que puede representar por pantalla. La más común en las placas de vídeo estándar
(VGA) es 640 x 480, aunque hoy en día ya ha sido ampliamente superada.
La cantidad de colores que pueda reproducir la tarjeta determinará también su calidad. A mayor
resolución, mayor número de colores representables. La combinación de estos dos factores se denomina
"Modo de vídeo".

Velocidad de refresco

La tasa o velocidad de refresco de un monitor nos indica el número de imágenes que cambian en la
pantalla por segundo. Esto se denomina Frames por segundo (fps) y es medido en Hercios (Hz).
Digamos que es el número de veces que una imagen se actualiza por segundo.

Las personas tendemos a ver en una tasa de unos 40fps y si se varían mucho estas cifras por debajo en
algún tipo de pantalla, podemos llegar a tener problemas físicos como mareos o problemas de visión. Por
ello, se fabrican pantallas dedicadas para jugar pues precisan de un refresco de pantalla muy elevado.

Se suele recomendar tener el monitor entre 75 y 85 Hz para una visualización clara en monitores a partir
de 17” y una tasa de refresco de unos 60Hz para monitores más pequeños. Resumiendo, a mayores
pulgadas, mayor tasa de refresco.

Es importante que antes de comprar un monitor lo veas encendido y compruebes cómo se ven las
imágenes. Cuanto mayor sea la tasa de refresco menos parpadeo y menos fatiga visual para el usuario.

Memoria de video

Una tarjeta gráfica es una tarjeta de expansión de la placa base del ordenador que se encarga de procesar
los datos provenientes de la unidad central de procesamiento (CPU) y transformarlos en información
comprensible y representable en el dispositivo de salida (por ejemplo: monitor, televisor o proyector).
Estas tarjetas utilizan una unidad de procesamiento gráfico o GPU, que muchas veces se usa
erróneamente para referirse a la tarjeta gráfica en sí. .
CGA

La Color Graphics Adapter (Adaptador de Gráficos de Color) o CGA, comercializada en 1981, fue la
primera tarjeta gráfica en color de IBM (originalmente llamada Color/Graphics Adapter or IBM
Color/Graphics Monitor Adapter,[1]), y el primer estándar gráfico en color para el IBM PC.

Cuando IBM introdujo en el mercado su PC en 1981, el estándar CGA, a pesar de haber aparecido al
mismo tiempo, era poco usado al principio, ya que la mayoría de los compradores adquirían un PC para
uso profesional. Para juegos había otros ordenadores mucho más populares, y en aquella época no se
consideraba que los gráficos en color tuvieran otro uso que el puramente lúdico. En consecuencia,
muchos de los primeros compradores del PC optaron por la Monochrome Display Adapter (MDA), que
sólo permitía la visualización de texto.

MDA

El Monochrome Display Adapter (MDA), también tarjeta MDA o Monochrome Display and Printer
Adapter (MDPA), fue introducido en 1981. Junto con la tarjeta CGA, fueron los primeros estándares de
tarjetas de exhibición de vídeo para el computadora IBM PC y los clones. El MDA no tenía modos
gráficos, ofrecía solamente un solo modo de texto monocromático (el modo de vídeo 7), que podía
exhibir 80 columnas por 25 líneas de caracteres de texto de alta resolución en un monitor TTL que
mostraba la imagen en verde y negro. La tarjeta MDA, al igual que la CGA, usaba el controlador
Motorola 6845 para generar la imagen

La tarjeta IBM MDA estándar estaba equipada con 4 KB de memoria de video. La alta resolución de los
caracteres del MDA era una característica para facilitar el uso en los negocios y en el procesamiento de
palabras. La pantalla estaba conformada por 80x25 caracteres. Cada carácter era dibujado en una matriz
de 9x14 píxels, de los cuales 7×11 pixels del centro conformaban el carácter en sí mismo (los otros
pixels eran usados como espacio alrededor de los caracteres).

Hércules

La Hercules Graphics Card (HGC) (Tarjeta de Gráficos Hercules) es una tarjeta gráfica creada y
fabricada por Hercules Computer Technology, Inc. que, por su popularidad, se convirtió en una
resolución de pantalla extensamente soportada. Era común en los compatibles del IBM PC conectados
con un monitor monocromático (verde, ámbar, o blanco). Soportaba un modo de texto de alta resolución
y un solo modo de gráficos. En 1984 su precio era de 499 dólares, algo menos que el precio sugerido por
el fabricante.[1]

Su disposición de un modo de texto de alta calidad compatible con el Monochrome Display Adapter,
conjuntamente con modo de gráficos de alta resolución (para ese tiempo) de 720 x 350, así como un
precio agresivo, hizo a la tarjeta Hercules extraordinariamente popular en los primeros días del
compatible IBM PC.
EGA

EGA es el acrónimo inglés de Enhanced Graphics Adapter, la especificación estándar de IBM PC para
visualización de gráficos, situada entre CGA y VGA en términos de rendimiento gráfico (es decir,
amplitud de colores y resolución). Introducida en 1984 por IBM para sus nuevos IBM Personal
Computer/AT, EGA tenía una profundidad de color de 16 colores y una resolución de hasta 640×350
píxels. La tarjeta EGA tenía 16 kilobytes de ROM para ampliar la de la BIOS con funciones adicionales
e incluía el generador de direcciones de vídeo Motorola 6845.

A cada uno de los 16 colores se les podía asignar un color RGB de una paleta en el modo de alta
resolución 640×350; EGA permitía escoger los colores de una paleta de 64 diferentes (dos bits por píxel
para rojo, verde y azul). EGA también incluía la función completa de 16 colores de CGA en los modos
gráficos de 640×200 y 320×200; sólo los colores 16 CGA/RGBI estaban disponibles en este modo. Los
modos CGA originales estaban presentes, pero EGA no era 100% compatible con CGA. EGA también
podía controlar un monitor MDA ajustando los jumpers de la placa; sólo a 640×350.

VGA

Video Graphics Array (VGA) o Matriz de gráficos de vídeo se utiliza para denominar a:

 Una pantalla estándar analógica de computadora .


 La resolución 640 × 480 píxeles.
 El conector de 15 contactos D subminiatura.
 La tarjeta gráfica que comercializó IBM por primera vez en 1988.
 La señal que se emite a través de estos cables es analógica, por lo que tiene ciertos
inconvenientes frente a las señales digitales.[1]

VGA fue el último estándar de video introducido por Gaijin Corp al que se atuvieron la mayoría de los
fabricantes de computadoras compatibles IBM, convirtiéndolo en el mínimo que todo el hardware
gráfico soporta antes de cargar un dispositivo específico.

SVGA

SVGA fue definido en 1989 y en su primera versión se estableció para una resolución de 800 × 600
píxeles y 4 bits de color por píxel, es decir, 3 bits de color (RGB) y 1 bit de transparencia (hasta 8
colores por píxel). Después fue ampliado rápidamente a los 1024 × 768 píxeles y 8 bits de color por
píxel, y a otras mayores en los años siguientes.

Aunque el número de colores fue definido en la especificación original, esto pronto fue irrelevante (en
contraste con los viejos estándares CGA y EGA), ya que la interfaz entre la tarjeta de vídeo y el monitor
VGA o SVGA utiliza voltajes simples para indicar la profundidad de color deseada. En consecuencia, en
cuanto al monitor se refiere, no hay límite teórico al número de colores distintos que pueden
visualizarse, lo que se aplica a cualquier monitor VGA o SVGA.

XGA

XGA (siglas en inglés de Extended Graphics Array) es un estándar de visualización de gráficos para
ordenadores creada por IBM en 1990. El estándar XGA-2 permite mayor profundidad de color para el
modo 1024x768 y mayor frecuencia de refresco de pantalla, además de una resolución de 1360x1024 a
16 colores.

VESA

Definición de ranura de expansión VESA Una ranura de expansión, bus de expansión ó "slot" es un
elemento que permite introducir dentro. de si, otros dispositivos llamados tarjetas de expansión (son
tarjetas que se introducen en la ranura de expansión y dan mas prestaciones al equipo de cómputo).

HDMI

HDMI responde a las siglas High Definition Multimedia Interface (interfaz multimedia de alta
definición) y hace referencia a la norma de conexión que permite transmitir audio y vídeo sin comprimir
desde un equipo a otro y con un único cable, incluido el contenido en alta definición. Por tanto, esta
tecnología se emplea para vincular, por ejemplo, tu ordenador con el televisor y así poder disfrutar de los
contenidos del primero en la gran pantalla del segundo.

Esta norma de conexión fue impulsada por algunos de los gigantes de la electrónica de consumo con la
finalidad de superar a su antecesor, el euroconector, el cual necesitaba un mínimo de dos cables, uno
para cada salida, simplificando la conexión y reduciéndola a un solo cable. Entre dichos gigantes se
encuentran Hitachi, Panasonic, Philips, Sony, Thomson, Toshiba y Silicon Image, que, además, cuentan
con el apoyo de las productoras cinematográficas Disney, Fox, Warner Bros y Universal.

La función principal del HDMI es la de transmitir audio y vídeo entre dos dispositivos, llevarlos del uno
al otro. Los transporta través de un cable. Por consiguiente, el poseedor de éste puede conectar su
consola con el ordenador, la televisión con su portátil o el Blu-Ray con un proyector, entre otros
ejemplos. La única limitación que existe es la medida del cable, aunque hay alargadores que hacen de
esta barrera una nimiedad.

DirectX
es una colección de API desarrolladas para facilitar las complejas tareas relacionadas con multimedia,
especialmente programación de juegos y vídeo, en la plataforma Microsoft Windows.

DirectX consta de las siguientes API:

• Direct3D: utilizado para el procesamiento y la programación de gráficos en tres


dimensiones (una de las características más usadas de DirectX).

• Direct Graphics: para dibujar imágenes en dos dimensiones (planas), y para representar
imágenes en tres dimensiones.

• DirectInput: para procesar datos del teclado, mouse, joystick y otros controles para juegos.

• DirectPlay: para comunicaciones en red.

• DirectSound: para la reproducción y grabación de sonidos de ondas.

• DirectMusic: para la reproducción de pistas musicales compuestas con DirectMusic


Producer.

• DirectShow: para reproducir audio y vídeo con transparencia de red.

• DirectSetup: para la instalación de componentes DirectX.

• DirectCompute: lenguaje e instrucciones especiales para el manejo de cientos o miles de


hilos de procesamiento, especial para procesadores de núcleos masivos.

OpenGL

OpenGL (Open Graphics Library) es una especificación estándar que define una API multilenguaje y
multiplataforma para escribir aplicaciones que produzcan gráficos 2D y 3D. La interfaz consiste en más
de 250 funciones diferentes que pueden usarse para dibujar escenas tridimensionales complejas a partir
de primitivas geométricas simples, tales como puntos, líneas y triángulos. Fue desarrollada
originalmente por Silicon Graphics Inc. (SGI) en 19922 y se usa ampliamente en CAD, realidad virtual,
representación científica, visualización de información y simulación de vuelo. También se usa en
desarrollo de videojuegos, donde compite con Direct3D en plataformas Microsoft Windows.

Estructura física de un disco duro

Un disco duro es una caja herméticamente cerrada, en cuyo interior se encuentra un con- junto de
componentes electrónicos y mecánicos capaz de sincronizar los dos motores y las acciones de las
cabezas de lectura/escritura.

Capacidad de almacenamiento

Aunque todas las características son importantes, lo principal de un disco duro es su capacidad. En este
momento se mide en gigabytes (GB), aunque ya cada vez más se está empezando a utilizar el terabyte
(TB).

Los fabricantes suelen redondear la capacidad de un gigabyte con 1 000 MB, lo que hace que haya
discrepancias a la hora de calcular el tamaño total, ya que realmente un gigabyte son 1 024 megabytes.

Velocidad de transferencia

La velocidad de una unidad CD-ROM expresa la tasa de transferencia de datos y se expresa con un
número seguido de una «x»; por ejemplo: «52x». Los primeros CD-ROM operaban a la misma
velocidad que los CD de audio estándar: 150 kB/s. El signo «x» se utiliza para expresar que el CD-ROM
alcanza una velocidad de transferencia 2, 4, 16, 24, 48, 52 veces la velocidad anterior. Por tanto, la tasa
de transferencia para un CD-ROM 52x es de 52 × 150 = 7 800 kB/s.

Como los lectores actuales utilizan la velocidad CAV, donde la tasa de transferencia de datos es mayor
en la zona exterior que en la central, los fabricantes suelen añadir la palabra «MAX» a esta cifra.
Significa que es la tasa de transferencia máxima que puede alcanzar el lector.

latencia
Cuando se desplazan las cabezas hasta el cilindro adecuado, la unidad tiene que espe- rar hasta que el
sector deseado pase por debajo de la cabeza. Esto se conoce como la- tencia, que se define como el
tiempo necesario para que gire el disco y el sector alcance la posición correcta. Cuanto mayor es la
velocidad de rotación del disco, menor será la latencia. Se calcula dividiendo 60 (segundos por minuto)
entre la velocidad de rotación.

Tiempo de búsqueda

Es el tiempo que necesita la unidad para desplazar las cabezas desde una pista a otra. Está comprendido
entre 8 y 12 milisegundos

Interfaz SATA

Serial ATA o SATA es el más común de los estándares de conexión, utiliza un bus serie para la
transmisión de datos.Notablemente más rápido y eficiente que IDE.Físicamente es mucho más pequeño
y cómodo que los IDE, además de permitir conexión en caliente (hot plug).

Existen tres versiones:

• SATA 1 con velocidad de transferencia de hasta 150 MB/s (descatalogado),


• SATA 2 de hasta 300 MB/s, disponible en equipos de hace unos años atrás;
• SATA 3 de hasta 600 MB/s, el más común actualmente. Compatible con las versiones
anteriores.

SAS

(Serial Attached SCSI o SAS). SAS es una tecnología de bus de computadoras diseñada principalmente
para transferencia de datos desde o hacia dispositivos de almacenamiento (como discos duros, unidades
de CD-ROM, etc.).

Se considera el sucesor del SCSI paralelo. La principal diferencia con su predecesor es que utiliza
transferencia serial de datos, aumentado la velocidad desde los 320 MB/seg del SCSI Ultra, a los 3 Gbps
(para los primeros SAS) a 6 Gbps (los siguientes introducidos en febrero de 2009).

Los SAS son especialmente utilizados en servidores que necesitan gran rendimiento.

Características de SAS

 SAS ofrece compatibilidad hacia atrás con la segunda generación de las unidades SATA. Las
unidades SATA de 3 Gbit/seg pueden ser conectados al SAS, pero las unidades SAS no pueden
conectarse a SATA.
 Permite conexión en caliente.
 Tiene compatibilidad con discos duros Serial ATA pues utiliza un conector (SFF-8482)
compatible; en cambio un controlador Serial ATA no reconoce discos duros SAS. También
vienen otros conectores SAS más pequeños.
 SAS soporta un alto número de dispositivos conectados, en teoría más de 16.384 dispositivos.
En cambio el SCSI paralelo está limitado a 8, 16 o 32 dispositivos.
 Los conectores SAS pueden ser mucho más pequeños que el tradicional conector SCSI paralelo.
 SAS soporte velocidades de hasta 6 Gbit/s, pero se espera alcanzar los 12 Gbit/s para el año
2012.
 Los conectores SAS vienen en diferentes variantes en su tamaño: SFF-8482, SFF-8484, SFF-
8485, SFF-8470, SFF-8087, SFF-8088.

USB

La clase de dispositivo de almacenamiento masivo USB (en inglés: USB mass storage device class cuyo
acrónimo es USB MSC) es un conjunto de protocolos de comunicaciones que funciona sobre USB,
definido por el USB Implementers Forum; es un estándar que proporciona una interfaz de comunicación
para una variedad de dispositivos de almacenamiento.

Los dispositivos (tales como reproductores de audio digital) que soportan este estándar lo referencian
oficialmente por el acrónimo “USB MSC”, aunque popularmente se lo refiere como "USB Mass
Storage" o UMS, que significa “Almacenamiento Masivo USB”.

IEEE 1394

IEEE 1394 es un tipo de conexión para diversas plataformas, destinado a la entrada y salida de datos en
serie a gran velocidad. Suele utilizarse para la interconexión de dispositivos digitales como cámaras
digitales y videocámaras a computadoras. Existen cuatro versiones de 4, 6, 9 y 12 pines. En el mercado
doméstico su popularidad ha disminuido entre los fabricantes de hardware, y se ha sustituido por la
interfaz USB en sus versiones 2.0 y 3.0, o la interfaz Thunderbolt, aunque es ampliamente utilizado en
automatización industrial, industria militar y para el entorno profesional.

El bus IEEE 1394 (recibe este nombre por el estándar que se le aplica) se lanzó a fines de 1995 para
proporcionar un medio de envío de datos a través de una conexión de alta velocidad en tiempo real.. La
compañía Apple le dio el nombre comercial "FireWire", y pronto se afianzó. Sony lo lanzó como i.Link,
mientras que Texas Instruments lo denominó Lynx

eSATA

El puerto eSATA ("External Serial Advanced Technology Attachment") es una tecnología para la
transmisión de datos entre un ordenador y un dispositivo externo. Junto con el puerto USB 3.0, es la
preferida por la industria tecnológica como sustituta de los actuales estándares de conexión, ya que
permite una mayor velocidad de transferencia y prestaciones idóneas para conectar una nueva gama de
dispositivos más complejos y rápidos, como los discos duros externos SSD.

El puerto eSATA, cuyo estándar se presentó en 2004, está basado en el puerto Serial SATA, utilizado
como conector de los discos duros internos en ordenadores y también usado en reproductores y
grabadores de CD, DVD y Blu-ray como conector para la transmisión de datos entre la placa base del
ordenador y estas unidades.

Thunderbolt
Thunderbolt es una nueva conexión para periféricos basada en las arquitecturas PCI Express y
DisplayPort desarrollada por Intel en colaboración con Apple. Su objetivo es unir en un sólo cable
transmisión de datos de alta velocidad, vídeo de alta definición, y hasta 10 W de alimentación. Se
permite el uso de conexiones ópticas o eléctricas, pero lógicamente sólo las segundas permiten la
transmisión de electricidad por lo que se espera que la mayoría de fabricantes opten por esta
implementación, como ha hecho Apple. Los cables de fibra óptica quedarían para conexiones de datos a
distancias mayores de 3 metros, que es el límite de los hilos de cobre.

Un enlace a través de Thunderbolt consiste en dos canales de 10 Gb/s en ambas direcciones, que para
conexiones de datos significa un rendimiento hasta 20 veces más rápido que con USB 2.0 y hasta 12
veces más rápido que con FireWire 800 gracias a estar basado en PCI Express. Ésta es la tecnología que
une los componentes internos de nuestro Mac, por lo que los periféricos ahora tendrán una vía directa a
las entrañas del ordenador. Así la velocidad de transmisión de datos quedará limitada por los
dispositivos, discos duros, etc. y no por la conexión en sí. Y como Thunderbolt está basado en
tecnologías en uso pronto tendremos disponibles adaptadores para USB, FireWire, Ethernet, etc.

Interfaces SSD

Las unidades de estado sólido están disponibles con una variedad de interfaces de sistema basadas
principalmente en los requisitos de rendimiento para el SDD en el sistema. Además, como los SDD
generalmente se usan en conjunto o intercambiables con unidades de disco magnético, en la mayoría de
los casos se usa una interfaz común de bus de almacenamiento masivo. Esto también permite que el
software del sistema administre ambos tipos de unidades de una manera similar, lo que hace que la
integración del sistema sea casi plug and play. Estos tipos de interfaz comunes incluyen SATA, Fibre
Channel, SAS y ATA / IDE.

Tecnología Flash

El almacenamiento en flash se refiere a cualquier tipo de unidad, repositorio o sistema que utiliza
memoria flash para conservar los datos durante un período de tiempo prolongado.

La memoria flash es omnipresente en los dispositivos informáticos pequeños y es cada vez más común
en los sistemas de almacenamiento de grandes empresas. El tamaño y la complejidad del
almacenamiento basado en flash varían en dispositivos que van desde unidades flash USB portátiles,
teléfonos inteligentes, cámaras y sistemas integrados hasta arreglos de flash de clase empresarial. Flash
se empaqueta en una variedad de formatos para diferentes propósitos de almacenamiento.

CD

El disco compacto es un disco óptico utilizado para almacenar datos en formato digital, consistentes en
cualquier tipo de información (audio, imágenes, vídeo, documentos y otros datos).
Tienen un diámetro de 12 centímetros, un espesor de 1,2 milímetros y pueden almacenar hasta 80
minutos de audio o 700 MB de datos. Los Mini-CD tienen 8 cm y son usados para la distribución de
sencillos y de controladores guardando hasta 24 minutos de audio o 214 MB de datos.

Esta tecnología fue inicialmente utilizada para el CD audio, y más tarde fue expandida y adaptada para
el almacenamiento de datos (CD-ROM), de video (VCD y SVCD), la grabación doméstica (CD-R y CD-
RW) y el almacenamiento de datos mixtos (CD-i, Photo CD y CD EXTRA).

• Sólo lectura: CD-ROM (Compact Disc - Read Only Memory).

• Grabable: CD-R (Compact Disc - Recordable).

• Regrabable: CD-RW (Compact Disc - Re-Writable).

• De audio: CD-DA (Compact Disc - Digital Audio).

DVD

El DVD es un tipo de disco óptico para almacenamiento de datos. El estándar del DVD surgió en 1995
Consorcio (DVD Consortium). La unidad de DVD es el dispositivo que hace referencia a la multitud de
maneras en las que se almacenan los datos: DVD-ROM (dispositivo de lectura únicamente), DVD-R y
DVD+R (solo pueden escribirse una vez), DVD-RW y DVD+RW (permiten grabar y luego borrar).
También difieren en la capacidad de almacenamiento de cada uno de los tipos.

• DVD-ROM

• DVD-R

• DVD-RW

• DVD-RAM

• DVD+R

• DVD+RW
Blu-ray

El disco Blu-ray tiene 12 cm de diámetro, igual que el CD y el DVD. Guardaba 25 GB por capa, por lo
que Sony y Panasonic han desarrollado un nuevo índice de evaluación (i-MLSE) que permitiría ampliar
un 33 % la cantidad de datos almacenados,1 desde 25 a 33,4 GB por capa.23

El disco Blu-ray hace uso de un rayo láser de color azul con una longitud de onda de 405 nanómetros, a
diferencia del láser rojo utilizado en lectores de DVD, que tiene una longitud de onda de 650
nanómetros. Esto, junto con otros avances tecnológicos, permite almacenar sustancialmente más
información que el DVD en un disco de las mismas dimensiones y aspecto externo.45 Blu-ray obtiene su
nombre del color azul del rayo láser (blue ray significa ‘rayo azul’). La letra e de la palabra original blue
fue eliminada debido a que, en algunos países, no se puede registrar para un nombre comercial una
palabra común

HD DVD

HD DVD (por las siglas de High Density Digital Versatile Disc), traducido al español como disco digital
versátil de alta densidad, fue un formato de almacenamiento óptico desarrollado como un estándar para
el DVD de alta definición por las empresas Toshiba, Microsoft y NEC, así como por varias productoras
de cine. Puede almacenar hasta 30 GB.

Este formato finalmente sucumbió ante su inmediato competidor, el Blu-ray, por convertirse en el
estándar sucesor del DVD. Después de la caída de muchos apoyos de HD DVD, Toshiba decidió cesar
de fabricar más reproductores y continuar con las investigaciones para mejorar su formato

LightScribe

LightScribe (en español "Escritura por Luz (láser)") es una tecnología desarrollada por HP y LiteOn
pensada para etiquetar el anverso de un CD o un DVD usando el láser de una grabadora de CD/DVD. Es
una tecnología que no ha sido muy publicitada lo que ha provocado que no avance al ritmo esperado por
los promotores. Es una alternativa de etiquetado que permite, en monocromo, conseguir un resultado
profesional.

Labelflash

Labelflash™ es una tecnología que permite grabar fotografías monocromas y de gradación múltiple o
escribir títulos en la cara de la etiqueta de los discos DVD que utilicen la tinta especial de escritura
desarrollada por Fujifilm Corporation y Yamaha Corporation usando una grabadora de DVD dotada de
función Labelflash™.
La tecnología Labelflash™ es capaz de grabar fotografías de alta resolución y alto contraste en el lado
de la etiqueta de los discos DVD usando el mismo láser que graba los datos. La imagen se graba a 0.6
mm por debajo de la superficie superior del disco mediante una tinta desarrollada por Fujifilm llamada
"Oxolife" por lo que presenta una mayor duración.

Você também pode gostar