Você está na página 1de 5

En serie bu s orportew

fdkf

Unidad central de procesamiento


Ir a la navegación Ir a la búsqueda

Para otros usos de este término, véase Procesador.

Vista superior de una CPU Intel 80486DX2 en un paquete PGA de cerámica.

Vista posterior de una Intel 80486DX2.

Procesador moderno con capacidades de hasta 8 núcleos y 16 hilos de procesamiento.

La unidad central de procesamiento o unidad de procesamiento central (conocida


por las siglas CPU, del inglés: central processing unit), es el hardware dentro de un
ordenador u otros dispositivos programables, que interpreta las instrucciones de un
programa informático mediante la realización de las operaciones básicas aritméticas,
lógicas y de entrada/salida del sistema. El término, y su acrónimo, han estado en uso en
la industria de la Informática por lo menos desde el principio de los años 1960.1 La
forma, el diseño de CPU y la implementación de las CPU ha cambiado drásticamente
desde los primeros ejemplos, pero su operación fundamental sigue siendo la misma.

Un ordenador puede tener más de una CPU; esto se llama multiprocesamiento. Todas
las CPU modernas son microprocesadores, lo que significa que contienen un solo
circuito integrado (chip). Algunos circuitos integrados pueden contener varias CPU en
un solo chip; estos son denominados procesadores multinúcleo. Un circuito integrado
que contiene una CPU también puede contener los dispositivos periféricos, y otros
componentes de un sistema informático; a esto se llama un sistema en un chip (SoC).

Dos componentes típicos de una CPU son la unidad aritmético lógica (ALU), que
realiza operaciones aritméticas y lógicas, y la unidad de control (CU), que extrae
instrucciones de la memoria, las decodifica y las ejecuta, llamando a la ALU cuando sea
necesario.

No todos los sistemas computacional se basan en una unidad central de procesamiento.


Una matriz de procesador o procesador vectorial tiene múltiples elementos de cómputo
paralelo, sin una unidad considerada el "centro". En el modelo de computación
distribuido, se resuelven problemas mediante un conjunto interconectado y distribuido
de procesadores. Y computadoras

Índice
 1 Historia
o 1.1 CPU de transistores y de circuitos integrados discretos
En serie bu s orportew
fdkf
o 1.2 Microprocesadores
 2 Operación
o 2.1 Fetch
o 2.2 Decode
o 2.3 Execute
o 2.4 Writeback
 3 Diseño e implementación
o 3.1 Rango de enteros
o 3.2 Frecuencia de reloj
o 3.3 Paralelismo
 3.3.1 ILP: Segmentación y arquitectura superescalar
 3.3.2 Paralelismo a nivel de hilos
 3.3.3 Paralelismo de datos
 4 Desempeño
 5 Véase también
 6 Notas
 7 Referencias
 8 Bibliografía
 9 Enlaces externos
o 9.1 Diseños de microprocesador
o 9.2 Lectura adicional

Historia

El EDVAC, una de las primeras computadoras de programas almacenados electrónicamente.


ordenadores, como el ENIAC, tenían que ser físicamente recableados
para realizar diferentes tareas, lo que hizo que estas máquinas se
denominaran "ordenadores de programa fijo". Dado que el término "CPU"
generalmente se define como un dispositivo para la ejecución de
software (programa informático), los primeros dispositivos que con
razón podríamos llamar CPU vinieron con el advenimiento del ordenador
con programa almacenado.

La idea de un ordenador con programa almacenado ya estaba presente en el diseño de


John Presper Eckert y en el ENIAC de John William Mauchly, pero esta característica
se omitió inicialmente para que el aparato pudiera estar listo antes. El 30 de junio de
1945, antes de que se construyera la ENIAC, el matemático John von Neumann
distribuyó el trabajo titulado First Draft of a Report on the EDVAC (Primer Borrador de
un Reporte sobre el EDVAC). Fue el esbozo de un ordenador de programa almacenado,
que se terminó en agosto de 1949.2 EDVAC fue diseñado para realizar un cierto número
de instrucciones (u operaciones) de varios tipos. Significativamente, los programas
escritos para el EDVAC se crearon para ser almacenados en la memoria de alta
velocidad del ordenador y no para que los especificara el cableado físico del ordenador.
Esto superó una severa limitación del ENIAC, que era el importante tiempo y esfuerzo
requerido para volver a configurar el equipo para realizar una nueva tarea. Con el diseño
de von Neumann, el programa o software que corría EDVAC podría ser cambiado
simplemente cambiando el contenido de la memoria. Sin embargo, EDVAC no fue el
primer ordenador de programa almacenado; la Máquina Experimental de Pequeña
Escala de Mánchester, un pequeño prototipo de ordenador de programa almacenado,
En serie bu s orportew
fdkf

ejecutó su primer programa el 21 de junio de 19483 y la Manchester Mark I ejecutó su


primer programa en la noche del 16 al 17 junio de 1949.

Las primeras CPU fueron diseñadas a medida como parte de un ordenador más grande,
generalmente un ordenador único en su especie. Sin embargo, este método de diseñar
las CPU a medida, para una aplicación particular, ha desaparecido en gran parte y se ha
sustituido por el desarrollo de clases de procesadores baratos y estandarizados
adaptados para uno o varios propósitos. Esta tendencia de estandarización comenzó
generalmente en la era de los transistores discretos, computadoras centrales y
microcomputadoras y fue acelerada rápidamente con la popularización del circuito
integrado (IC), este ha permitido que sean diseñados y fabricados CPU más complejas
en espacios pequeños en la orden de nanómetros. Tanto la miniaturización como la
estandarización de las CPU han aumentado la presencia de estos dispositivos digitales
en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de
computación dedicadas. Los microprocesadores modernos aparecen en todo, desde
automóviles hasta teléfonos móviles o celulares y juguetes de niños.

Si bien von Neumann muchas veces acreditado por el diseño de la computadora con
programa almacenado debido a su diseño del EDVAC, otros antes que él, como Konrad
Zuse, habían sugerido y aplicado ideas similares. La denominada arquitectura Harvard
del Harvard Mark I, que se completó antes de EDVAC, también utilizó un diseño de
programa almacenado usando cinta de papel perforada en vez de memoria electrónica.
La diferencia clave entre las arquitecturas de von Neumann y la de Harvard es que la
última separa el almacenamiento y tratamiento de instrucciones de la CPU y los datos,
mientras que el primero utiliza el mismo espacio de memoria para ambos. La mayoría
de los CPU modernos son de diseño von Neumann, pero los CPU con arquitectura
Harvard se ven así, sobre todo en aplicaciones embebidas; por ejemplo, los
microcontroladores Atmel AVR son procesadores de arquitectura Harvard.

Los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados
comúnmente como elementos de conmutación; un ordenador útil requiere miles o
decenas de miles de dispositivos de conmutación. La velocidad global de un sistema
depende de la velocidad de los conmutadores. Los ordenadores de tubo, como el
EDVAC, tendieron en tener un promedio de ocho horas entre fallos, mientras que los
ordenadores de relés, (anteriores y más lentos), como el Harvard Mark I, fallaban muy
raramente.1 Al final, los CPU basados en tubo llegaron a ser dominantes porque las
significativas ventajas de velocidad producidas generalmente pesaban más que los
problemas de confiabilidad. La mayor parte de estas tempranas CPU síncronas corrían
en frecuencias de reloj bajas comparadas con los modernos diseños microelectrónicos.
Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango
desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los dispositivos
de conmutación con los que fueron construidos.

CPU de transistores y de circuitos integrados discretos

CPU, memoria de núcleo e interfaz de bus externo de un MSI PDP-8/I. Hecho de circuitos
integrados de mediana escala.
En serie bu s orportew
fdkf

La complejidad del diseño de las CPU aumentó junto con la facilidad de la construcción
de dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras
vino con el advenimiento del transistor. Las CPU transistorizadas durante los años 1950
y los años 1960 no tuvieron que ser construidos con elementos de conmutación
abultados, no fiables y frágiles, como los tubos de vacío y los relés eléctricos. Con esta
mejora, fueron construidas CPU más complejas y más confiables sobre una o varias
tarjetas de circuito impreso que contenían componentes discretos (individuales).

Durante este período, ganó popularidad un método de fabricar muchos transistores en


un espacio compacto. El circuito integrado (IC) permitió que una gran cantidad de
transistores fueran fabricados en una simple oblea basada en semiconductor o "chip". Al
principio, solamente circuitos digitales muy básicos, no especializados, como las
puertas NOR fueron miniaturizados en IC. Las CPU basadas en estos IC de "bloques de
construcción" generalmente son referidos como dispositivos de pequeña escala de
integración "small-scale integration" (SSI). Los circuitos integrados SSI, como los
usados en el computador guía del Apollo (Apollo Guidance Computer), usualmente
contenían transistores que se contaban en números de múltiplos de diez. Construir un
CPU completo usando IC SSI requería miles de chips individuales, pero todavía
consumía mucho menos espacio y energía que diseños anteriores de transistores
discretos. A medida que la tecnología microelectrónica avanzó, en los IC fue colocado
un número creciente de transistores, disminuyendo así la cantidad de IC individuales
necesarios para una CPU completa. Los circuitos integrados MSI y el LSI (de mediana
y gran escala de integración) aumentaron el número de transistores a cientos y luego a
miles.

En 1964, IBM introdujo su arquitectura de ordenador System/360, que fue usada en una
serie de ordenadores que podían ejecutar los mismos programas con velocidades y
desempeños diferentes. Esto fue significativo en un tiempo en que la mayoría de los
ordenadores electrónicos eran incompatibles entre sí, incluso las hechas por el mismo
fabricante. Para facilitar esta mejora, IBM utilizó el concepto de microprograma, a
menudo llamado «microcódigo», ampliamente usado aún en las CPU modernas.4 La
arquitectura System/360 era tan popular que dominó el mercado del mainframe durante
las siguientes décadas y dejó una herencia que todavía aún perdura en los ordenadores
modernos, como el IBM zSeries. En el mismo año de 1964, Digital Equipment
Corporation (DEC) introdujo otro ordenador que sería muy influyente, dirigido a los
mercados científicos y de investigación, el PDP-8. DEC introduciría más adelante la
muy popular línea del PDP-11, que originalmente fue construido con IC SSI pero
eventualmente fue implementado con componentes LSI cuando se convirtieron en
prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI, la
primera implementación LSI del PDP-11 contenía una CPU integrada únicamente por
cuatro circuitos integrados LSI.5

Los ordenadores basados en transistores tenían varias ventajas frente a sus predecesores.
Aparte de facilitar una creciente fiabilidad y un menor consumo de energía, los
transistores también permitían que CPU operara a velocidades mucho más altas debido
al corto tiempo de conmutación de un transistor en comparación a un tubo o relé.
Gracias tanto a esta creciente fiabilidad como al dramático incremento de velocidad de
los elementos de conmutación que por este tiempo eran casi exclusivamente
transistores, se fueron alcanzando frecuencias de reloj de la CPU de decenas de
megahercios. Además, mientras que las CPU de transistores discretos y circuitos
En serie bu s orportew
fdkf

integrados se usaban comúnmente, comenzaron a aparecer los nuevos diseños de alto


rendimiento como procesadores vectoriales SIMD (single instruction multiple data –
instrucción única, datos múltiples). Estos primeros diseños experimentales dieron lugar
más adelante a la era de los superordenadores especializados, como los hechos por Cray
Inc.

Microprocesadores

Você também pode gostar