Escolar Documentos
Profissional Documentos
Cultura Documentos
Resumen capitulo #4
Arquitectura de computadoras
Captulo 4
Memoria cach
a)
Disminuye el coste por bit.
b) Aumenta la capacidad.
c) Aumenta el tiempo de acceso.
d) Disminuye la frecuencia de accesos a la memoria por parte del procesador.
Con la correspondencia asociativa hay flexibilidad para que cualquier bloque sea
reemplazado cuando se va a escribir uno nuevo en la cache. Los algoritmos de
reemplazo o sustitucin, discutidos ms adelante en esta seccin, se disean para
maximizar la tasa de aciertos.
Correspondencia asociativa por conjuntos. La correspondencia asociativa por
conjuntos es una solucin de compromiso que recoge lo positivo de las
correspondencias directa y asociativa, sin presentar sus desventajas.
M= v X k
i=j modulo v
Donde
i = nmero de conjunto de cache
j = nmero de bloque de memoria principal
m = nmero de lneas de la cache
palabras o bytes
w
palabras o bytes
2 s+w
2w =
2s
ALGORITMOS DE SUSTITUCN
Una vez que se ha llenado la cache, para introducir un nuevo bloque debe
sustituirse uno de los bloques existentes. Para el caso de correspondencia directa,
solo hay una posible lnea para cada bloque particular y no hay eleccin posible.
Para las tcnicas asociativas se requieren algoritmos de sustitucin. Para
conseguir alta velocidad, tales algoritmos deben implementarse en hardware. Se
han probado diversos algoritmos; mencionaremos cuatro de los ms comunes.
POLITICA DE ESCRITURA
Hay dos casos a considerar cuando se ha de reemplazar un bloque de la cache. Si
el bloque antiguo de la cache no debe ser modificado, puede sobrescribirse con el
nuevo bloque sin necesidad de actualizar el antiguo. Si se ha realizado al menos
una operacin de escritura sobre una palabra de la lnea correspondiente de la
cache, entonces la memoria principal debe actualizarse, rescribiendo la lnea de
cache en el bloque de memoria antes de transferir el nuevo bloque.
La tcnica ms sencilla se denomina escritura inmediata. Utilizado esta tcnica,
todas las operaciones de escritura se hacen tanto en cache como en memoria
principal, asegurando que el contenido de la memoria principal siempre es vlido.
Un sistema que evite este problema se dice que mantiene la coherencia de cach.
Entre las posibles aproximaciones a la coherencia de cach se incluyen:
Vigilancia del bus con escritura inmediata: cada controlador de cach monitoriza
las lneas de direcciones para detectar operaciones de escritura en memoria por
parte de otros maestros del bus. Si otro maestro escribe en una posicin de
memoria compartida que tambin residen la memoria cach, el controlador de
cach invalida el elemento de la cach. Esta estrategia depende del uso de una
poltica de escritura inmediata por parte de todos los controladores decach.
Transparencia hardware: se utiliza hardware adicional para asegurar que todas
las actualizaciones de memoria principal, va cach, quedan reflejadas en todas
las cachs. As, si un procesador modifica una palabra de su cach, esta
actualizacin se escribe en memoria principal. Adems, de manera similar se
actualizan todas las palabras coincidentes de otras cachs.
Memoria excluida de cach: solo una porcin de memoria principal se comparte
por ms de un procesador, y esta se disea como no transferible a cach. En un
sistema de este tipo, todos los accesos a la memoria compartida son fallos de
cach, porque la memoria compartida nunca se copia en la cach. La memoria
excluida de cach puede ser identificada utilizando lgica de seleccin de chip o
los bits ms significativos de la direccin.
T A M A O DE LNEA
Otro elemento de diseo es el tamao de lnea. Cuando se recupera y ubica en
cach un bloque de datos, se recuperan no slo la palabra deseada sino adems
algunas palabras adyacentes. A medida que aumenta el tamao de bloque, la tasa
de aciertos primero aumenta debido al principio de localidad, el cual establece que
es probable que los datos en la vecindad de una palabra referenciada sean
referenciados en un futuro prximo. Al aumentar el tamao de bloque, ms datos
tiles son llevados a la cach. Sin embargo, la tasa de aciertos comenzar a
decrecer cuando el tamao de bloque se haga an mayor y la probabilidad de
utilizar la nueva informacin captada se haga menor que la de reutilizar la
informacin que tiene que reemplazarse. Dos efectos concretos entran en juego:
N M ER O DE CACHS
Cuando se introdujeron originalmente las cachs, un sistema tena normalmente
solo una cach. Ms recientemente, se ha convertido en una norma el uso de
mltiples cachs. Hay dos aspectos de diseo relacionados con este tema que
son el nmero de niveles de cach, y el uso de cach unificada frente al de cachs
separadas. Cachs multinivel. Con el aumento de densidad de integracin, ha sido
posible tener una cach en el mismo chip del procesador: cach on-chip.
Comparada con la accesible a travs de un bus extremo, la cach on-chip reduce
la actividad del bus extremo del procesador y por tanto reduce los tiempos de
ejecucin e incrementa las prestaciones globales del sistema. Cuando la
instruccin o el dato requeridos se encuentran en la cach on-chip, se elimina el
acceso al bus. Debido a que los caminos de datos internos al procesador son muy
cortos en comparacin con la longitud de los buses, los accesos a la cach onchip se efectan apreciablemente ms rpidos que los ciclos de bus, incluso en
ausencia de estados de espera. Adems, durante este periodo el bus est libre
para realizar otras transferencias.