Você está na página 1de 3

PARALELISMO - ORGANIZACIÓN Y ARQUITECTURA DE COMPUTADORES 1

PARALELISMO
La razón de ser del procesamiento en paralelo es acelerar la resolución de un

problema, la aceleración que puede alcanzarse depende tanto del problema en sí como de la

arquitectura de la computadora. Las aplicaciones que se benefician de una aceleración más

significativa son aquellas que describen procesos intrínsecamente paralelos, las simulaciones

de modelos moleculares, climáticos o económicos tienen toda una amplia componente

paralela, como los sistemas que representan. el hardware de la máquina entra en juego ya que

es preciso maximizar la relación entre el tiempo de cálculo útil y el perdido en el paso de

mensajes, parámetros que dependen de la capacidad de proceso de las CPUs y de la velocidad

de la red de comunicaciones.

El Paralelismo en la informática , es una función que realiza el procesador para ejecutar

varias tareas al mismo tiempo. Es decir, puede realizar varios cálculos simultáneamente,

basado en el principio de dividir los problemas grandes para obtener varios problemas

pequeños, que son posteriormente solucionados en paralelo. (Hwang, 1993)

Un programa de ordenador es, en esencia, una corriente de instrucciones ejecutadas

por un procesador. Estas instrucciones pueden ser reordenadas y se combinan en grupos que

luego se ejecutan en paralelo sin cambiar el resultado del programa. Esto se conoce como

paralelismo a nivel de instrucción

Este mecanismo consiste en romper el flujo (Moreno, et al., 2010) secuencial de

instrucciones para simultanear la ejecución de varias en el mismo procesador. Existen

diferentes estrategias para lograrlo.

Segmentación (Pipelining).

Es que se divide el proceso de ejecución de una instrucción en etapas de similar

duración, con el objetivo último de procesar instrucciones simultáneamente, encontrándose

cada una en su etapa de ejecución (Moreno, et al., 2010). Que N unidades funcionales del
PARALELISMO - ORGANIZACIÓN Y ARQUITECTURA DE COMPUTADORES 2

procesador estén trabajando a la vez, mejora el rendimiento del chip en circunstancias

ideales.

MULTI THREADING.Consiste en ejecutar al mismo tiempo dos o más threads de un

programa, permitiendo que cada uno de estos threads sea planificado de la manera más

conveniente en el procesador, es decir, aprovechando al máximo todos los recursos

disponibles. Es equivalente a tener dos o más procesadores lógicos o virtuales en lugar de uno

sólo.

MULTINÚCLEO:Es aquel que combina dos o más microprocesadores independientes

en un solo paquete, a menudo un solo circuito integrado. Un dispositivo de doble núcleo

contiene solamente dos microprocesadores independientes. (Tecnica, 2002)

SISD. Arquitectura de simple construcción sobre simple dato. Serie en datos e

instrucciones, arquitectura von neumann.

SIMD: Un solo flujo de instrucciones y múltiples en datos. Computadores matriciales.

Una unidad de control que gobierna varias unidades aritmetico-logicas.

MISD: Varios flujos de instrucciones y uno solo de datos. Arquitectura no

implementada, consecuencia teórica de la clasificación. Superestructura pipeline, varios

conjuntos de unidad de control más unidad aritmético lógica realizan partes de una operación

sobre un flujo de datos.

MIMD: Arquitectura multiprocesador con varios flujos tanto de instrucciones como

de datos. Varios procesadores serie convencionales que manejan cada uno un flujo de

instrucciones sobre un flujo de datos.

CONCLUSIONES (Moreno, et al., 2010)

-El paralismo permite realizar varias tareas como el ahorro de su tiempo de ejecución y que

no todas las instrucciones pueden ejecutarse a la vez a ser dependiente de otras y esperar para

su ejecución.

STEVEN ANDRADE SOLORZANO – ESPOL - 2018


PARALELISMO - ORGANIZACIÓN Y ARQUITECTURA DE COMPUTADORES 3

Bibliografía

Hwang, K. (1993). Advanced Computer Architecture. Mc Graw-Hill.

Moreno, L., Perula, R., Gonzalez, A., Garcia, D., Arismendi, C., & Castillo, J. (2010).

Introducción al Paralelismo y Organización de un Computador. Introducción al

Paralelismo y Organización de un Computador, (pág. 47). Madrid.

Tecnica, A. (3 de Octubre de 2002). Introducion to Mul3threading, Superthreading and

Hyperthreading . Obtenido de

http://arstechnica.com/features/2002/10/hyperthreading/

STEVEN ANDRADE SOLORZANO – ESPOL - 2018

Você também pode gostar