Você está na página 1de 28

+COMPONENTES DE UNA PC Y MANTENIMIENTO

UNIDAD I

Historia de Computadora
I.1.- Historia de la Computación.

Historia de la Computación

Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya
historia se remonta a las antiguas civilizaciones griega y romana. Este
dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a
su vez están montadas en un marco rectangular.

Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal
(1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716)
de Alemania. Con estas máquinas, los datos se representaban mediante las
posiciones de los engranajes, y los datos se introducían manualmente
estableciendo dichas posiciones finales de las ruedas, de manera similar a
como leemos los números en el cuentakilómetros de un automóvil.

La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático
de la Universidad de Cambridge e Ingeniero Ingles en el siglo XIX. En 1823 el gobierno Británico lo
apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar
sumas repetidas. La idea que tuvo Charles Babbage sobre un computador nació debido a que la
elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. Las
características de esta máquina incluye una memoría que puede almacenar hasta 1000 números de
hasta 50 dígitos cada uno. Las operaciones a ejecutar por la unidad aritmética son almacenados en
una tarjeta perforadora. Se estima que la maquina tardaría un segundo en realizar una suma y un
minuto en una multiplicación.
La máquina de Hollerith. En la década de 1880, la oficina del Censo de los Estados Unidos, deseaba
agilizar el proceso del censo de 1890. Para llevar a cabo esta labor, se contrato a Herman Hollerith,
un experto en estadística para que diseñara alguna técnica que pudiera acelerar el levantamiento y
análisis de los datos obtenidos en el censo. Entre muchas cosas, Hollerith propuso la utilización de
tarjetas en las que se perforarían los datos, según un formato preestablecido. Una vez perforadas
las tarjetas, estas serian tabuladas y clasificadas por maquinas especiales. La idea de las tarjetas
perforadas no fue original de Hollerith. Él se baso en el trabajo hecho en el telar de Joseph Jacquard
que ingenio un sistema donde la trama de un diseño de una tela así como la información necesaria
para realizar su confección era almacenada en tarjetas perforadas. El telar realizaba el diseño
leyendo la información contenida en las tarjetas. De esta forma, se podían obtener varios diseños,
cambiando solamente las tarjetas.

En 1944 se construyó en la Universidad de Harvard, la Mark I,


diseñada por un equipo encabezado por Howard H. Aiken. Este
computador tomaba seis segundos para efectuar una multiplicación y
doce para una división. Computadora basada en rieles (tenía aprox.
3000), con 800 kilómetros de cable, con dimensiones de 17 metros
de largo, 3 metros de alto y 1 de profundidad. Al Mark I se le hicieron
mejoras sucesivas, obteniendo así el Mark II, Mark III y Mark IV.

En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator


And Calculator) que fue la primera computadora electrónica que funcionaba con tubos al vacío, el
equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Este computador
superaba ampliamente al Mark I, ya que llego hacer 1500 veces más potente. En el diseño de este
computador fueron incluidas nuevas técnicas de la electrónica que permitían minimizar el uso de
partes mecánicas. Esto trajo como consecuencia un incremento significativo en la velocidad de
procesamiento. Así , podía efectuar 5000 sumas o 500 multiplicaciones en un segundo y permitía el
uso de aplicaciones científicas en astronomía , meteorología, etc.

Durante el desarrollo del proyecto Eniac , el matemático Von Neumann propuso unas mejoras que
ayudaron a llegar a los modelos actuales de computadoras:

1.- Utilizar un sistema de numeración de base dos (Binario) en vez del sistema decimal tradicional.

2.- Hacer que las instrucciones de operación estén en la memoria , al igual que los datos. De esta
forma , memoria y programa residirán en un mismo sitio.
La EDVAC (Electronic Discrete Variable Automatic Computer), construida en la Universidad de
Manchester, en Connecticut (EE.UU), en 1949 fue el primer equipo con capacidad de
almacenamiento de memoria e hizo desechar a los otros equipos que tenían que ser intercambios o
reconfigurados cada vez que se usaban. Tenía aproximadamente cuatro mil bulbos y usaba un tipo
de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a
retardos. EDCAV pesaba aproximadamente 7850 kg y tenía una superficie de 150 m2.

En realidad EDVAC fue la primera verdadera computadora electrónica digital de la historia, tal como
se le concibe en estos tiempos y a partir de ella se empezaron a fabricar arquitecturas más
completas.

El UNIVAC fue la primera computadora diseñada y construida para un propósito no militar.


Desarrollada para la oficina de CENSO en 1951, por los ingenieros John Mauchly y John Presper
Eckert, que empezaron a diseñarla y construirla en 1946.

La computadora pesaba 7257 kg. Aproximadamente, estaba compuesta por 5000 tubos de vacío, y
podía ejecutar unos 1000 cálculos por segundo. Era una computadora que procesaba los dígitos en
serie. Podía hacer sumas de dos números de diez dígitos cada uno, unas 100000 por segundo.

Así Von Neumann, junto con Babbage se consideran hoy como los padres de la Computación.
I.2.- El sistema binario en la computadora.

El sistema binario es un sistema de numeración en el que los números se representan utilizando


las cifras cero y uno, esto es informática tiene mucha importancia ya que las computadoras
trabajan internamente con 2 niveles de voltaje lo que hace que su sistema de numeración natural
sea binario, por ejemplo 1 para encendido y 0 para apagado.

Todas aquellas personas que se dedican a la informática es fundamental tener habilidad con este
tipo de numeración. En este artículo voy a explicar un poco cómo se utiliza y en qué consiste el
sistema binario.

En binario, tan sólo existen dos dígitos, el cero y el uno. Hablamos, por tanto, de un sistema en
base dos, en el que 2 es el peso relativo de cada cifra respecto de la que se encuentra a la
derecha. Es decir:

An, An-1, ….., A5, A4, A3, A2, A1, A0

El subíndice n indica el peso relativo (2n)La forma de contar es análoga a todos los sistemas de
numeración, incluido el nuestro, se van generando números con la combinación progresiva de
todos los digitos. En base 10 (sistema decimal), cuando llegamos al 9, seguimos con una cifra más,
pero comenzando desde el principio: 9,10,11… en binario sería:
0, 1 (cero y uno)
10, 11 (dos y tres)
100, 101, 110, 111 (cuatro, cinco, seis y siete)
1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111 (del ocho al quince)
10000, 10001, 10010, 10011, 10100….

Ya sabemos contar… pero si nos dan un número muy grande en binario… ¿como sabríamos qué
número es contar hasta que lleguemos a ese número? Bien, para eso utilizaremos el siguiente
método: multiplicaremos cada dígito por su peso y sumaremos todos los valores. Por ejemplo,
dado el número en binario 11110100101:

1 1 1 1 0 1 0 0 1 0 1 — Número binario
10 9 8 7 6 5 4 3 2 1 0 — Posición – peso
1×210 + 1×29 + 1×28 + 1×27 + 0×26 + 1×25 + 0×24 + 0×23 + 1×22 + 0×21 + 1×20
=
1024 + 512 + 256 + 128 + 0 + 32 + 0 + 4 + 1 = 1957

Como podemos ver todo se basa en potencias de dos. Para mayor soltura, tendremos que
aprendernos de memoria las potencias de 2, al menos hasta 210 = 1024. Además, cuando ya
estemos familiarizados, podremos realizar el paso anterior de memoria, sin desglosar todas las
multiplicaciones y sumas, simplemente con un cálculo de cabeza.

No se termina ahí la cosa. Debemos aprender también a pasar números en decimal a binario. Para
ello, dividiremos sucesivamente por dos y anotaremos los restos. El número en binario será el
último cociente seguido de todos los restos en orden ascendente (de abajo a arriba). Es decir:

1957 / 2 = 978 Resto: 1


978 / 2 = 489 Resto: 0
489 / 2 = 244 Resto: 1
244 / 2 = 122 Resto: 0
122 / 2 = 61 Resto: 0
61 / 2 = 30 Resto: 1
30 / 2 = 15 Resto: 0
15 / 2 = 7 Resto: 1
7 / 2 = 3 Resto: 1
3 / 2 = 1 Resto: 1

Observar que sale como número: 11110100101


Ahora bien, ¿y para pasar a ambos sistemas si el número no es entero? La solución consiste en
hacer las cuentas por separado. Si tenemos 1957.8125, por un lado pasaremos el 1957 a binario
como ya hemos aprendido. Por otro, tomaremos la parte fraccionaria, 0,8125, y la multiplicaremos
sucesivamente por 2, hasta que el producto sea 1. Tomaremos la parte entera de cada
multiplicación, de forma descendente (de arriba a abajo, o del primero al último):

0.8125 x 2 = 1.625 — Parte Entera: 1


0.625 x 2 = 1.25 — Parte Entera: 1
0.25 x 2 = 0.5 — Parte Entera: 0
0.5 x 2 = 1 — Parte Entera: 1
El cambio de binario a decimal se realizará igual que con la parte entera, teniendo en cuenta que
su peso será 2-1, 2-2, 2-3, 2-4… comenzando por el primer dígito después de la coma:

1 1 1 1 0 1 0 0 1 0 1 . 1 1 0 1 — Número binario
10 9 8 7 6 5 4 3 2 1 0 . -1 -2 -3 -4 — Posición – peso
1×210 + 1×29 + 1×28 + 1×27 + 0×26 + 1×25 + 0×24 + 0×23 + 1×22 + 0×21 + 1×20 + +
1×2-1 + 1×2-2 + 0×2-3 + 1×2-4
=
1024 + 512 + 256 + 128 + 0 + 32 + 0 + 4 + 1 + + 0.5 + 0.25 + 0 + 0.0625
=
1957.8125

I.3.- Unidades básicas de medida.


Byte.- Formado normalmente por un octeto (8 bits), aunque pueden ser entre 6 y 9 bits.
La progresión de esta medida es del tipo B=Ax2, siendo esta del tipo 8, 16, 32, 64, 128, 256, 512.
Se pueden usar capacidades intermedias, pero siempre basadas en esta progresión y siendo
mezcla de ellas (24 bytes=16+8).

Kilobyte (K o KB).- Aunque se utilizan las acepciones utilizadas en el SI, un Kilobyte no son 1.000
bytes. Debido a lo anteriormente expuesto, un KB (Kilobyte) son 1.024 bytes. Debido al mal uso de
este prefijo (Kilo, proveniente del griego, que significa mil), se está utilizando cada vez más el
término definido por el IEC (Comisión Internacional de Electrónica) Kibi o KiB para designar esta
unidad.

Megabyte (MB).- El MB es la unidad de capacidad más utilizada en Informática. Un MB NO son


1.000 KB, sino 1.024 KB, por lo que un MB son 1.048.576 bytes. Al igual que ocurre con el KB,
dado el mal uso del término, cada vez se está empleando más el término MiB.

Gigabyte (GB).- Un GB son 1.024 MB (o MiB), por lo tanto 1.048.576 KB. Cada vez se emplea
más el término Gibibyte o GiB.

Llegados a este punto en el que las diferencias si que son grandes, hay que tener muy en cuenta
(sobre todo en las capacidades de los discos duros) que es lo que realmente estamos comprando.
Algunos fabricantes utilizan el termino GB refiriéndose no a 1.024 MB, sino a 1.000 MB (SI), lo que
representa una pérdida de capacidad en la compra. Otros fabricantes si que están ya utilizando el
término GiB. Para que nos hagamos un poco la idea de la diferencia entre ambos, un disco duro de
250 GB (SI) en realidad tiene 232.50 GiB.

Terabyte (TB).- Aunque es aun una medida poco utilizada, pronto nos tendremos que acostumbrar
a ella, ya que por poner un ejemplo la capacidad de los discos duros ya se está aproximando a
esta medida.
Un Terabyte son 1.024 GB. Aunque poco utilizada aun, al igual que en los casos anteriores se está
empezando a utilizar la acepción Tebibyte

Existen unas medidas superiores, como el Petabyte, Exabyte, Zettabyte o el Yottabite, que
podemos calcular multiplicando por 1.024 la medida anterior. Estas medidas muy probablemente
no lleguen a utilizarse con estos nombre, sino por los nuevos designados por el IEC.
En el círculo, indicación de la capacidad del disco, tanto en GB como en bytes.

PROCESAMIENTO FRECUENCIA DE TRANSMISION:

La velocidad de procesamiento de un procesador se mide en megahercios.


Un megahercio es igual a un millón de hercios.

Un hercio (o herzio o herz) es una unidad de frecuencia que equivale a un ciclo o repetición de un
evento por segundo. Esto, en palabras simples, significa que un procesador que trabaje a una
velocidad de 500 megahercios es capaz de repetir 500 millones de ciclos por segundo.

En la actualidad, dada la gran velocidad de los procesadores, la unidad más frecuente es el


gigahercio, que corresponde a 1.000 millones de hercios por segundo.

Sobre esto hay que aclarar un concepto. Si bien en teoría a mayor frecuencia de reloj (más
megahercios) su supone una mayor velocidad de procesamiento, eso es solo cierto a medias, ya
que en la velocidad de un equipo no solo depende de la capacidad de procesamiento del
procesador.

Estas unidades de medida se utilizan también para medir la frecuencia de comunicación entre los
diferentes elementos del ordenador.

En la imagen, dentro del círculo, frecuencia del procesador, expresada en GHz.


VELOCIDAD TRANSMISION DE DATOS:

En el caso de definir las velocidades de transmisión se suele usar como base el bit, y más
concretamente el bit por segundo, o bps

Los múltiplos de estos si que utilizan el SI o Sistema Internacional de medidas.

Los más utilizados sin el Kilobit, Megabit y Gigabit, siempre expresado en el término por
segundo (ps).

Las abreviaturas se diferencian de los términos de almacenamiento en que se expresan con b


minúscula.
Estas abreviaturas son:

Kbps.- = 1.000 bits por segundo.


Mbps- = 1.000 Kbits por segundo.
Gbps.- = 1.000 Mbits por segundo.

En este sentido hay que tener en cuenta que las velocidades que en la mayoría de las ocasiones
se muestran en Internet están expresadas en KB/s (Kilobyte por segundo), lo que realmente
supone que nos dice la cantidad de bytes (unidad de almacenamiento) que hemos recibido en un
segundo, NO la velocidad de trasmisión. Podemos calcular esa velocidad de transmisión (para
pasarla a Kbps o Kilobits por segundo) simplemente multiplicando el dato que se nos muestra por
8, por lo que una trasmisión que se nos indica como de 308 KB/s corresponde a una velocidad de
transmisión de 2.464 Kbps, a lo que es lo mismo, 2.64 Mbps Esta conversión nos es muy útil para
comprobar la velocidad real de nuestra línea ADSL, por ejemplo, ya que la velocidad de esta si que
se expresa en Kbps o en Mbps

En esta imagen podemos ver la velocidad de transferencia, expresada en KB/s (Kilobytes por segundo).

En la imagen superior podemos ver un ejemplo de lo anteriormente comentado. Se muestra una


velocidad de transferencia de 331 KB/s, lo que corresponde (multiplicando este dato por 8) a una
velocidad de transmisión de 2.648 Kbps, o lo que es lo mismo, 2.65 Mbps (Megabits por segundo).
I.4.- Funciones básicas de las computadoras.

Son pocas, sólo4, pero con rapidez y precisión:

Capturar datos: llevar mensajes del entorno al sistema. Calcular: en rigor sólo suman, pero
así logran realizar las 4 operaciones básicas. Comparar: En sí misma, la comparación no sirve de
nada; sólo si ayuda a la toma de decisiones. Sólo realizan comparaciones elementales (con dos
posibilidades). La combinación secuencial de comparaciones permite la comparación compleja, y
por ende la toma de decisiones complejas. Registrar: Tanto en el sentido de mostrar (pantalla,
impresora), es decir llevar a un lenguaje humano algo que está guardado en el computador, como
en el sentido de guardar algo en el computador.
Usos de las computadoras

Las áreas básicas son las que se refieren a actividades administrativas, educacionales, científicas
y de comunicación.

También pueden clasificarse los usos de las computadoras pueden en 8 categorías principales:

Sistemas de información/procesamiento de datos: Incluye todos los usos de las computadoras que
apoyan los aspectos administrativos de una organización. La combinación de hard, soft, personas,
procedimientos y datos crea un sistema de información. Computación personal: El fundamento de
la computación personal está formado por una variedad de aplicaciones domésticas y
empresariales. El software de productividad con base en la microcomputación consiste en una
serie de programas disponibles comercialmente que pueden ayudar a ahorrar tiempo y a obtener la
información necesaria para tomar decisiones. La PC puede trabajar como un sistema
independiente, pero también puede usarse para transmitir y recibir datos de una red de
información. Ciencia, investigación e ingeniería: Los ingenieros y científicos usan rutinariamente las
computadores como un instrumento en la experimentación, el diseño y el desarrollo. Control de
procesos/dispositivos: Las computadoras que controlan procesos aceptan datos en un ciclo de
retroalimentación continua. En un ciclo de retroalimentación, el proceso genera datos por sí mismo,
los cuales se convierten en entradas para la computadora. La computadora inicia la acción de
control del proceso en marcha conforme recibe e interpreta datos. Educación: Las computadoras
pueden interactuar con los estudiantes para mejorar el proceso de aprendizaje. La computación
con base en computadoras (CBT, computer-based trainig) está teniendo un efecto profundo en los
métodos tradicionales de educación. Diseño asistido por computadora (CAD, computer-aided
design): Los sistemas de CAD permiten generar y manejar imágenes gráficas en pantalla; ofrecen
una serie de instrumentos complejos que permiten crear objetos tridimensionales que pueden ser
levantados, girados, cambiados de tamaño, vistos en detalle, examinados a nivel interno o externo,
etc.
UNIDAD II
Funcionamiento del Software
II.5.- Clasificación del software.

Software de traducción: Con el que los programadores pueden crear otro software. Software
de uso general: Ofrece la estructura para un gran número de aplicaciones empresariales,
científicas y personales. La mayoría del software de este tipo se vende como paquete, es decir,
con software y documentación orientada al usuario. La creación de la aplicación depende del
usuario, del uso que le dé. Software de aplicación: Sirve como herramienta para elevar la
productividad de los usuarios en la resolución de problemas. Está diseñado y escrito para realizar
tareas específicas personales, empresariales o científicas. El software de este tipo procesa datos y
genera información. Software del sistema: Coordina las operaciones de hardware y lleva a
cabo las tareas ocultas que el usuario rara vez observa. Controla o respalda a los otros tipos de
software. Dentro de este tipo de soft se encuentran.

El sistema operativo: es el núcleo de cualquier sistema de computación; supervisa y controla


todas las actividades de I/O (input-ouput, entrada-salida) y procesamiento de un sistema de
computación. Todo el hardware y el software se controla por medio del sistema operativo.

la interfaz gráfica para usuario (GUI, Grafical user interface): Cuando se usa software con base en
texto y controlado por comandos (v.g.: MS-DOS) se debe ser explícito; si se omite información
necesaria en un comando o el formato del comando es incorrecto, aparece un mensaje de error y/o
un indicador en pantalla que solicitará que se vuelva a escribir el comando. Una interfaz es una
capa opcional de software amigable entre el usuario y una interfaz controlada por comandos Las
GUI depende de software con base en gráficos y permite la integración de texto con imágenes
gráficas de alta resolución. Los usuarios de la GUI interactúan con el sistema operativo y otro
software usando un dispositivo de indicación y un teclado para dar comandos. El usuario
selecciona de las opciones que se presentan en la pantalla, ya sea en los menúes o por medio de
un ícono (representación gráfica que simboliza una actividad de procesamiento). Las GUI han
eliminado la necesidad de memorizar y escribir comandos complicados.

Software multiuso: Los paquetes de software integrado cuentan con varias aplicaciones
diseñadas para trabajar en conjunto; estos paquetes suelen incluir como mínimo, 5 tipos de
aplicaciones: procesador de textos, base de datos, planilla de cálculo, gráficos y
telecomunicaciones. Los paquetes integrados ofrecen varias ventajas:

Su precio es menor que el costo total de la compra de los programas individuales.

Dan una apariencia similar a todas sus aplicaciones, de modo que los usuarios no tienen que
memorizar diferentes órdenes y técnicas para efectuar tareas diferentes.

Permiten transferir datos entre las aplicaciones con rapidez y facilidad.

Software vertical: Aplicaciones diseñadas específicamente para una empresa o industria


particular. Son mucho más costosas que las aplicaciones de mercado masivo.

Software a medida: Es el que se programa específicamente para determinados clientes.


II.6.- Sistemas operativos.
Un sistema operativo es el encargado de brindar al usuario una forma amigable y sencilla de
operar, interpretar, codificar y emitir las ordenes al procesador central para que este realice las
tareas necesarias y especificas para completar una orden.
Bajo este nombre se agrupan todos aquellos programas que permiten a los usuarios la utilización
de este enredo de cables y circuitos, que de otra manera serian difíciles de controlar.
Características
Administración de tareas:
Monotarea: Son más primitivos, solo pueden manejar un proceso en cada momento o que solo
puede ejecutar las tareas de una en una. Por ejemplo cuando la computadora está imprimiendo un
documento, no puede iniciar otro proceso ni responder a nuevas instrucciones hasta que se
termine la impresión.
Multitarea: Es el modo de funcionamiento disponible en algunos sistemas, mediante el cual una
computadora procesa varias tareas al mismo tiempo. Este tipo de Sistema operativo normalmente
asigna los recursos disponibles (CPU, memoria, periféricos) de forma alternativa a los programas
que los solicitan, de manera que el usuario percibe que todos funcionan a la vez.
Existen varios tipos de multitareas. La conmutación de contextos (context Switching) es un tipo
muy simple de multitarea en el que dos o más aplicaciones se cargan al mismo tiempo, pero en el
que solo se está procesando la aplicación que se encuentra en primer plano (la que ve el usuario).
Para activar otra tarea que se encuentre en segundo plano, el usuario debe traer al primer plano la
ventana o pantalla que contenga esa aplicación.
En la multitarea cooperativa, la que se utiliza en el sistema operativo Macintosh, las tareas en
segundo plano reciben tiempo de procesado durante los tiempos muertos de la tarea que se
encuentra en primer plano (por ejemplo, cuando esta aplicación está esperando información del
usuario), y siempre que esta aplicación lo permita.
Administración de usuarios:
Monousuario: Son aquellos que nada más puede atender a un solo usuario, gracias a las
limitaciones creadas por el hardware, los programas o el tipo de aplicación que se está ejecutando.
Estos tipos de sistemas son muy simples, porque todos los dispositivos de entrada, salida y control
dependen de la tarea que se está utilizando, esto quiere decir, que las instrucciones que se dan,
son procesadas de inmediato; ya que existe un solo usuario. Y están orientados principalmente por
los microcomputadores.
Multiusuario: Es todo lo contrario a monousuario; y en este se encuentran todos los sistemas
que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten los mismos
recursos. Este tipo de sistemas se emplean especialmente en redes.
Los sistemas operativos por lotes (Bach), en los que los programas eran tratados por grupos. La
función de estos sistemas operativos consistía en cargar en memoria un programa de la cinta y
ejecutarlo. Al final este, se realizaba el salto a una dirección de memoria desde donde reanudaba
el control del sistema operativo que cargaba el siguiente programa y lo ejecutaba. De esta manera
el tiempo entre un trabajo y el otro disminuía considerablemente.
Tiempo Real.
Un sistema operativo en tiempo real procesa las instrucciones recibidas al instante, y una vez que
han sido procesadas muestra el resultado. Este tipo tiene relación con los sistemas operativos
monousuarios, ya que existe un solo operador y no necesita compartir el procesador entre varias
solicitudes.
Su característica principal es dar respuestas rápidas. Tiempo Compartido.
El tiempo compartido en ordenadores o computadoras consiste en el uso de un sistema por más de
una persona al mismo tiempo. El tiempo compartido ejecuta programas separados de forma
concurrente, intercambiando porciones de tiempo asignadas a cada programa (usuario). En este
aspecto, es similar a la capacidad de multitareas que es común en la mayoría de los
microordenadores o las microcomputadoras. Sin embargo el tiempo compartido se asocia
generalmente con el acceso de varios usuarios a computadoras más grandes y a organizaciones
de servicios, mientras que la multitarea relacionada con las microcomputadoras implica la
realización de múltiples tareas por un solo usuario.
Manejo de recursos:
Centralizado: Permite utilizar los recursos de un solo ordenador.
Distribuido: Permite utilizar los recursos (memoria, CPU, disco, periféricos), de más de un
ordenador al mismo tiempo.
Funciones de los Sistemas Operativos
Interpreta los comandos que permiten al usuario
Comunicarse con el ordenador.
Coordina y manipula el hardware de la computadora, como la memoria, las impresoras, las
unidades de disco, el teclado o el Mouse.
Organiza los archivos en diversos dispositivos de almacenamiento, como discos flexibles, discos
duros, discos compactos o cintas magnéticas.
Gestiona los errores de hardware y la pérdida de datos.
Configura el entorno para el uso del software y los periféricos; dependiendo del tipo de máquina
que se emplea, debe establecerse en forma lógica la disposición y características del equipo.
TIPOS DE SISTEMAS OPERATIVOS
Existen dos tipos generales de sistemas operativos: Los basados en caracteres y los de
interfaz gráfica (ambientes amigables). El sistema basado en caracteres es ejemplificado
perfectamente con el sistema operativo utilizado por las computadoras IBM y compatibles.
La Macintosh logró crear la primera interfaz gráfica, posteriormente Microsoft introdujo la
interfaz gráfica Windows para las computadoras IBM y compatibles. Un sistema operativo
que se opera mediante el uso de imágenes y símbolos en vez de palabras se denomina
interfaz gráfica para el usuario, o GUI (Graphic User Interface).
Sistema operativo MS-DOS y WINDOWS
Sistema Operativo MS-DOS y Windows 98.
MS-DOS: es un sistema operativo manotarea y monousuario con una interfaz de línea de
comandos. Se produjo en 1987. Este programa comienza a ejecutarse desde que se enciende y
termina después que la PC se apaga: está en condiciones de detectar y muchas veces controlar y
corregir situaciones de error.
Windows: en 1985 Microsoft lanzo a Windows, proporciona una interfaz estándar basada en menús
desplegables, ventanas en pantallas y un dispositivo señalador con el mouse. La interfaz grafica se
basa en el manejo de símbolos gráficos representativos de cada elemento constituido de la PC,
son los llamados iconos, con los cuales el usuario puede interactuar para comunicarse sus
requerimientos al sistema.
MS-DOS a diferencia de Windows 98, no se encarga de controlar funciones relacionadas con los
gráficos y el sonido.
Con 64 MB de memoria, se ejecuta un promedio de un 25% más rápido que Windows 98.
Los usuarios pueden ejecutar más programas y hacer más tareas al mismo tiempo porque
Windows 2000 está basado totalmente en una arquitectura de 32 bits. Agregándole más memoria,
Windows 2000 se hace más rápido aún.
SISTEMAS OPERATIVOS ACTUALES
Los sistemas operativos empleados normalmente son UNIX, Mac OS, MS-DOS, OS/2 y Windows-
NT. El UNIX y sus clones permiten múltiples tareas y múltiples usuarios. Su sistema de archivos
proporciona un método sencillo de organizar archivos y permite la protección de archivos. Sin
embargo, las instrucciones del UNIX no son intuitivas. Otros sistemas operativos multiusuario y
multitarea son OS/2, desarrollado inicialmente por Microsoft Corporation e International Business
Machines Corporation (IBM), y Windows-NT, desarrollado por Microsoft. El sistema operativo
multitarea de las computadoras Apple se denomina Mac OS. El DOS y su sucesor, el MS-DOS,
son sistemas operativos populares entre los usuarios de computadoras personales. Sólo permiten
un usuario y una tarea.
II.7.- Lenguajes de programación.
Los lenguajes de programación son herramientas que nos permiten crear programas y
software. Entre ellos tenemos Delphi, Visual Basic, Pascal, Java, etc...

Una computadora funciona bajo control de un programa el cual debe estar almacenado en la
unidad de memoria; tales como el disco duro.

Los lenguajes de programación de una computadora en particular se conoce como código de


máquinas o lenguaje de máquinas.

Estos lenguajes codificados en una computadora específica no podrán ser ejecutados en otra
computadora diferente.

Para que estos programas funcionen para diferentes computadoras hay que realizar una versión
para cada una de ellas, lo que implica el aumento del costo de desarrollo.

Por otra parte, los lenguajes de programación en código de máquina son verdaderamente difíciles
de entender para una persona, ya que están compuestos de códigos numéricos sin sentido
nemotécnico.

Los lenguajes de programación facilitan la tarea de programación, ya que disponen de formas


adecuadas que permiten ser leídas y escritas por personas, a su vez resultan independientes del
modelo de computador a utilizar.

Los lenguajes de programación representan en forma simbólica y en manera de un texto los


códigos que podrán ser leídos por una persona.

Los lenguajes de programación son independientes de las computadoras a utilizar.

Existen estrategias que permiten ejecutar en una computadora un programa realizado en un


lenguaje de programación simbólico. Los procesadores del lenguaje son los programas que
permiten el tratamiento de la información en forma de texto, representada en los lenguajes de
programación simbólicos.

Hay lenguajes de programación que utilizan compilador.

La ejecución de un programa con compilador requiere de dos etapas:

1) Traducir el programa simbólico a código máquina


2) Ejecución y procesamiento de los datos.

Otros lenguajes de programación utilizan un programa intérprete o traductor, el cual analiza


directamente la descripción simbólica del programa fuente y realiza las instrucciones dadas.

El intérprete en los lenguajes de programación simula una máquina virtual, donde el lenguaje de
máquina es similar al lenguaje fuente.

La ventaja del proceso interprete es que no necesita de dos fases para ejecutar el programa, sin
embargo su inconveniente es que la velocidad de ejecución es más lenta ya que debe analizar e
interpretar las instrucciones contenidas en el programa fuente.
UNIDAD III

Funcionamiento del Hardware


III.8.- Componentes internos de una PC.

Fuente de poder

No es un componente sofisticado sus elementos son: un transformador y un rectificador. Sirve para


recibir la corriente eléctrica alterna y convertirla en corriente directa de dos voltajes que requieren
los circuitos de la PC. Además, la fuente tiene un abanico que no solo sirve para enfriar la fuente
de poder sino todo el espacio interior de la computadora. La fuente de poder recibe corriente
eléctrica y la procesa y entrega mediante tres tipos de conectores:

• conectores a la tarjeta madre


• conectores para la alimentación de unidades de diskette
• conectores para alimentación de unidades de disco duro y unidades láser.

Tarjeta madre

ES la principal tarjeta de circuito impreso de computadora. Es la más grande y contiene montada


sobre sí al chip microprocesador, las ranuras de bus para conexión de tarjetas adicionales y los
módulos de memoria.

Elementos y propiedades de la tarjeta madre

• Sockets para microprocesadores


• Chipset
• Canales DMA
• BIOS
• Interfaz IDE
• Interfaz ATAPI
• Sockets de memoria
• Sockets para tarjeta de video
• Bus del sistemas
• Bus MCA PS/2
• Bus USB
• Puertos IEEE
• Puertos Serie
• Puertos Paralelo

Sockets para microprocesadores


El microprocesador es el principal componente de la computadora, las tarjetas madre los
pueden alojar directamente en un socket especial, diferente a todos los demás o en una
ranura.

Cada tarjeta madre especifica la rapidez máxima del microprocesador que su socket
soporta, cada día se mejora la velocidad del microprocesador ya que anteriormente su
velocidad era de 450 MHz hasta los de 2.50 GHz que hay en la actualidad.

Chipset

Chipset (juego de chips) es un conjunto de circuitos que usualmente vienen integrados en


un solo chip grande Se designa con un número de modelo que da a nivel a la tarjeta madre
que lo hospeda según sus funciones. Su función central es como controlador programable
de lineas de interrupción al servicio del microprocesador.

Canales DMA

La tarjeta madre tiene 8 líneas de transmisión interna llamados canales de acceso directo
a memoria (DMA) controlados por un chip exclusivo. Sirven para que algunos dispositivos,
como el disco duro y la unidad de diskette, tengan acceso directo a la memoria sin usar
tiempo del microprocesador. Los canales están numerados del 0 al 7 y algunos tienen
funciones fijas preasignadas mientras que otros son asignados según resulta necesario.

BIOS

Es el único componente de la tarjeta madre que no consiste de electrónica sino de


programación(software). Se trata de un programa muy breve que prepara a la
computadora para trabajar cada vez que se enciende. Reside en un chip de memoria
permanente que guarda lo que se graba en él aunque la computadora se apague.

Interfaz IDE

La interfaz IDE es otro conector y sirve para el disco duro. Recibe el nombre oficial de
interfaz ATA del grupo X3T10 del instituto ANSI. Por regla general vienen dos conectores
IDE en la tarjeta madre. Los conectores IDE se identifican por tener 40 patas macho en 2
hileras de 20 cada una con una pata faltante a la mitad de la hilera. Los conectores pueden
tener un conector intermedio adicional para poder conectar dos unidades de disco.

Interfaz ATAPI

Es el conector de 34 líneas que usan las unidades de diskette (floppy drivers). Se


identifican en la tarjeta madre por sus dos hileras de 17 patas macho cada una. Es un
conector de tipo listón igual que los IDE, con uno o dos conectores de salida.

Sockets de memoria

La tarjeta madre dispone de conectores para memoria que pueden empezar alojando una
cantidad de megabytes y que posteriormente el usuario puede agregar más modulos para
aumentar la capacidad de memoria.

Sockets para tarjeta de video


Anteriormente solo había una ranura AGP en la tarjeta madre, sin embargo los nuevos
modelos traen doble ranura AGP para alojar dos tarjetas de vide para usar la función de
doble monitor que se ofrece desde windows 98.

Bus del sistema

Es el conjunto de conectores tipo ranura de contactos múltiples en los que queda la puerta
abierta para expandir la PC. Actualmente la computadoras tienen 2 o 3 ranuras de Bus
libres para posibles adiciones de tarjetas en el futuro.

Bus MCA PS/2

Los bus PS/2 o MCA sirve en las PC actuales para conectar externamente accesorios de
ingreso de datos como el mouse, teclado y joysticks. Las PC tienen conectores PS/2
redondos tipo mini DIN de 6 patas.

Bus USB

El puerto USB es para conectar accesorios que por fuerza son externos, como un
escanner o una cámara de video. Ofrece líneas de datos y alimentación eléctrica en un
solo cable. Otra ventaja es que no se necesita reiniciar o apagar la computadora al
conectarle los accesorios.

Puertos IEEE

Los puertos IEEE 1394 sirven para la transmisión de datos a lata velocidad, también se
llaman puertos DV (Digital Video) o Fire Wire. Las cámaras de video digital tienen este
puerto para conectarse a la computadora.

Puertos Serie

Es un puerto externo que sirve para la comunicación. La nomenclatura intnterna de la PC


identifica al puerto de serie como COM (puerto de comunicaciones). Por ejemplo: un
módem suele conectarse a un puerto serie (denominado también puerto COM).

Puertos Paralelo

Conector de entrada y salida para un dispositivo de interfaz paralelo en forma rectangular


de 25 contactos hembra. Las impresoras se conectan generalmente a un puerto paralelo.

Bus

Es el sistema de contactos estandar que permite alta flexibilidad de expansión porque acepta
tarjetas adicionales de cualquier proveedor. También la función de la tarjeta puede ser cualquiera.
Un conector de Bus, llamado también ranura de Bus, es un módulo de contactos hembra alineados
donde se inserta una tarjeta adicionable que tiene contactos a lo largo de su borde.

Microprocesador

Es el componente principal de la PC. El fabricante más conocido es INTEL y AMD (la competencia)
que aspira a superar a los primeros. El microprocesador contiene, en un chip de circuito integrado,
millones de componentes electrónicos y es responsable de ejecutar las funciones inteligentes de la
computadora. Cada año se aumenta su diseño aumentando ante todo su rapidez de operación que
se mide en Gigaherts (GHz).

Memoria

Es un conjunto de chips donde se almacena en forma temporal una copia de aquella parte de los
datos contenidos en el disco duro que el usuario necesita para el trabajo que está haciendo en el
momento. Si la memoria es grande, la computadora tiene a la mano todos los datos que necesita
para armar la imágen de la pantalla y para las funciones no visibles al usuario si es insuficiente
para los datos requeridos, la PC necesita recurrir al disco contínuamente. Eso causa lentitud
sensible porque la rápidez de acceso a la memoria es cientos de veces mayor que al disco. La
memoria se borra cada vez que se apaga la computadora.

Tarjeta de sonido

La función de sonido suele venir integrada en la tarjeta madre de las PC. muestra en el exterior un
conector hembra de tres contactos escalonados en una sola para donde se conectan las bocinas.

Interfaz de entrada y salida (I/O)

Es otra función de la tarjeta madre, sirve para conectar al CPU con componentes externos
mediante conectores de dos tipos, llamados puertos: puertos paralelo (LPT) y puerto serie (COM).
El puerto paralelo se utiliza para conectar la impresora y puede usarse para unidades de disco
externas y otras cosas. El puerto serie sirve para el mouse, modem externo, cámara y otros
accesorios.

Disco duro

Es el dispositivo de almecenamiento de datos durarero. Consiste en discos giratorios apilados, de


material sensible al magnetismo y cabezas de lectura y escritura. El disco viene enecerrado
herméticamente en una caja sellada, porque es necesario que trabaje sin ninguna partícula de
polvo por lo que sus partes móviles no se ven.

Tarjeta de video

Su propósito es enviar a la pantalla los datos que crean la imágen, para que el usuario pueda
conocer y controlar lo que hace la PC. Las tarjetas de video han evolucionado aumentando su
rapidez en la creación de imágen y para hacre posible presentar texto y gráficos.

Tarjeta de Red

es una placa de circuito impreso que proporciona las capacidades de comunicación de red hacia y
desde un computador personal. También se denomina adaptador LAN; se enchufa en la
motherboard y proporciona un puerto de conexión a la red. Esta tarjeta se puede diseñar como una
tarjeta Ethernet, una tarjeta token ring o una tarjeta de interfaz de datos distribuida por fibra (FDDI).

Una tarjeta de red se comunica con la red a través de una conexión serial y con el computador a
través de una conexión paralela . Cada tarjeta requiere una IRQ, una dirección de E/S y una
dirección de memoria superior para funcionar con DOS o Windows 9x o XP

Al seleccionar una tarjeta de red, debe tener en cuenta los tres factores siguientes:

• tipo de red (por ejemplo, Ethernet, Token Ring o FDDI)


• el tipo de medios (por ej., cable de par trenzado, cable coaxial o fibra óptica)
• tipo de bus del sistema (por ejemplo, PCI o ISA)

Módem

Modulador-desmodulador. Dispositivo que convierte señales digitales y analógicas. En el origen, el


módem convierte las señales digitales en una forma adecuada para la transmisión a través de
servicios de comunicación analógicos. En el destino, las señales analógicas vuelven a su forma
digital. Los módems permiten que los datos se transmitan a través de líneas telefónicas de grado
de voz.

III.9.- Dispositivos de almacenamiento.

Las unidades de almacenamiento o dispositivos de almacenamiento en una computadora son


todos aquellos aparatos que se utilizan para guardar los datos de forma permanente o temporal.

Se suele decir que estas pueden ser del tipo primario (o principales) y secundarios (o auxiliares).
Con esta clasificación, cuando hablamos de unidades primarias nos referimos a la memoria de
acceso aleatoria (RAM). Esta es de tipo permanente pero temporal. Mientras que las secundarias
son permanentes.

La memoria RAM (en ingles Random Access Memory), es una memoria volátil, es decir, que se
pierde al desconectarse el computador de la corriente eléctrica. Es de acceso aleatorio porque sus
diferentes vías de acceso son independientes entre sí.

Dentro de las unidades permanentes tenemos: el disco duro, el Cd-ROM (disco compacto), el DVD,
etc. Actualmente los discos duros tienen una enorme capacidad. Podemos conseguir desde los
más antiguos de 80 Gb hasta los mayores que actualmente superan los 750 Gb.

El Cd–ROM y el Dvd pertenecen a lo que se conoce como la tecnología óptima de


almacenamiento. Esta comienza aproximadamente a principios de los años 80. Esta tecnología
emplea un haz de luz láser que va leyendo (o escribiendo) agujeros microscópicos en la superficie
de un disco de plástico. El sistema es muy parecido al utilizado para los antiguos discos de vinilo
pero con la diferencia que la información se guarda en formato digital, es decir, ceros y unos.

El disco de video digital o DVD es muy similar en aspecto al disco compacto o Cd-ROM pero en el
podemos almacenar muchísima más información que en el disco compacto.

III.10.- Dispositivos de entrada.

Son los que envían información a la unidad de procesamiento, en código binario.


Dispositivos de entrada (entre otros):
Teclado: Un teclado se compone de una serie de teclas agrupadas en funciones que
podremos describir:
• Teclado alfanumérico: es un conjunto de 62 teclas entre las que se encuentran las
letras, números, símbolos ortográficos, Enter, alt...etc.
• Teclado de Función: es un conjunto de 13 teclas entre las que se encuentran el ESC,
tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen
ser configurables pero por ejemplo existe un convenio para asignar la ayuda a F1.
• Teclado Numérico: se suele encontrar a la derecha del teclado alfanumérico y
consta de los números así como de un Enter y los operadores numéricos de suma,
resta,... etc.
• Teclado Especial: son las flechas de dirección y un conjunto de 9 teclas agrupadas
en 2 grupos; uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión
de pantalla entre ellas.

Recomendaciones: En este apartado es conveniente distinguir entre dos tipos de teclado:

• De Membrana: Fueron los primeros que salieron y como su propio nombre indica
presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un
poco más dura.
• Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación
sea menos traumática y más suave para el usuario.
• Mouse: A este periférico se le llamó así por su parecido con este roedor. Suelen
estar constituidos por una caja con una forma más o menos anatómica en la que se
encuentran dos botones que harán los famosos clicks de ratón siendo transmitidos
por el cable al puerto PS/II o al puerto de serie (COM1 normalmente). Dentro de
esta caja se encuentra una bola que sobresale de la caja a la que se pegan 4 rodillos
ortogonalmente dispuestos que serán los que definan la dirección de movimiento del
ratón. El ratón se mueve por una alfombrilla ocasionando el movimiento de la bola
que a su vez origina el movimiento de uno o varios de estos rodillos que se
transforma en señales eléctricas y producen el efecto de desplazamiento del ratón
por la pantalla del ordenador.

Existen modelos modernos en los que la transmisión se hace por infrarrojos eliminando por
tanto la necesidad de cableado. Otros presentan la bola en la parte superior de la caja no
estando por tanto en contacto con la alfombrilla y teniendo que ser movida por los dedos
del usuario aunque se origina el mismo efecto.

• Micrófono: Periférico por el cual transmite sonidos que el ordenador capta y los
reproduce, los salva, etc. Se conecta a la tarjeta de sonido.
• Escáner: Es un dispositivo utiliza un haz luminoso para detectar los patrones de luz
y oscuridad (o los colores) de la superficie del papel, convirtiendo la imagen en
señales digitales que se pueden manipular por medio de un software de tratamiento
de imágenes o con reconocimiento óptico de caracteres. Un tipo de escáner utilizado
con frecuencia es el flatbed, que significa que el dispositivo de barrido se desplaza a
lo largo de un documento fijo. En este tipo de escáneres, como las fotocopiadoras de
oficina, los objetos se colocan boca abajo sobre una superficie lisa de cristal y son
barridos por un mecanismo que pasa por debajo de ellos. Otro tipo de escáner
flatbed utiliza un elemento de barrido instalado en una carcasa fija encima del
documento.
Un tipo muy popular de escáner es el escáner de mano, también llamado hand-held, porque
el usuario sujeta el escáner con la mano y lo desplaza sobre el documento. Estos escáneres
tienen la ventaja de ser relativamente baratos, pero resultan algo limitados porque no
pueden leer documentos con una anchura mayor a 12 o 15 centímetros.

• Lector de código de barras: dispositivo que mediante un haz de láser lee dibujos
formados por barras y espacios paralelos, que codifica información mediante
anchuras relativas de estos elementos. Los códigos de barras representan datos en
una forma legible por el ordenador, y son uno de los medios más eficientes para la
captación automática de datos.
• Cámara digital: Cámara que se conecta al ordenador y le transmite las imágenes que
capta, pudiendo ser modificada y retocada, o volverla a tomar en caso de que este
mal. Puede haber varios tipos:
• Cámara de fotos digital: Toma fotos con calidad digital, casi todas incorporan una
pantalla LCD (Liquid Cristal Display) donde se puede visualizar la imagen
obtenida. Tiene una pequeña memoria donde almacena fotos para después
transmitirlas a un ordenador.
• Cámara de video: Graba videos como si de una cámara normal se tratara, pero las
ventajas que ofrece en estar en formato digital, que es mucho mejor la imagen, tiene
una pantalla LCD por la que ves simultáneamente la imagen mientras grabas. Se
conecta al PC y este recoge el video que has grabado, para poder retocarlo
posteriormente con el software adecuado.
• Webcam: Es una cámara de pequeñas dimensiones. Sólo es la cámara, no tiene
LCD. Tiene que estar conectada al PC para poder funcionar, y esta transmite las
imágenes al ordenador. Su uso es generalmente para videoconferencias por internet,
pero mediante el software adecuado, se pueden grabar videos como una cámara
normal y tomar fotos estáticas.
• Lápiz Óptico: dispositivo señalador que permite sostener sobre la pantalla un lápiz
que está conectado al ordenador y con el que es posible seleccionar elementos u
opciones (el equivalente a un clic de mouse o ratón), bien presionando un botón en
un lateral del lápiz óptico o presionando éste contra la superficie de la pantalla.

El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que
registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se
encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla. La
pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz
de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50
de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz
óptico, el ordenador puede determinar la posición del lápiz en la pantalla. El lápiz óptico no
requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla
táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos
largos de tiempo llega a cansar al usuario.

• Joystick: dispositivo señalador muy conocido, utilizado mayoritariamente para


juegos de ordenador o computadora, pero que también se emplea para otras tareas.
Un joystick o palanca de juegos tiene normalmente una base de plástico redonda o
rectangular, a la que está acoplada una palanca vertical. Los botones de control se
localizan sobre la base y algunas veces en la parte superior de la palanca, que puede
moverse en todas direcciones para controlar el movimiento de un objeto en la
pantalla. Los botones activan diversos elementos de software, generalmente
produciendo un efecto en la pantalla. Un joystick es normalmente un dispositivo
señalador relativo, que mueve un objeto en la pantalla cuando la palanca se mueve
con respecto al centro y que detiene el movimiento cuando se suelta. En
aplicaciones industriales de control, el joystick puede ser también un dispositivo
señalador absoluto, en el que con cada posición de la palanca se marca una
localización específica en la pantalla.
• Tarjetas perforadas: ficha de papel manila de 80 columnas, de unos 7,5 cm (3
pulgadas) de ancho por 18 cm (7 pulgadas) de largo, en la que podían introducirse
80 columnas de datos en forma de orificios practicados por una máquina
perforadora. Estos orificios correspondían a números, letras y otros caracteres que
podía leer un ordenador equipada con lector de tarjetas perforadas.
• Pantalla Táctil: pantalla diseñada o modificada para reconocer la situación de una
presión en su superficie. Al tocar la pantalla, el usuario puede hacer una selección o
mover el cursor. El tipo de pantalla táctil más sencillo está compuesto de una red de
líneas sensibles, que determinan la situación de una presión mediante la unión de los
contactos verticales y horizontales.

Otros tipos de pantallas más precisas utilizan una superficie cargada eléctricamente y
sensores alrededor de los bordes externos de la pantalla, para detectar la cantidad de cambio
eléctrico y señalar exactamente donde se ha realizado el contacto. Un tercer tipo fija diodos
emisores de rayos infrarrojos (LEDs, acrónimo de Light-Emitting Diodes) y sensores
alrededor de los bordes externos de la pantalla. Estos LEDs y sensores crean una red
invisible de infrarrojos en la parte delantera de la pantalla que interrumpe el usuario con sus
dedos.

Las pantallas táctiles de infrarrojos se usan a menudo en entornos sucios, donde la suciedad
podría interferir en el modo de operación de otros tipos de pantallas táctiles. La popularidad
de las pantallas táctiles entre los usuarios se ha visto limitada porque es necesario mantener
las manos en el aire para señalar la pantalla, lo que sería demasiado incómodo en largos
periodos de tiempo. Además no ofrece gran precisión al tener que señalar ciertos elementos
en programas de alta resolución. Las pantallas táctiles, sin embargo, son enormemente
populares en aplicaciones como los puestos de información porque ofrecen una forma de
señalar que no requiere ningún hardware móvil y porque presionar la pantalla es algo
intuitivo.

III.11.- Dispositivos de salida.

Son los dispositivos que reciben información que es procesada por la CPU y la reproducen
para que sea perceptible para la persona.

Dispositivos de salida (entre otros):


• Monitor: es la pantalla en la que se ve la información suministrada por el ordenador.
En el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos
(CRT) como el de los televisores, mientras que en los portátiles es una pantalla
plana de cristal líquido (LCD).

Puntos a tratar en un monitor:

• Resolución (RESOLUTION): Se trata del número de puntos que puede representar


el monitor por pantalla, en horizontal x vertical. Así, un monitor cuya resolución
máxima sea 1024x 768 puntos puede representar hasta 768 líneas horizontales de
1024 puntos cada una, probablemente además de otras resoluciones inferiores, como
640x480 u 800x600.
• Refresco de Pantalla: Se puede comparar al número de fotogramas por segundo de
una película de cine, por lo que deberá ser lo mayor posible. Se mide en HZ
(hertzios) y debe estar por encima de los 60 Hz, preferiblemente 70 u 80. A partir de
esta cifra, la imagen en la pantalla es sumamente estable, sin parpadeos apreciables,
con lo que la vista sufre mucho menos.
• Tamaño de punto (DOT PITCH): Es un parámetro que mide la nitidez de la imagen,
midiendo la distancia entre dos puntos del mismo color; resulta fundamental a
grandes resoluciones. En ocasiones es diferente en vertical que en horizontal, o se
trata de un valor medio, dependiendo de la disposición particular de los puntos de
color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de
electrones.

Lo mínimo, exigible en este momento es que sea de 0,25 mm, no debiéndose admitir nada
superior como no sea en monitores de gran formato para presentaciones, donde la
resolución no es tan importante como el tamaño de la imagen.

• Controles y conexiones: Aunque se va cada vez más el uso de monitores con


controles digitales, en principio no debe ser algo determinante a la hora de elegir un
monitor, si bien se tiende a que los monitores con dichos controles sean los más
avanzados de la gama.
• Multimedia: Algunos monitores llevan acoplados altavoces, e incluso micrófono y/o
cámaras de video. Esto resulta interesante cuando se trata de un monitor de 15'' ó
17'' cuyo uso vaya a ser doméstico, para juegos o videoconferencias.
• Pantalla táctil: véase en dispositivos de entrada.
• Impresoras: Dispositivo que sirve para captar la información que le envía la CPU y
imprimirla en papel, plástico, etc. Hay varios tipos:
• Matriciales: Ofrecen mayor rapidez pero una calidad muy baja.
• Inyección: La tecnología de inyección a tinta es la que ha alcanzado un mayor éxito
en las impresoras de uso doméstico o para pequeñas empresas, gracias a su relativa
velocidad, calidad y sobre todo precio reducidos, que suele ser la décima parte de
una impresora de las mismas características. Claro está que hay razones de peso que
justifican éstas características, pero para imprimir algunas cartas, facturas y
pequeños trabajos, el rendimiento es similar y el coste muy inferior.
Hablamos de impresoras de color porque la tendencia del mercado es que la informática en
conjunto sea en color. Esta tendencia empezó hace una década con la implantación de
tarjetas gráficas y monitores en color. Todavía podemos encontrar algunos modelos en
blanco y negro pero ya no son recomendables.

Las impresoras de inyección cuentan a favor con elementos como el coste, tanto de
adquisición como de mantenimiento, la sencillez de manejo y el tamaño. En contra tenemos
su escasa velocidad y calidad frente a otras tecnologías.

• Láser: Ofrecen rapidez y una mayor calidad que cualquiera, pero tienen un alto
coste y solo se suelen utilizar en la mediana y grande empresa. Por medio de un haz
de láser imprimen sobre el material que le pongamos las imágenes que le haya
enviado la CPU.
• Altavoces: Dispositivos por los cuales se emiten sonidos procedentes de la tarjeta de
sonido. Actualmente existen bastantes ejemplares que cubren la oferta más común
que existe en el mercado. Se trata de modelos que van desde lo más sencillo (una
pareja de altavoces estéreo), hasta el más complicado sistema de Dolby Digital, con
nada menos que seis altavoces, pasando por productos intermedios de 4 o 5
altavoces. Sin duda alguna, se nota perfectamente el esfuerzo que todos los
fabricantes han realizado para ponerse al día en esta tecnología, ya que en poco
tiempo han incorporado a su tecnología desarrollos basados en Dolby Surround o
Dolby Digital.

Los más avanzados constan de 4 altavoces (2 delanteros y 2 traseros) de reducido tamaño,


otro más central para los diálogos y un último altavoz mucho más voluminoso que se
encarga de realzar las fuerzas de los graves. Hasta aquí todo parece indicar que se trata de
otros juegos de altavoces cuadrafónicos. Pero la diferencia principal de estos sistemas es
que incorporan un descodificador Dolby Digital, mediante el cual, podremos ajustar los
volúmenes de cada juego de altavoces, así como aplicar diferentes filtros de sonido en
funcíon del tipo de sonido que estemos reproduciendo en cada momento (música,
película...etc). Para sacar partido de estos altavoces es necesario que nuestra tarjeta de
sonido cuente con una salida S/PDIF de Dolby Digital ya que a través de ésta es desde
donde los conjuntos de altavoces toman el sonido.

La desventaja de este tipo de unidades suele ser la calidad de las mismas. Teniendo en
cuenta el precio de este tipo de conjuntos, en el que se incluye un aparato decodificador, la
calidad de los 6s altavoces no puede ser especialmente buena, aunque para un uso casero
resulta más que válida. Otra cuestíon es la potencia. Tratándose de altavoces pequeños y
baratos no conseguirán una fildelidad de sonido muy grande a poco que la habitación tenga
un tamaño medio.

En cualquier caso los equipos basados en Dolby Digital son muy escasos por el momento y
debemos recurrir a equipos grandes si deseamos una calidad de sonido suficiente y por
tanto será inevitable gastar una cantidad de dinero bastante importante.
• Auriculares: son dispositivos colocados en el oído para poder escuchar los sonidos
que la tarjeta de sonido envía. Presentan la ventaja de que no pueden ser escuchados
por otra persona, solo la que los utiliza.
• Fax: Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida
o bien, vía teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel
que cuando acaba la impresión se corta.

UNIDAD IV

Arquitectura de una Computadora


IV.15.- Introducción a la arquitectura de computadoras

Día con día las computadoras ganan terreno en las actividades humanas, ya sea como una
herramienta para quien las realiza o como un substituto de éste. La capacidad de un
computador para realizar cálculos, procesar datos, generar información e inlcusive simular
procesos y eventos naturales o artificiales las convierten en herramientas universales
únicamente limitadas por su propia capacidad. Este límite es el principal impulsor de la
creciente demanda sobre computadores cada vez más poderosos y de mayores prestaciones.

Las computadoras están presentes en todas nuestras actividades cotidianas, permitiéndonos


hacer más rápido las tareas e inclusive incorporando una mayor cantidad de datos. Sin
embargo, para la mayoría de nosotros pasan desapercibidas muchas otras actividades que
demandan una velocidad y capacidad de manejo de datos mucho muy por arriba de lo
necesitamos para nuestras labores diarias. Actividades que pertenecen a disciplinas
académicas, a labores industriales, económicas o de la milicia requieren manejar grandes
volúmenes de datos, procesarlos a través de inmunerables o complejos cálculos y obtener
resultados en razonables lapsos de tiempo. Por ejemplo, podemos mencionar el análisis
estructural, predicción meteorológica, investigaciones nucleares y de alta energía,
diagnóstico médico, simulaciones para fluidos (aerodinámica o hidrodinámica), inteligencia
artificial y sistemas expertos, navegación y detección, defensa, ingeniería química y
genética, socioeconomía, y muchas otras más. En todos estos casos, la creciente demanda
por manejar volúmenes de datos cada vez mayores, con mayor precisión o más rápidamente
llega a sobrepasar pronto las capacidades de los computadores disponibles. Se busca
entonces que la construcción de mejores computadores logren avances subtanciales en su
rendimiento.

El logro de un elevado rendimiento no depende solamente de hacer que el computador


funcione cada vez más rápido. Principalmente, la mejora en el rendimiento del computador
se obtendrá de mejoras en la "arquitectura" de éste y en el desarrollo de nuevas técnicas de
procesamiento. El concepto de arquitectura de un computador se refiere a la integración de
su estructura física con su estructura lógica. Se utiliza el término "arquitectura" para
enfatizar la síntesis de elementos de ingeniería y ciencias exáctas con elementos estéticos y
de funcionalidad práctica, de la misma manera en que un arquitecto combinará las técnicas
y conocimientos de la ingeniería con la apreciación artística e integración de su obra con su
entorno. Lo que el arquitecto realiza no sólo debe mantenerse en pie durante el tiempo sino
que también debe permitir cumplir el objetivo para el cual fue construido y resultar del
agrado para quien lo use.

Así la disciplina dedicada a la construcción, estudio y aplicación de los computadores


recibe el nombre de Arquitectura de Computadores y puede ser dividida en cinco partes
fundamentales: entrada y salida, comunicaciones, control, procesamiento y
almacenamiento. Esta es de interés tanto para los ingenieros en electrónica y computación,
dedicados al diseño de hardware, como para los científicos en computación e ingenieros de
software, dedicados al diseño de programas. Asimismo, la arquitectura de computadores es
un concepto que integra software, hardware, algoritmos y lenguajes de programación para
el procesamiento de datos y la generación de información.

El diseño y construcción de computadores es frecuentemente visto como labor de un


ingeniero más que de un científico. Sin embargo, las demandantes necesidades de equipos
de cómputo cada vez más veloces y poderosos requiere de la aplicación práctica de diversos
conceptos teóricos. Tales necesidades, involucran computadores individuales
(uniprocesadores), computadores compuestos (multiprocesadores) y supercomputadores.

Por la complejidad con la que se encuentran interrelacionados los elementos físicos y


lógicos que integran a un computador es imposible considerar únicamente a los de un tipo
durante la fase de diseño. Tan importante es el hardware que permite realizar lo que
deseamos como el software que nos permite expresarlo y controlarlo. En la arquitectura de
computadores una computadora es vista como un sistema de cómputo y como tal se
requiere de un amplio conocimiento de las estructuras de hardware y software junto con las
estrechas interacciones con los algoritmos usados (para el cálculo o asignación de
recursos).

En el diseño de una computadora existen varios elementos que se toman en cuenta,


medidos principalmente en términos de desempeño y costo. Métricas secundarias son la
tolerancia a fallas, funcionalidad, y factores ambientales (tamaño, enfriamiento y ruido).
Por supuesto, esto sin perder de vista el objetivos principales como son el diseño de
computadores potentes y de costo razonable, permitir la realización de programas eficientes
que resulevan un problema computacional, y ofrecer las interfaces adecuadas para el
usuario.

Finalmente, y considerando todo lo expuesto hasta este momento, veremos que en un curso
de esta naturaleza los objetivos deben cubrir la presentación de todo el conocimiento
necesario para el diseño de una nueva computadora o mejorar una ya existente y el
desarrollo de algoritmos eficientes tanto para la solución de problemas como para que
hagan el mejor uso del hardware disponible
IV.16.- Arquitectura CISC.

La tecnología CISC (Complex Instruction Set Computer) nació de la mano de Intel, creador
en 1971 del primer microchip que permitiría el nacimiento de la informática personal. Más
concretamente, sería en 1972 cuando aparecería el 8080, primer chip capaz de procesar 8
bits, suficiente para representar números y letras. Con la posibilidad de colocar todos los
circuitos en un solo chip y la capacidad de manejar número y letras nacería la cuarta
generación de ordenadores, la de los conocidos como PC u ordenadores personales.

Los microprocesadores CISC tienen un conjunto de instrucciones que se caracteriza por ser
muy amplio y permitir operaciones complejas entre operandos situados en la memoria o en
los registros internos.

Este tipo de arquitectura dificulta el paralelismo entre instrucciones, por lo que en la


actualidad la mayoría de los sistemas CISC de alto rendimiento implementan un sistema
que convierte dichas instrucciones complejas en varias instrucciones simples, llamadas
generalmente microinstrucciones.

La microprogramación es una característica importante y esencial de casi todas las


arquítecturas CISC. La microprogramación significa que cada instrucción de máquina es
interpretada por un microprograma localizado en una memoria en el circuito integrado del
procesador. Las instrucciones compuestas son decodificadas internamente y ejecutadas con
una serie de microinstrucciones almacenadas en una ROM interna. Para esto se requieren
de varios ciclos de reloj, al menos uno por microinstrucción. Es así entonces como los chips
CISC utilizan comandos que incorporan una gran diversidad de pequeñas instrucciones
para realizar una única operación.

Cuando el sistema operativo o una aplicación requiere de una de estas acciones, envía al
procesador el nombre del comando para realizarla junto con el resto de información
complementaria que se necesite. Pero cada uno de estos comandos de la ROM del CISC
varían de tamaño y, por lo tanto, el chip debe en primer lugar verificar cuanto espacio
requiere el comando para ejecutarse y poder así reservárselo en la memoria interna.
Además, el procesador debe determinar la forma correcta de cargar y almacenar el
comando, procesos ambos que ralentizan el rendimiento del sistema.

El procesador envía entonces el comando solicitado a una unidad que lo descodifica en


instrucciones más pequeñas que podrán ser ejecutadas por un nanoprocesador, una especie
de procesador dentro del procesador. Y al no ser las instrucciones independientes, pues son
instrucciones menores procedentes de la descodificación de una instrucción mayor, sólo
puede realizarse una instrucción cada vez.

A través de la compleja circuitería del chip, el nanoprocesador ejecuta cada una de las
instrucciones del comando. El desplazamiento por esta circuitería también ralentiza el
proceso. Para realizar una sola instrucción un chip CISC requiere de cuatro a diez ciclos de
reloj.
Entre las bondades de CISC destacan las siguientes:

• Reduce la dificultad de crear compiladores.


• Permite reducir el costo total del sistema.
• Reduce los costos de creación de sftware.
• Mejora la compactación de código.
• Facilita la depuración de errores.

Ejemplo de microprocesadores basados en la tecnología CISC:

• Intel 8086, 8088, 80286, 80386, 80486.


• Motorola 68000, 68010, 68020, 68030, 6840.

IV.17.- Arquitectura RISC

Buscando aumentar la velocidad del procesamiento se descubrió en base a experimentos


que, con una determinada arquitectura de base, la ejecución de programas compilados
directamente con microinstrucciones y residentes en memoria externa al circuito integrado
resultaban ser mas eficientes, gracias a que el tiempo de acceso de las memorias se fue
decrementando conforme se mejoraba su tecnología de encapsulado.

La idea estuvo inspirada también por el hecho de que muchas de las características que eran
incluidas en los diseños tradicionales de CPU para aumentar la velocidad estaban siendo
ignoradas por los programas que eran ejecutados en ellas. Además, la velocidad del
procesador en relación con la memoria de la computadora que accedía era cada vez más
alta.

Debido a que se tiene un conjunto de instrucciones simplificado, éstas se pueden implantar


por hardware directamente en la CPU, lo cual elimina el microcódigo y la necesidad de
decodificar instrucciones complejas.

La arquitectura RISC funciona de modo muy diferente a la CISC, su objetivo no es ahorrar


esfuerzos externos por parte del software con sus accesos a la RAM, sino facilitar que las
instrucciones sean ejecutadas lo más rápidamente posible. La forma de conseguirlo es
simplificando el tipo de instrucciones que ejecuta el procesador. Así, las instrucciones más
breves y sencillas de un procesador RISC son capaces de ejecutarse mucho más aprisa que
las instrucciones más largas y complejas de un chip CISC. Sin embargo, este diseño
requiere de mucha más RAM y de una tecnología de compilador más avanzada.

La relativa sencillez de la arquitectura de los procesadores RISC conduce a ciclos de diseño


más cortos cuando se desarrollan nuevas versiones, lo que posibilita siempre la aplicación
de las más recientes tecnologías de semiconductores. Por ello, los procesadores RISC no
solo tienden a ofrecer una capacidad de procesamiento del sistema de 2 a 4 veces mayor,
sino que los saltos de capacidad que se producen de generación en generación son mucho
mayores que en los CISC.

Los comandos que incorpora el chip RISC en su ROM constan de varias instrucciones
pequeñas que realizan una sola tarea. Las aplicaciones son aquí las encargadas de indicar al
procesador qué combinación de estas instrucciones debe ejecutar para completar una
operación mayor.

Además, los comandos de RISC son todos del mismo tamaño y se cargan y almacenan del
mismo modo. Al ser estas instrucciones pequeñas y sencillas, no necesitan ser
descodificadas en instrucciones menores como en el caso de los chips CISC, pues ya
constituyen en sí unidades descodificadas. Por ello, el procesador RISC no gasta tiempo
verificando el tamaño del comando, en descodificarlo ni en averiguar cómo cargarlo y
guardarlo.

El procesador RISC puede además ejecutar hasta 10 comandos a la vez pues el compilador
del software es el que determina qué comandos son independientes y por ello es posible
ejecutar varios a la vez. Y al ser los comandos del RISC más sencillos, la circuitería por la
que pasan también es más sencilla. Estos comandos pasan por menos transistores, de forma
que se ejecutan con más rapidez. Para ejecutar una sola instrucción normalmente les basta
con un ciclo de reloj.

Entre las ventajas de RISC tenemos las siguientes:

• La CPU trabaja mas rápido al utilizar menos ciclos de reloj para ejecutar
instrucciones.
• Utiliza un sistema de direcciones no destructivas en RAM. Eso significa que a
diferencia de CISC, RISC conserva después de realizar sus operaciones en memoria
los dos operandos y su resultado, reduciendo la ejecución de nuevas operaciones.
• Cada instrucción puede ser ejecutada en un solo ciclo del CPU

Ejemplo de microprocesadores basados en la tecnología CISC:

• MIPS, Millions Instruction Per Second.


• PA-RISC, Hewlett Packard.
• SPARC, Scalable Processor Architecture, Sun Microsystems.
• POWER PC, Apple, Motorola e IBM.

IV.18.- Procesadores
El procesador es el cerebro del sistema, encargado de procesar toda la información. Es el
componente donde es usada la tecnología más reciente. Existen en el mundo sólo cuatro
grandes empresas con tecnología para fabricar procesadores competitivos para
computadoras: Intel (que domina más de un 70% del mercado), AMD, Vía (que compró la
antigua Cyrix) e IBM, que fabrica procesadores para otras empresas, como Transmeta.

El procesador es el componente más complejo y frecuentemente más caro, pero él no puede


hacer nada solo. Como todo cerebro, necesita de un cuerpo, que es formado por los otros
componentes de la computadora, incluyendo la memoria, el disco duro, la placa de vídeo y
de red, monitor, teclado y mouse.

Você também pode gostar