Você está na página 1de 50

FUNDAMENTOS TEMA 1 SISTEMAS INFORMÁTICOS.

HARDWARE ESTRUCTURA FUNCIONAL


actividades Recursos

LECTURA internet

PRÁC. CUANDERNO Pizarra

PRÁC. ORDENADOR Proyector

EXP. PROFESOR Libro

TALLER

EVALUACIÓN

NOTA ACLARATORIA
Tabla de contenido
1 Sistema Informático. ......................................................................................................... 5
2 Informática: DEFINICIONES................................................................................................ 7
3 El concepto de ordenador. ................................................................................................ 7
4 Clasificación de ordenadores ............................................................................................. 9
4.1 Superordenadores ..................................................................................................... 9
4.2 Mainframe, Macrocomputadora u Ordenador Central. ............................................ 10
4.3 Minicomputadora o Miniordenador......................................................................... 10
4.4 Workstation o Estaciones de Trabajo. ...................................................................... 11
4.5 Ordenador Personal o Microordenador. .................................................................. 11
5 Evolución histórica de la informática. La era mecánica y electromecánica ....................... 13
5.1 Era mecánica ........................................................................................................... 13
5.1.1 Ábaco. ............................................................................................................. 13
5.1.2 Varillas de Napier ............................................................................................. 13
5.1.3 Reglas de cálculo.............................................................................................. 13
5.1.4 Máquina de calcular de Pascal ......................................................................... 13
5.1.5 Máquina de Leibniz .......................................................................................... 13
5.1.6 Aritmómetro .................................................................................................... 14
5.1.7 Máquina de diferencias de Babbage................................................................. 15
5.1.8 Máquina analítica de Babbage ......................................................................... 15
5.2 Era electromecánica. ............................................................................................... 16
5.2.1 Tabuladora....................................................................................................... 16
5.2.2 Primeros ordenadores: Cálculo científico ......................................................... 17
5.3 Era mecánica Versus era electrónica ........................................................................ 17
5.4 Era electrónica ......................................................................................................... 17
6 Generaciones de ordenadores. ........................................................................................ 19
6.1 1ª GENERACIÓN (1946-1958) ................................................................................... 19
6.2 2ª Generación (1958-1964) ...................................................................................... 20
6.3 3ª Generación (1964-1971) ...................................................................................... 21
6.4 4ª Generación (1971-1988) ...................................................................................... 23
6.5 5ª Generación (1988-hasta el presente) ................................................................... 24
7 Arquitectura Von Neumann. Bloques funcionales. ........................................................... 25
8 Unidad Central de proceso (CPU) .................................................................................... 27
9 Los registros internos del microprocesador. .................................................................... 28
10 La unidad de control. ................................................................................................... 29
11 La unidad Aritmético lógica. ........................................................................................ 31
12 Ejecución de una instrucción. Fase de búsqueda y fase de ejecución. .......................... 32
13 Los buses de comunicación.......................................................................................... 33
14 La memoria principal. .................................................................................................. 34
15 Unidades de entrada-salida. ........................................................................................ 37
16 CODIFICACIÓN DE LA INFORMACIÓN ........................................................................... 39
17 Unidades de medidas de la información. ..................................................................... 41
18 Sistemas de numeración.............................................................................................. 42
18.1 TEOREMA FUNDAMENTAL DE LA NUMERACIÓN (TFN)............................................. 42
19 Representación de datos alfabéticos: códigos BCD, ASCII, EBCDIC y UNICODE ............. 46
19.1 Ascii (American Standard Code for Informatión Interchange) ................................... 46
19.2 Ebcdic (Extended BDC Interchange Code) ................................................................ 48
19.3 Unicode ................................................................................................................... 50
19.4 Fieldata ................................................................................................................... 50
1 Sistema Informático.
La informática es la ciencia que se encarga de estudiar todo lo relacionado con los
sistemas informáticos, incluyendo desde los temas relativos a su arquitectura y su fabricación,
hasta los temas referidos a la organización y almacenamiento de la información, sin olvidar los
relativos a la creación y uso del software, o a la formación del personal informático. Para ello
se basa en múltiples ciencias como las matemáticas, la física, la electrónica, etc.

Se define sistema informático como un conjunto de elementos físicos (hardware) y de


elementos lógicos (software) interconectados entre sí, destinados a gestionar el tratamiento
automático y racional de la información, entendiendo por esto, su organización, su
transmisión, su procesamiento y/o su almacenamiento.

Se incluye como parte fundamental del sistema informático al conjunto de personas que
lo utiliza, ya sean usuarios, administradores, programadores, etc. El elemento humano es un
componente imprescindible, ya que los sistemas informáticos son creados, desarrollados y
utilizados por humanos para su propio provecho.

Gráfico que representa la estructura de


un sistema informático genérico:

En un Sistema Informático se debe distinguir entre hardware y software:

 Hardware es todo lo que forma parte del ordenador, que puede ser tocado físicamente. Es
decir; teclado, ratón, monitor, placa base, procesador, memoria, disco duro, cables, etc. Es
la "maquinaria" necesaria utilizada para el tratamiento automático de la información.
 Software es el elemento lógico, es todo aquello que es "intangible". Es el conjunto de
programas y datos que permiten manejar el hardware, controlando y coordinando su
funcionamiento para que realice las tareas deseadas.

El software lo integran tanto los programas como los datos:

 Los programas están formados por un conjunto de órdenes o instrucciones que se utilizan
para procesar los datos que se le introducen como información. Son necesarios para la
gestión y el control de los equipos y de los trabajos de los usuarios.
 Los datos son en sí la información que los programas deben procesar, utilizando para ello
los diferentes elementos hardware que componen el sistema informático. Son, en
definitiva, el objeto o razón de ser del sistema informático.
Los sistemas informáticos han evolucionado, desde que en principio todos sus
componentes: físicos, lógicos y humanos estaban localizados en un mismo lugar, a estar
formados por subsistemas interconectados a través de redes, que pueden llegar a estar a miles
de kilómetros entre sí, integrando sistemas complejos de procesamiento de la información. Y
estos subsistemas pueden estar compuestos tanto por un superordenador, como por un solo
ordenador personal, o por redes locales de ordenadores, o por una combinación de todos
ellos.

El sistema informático más simple estará formado por un sólo ordenador y por un
usuario que ejecuta los programas instalados en él.

Se define ordenador como una máquina electrónica, con algunas partes mecánicas,
compuesta por, al menos, una unidad de proceso, y por equipos periféricos, controlada por
programas que deben estar almacenados en su memoria central, destinada al tratamiento
automático de la información que le es suministrada. Es una máquina de propósito general ya
que puede realizar gran variedad de trabajos a gran velocidad y con gran precisión. Existen
muchos tipos de ordenadores, así que pueden ser clasificados en función de diversos criterios.
En el módulo de fundamentos Hardware se dará información sobre esta clasificación de
ordenadores.
2 Informática: DEFINICIONES

Informática, concepto: Ciencia y tecnología aplicada a la automatización del


razonamiento y del tratamiento de la información
INFORmación+autoMÁTICA

 Automática: Ciencia que trata de la sustitución del operador humano por un


operador artificial en la ejecución de una tarea física o mental previamente
programada.
 Información: Yuxtaposición de símbolos con los que representar
convencionalmente hechos, objetos o ideas.

Informática, definición de la Real Academia: Conjunto de conocimientos científicos y


técnicas que hacen posible el tratamiento automático de la información por medio de
ordenadores.

3 El concepto de ordenador.

Un ordenador es un sistema complejo, constituido por hardware y software,


cuya función principal es la ejecución de programas.
El hardware lo constituyen los procesadores, memorias, registros, sistema de
entrada/salida, etc.
El software es el elemento que permite que esos recursos hardware realicen
las tareas para las que están destinados.
A día de hoy no puede hablarse de los ordenadores sino como del conjunto
indivisible de hardware y software.

Hay que señalar que, en realidad, un ordenador es un dispositivo que puede


realizar tan solo un número limitado de operaciones muy sencillas: sumar números,
desplazar bits, realizar operaciones lógicas, etc.
Toda la funcionalidad que proporcionan los ordenadores, gestionar bases de
datos, procesar imágenes y sonido, controlar instrumentación de laboratorio, realizar
simulaciones de física nuclear, se termina descomponiendo en este tipo de
operaciones elementales. La potencia y la increíble capacidad de los ordenadores se
fundamentan en el hecho de que estas operaciones se realizan a una grandísima
velocidad.
Existen muchos tipos de ordenadores, desde pequeños sistemas empotrados,
por ejemplo, el microprocesador que controla una máquina de café, hasta grandes
supercomputadores que realizan el cálculo de la trayectoria óptima para una sonda
interplanetaria. Todos estos sistemas se basan, fundamentalmente, en los mismos
principios y funcionalidades.
4 Clasificación de ordenadores
La base de todo ordenador es el Microprocesador, que es su cerebro, es lo
que lo define como tal. El resto de componentes que se le conectan no son más que
dispositivos que le da funcionalidad.
Vamos a clasificarlos por su tamaño, de mayor a menor, en cinco tipos:
1. Superordenadores o supercomputadores.
2. Mainframes o macrocomputadora.
3. Minicomputadora o miniordenador.
4. Workstation o estaciones de trabajo
5. Ordenadores personales (PC).

4.1 Superordenadores
Un Superordenador es un ordenador extraordinariamente rápido con
capacidades de proceso, de cálculo, y de almacenamiento, etc. muy superiores
tecnológicamente comparado con el resto de ordenadores construidos en la misma
época.
Físicamente son de gran tamaño. Deben ser instalados en ambientes
controlados para poder disipar el calor producido por sus componentes, lo que no
impide que puedan soportar la conexión en línea de miles de usuarios.
Suelen incorporar varios procesadores de gran capacidad de proceso
trabajando conjuntamente, en paralelo, destinados a una tarea específica.
El número de procesadores, dependiendo del modelo, varía en un rango que
va desde unos 16 procesadores hasta unos 512 procesadores. Por supuesto también
cuentan con una generosa cantidad de memoria y con gran capacidad de
almacenamiento.
Esto les permite procesar ingentes
cantidades de información en poco tiempo,
pudiendo llegar a procesar miles de millones de
operaciones por segundo. Están diseñados para
desarrollar cálculos complicados a gran
velocidad. Por ello son utilizados para realizar
simulaciones de procesos muy complejos con
una gran cantidad de datos como por ejemplo, el análisis del genoma humano, la
simulación de explosiones nucleares, las predicciones meteorológicas o astronómicas,
etc. Pero también son utilizadas para diseñar y probar virtualmente máquinas
complejas como automóviles o aviones, y para controlar el funcionamiento de naves
espaciales y satélites, entre otras cosas
Como también tienen un costo excesivo, en comparación con otros
ordenadores, se suelen fabricar muy pocos, se suelen fabricar bajo pedido.
4.2 Mainframe, Macrocomputadora u Ordenador Central.
Los mainframe son grandes ordenadores, de uso general, que disponen de
varios procesadores que pueden trabajar de forma independiente entre sí, pudiendo
así ejecutar varias tareas a la vez. Están preparados para realizar varios millones de
operaciones por segundo. Su gran capacidad de proceso les permite por un lado,
controlar al mismo tiempo a cientos de usuarios, incluso a miles, y por otro controlar el
manejo de puertos de entrada salida, dando soporte a cientos de dispositivos de
entrada y salida, gracias a lo cual pueden contar con muchas unidades de disco que les
permiten almacenar grandes cantidades de información.
Físicamente hoy día un mainframe tiene la apariencia de una fila de
archivadores, similares a los de una biblioteca, que se
suelen instalar en una habitación, con control de
temperatura y con doble suelo, bajo el cual se aloja la
inmensa cantidad de cables necesarios para la conexión
de los periféricos.
En comparación con un superordenador, un
mainframe es mucho más barato y puede ejecutar
simultáneamente mayor número de programas, pero los
superordenadores pueden ejecutar un solo programa
mucho más rápido.
Son utilizados en las empresas de gran tamaño,
con muchas sucursales, como bancos, compañías de transportes, etc.

4.3 Minicomputadora o Miniordenador


Son la versión reducida, de un mainframe, con menos prestaciones en
velocidad, menos memoria, menor capacidad de almacenamiento y menor número de
terminales. Están orientadas a tareas específicas. Fueron ideadas para dar servicio a
empresas e instituciones, de menor tamaño, que no necesitan
toda la capacidad de proceso, ni todos los periféricos de un
mainframe.
Un minicomputador es por tanto, un sistema
multiproceso y multiusuario que ofrece servicios específicos,
que cuenta con capacidad para soportar hasta 200 usuarios
conectados simultáneamente y que soporta un número
limitado de dispositivos. Siendo, de un relativo pequeño
tamaño y pequeño costo, en comparación con un mainframe.
Se suelen utilizar para el almacenamiento de grandes bases de
datos, para control automático en la industria y para
aplicaciones multiusuario.
4.4 Workstation o Estaciones de Trabajo.
Estación de trabajo. Un ordenador
de gran potencia para ser usado por un sólo
usuario, es parecido a un ordenador personal
pero con mejores componentes, que le
proporcionan mayor potencia y mayor
calidad, y que normalmente se conectan a un
ordenador más grande a través de una red,
permitiendo a los usuarios compartir ficheros,
aplicaciones y hardware, como por ejemplo
las impresoras.
Internamente, las estaciones de trabajo están basadas generalmente en otro
tipo de diseño de CPU llamado RISC (procesador de cómputo con un conjunto reducido
de instrucciones), con el que las instrucciones se procesan con mayor rapidez.

4.5 Ordenador Personal o Microordenador.


Conocido como PC (del ingles personal computer), es un ordenador de
propósito general, de pequeño tamaño, con al menos, un microprocesador, que suele
disponer de ratón y teclado para introducir datos, de un monitor para mostrar la
información, y de algún dispositivo de almacenamiento en el que instalar el sistema
operativo y guardar datos y programas. Además admite la conexión de otros
periféricos con múltiples y variadas funcionalidades.
Son los ordenadores más accesibles para cualquier tipo de usuario, en cuanto
a coste y a facilidad de uso.
Los PC's tuvieron su origen gracias a la creación de los microprocesadores por
parte de Intel, y a que IBM l os incorporó en unos
pequeños ordenadores que con el tiempo se
estandarizaron, facilitando que otras compañías
también pudieran fabricarlos y comercializarlos a
precios asequibles al gran público. Se conoce como
ordenador personal a todos los ordenadores IBM
PC y a los modelos similares compatibles, también
a los ordenadores Macintosh de APPLE y a los
modelos similares posteriores.

La miniaturización ha permitido la creación de otros tipos de PC's. Estos son


algunos de ellos:

 Ordenadores Portátiles o Laptops. Son ordenadores


personales que pueden transportarse con facilidad
por ser ligeros de peso y de reducido tamaño, que
están equipados con una batería que les permite
trabajar sin estar conectadas a la red eléctrica.
 Los Notebooks que son portátiles un poco más ligeros
que los Laptops, o los Netbooks aun más pequeños que
se usan principalmente para navegar en Internet

 TabletPC. Se trata de un ordenador pizarra, sin


teclado físico, que dispone de una pantalla táctil con
la que se interactúa utilizando los dedos o algún tipo
de apuntador. Hay ordenadores portátiles con
teclado y ratón, que permiten rotar la pantalla y
colocarla como si de una pizarra se tratase, para su
uso como Tablet PC.

 Pocket o Palm o PDA ("personal digital assistant")


Son pequeños ordenadores con pantallas táctiles que
caben en la palma de la mano, y que tienen muchas
de las prestaciones de los ordenadores de escritorio,
pero no todas.

 Smartphone. Es un teléfono móvil que incorpora


características de un ordenador personal. Pueden tener un
mini teclado, una pantalla táctil, un lápiz óptico, etc.
Incluyen acceso a Internet, servicios de correo electrónico,
cámara integrada, navegador web, procesador de textos,
etc. Permiten la instalación de nuevas aplicaciones con las
que aumentan sus funcionalidades.

5 Evolución histórica de la informática. La era mecánica y
electromecánica

5.1 Era mecánica

5.1.1 Ábaco.
 Antigüedad: 1200 d. C.
 Primera herramienta eficaz para
ayuda del cálculo
 Representa números y realiza
sumas, restas y multiplicaciones.

5.1.2 Varillas de Napier


 Antigüedad: 1615
 Sencillo instrumento mecánico con el que se podía
realizar con gran facilidad multiplicaciones y divisiones.

5.1.3 Reglas de cálculo


 Antigüedad: 1620-1630
 Sistemas de cálculo analógicos
 Utilizan logaritmos para realizar
diversas operaciones
 Operandos y resultados se
representan por longitudes
 Utilizadas hasta mediados década de los 60.

5.1.4 Máquina de calcular de Pascal


 Antigüedad: 1642
 Máquina para sumar y restar
 Ruedas giratorias o diales a las que se
encuentran unidas ruedas dentadas
 Cada vez que una rueda da una vuelta
completa hace girar la rueda de peso
superior y pasa a cero
 Los datos se introducen con diales
 La cifra acumulada se lee a través de un
visor.

5.1.5 Máquina de Leibniz


 Antigüedad: 1671
 Realiza las cuatro operaciones básicas
 Sustituye las ruedas dentadas por cilindros dentados cuyos dientes varían en longitud
 No funciona cuando hay que propagar simultáneamente
un número determinado de cifras.
 Perfecciona la de Pascal que solamente sumaba y
restaba.

5.1.6 Aritmómetro
 Antigüedad: 1820 (Ideado por Charles-Xavier Thomas de Colmar)
 Dispositivo a base de piñones dentados que realiza multiplicaciones y divisiones
basándose en el mismo principio de la calculadora de Leibniz
 Uso sencillo. Buen funcionamiento
 Desde el año 1820 y hasta el año 1912 se producen algunos millares de estos
ejemplares.
 La empresa Brunsviga comercializó una máquina
similar (Dupla) usada hasta 1950.
5.1.7 Máquina de diferencias de Babbage

(Padre de la informática moderna)

Empieza a diseñar y construir la


máquina diferencial (No se construyo)

 Antigüedad: 1822
 Objetivo: producir tablas de navegación
 Realiza cálculos científicos y astronómicos practicados sobre unas tarjetas de cartón
 Funcionamiento basado en la evaluación automática de polinomios por diferencias
finitas
 Interés: cualquier función puede aproximarse mediante polinomios.
 Puede considerarse un ordenador digital con un programa fijo (el de la evaluación de
polinomios)

NOTAS:
 1832: Babbage y Joseph Clement completan la construcción de un primer segmento
prototipo.
 1842: Se cancela el proyecto, debido a su sobrecoste y a haberse quedado obsoleto en
favor de la Maquina Analítica.
 1859-60: Per Georg Scheutz vende dos de sus
Maquinas Diferenciales a UK y los USA. Fueron
usadas para tabular logaritmos y tablas
astronómicas.
 1991: El London Science Museum termina la
construcción de la primera Maquina Diferencial de
Babbage para conmemorar el 200 aniversario de su
nacimiento.
 2000: Se completa la construcción de la
“impresora" de la maquina: Toda la construcción se
realiza usando tolerancias del S. XIX.

5.1.8 Máquina analítica de Babbage


 Antigüedad: 1832
 Ideó la maquina analítica estableciendo
los principios de funcionamiento de los
ordenadores electrónicos.
 Evolución de la máquina de diferencias:
o Adición de elementos de ordenadores
modernos (entrada/salida, elementos
de operaciones aritméticas, memoria).
o Para la modificación del “programa” fijo en la máquina de diferencias
 Es programable mediante tarjetas perforadas.
 Los datos e instrucciones se introducen mediante tarjetas perforadas
 No se construyó debido a su complejidad mecánica

5.2 Era electromecánica.


NOTA: Tarjeta perforada:
 Antigüedad: 1804 (Ideada por Joseph-Marie
Jacquard)
 1804 -Telar de Jacquard: primera máquina
en usar tarjetas perforadas para controlar
una secuencia de operaciones. Cada tarjeta
corresponde a una fila del diseño. La
existencia o no de un agujero en un punto
determinado determina el patrón de los hilos. Esto permite cambiar el patrón tejido
mediante el cambio de tarjetas: precursor de los computadores programados.
 1832 - S. Korsakov utiliza tarjetas perforadas por primera vez fuera de la industria
textil. Idea un dispositivo para facilitar la búsqueda de información en una base de
datos. En este caso, las tarjetas perforadas almacenan información, no control.

5.2.1 Tabuladora
 Antigüedad: 1890 (Creada por Hermann Hollerith)
 Usa tarjetas perforadas sobre un conductor:
o Los agujeros permiten el cierre de circuitos eléctricos por varillas metálicas
telescópicas
o Las perforaciones tienen significado que permiten su clasificación y
contabilidad
o Posibilitó el censo de EE.UU. (1890-1900) (de 12 años se pasó a 3)
 Su inspiración proviene de los revisores de ferrocarriles, que codificaban
características físicas de los pasajeros
en el picado de los billetes.
 En vista del éxito, Hollerith funda la
Tabulating Machines Company en
1896.
 Su modelo de negocio consista en
alquilar maquinas tabuladoras y
vender tarjetas perforadas a
gobiernos extranjeros para realizar
sus censos.
 En 1924, tras varias fusiones, la TMC se convertirá en IBM.
5.2.2 Primeros ordenadores: Cálculo científico
Antigüedad: 1937- 1944 Howard H. Aiken , Crea Mark1 (Primer calculador
automático digital.

Fabricó el primer ordenador utilizando elementos electromecánicos (relés),


tabuladoras y utilizaba como medio de entrada las tarjetas perforadas

NOTA:
Relé: Conmutador que contiene un contacto mecánico que
puede abrir o cerrar un circuito eléctrico mediante un
electroimán que atrae (o repele) al contacto mecánico.

5.3 Era mecánica Versus era electrónica


Ordenadores basados en elementos mecánicos problemas:
 Velocidad de trabajo limitada a la velocidad de los componentes
 La transmisión de la información por medios mecánicos (engranajes, palancas) es poco
fiable y difícil de manejar
Características era electrónica:
 Ordenadores basados en elementos electrónicos.
 Su velocidad no es comparable con ningún elemento mecánico
 Primer elemento electrónico usado para calcular: Válvula de vacío

5.4 Era electrónica

 Antigüedad:1946 - Primer ordenador


electrónico: Se presenta en la Universidad de
Pennsylvania el ENIAC, diseñado por Eckert y
Mauchly : Velocidad de trabajo superior al Mark I
 Antigüedad: 1951 - Primer ordenador capaz
de trabajar con programa almacenado, el
EDVAC (modificación de ENIAC) . Se basa en
la idea programa debe almacenarse en la
misma memoria que los datos con los que
trabaja.

 Antigüedad: 1945 - Jon W.Mauchly


construyó primer ordenador comercial
UNIVAC-I (oficina del censo Estados
Unidos). Utilizaba las cintas magnéticas
como dispositivo almacenamiento
externo.

 Antigüedad: 1952 - Se construyeron ordenadores como el MANIAC-I, el MANIAC-II el


UNIVAC-II, este último incluía memorias de ferrita.

UNIVAC-II MANIAC-I
6 Generaciones de ordenadores.

6.1 1ª GENERACIÓN (1946-1958)


Los primeros ordenadores se empezaron a desarrollar, como no debería
sorprendernos, durante el transcurso de la Segunda Guerra Mundial. En 1943, el ejército de
Estados Unidos empezó a construir el ENIAC. El propósito era utilizar la capacidad de cómputo
para realizar cálculos de trayectorias balísticas. Este primer ordenador estaba fundamentado
en el empleo de válvulas de vacío. La construcción duró hasta el año 1946, por lo que no pudo
ser utilizado para su propósito inicial. En su lugar, fue empleado para realizar cálculos
relacionados con la bomba de hidrógeno. Esto demostró la versatilidad de estos sistemas de
propósito general.

Uno de los principales inconvenientes del ENIAC era que tenía que ser programado
manualmente. Esta programación consistía en conectar y desconectar cables en las posiciones
adecuadas. Como nos podemos imaginar, era una tarea tediosa y en la que resultaba sencillo
cometer errores. La capacidad de cómputo de este ordenador era de unas 5.000 sumas por
segundo.

Para evitar el inconveniente de tener que introducir manualmente el programa, se


desarrollaron ordenadores que contenían éste en la memoria. Esta idea fue propuesta por
John Von Neumann en 1945.

Tecnología:
 Tubos al vacío
o Diodo: dispositivo que conduce electricidad sólo en un sentido(Dos electrodos
(ánodo y cátodo)
o Tríodo: dispositivo que puede ser un conmutador: Dos electrodos (ánodo y
cátodo) separados por una rejilla. La corriente en la rejilla determina la conducción
entre los electrodos
 Memorias de líneas de retardo de mercurio
o Las memorias de tubos de vacío eran caras
o Basadas en el mantenimiento de información por la circulación de corriente a
diferentes velocidades por las líneas de retardo

Ordenadores:
 COLOSSUS(1943)
o Debido a una reciente desclasificación de
documentos británicos de la Segunda Guerra
Mundial se ha descubierto que la primera
computadora electrónica fue el Colossus.
o Construcción secreta con el objetivo de
descifrar los mensajes militares secretos del
ejército alemán, codificados con la máquina
Enigma
o Con 1500 válvulas
 ENIAC(Electronic Numerical Integrator and Computer) 1945
o Construcción secreta (uso militar: construcción de tablas matemáticas para el
cálculo de trayectorias de proyectiles)
o Programable en hardware (por cambio de conmutadores y conexiones)
o Utiliza aritmética decimal.
o Con sus 18000 válvulas de vacío y 1500 relés pesó 30 toneladas y ocupó 140
metros cuadrados, 5000 cálculos por segundo
 EDVAC (Johnvon Neumann: 1950)
o Evolución de ENIAC.
o Implementación de arquitectura von Neumann de los ordenadores actuales:
 Estructura de máquina de Babbage (E/S, ALU, Unidad de control y
memoria).
 Aritmética binaria.
 Programa almacenado en memoria.
 UNIVAC I(UNIVersalAutomaticComputerI) (1951)
o Primer ordenador fabricado en serie
o Memoria de líneas de retardo
o El primero funcionó durante 12 años ininterrumpidamente (24 horas al día)
 IBM 704: último de la generación

Software:
 Ausencia de sistema operativo, la introducción y control de la ejecución de programas
manual.
 Sólo un programador usa el ordenador a la vez.
 Lenguajes de programación
o Lenguajes de máquina (secuencias de 0 y 1)
o Concepto de subrutina: Fragmento de programa que realiza una tarea concreta,
recibe un nombre por el que puede ser ejecutado desde otra parte del programa
o Aparición de primeros ensambladores (simbólicos) Se dan nombres
mnemotécnicos a los códigos binarios que identifican las operaciones para facilitar
la programación.
o Aparición de ayudas a la programación:
 Generadores de programa en código máquina.
 Primeros compiladores (traducen programas escritos en lenguajes de más
alto nivel que lenguaje de máquina a éste) rudimentarios.

6.2 2ª Generación (1958-1964)


Tecnología:
 Transistor: Un transistor era un elemento que podía
emplearse de la misma manera que una válvula de vacío. Sin
embargo, ofrecía numerosas ventajas: Mientras que las
válvulas de vacío eran enormes, complejas y necesitaban
mucha energía para funcionar, los transistores, hechos a base
de silicio, eran pequeños, ligeros, sencillos, rápidos y
consumían mucha menos energía.
Además de un cambio en la tecnología, los ordenadores de la segunda generación
también se aprovecharon de diseños de unidades de control, memorias y sistemas de
entrada/salida más avanzados que los de la generación anterior.

o Dispositivo similar al tríodo pero


 Sólido
 Más fácil de fabricar
 Menor consumo y calor disipado
 Más pequeño
 Más duradero
 Núcleo de ferrita
o Memoria de ferrita: malla de hilos conductores entrecruzados
o En los vértices un aro de ferrita (núcleo) por cuyo interior pasan los dos hilos
o El núcleo se selecciona activando los hilos de su fila y columna:Corriente en un
sentido, la ferrita se magnetiza en un sentido (idem. contrario)
o Cada ferrita almacena un bit

Ordenadores:
 IBM 7090 y 7094
o Versiones con transistores de anteriores IBM 704 y 709 (triodos)
o Control de E/S mediante canales
 UNIVAC 1004, IBM 1620, CDC 1604.

Software:
 Primeros lenguajes de alto nivel: Más cercanos a la forma humana de expresión (en
oposición a máquina)FORTRAN, ALGOL58 y 60 y COBOL
 Comienzo de sistemas operativos

6.3 3ª Generación (1964-1971)


Aunque el desarrollo de los transistores fue un gran avance con respecto a las válvulas
de vacío, los ordenadores de la segunda generación seguían teniendo limitaciones.

La principal era que los distintos elementos del ordenador tenían que realizarse a
partir de elementos discretos, transistores, resistencias, condensadores y bobinas, uniéndolos
entre sí por medio de cables soldados. Evidentemente, esta manera artesanal de construir los
circuitos tenía un límite en el número de transistores que podían emplearse. Los ordenadores
de segunda generación más avanzados llegaron a tener más de 100.000 transistores. La tarea
de soldar este número de elementos sobre una placa debió de ser descomunal, además de ser
extremadamente cara.

La tercera generación de ordenadores vino marcada por el desarrollo de los circuitos


integrados. Estos circuitos integrados consistían en grandes obleas de silicio, sobre las que se
construían todos los transistores, resistencias y elementos necesarios. Una vez fabricado este
soporte básico, se realizaban las conexiones adecuadas mediante un proceso de metalización.
De esta manera, fue posible superar el límite impuesto por la técnica de soldar componentes
discretos. La tecnología de circuitos integrados siguió evolucionando de manera que cada vez
era posible introducir más transistores por cada centímetro cuadrado de silicio. La famosa ley
de Moore establecía que el número de transistores dentro de un circuito integrado se doblaría
cada dieciocho meses. Sorprendentemente, esta ley se ha mantenido vigente hasta nuestros
días, tal y como puede apreciarse en la Figura, que muestra el número de transistores
integrados en cada CPU desde el año 1971 por los principales fabricantes de ordenadores del
mundo.

El hecho de que cada vez haya más transistores por unidad de superficie significa que
estos son más pequeños, consumen menos energía y están más cerca los unos de los otros,
por lo que los sistemas son más veloces. Por otra parte, el coste permanece prácticamente
constante, por lo que la capacidad de cómputo es cada vez más barata. Los procesos de
miniaturización y ahorro de energía, a su vez, permiten la construcción de sistemas portátiles.
Este desarrollo tecnológico ha permitido la democratización de la informática. Si en los
primeros años sólo grandes organizaciones con enormes presupuestos podían acceder a estos
sistemas, a día de hoy el acceso a estas tecnologías es prácticamente universal en los países
desarrollados.

Tecnología:
 Circuitos integrados: En una placa de silicio se construye un circuito con una función
electrónica compleja:
o Circuitos mejores (coste, complejidad y fiabilidad)
o Aumento de velocidad (reducción de espacio)
o Reducción de consumo
 Uso de circuitos integrados también en las memorias

Ordenadores:
 Grandes computadores y pequeños terminales.
o Un ordenador central da servicio a terminales locales o remotos
o Técnicas de compartición de recursos y procesamiento concurrente
o Técnica de memoria virtual, el usuario cree que hay más memoria
 IBM 360:(desde 1965) familias de ordenadores
o Con diferente capacidad y prestaciones
o Ejemplo: IBM 360
 PDP: (desde 1963) miniordenadores
o Bajo precio, reducido tamaño y buenas prestaciones, por aprovechamiento de
circuitos integrados

Software:
 Sistemas operativos
o Desarrollo de sistemas operativos propios para cada máquina (incompatibles con
otras)
o Nuevas técnicas: Multiprogramación( Para compartir recursos)
 Lenguajes de programación: Nuevos lenguajes de alto nivel(BASIC, PL/I, APL)

NOTA:
Si las tres primeras generaciones están claramente delimitadas y aceptadas por la comunidad,
a partir de este punto ya no hay un acuerdo tan extenso sobre los límites o la notación de las
siguientes. Hay autores que hablan de una cuarta, una quinta y hasta una sexta generación de
computadores basándose en el número de transistores que integra cada chip. Hay otros que
hablan de una cuarta generación basada en el uso de memorias semiconductoras y
microprocesadores y una quinta basada en el empleo de las redes de ordenadores. Esta
discrepancia se debe al hecho de que ya no ha habido un cambio tecnológico tan pronunciado
como en las primeras generaciones como para dar lugar a un nuevo nombre. En cualquier
caso, independientemente de la notación empleada, un hecho es evidente: los ordenadores
han seguido evolucionando a un ritmo frenético y lo siguen haciendo a día de hoy. El objetivo
es seguir construyendo computadores más rápidos, más potentes, más baratos, más pequeños
y que necesiten menos energía para funcionar. Uno de los pilares de esta evolución es la ya
mencionada ley de Moore. Si los primeros ordenadores de tercera generación tenían unos
pocos miles de transistores, en la actualidad son comunes los que integran cientos de millones
de ellos, incluso algunos ya superan los mil millones de transistores integrados en la CPU. Otro
gran avance lo supuso el paso de memorias de ferrita a memorias semiconductoras. De esta
manera, la capacidad de la industria de circuitos integrados pudo llevarse también al desarrollo
de memorias cada vez más capaces, rápidas y baratas. El desarrollo del Intel 4004 marcó el
inicio de la era de los microprocesadores, es decir, sistemas que tenían todos sus elementos
integrados en una sola pastilla de silicio. Este desarrollo sirvió para llevar el empleo de los
computadores a aparatos de uso cotidiano como los electrodomésticos, el automóvil, los
reproductores de música y un largo etcétera. A principios de la década de 2000 se introdujo
una nueva estrategia en la evolución de la computación. Además de integrar cada vez más
transistores en un único chip, proceso que tiene un límite, entre otras cosas, por la capacidad
de disipación de potencia, se empezaron a diseñar ordenadores multiprocesador. A toda esta
evolución de cada ordenador de manera individual hay que añadirle, además, el desarrollo de
las redes de ordenadores y las técnicas de procesado en red.

6.4 4ª Generación (1971-1988)


Tecnología:
 Se desarrolló el microprocesador
 Se colocan más circuitos dentro de un "chip"
 Cada "chip" puede hacer diferentes tareas
 Un "chip" sencillo actualmente contiene la unidad de control y la unidad aritmética/lógica.
La memoria primaria, es operada por otros "chips"
 Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio
 Se desarrollan las microcomputadoras: computadoras personales o PC.
 Se desarrollan las supercomputadoras

Ordenadores:
 Ordenadores personales (PC): Informática “doméstica”.
 Estaciones de trabajo: Aumento de prestaciones y disminución de precio.
 Supercomputadores
 Lisa: Primer ordenador personal, con ratón e interfaz gráfica, fabricado por Apple

Software:
 Sistemas operativos: Aparecen sistemas operativos independientes de la máquina y
compatibles( UNIX, MS/DOS, OS/2,WINDOWS)
 Nuevas necesidades de sistemas operativos: Sistemas operativos de red, distribuidos
 Nuevos lenguajes más “potentes”:C
 Técnicas de programación más “abstractas”:Lógica (PROLOG),Orientada a objetos
(SmallTalk, C++)

6.5 5ª Generación (1988-hasta el presente)


 Inteligencia artificial: Campo de estudio que trata de aplicar los procesos del pensamiento
humano usados en la solución de problemas a la computadora.
 Robótica:El arte y ciencia de la creación y empleo de robots. Un robot es un sistema de
computación híbrido independiente que realiza actividades físicas y de cálculo. Están
siendo diseñados con inteligencia artificial, para que puedan responder de manera más
efectiva a situaciones no estructuradas.
 Sistemas expertos: Aplicación de inteligencia artificial que usa una base de conocimiento
de la experiencia humana para ayudar a la resolución de problemas.
 Redes de comunicaciones: Canales de comunicaciones que interconectan terminales y
computadoras

NOTA:
Diferencia entre estructura y arquitectura de computadores
Por estructura de computadores se entiende la descripción física de cada uno de los
elementos de un computador, así como de sus interconexiones.
Por arquitectura de computadores se entiende la serie de atributos que tienen
impacto en la programación del sistema.
Por ejemplo, la organización de la memoria, su método de direccionamiento, o el
número de bits de cada palabra son atributos de la arquitectura de computadores. La
tecnología de semiconductores utilizada para dicha memoria es un aspecto de la estructura del
computador. Evidentemente, hay situaciones en las que la estructura determina la
arquitectura o viceversa.

7 Arquitectura Von Neumann. Bloques funcionales.


Uno de los graves inconvenientes de los primeros ordenadores era la tediosa
tarea de reprogramación de los mismos.
Esta tarea consistía literalmente en conectar y desconectar cables. Este
problema interesó a John Von Neumann, quien propuso un ordenador en el que las
instrucciones estuvieran contenidas en memoria de la misma manera que los datos. La
estructura básica de la arquitectura Von Neumann se muestra en la Figura, donde las
características de cada uno de los elementos serán descritas en los apartados
posteriores.

En esta figura podemos


distinguir los siguientes elementos
funcionales:
 Unidad de Control.
 Unidad aritmético-lógica, ALU.
 Memoria.
 Sistema de Entrada/Salida.
 Buses.

Si entendemos por elementos


funcionales aquellos que son
necesarios para el funcionamiento del
ordenador y la ejecución de programas,
a los cinco mostrados en la Figura debemos añadirle también el software, ya que sin
éste el ordenador no es más que un trozo de silicio sin ninguna utilidad. Cada uno de
estos seis elementos funcionales se describe brevemente en los siguientes apartados.
El funcionamiento de esta arquitectura es un ciclo infinito formado por las
siguientes fases:
 Fase 1. Copia del contenido de la posición de memoria indicada por el Contador de
Programa en el Registro de Instrucción.
 Fase 2. Actualización del Contador de Programa.
 Fase 3. Ejecución de la instrucción contenida en el Registro de Programa.
 Vuelta a la Fase 1.
Aunque las tecnologías empleadas en los ordenadores digitales han cambiado
mucho desde que aparecieron los primeros modelos, la mayoría aun utiliza la Arquitectura de
Von Neumann.

La implementación de diagrama de bloques de una placa base actual sería así:


8 Unidad Central de proceso (CPU)
 La UCP o CPU Controla y gobierna todo el sistema(Es el cerebro del ordenador)
 Es la unidad donde se ejecutan las instrucciones de los programas y se controla el
funcionamiento de los distintos componentes del ordenador. Suele estar integrada en un
chip denominado microprocesador.
 Se suele llamar erróneamente CPU a la caja del ordenador donde van alojados los
componentes básicos del mismo, es decir, además de la CPU en sí, la placa base, las
tarjetas de expansión, el disco duro, la fuente de alimentación, etc.
 La potencia de un sistema informático se mide sobre todo por la de su CPU.
La CPU compone de:
o Unidad de Control (UC)
o Unidad Aritmético-lógica (ALU)
o Los registros de trabajo o de propósito general, donde se almacena la información de
manera temporal.
La UC, la UAL y los registros constituyen el procesador central del sistema, encargado
del control y ejecución de las operaciones del sistema

El Bus es el camino a través del cual las instrucciones y los datos circulan entre las
distintas unidades del ordenador.

Tipos de CPU: Básicamente nos encontramos con dos tipos de diseño


 CISC computadora con un conjunto complejo de instrucciones.
 RISC computadora con un conjunto reducido de instrucciones.

A pesar de que los microprocesadores RISC son más fiables, rápidos y potentes, el mercado se
decanta por los micros CISC por:
 CISC tiene un coste razonable para el usuario
 Para el usuario medio, las prestaciones CISC son suficientes
 El software CISC y RISC es incompatible
9 Los registros internos del microprocesador.
Los registros internos del procesador están constituidos por unas celdas de
memoria que permiten a la CPU almacenar datos temporalmente
El tamaño del registro indica el número de bits que el procesador puede
manipular a la vez. El tamaño siempre es igual o múltiplo de byte.
A mayor tamaño de registro mayor potencia del microprocesador.
Los registros de la CPU se dividen en:
 Registros visibles al usuario:
o Registros de dirección. Contienen las direcciones de memoria donde se
encuentran los datos. Algunos de los registros de dirección más usados
son los registros de índices y los punteros de pila.
o Registros de datos. Se usan para contener datos, lo que hace que
aumente la velocidad de proceso, sobre todo cuando se solicita un dato,
porque con frecuencia se deja en estos registros y no es necesario
acceder a memoria.
o Registros de condición o flags. Específicamente son bits fijados
mediante hardware, e indican, por ejemplo, si una operación entrega un
resultado positivo, negativo o nulo, si hay overflow,…
 Registros de control y de estado: Son los que intervienen en la ejecución de las
instrucciones
o Contador de programa (CP) o contador de instrucciones. Contiene la
dirección de la siguiente instrucción a ejecutar; su valor es actualizado
por la CPU después de capturar la instrucción.
o Registro de instrucciones (RI). Contiene el código de la instrucción
actual. Aquí se analiza el código de operación.
o Registro de dirección de memoria (RDM). Contiene la dirección de una
posición de memoria, donde se encuentra o va a ser almacenada la
información. Esta operación se realiza a través del bus de direcciones.
o Registro de intercambio de memoria (RIM). Recibe o envía la
información o el dato contenido en la posición apuntada por el RDM; el
intercambio de datos con la memoria se realiza a través del bus de
datos
10 La unidad de control.

El objetivo principal de la Unidad de Control (UC) es la Interpretar y ejecutar


las instrucciones maquina almacenadas en la memoria principal y genera las señales
de control necesarias para ejecutarlas.
Una instrucción es una operación elemental en un lenguaje de programación; la
orden más pequeña que un programador puede dar a un ordenador. Las instrucciones
contienen dos tipos de información:
 Lo que tiene que hacer la instrucción (sumar, almacenar datos ...)
 Con qué datos tiene que hacerlo

Para realizar esta tarea, la UC tiene un conjunto de componentes internos:

Secuenciador RELOJ

Decodificado
r

CONTADOR DE
Registro de
PROGRAMA
instrucciones

 Registro de instrucción: Memoriza temporalmente la instrucción del programa que la


UC está ejecutando. Consta diferentes campos:
 Decodificador de instrucciones: Extrae y analiza código de operación de la instrucción
en curso.
 Registro contador de programas: Registro especializado que el sistema carga
automáticamente al principio de la ejecución del programa con la dirección de
memoria de la primera instrucción a ejecutar. Cada vez que se carga una instrucción
en el registro de instrucción se incrementa el contador de programa.
 Secuenciador: Envía las microinstrucciones adecuadas al código de operación de la
instrucción que se está ejecutando, sincronizadas con los impulsos de reloj que hacen
se ejecuten paso a paso y de manera ordenada instrucciones cargadas en él.
 Reloj: Sucesión de impulsos eléctricos a intervalos constantes. Marca tiempos
ejecución de los pasos a realizar para cada instrucción. Velocidad reloj en megahercios
(MHz).
Cuando la unidad de control recibe una instrucción, la decodifica y el secuenciador
envía una lista de órdenes (Microinstrucciones) a las unidades que toman parte en la
ejecución de la instrucción, en el orden adecuado para que cada una de ellas se proceda
en el debido instante y de forma correcta.
11 La unidad Aritmético lógica.

Contiene los circuitos electrónicos con los que se hacen las operaciones de tipo
aritmético y de tipo lógico
Incluye otros elementos auxiliares por donde se transmiten o almacenan
temporalmente los datos (registros) con objeto de operar con ellos.
El símbolo para representar la ALU:

Elementos componen ALU:


 Circuito combinacional u operacional: Realiza las operaciones con los datos de los
registros de entrada.
 Registros de entrada: Contienen los operandos de la operación.
 Registro acumulador: Almacena los resultados de las operaciones.
 Registro de estado: Conjunto de biestables (flags) que almacenan información sobre
la última operación realizada en la ALU (si hubo acarreo, si el resultado fue negativo o
cero ...)
12 Ejecución de una instrucción. Fase de búsqueda y fase de
ejecución.
Vamos a ver las etapas como se ejecuta una instrucción cualquiera en el ordenador:

El proceso de ejecución de instrucciones se describe a


continuación:
 La Unidad de Control lee de memoria la siguiente
instrucción a ejecutar. La posición en memoria de
esta instrucción está contenida en un registro
llamado Contador de Programa.
 Una vez que se ha leído la instrucción, el Contador
de Programa se incrementa.
 La instrucción leída de memoria se almacena en
otro registro llamado Registro de Instrucción. A esta primera parte de la ejecución
se le denomina Fase de búsqueda.
 La instrucción se decodifica y se lleva a cabo por la Unidad de Control. A esta
segunda parte se le denomina Fase de ejecución.
 Una vez que se ha terminado la ejecución de la
instrucción, la Unidad de Control toma la siguiente
instrucción de memoria de la posición indicada por el
Contador de Programa. Como el Contador de Programa se
había incrementado durante la fase de búsqueda, en este
momento apunta a la siguiente instrucción a ejecutar, y se
repetirá el proceso anterior
13 Los buses de comunicación.
Hasta ahora hemos visto varios de los distintos elementos que componen los
ordenadores. Incluso hemos hablado de acciones como leer, escribir o copiar datos
entre varios de estos elementos. Evidentemente, para que todo esto sea posible, los
distintos elementos de un computador deben estar conectados. Estos caminos de
conexión permiten la comunicación y el intercambio de información entre los distintos
subsistemas descritos hasta ahora. A estas vías de comunicación se les denomina
buses. Los buses están constituidos por un conjunto de cables o pistas que llegan a
todos los dispositivos presentes en un ordenador. Tradicionalmente, se distingue entre
tres tipos de buses según la información que transportan:

 Bus de direcciones: El bus de direcciones especifica la dirección de memoria o de


E/S sobre la que se realiza una acción determinada. El número de líneas que
contiene el bus de direcciones determina la capacidad de direccionamiento de
memoria del computador. Por ejemplo, un bus de direcciones de 10 líneas puede
direccionar un máximo de 210 posiciones de memoria, es decir, 1024.
 Bus de datos. El bus de datos contiene los datos que se mueven entre
memoria y la CPU, o entre la CPU y un periférico, por ejemplo. La anchura
del bus de datos, junto con la longitud de palabra de memoria, condicionan
enormemente el rendimiento del sistema. Por ejemplo, si el bus de datos es
de 8 líneas, y la palabra de memoria es de 16 bits, entonces para cada
acceso a memoria son necesarios dos ciclos de lectura o escritura.
 Bus de control. El bus de control contiene ciertas señales de control del
computador, por ejemplo, la señal de reloj o la señal de petición de
interrupción.

La estructura de estos buses y su interconexión con el resto de elementos se


muestra en la Figura siguiente

El bus es un elemento compartido entre distintos dispositivos. Esto significa


que debe existir algún mecanismo para evitar que, por ejemplo, dos elementos
escriban un dato a la vez en el bus de datos, puesto que este hecho significaría la
pérdida de ambos datos. Por el mismo motivo, el diseñador de computadores debe
realizar un diseño inteligente de los buses para que éstos no se conviertan en un cuello
de botella del sistema.
14 La memoria principal.
La memoria es el elemento del computador cuya función es el
almacenamiento de datos e instrucciones. Podemos entender la memoria como un
conjunto de celdas capaces de almacenar una serie de bits. El número de bits de cada
celda determina la longitud de palabra de dicha memoria. El número de celdas
determina el número de palabras que puede almacenar, es decir, su capacidad. Cada
celda de memoria tiene asociada una dirección. El acceso a cada celda de memoria se
realiza a través de su dirección.

La memoria está
conectada con el bus de datos
y con el bus de direcciones del
computador. Además, dispone
también de unas señales de
control que permiten
seleccionar la operación que
se desea realizar sobre una
celda determinada. Dentro de
un ordenador hay varios tipos
de memoria. Estos tipos
poseen diferentes características de capacidad, velocidad de acceso y precio:
Memoria interna del procesador: registros de alta velocidad internos a la CPU,
se usan como almacenamiento temporal de instrucciones y datos.
Memoria caché: pequeña y muy rápida, para acceso rápido a los datos más
usados.
Memoria principal: relativamente grande y rápida, usada para el
almacenamiento de las instrucciones de los programas y sus correspondientes
datos.
Memoria externa o secundaria: dispositivos periféricos de almacenamiento
accesibles a la CPU a través de controladores de E/S.

Como a día de hoy los procesadores son extremadamente veloces, interesaría


utilizar siempre memorias muy rápidas. De otra forma, la CPU tendría que parar hasta
que la memoria proporcionase los datos y las instrucciones necesarias en cada
momento, lo que significaría una pérdida de rendimiento.
Desgraciadamente, esta aproximación no es viable desde el punto de vista
económico, puesto que, cuanto más rápida es una memoria, menos capacidad tiene y
más cara es. La solución consiste en alcanzar un modelo jerárquico para la memoria,
en donde existe una pequeña cantidad de memoria muy rápida, una cantidad mayor
de una memoria más lenta, otra cantidad mayor de una memoria todavía más lenta y
así sucesivamente.
Este equilibrio se consigue a través de la estructuración de la memoria en
niveles. En cada nivel se encontrará una memoria que cumple unas funciones
determinadas.
A la hora de hablar de jerarquía de memoria hay que tener en cuenta tres
características: la capacidad, la velocidad y el coste de la memoria.
Estos tres factores compiten
entre sí, por lo que hay que
encontrar un equilibrio. Para
encontrar este equilibrio nos
tenemos que basar en las siguientes
afirmaciones:
• A menor tiempo de acceso
mayor coste
• A mayor capacidad mayor
coste
• A mayor capacidad menor
velocidad.

Características:

 Memoria central o principal


 Es la unidad donde se almacenan tanto los datos como las instrucciones durante la
ejecución de los programas.
 Actúa con gran velocidad y está ligada a las unidades más rápidas del ordenador
(UC y ALU).

 Para que un programa se ejecute debe estar almacenado (cargado) en la memoria


principal
 Formada por circuitos electrónicos integrados (chips)
 Está dividida en posiciones (palabras de memoria) de un determinado número de
bits, n, donde se almacena la información.
 Cada una de las celdas que forman la memoria se identifica con un número o
dirección de memoria, para que la UC pueda distinguirlas.
 Normalmente hay una zona de la memoria que sólo se puede leer (memoria ROM)
y que es permanente, y otra en la que se puede leer y escribir (memoria RAM) y
que es volátil
 Cada palabra sólo se puede referenciar por su dirección: Siempre que se quiera escribir
o leer un dato o instrucción en memoria hay que especificar la dirección.
 Todas las operaciones de lectura y escritura en memoria están dirigidas por la UC.

 Memoria auxiliar o masiva


 La memoria central es muy rápida pero no tiene gran capacidad de
almacenamiento.
 Para guardar masivamente información se utilizan otros tipos de dispositivos:
discos magnéticos, discos ópticos ...
 Dispositivos lentos pero con gran capacidad de almacenamiento (un millón de
veces más lentos y del orden de mis veces más capaces)
15 Unidades de entrada-salida.
El sistema de entrada/salida es el encargado de conectar el ordenador con el
mundo exterior. Esta conexión se realiza a través de una serie de dispositivos llamados
comúnmente periféricos. Ejemplos de periféricos son el teclado, el ratón, la pantalla,
una impresora, etc. Un tipo especial de periférico son los puertos de comunicaciones.
Estos puertos de comunicaciones permiten que el ordenador se comunique con algún
otro tipo de dispositivo. La conexión del ordenador con el mundo que le rodea
presenta un alto grado de complejidad.

Algunas de las dificultades y complejidades de los periféricos son:

 La gran variedad de periféricos existentes, cada uno con sus


características correspondientes.
 Otra de las dificultades radica en el hecho de la gran diferencia
de velocidad que existe entre la CPU y el mundo exterior. Por ejemplo,
siguiendo con el caso del teclado, sería absolutamente ineficiente que el
procesador se parara para recibir la información proveniente del teclado, ya
que esta se produce a unas tasas bajísimas de unos pocos bits por segundo.
 El procesador no sabe con anterioridad en qué momento de
tiempo los periféricos van a entregarle información. Para resolver parte de
los problemas los periféricos disponen de dos elementos, el dispositivo de
entrada/salida y un controlador. Este controlador es el encargado, entre
otras cosas, de adecuar el tipo de datos que ofrece el dispositivo al tipo que
acepta la CPU. Otra función del controlador es la comunicación con la CPU
para la sincronización de la entrada/salida.

Esta sincronización puede realizarse de tres maneras:

 Entrada/Salida programada. El ordenador va comunicándose con los


periféricos de uno en uno para comprobar si tienen datos que transmitir. En
caso afirmativo, se realiza la transmisión de los mismos. En caso negativo se
la CPU continua con el proceso de sondeo.
 Entrada/Salida por interrupción. Cuando un periférico tienen datos que
transmitir, lo comunica al procesador por medio de una interrupción. Si la
interrupción es aceptada, el procesador guarda el estado en el que se
encuentre en la memoria, atiende a la interrupción del periférico y,
posteriormente, continúa ejecutando el programa anterior en el mismo
punto en el que lo dejó.
 Entrada/Salida por acceso directo a memoria. En este caso el controlador
del periférico tiene acceso a los buses de datos, de direcciones y a las
señales de control para leer/escribir directamente de la memoria. En este
caso el procesador no realiza ninguna tarea.
16 CODIFICACIÓN DE LA INFORMACIÓN

Un ordenador, debido a su construcción basada fundamentalmente en circuitos


electrónicos digitales, trabaja con el sistema binario (1 = 5V, 0 = 0V), usando una serie
de códigos que permiten su funcionamiento.
Este es el motivo que nos obliga a transformar internamente todos nuestros
datos, tanto numéricos como alfanuméricos, a una representación binaria para que la
máquina sea capaz de procesarlos (Codificación). Además del sistema de numeración
binario, el ordenador también trabaja para la codificación numérica con los sistemas
de numeración octal y hexadecimal.

La CODIFICACIÓN es una transformación que representa los elementos de un


conjunto mediante los de otro, de forma que a cada elemento del primer conjunto le
corresponda un elemento distinto del segundo. De esta forma comprimimos y
estructuramos la información.

La unidad más elemental de información es un valor binario, conocido como


BIT (del inglés Binary digiT). Es una posición o variable que toma el valor 0 ó 1.
Representa la ocurrencia o no de un suceso entre dos posibilidades distintas.
La información se representa mediante caracteres, y estos se codifican
internamente mediante un código binario, es decir, bits. Por lo tanto, a cada carácter
le va a corresponder un cierto número de bits. Un BYTE será el número de bits
necesarios para almacenar un carácter. Generalmente un byte son 8 bits, aunque
dependerá del código que utilice la computadora.
Como el byte es una unidad muy pequeña, para medir la capacidad de
almacenamiento se suelen utilizar múltiplos:
bytes  10 bytes
10 3
1 Kilobyte = 1024 bytes = 2
bytes  10 bytes
10 20 6
1 Megabyte = 1024 Kb = 2 kb = 2
bytes  10 bytes
10 20 30 9
1 Gigabyte = 1024 Mb = 2 Mb = 2 kb = 2
bytes  10 bytes
10 20 30 40 12
1 Terabyte = 1024 Gb = 2 Gb = 2 Mb = 2 kb = 2

Ya hemos visto que la información se le da al ordenador en la forma usual


escrita que utilizamos, es decir, con ayuda de un alfabeto o un conjunto de símbolos
que denominamos caracteres.
Además de los caracteres gráficos, los caracteres que constituyen el alfabeto
suelen agruparse en cuatro categorías:
 Caracteres alfabéticos: mayúsculas y minúsculas del alfabeto.
 Caracteres numéricos: 0, 1, 2,…, 9.
 Caracteres especiales: ), ¿, /, Ñ, ñ, …
 Caracteres de control: por ejemplo el fin de línea.
Como ya hemos dicho, la computadora almacena toda la información por medio de
dos valores (bit), representados por 0, 1. Por lo tanto, para traducir la información habrá que
establecer una correspondencia entre el conjunto de todos los caracteres:
 ≡ {A, B, …, Z, a, b, …, z, 0, 1, 2, …, 9, +, /….},
y el conjunto binario:
β ≡ {0, 1}ⁿ
A cada elemento de  le corresponderá un elemento distinto de β (n bits).
Codificamos los elementos de un conjunto mediante los de otro.
A estos códigos de transformación se les denomina códigos de Entrada/Salida o
códigos externos. Se pueden definir de forma arbitraria, aunque existen códigos
normalizados utilizados por diferentes constructores de computadoras (Ej.: ASCII), que
veremos en un punto posterior.
Para las operaciones aritméticas utilizaremos el sistema de numeración en base
dos.
17 Unidades de medidas de la información.

Bit - es la mínima unidad de información. Éste queda representado por un 0 (falso) o un


1(verdadero).

En este sentido, se puede establecer una equivalencia de medidas en múltiplos


de bits utilizados para designar cada medida:
- Nibble o cuarteto: Conjunto de 4 bits.
- Byte (b), octeto o carácter: Conjunto de 8 bits.
Es la cantidad en bits necesaria para representar un carácter alfanumérico.
Un carácter es – Una letra, un número, o signo de puntuación. Ocupa un byte, o
sea 8 bits.
- Kilobyte (Kb) (Kbyte): Conjunto de 1.024 bytes. (Kilo (K) = 210 = 1.024)
Se toma el valor de 1.024 en vez de 1.000 precisamente por ser 1.024 una
potencia de 2, y en consecuencia, un valor mucho más conveniente para máquinas
que trabajan en sistema binario.
- Megabyte (Mb): Conjunto de 1.024 Kb.
- Gigabyte (Gb): Conjunto de 1.024 Mb.
- Terabyte (Tb): Conjunto de 1.024 Gb.
- Petabyte (Pb): Conjunto de 1.024 Tb.
- Exabyte (Eb): Conjunto de 1.024 Pb.
- Zeltabyte (Zb): Conjunto de 1024 Eb.
- Yoltabyte (Yb): Conjunto de 1024 Zb.
18 Sistemas de numeración
Definimos sistema de numeración como el conjunto de símbolos y reglas que
se utilizan para representar cantidades o datos numéricos.
Tienen como característica una base a la que referencian y que determina el
diferente número de símbolos que lo componen. Nosotros utilizamos el sistema de
numeración en base 10, compuesto por diez símbolos diferentes (del 0 al 9).
Los sistemas de numeración que utilizamos son sistemas posicionales, es decir,
el valor relativo que cada símbolo representa quedará determinado por su valor
absoluto y la posición que ocupe dicho símbolo en un conjunto.
Todos los sistemas posicionales están basados en el Teorema Fundamental de
la Numeración (TFN), que sirve para relacionar una cantidad expresada en cualquier
sistema de numeración con la misma cantidad expresada en el sistema decimal.

18.1 TEOREMA FUNDAMENTAL DE LA NUMERACIÓN (TFN)


Todos los sistemas posicionales están basados en el Teorema Fundamental de
la Numeración (TFN) – Que relaciona una cantidad expresada en cualquier sistema de
numeración con la misma cantidad expresada en el sistema decimal, o sea pasa
(codifica) números de un sistema a otro, y se utiliza para ello una expresión poligonal.
La combinación de distintos
caracteres en un sistema de
numeración.
 Para pasar un nº en cualquier base a base 10, tendremos:

Donde:
- a → Valor absoluto del dígito
- b → Base
- i → Posición que ocupa el dígito con respecto al punto decimal
Así, cada número se representará como una secuencia de cifras, contribuyendo
cada una de ellas con un valor que dependerá de:
• La cifra en sí.
• La posición de la cifra dentro de la secuencia.

 Y para pasar un nº de base 10 a cualquier base, tendremos:


Supongamos que la base b es 10. El conjunto de símbolos será: { 0,...,9 }. Vemos que el
número 3278,52 puede verse como:
3278,52=3000+200+70+8+ 0,5+ 0,02=3·103 +2·102 +7·101 +8·100 +5·10-1 +2·10-2

Obtener el valor decimal de N=111000101,00112


(Siendo ese 2 la base; utilizaremos a menudo esta notación de subíndice para indicar en qué base debemos interpretar la
secuencia de números).
Cogemos la parte entera y de derecha a izquierda se determinan las posiciones:
Nentero = 1·28+1·27+1·26+0·25+0·24+0·23+1·22+0·21+1·20 = 45310.
Después cogemos la parte decimal:
Ndecimal = 0·2-1+0·2-2+1·2-3+1·2-4 = 0,187510.
El número final obtenido es la concatenación de las dos partes:
N = 453,187510.

 Pasar el nº 10101(2 a base 10:

 Pasar el nº 21(10 a base 2:


 Pasar el nº 167(8 a base 10

 Pasar el nº 119(10 a base 8.

 Pasar el nº 3CF(16 a base 10.

 Pasar el nº 975(10 a base 16.


19 Representación de datos alfabéticos: códigos BCD, ASCII, EBCDIC y
UNICODE

Con los datos alfanuméricos podemos construir instrucciones y programas. El


ordenador no solamente procesará datos numéricos; procesa además, datos
alfabéticos, y combinaciones de los anteriores, como datos alfanuméricos.
Los sistemas de codificación alfanumérica sirven para representar una cantidad
determinada de símbolos en binario. A cada símbolo le corresponderá una
combinación de un número de bits.
Los sistemas de codificación alfanuméricos más importantes son:

19.1 Ascii (American Standard Code for Informatión Interchange)


El código Estadounidense Estándar para el Intercambio de Información.
Este sistema utiliza una combinación de 7 u 8 bits (dependiendo del fabricante)
para representar cada símbolo, permitiendo 27  128 caracteres diferentes, lo que es
suficiente para el alfabeto en letras mayúsculas y minúsculas y los símbolos de una
máquina de escribir corriente, además de algunas combinaciones para su uso interno.
Es el más extendido y el más utilizado por los sistemas operativos: MS-DOS, Windows y
Unix.
El código ASCII, tiene una tabla específica para cada país, ya que los diferentes
símbolos de todos los países no cabrían en una tabla.

El que emplea 8 bits puede representar un total de 256 símbolos diferentes


(28).
Con el código ASCII podemos representar:
- Los dígitos de 0 al 9
- Letras mayúsculas de la “A” a la “Z”
- Letras minúsculas de la “a” a la “z”
- Caracteres especiales
- Y algunos otros denominados de control

La letra “A” en código ASCII será el nº 65, pero en realidad será el nº 65 en


binario, pues el ordenador sólo trabaja en binario.
Si queremos escribir el símbolo ~ pulsaremos la tecla “ALT” + 126
19.2 Ebcdic (Extended BDC Interchange Code)
Cada símbolo se representa por una combinación de 8 bits agrupados en dos
bloques de cuatro. Es el formato extendido de BCD. Es un sistema de codificación que
tiene como objetivo la representación de caracteres alfanuméricos. Utilizado IBM.
Cada carácter está dividido en dos partes: 4 bits de zona y 4 bits de digito, con
sus pesos correspondientes.

En los bits de zona, la combinación de los dígitos indicara la representación de


distintos caracteres; así dos caracteres diferentes pueden tener los mismos bits de
digito, pero distinta zona:
• Los números tienen en los bits de zona 4 unos : 1111
• Las letras mayúsculas de la A a la I llevan 1100( C en hexadecimal)
• Las letras mayúsculas de la J a la R llevan 1101( D en hexadecimal)
• Las letras mayúsculas de la S a la Z llevan 1110( E en hexadecimal)
• Las letras minúsculas de la a a la i llevan 1000( 8 en hexadecimal)
• Las letras minúsculas de la j a la r llevan 1000( 8 en hexadecimal).
• Las letras minúsculas de la s a la z llevan 1010( A en hexadecimal)
• Los caracteres especiales llevan 01 en los dos primeros bits
• Y no tienen carácter asignado los que comienzan en 00.
Ejemplo

Observa que los bit de digito de las minúsculas son los mismos que los de las
mayúsculas, cambian los bits de zona.
19.3 Unicode
Código estándar internacional que se utiliza en la mayoría de los sistemas
operativos. Permite que un producto software o pagina Web especifica esté disponible
en varias plataformas, idiomas o países sin necesidad de modificar su diseño.
Unicode proporciona un número único para cada carácter, sin importar la
plataforma, sin importar el programa, sin importar el idioma.
Apple, HP, IBM, Microsoft, Oracle, SAP, Sun, Unisys., etc.
Unicode es un requisito para los estándares modernos tales como: XML,
Java, JavaScript, WML, etc.
La incorporación de Unicode en sitios web y en aplicaciones de cliente-servidor
o de múltiples niveles permite disminuir los costos del uso de juegos de caracteres
heredados.
Unicode permite que un producto de software o sitio web específico se
oriente a múltiples plataformas, idiomas y países sin necesidad de rediseñarlo. Además
permite que los datos se trasladen a través de muchos sistemas distintos sin sufrir
daños.
Básicamente, los ordenadores solo trabajan con números. Almacenan letras y
otros caracteres mediante la asignación de un número a cada uno.

19.4 Fieldata
Utiliza bloques de 6 bits para representar los diferentes símbolos. Su
implantación es limitada dado que se usa en ordenadores que procesan la información
en bloques de 36 bits.

Você também pode gostar