Você está na página 1de 51

2014

La Computación

Freddy Alexander Peña Ramirez


CENTECPRO
01/01/2014
La Computación
1 de enero de 2014

Tabla de contenido
Generaciones ........................................................................................................................................................................................................................................... 3

1° Generación ...................................................................................................................................................................................................................................... 4

Características: ................................................................................................................................................................................................................................. 5

ENIAC .............................................................................................................................................................................................................................................. 10

UNIVAC I ......................................................................................................................................................................................................................................... 12

LEO ................................................................................................................................................................................................................................................. 12

2° Generación .................................................................................................................................................................................................................................... 14

3° Generación .................................................................................................................................................................................................................................... 17

4° Generación .................................................................................................................................................................................................................................... 19

Historia ........................................................................................................................................................................................................................................... 20

Microprocesadores ........................................................................................................................................................................................................................ 21

5° Generación .................................................................................................................................................................................................................................... 23

Freddy Alexander Peña Ramirez Página 1


La Computación
1 de enero de 2014

Historia y desarrollo del proyecto.................................................................................................................................................................................................. 25

Hardware........................................................................................................................................................................................................................................ 30

6° Generación .................................................................................................................................................................................................................................... 32

Partes del Computador ......................................................................................................................................................................................................................... 35

Hardware ........................................................................................................................................................................................................................................... 36

Dispositivos de Entrada .................................................................................................................................................................................................................. 38

Dispositivos de salida ..................................................................................................................................................................................................................... 38

Dispositivos de almacenamiento ................................................................................................................................................................................................... 40

Principales ...................................................................................................................................................................................................................................... 44

Software............................................................................................................................................................................................................................................. 46

Sistemas Operativos ....................................................................................................................................................................................................................... 48

Programas ........................................................................................................................................................................................................................................ 1

Freddy Alexander Peña Ramirez Página 2


La Computación
1 de enero de 2014

Generaciones

Freddy Alexander Peña Ramirez Página 3


La Computación
1 de enero de 2014

1° Generación

Freddy Alexander Peña Ramirez Página 4


La Computación
1 de enero de 2014

La primera generación de computadoras abarca desde el año 1938 hasta el año 1958, época en que la tecnología electrónica era a base de
bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina

Características:

 Estaban construidas con electrónica de válvulas.


 Se programaban en lenguaje de máquina.
 Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede
especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos
binarios).
 La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos de que constó:
 1943 ENIAC. Primera computadora digital electrónica en la historia. No fue un modelo de producción, sino una máquina experimental.
Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida
con 18.000 tubos de vacío, consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas
por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Presper Eckert en la
universidad de Pensilvania, en los Estados Unidos.
 1949 EDVAC. Segunda computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales
que conforman las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis.
 1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su
primer producto fue esta máquina. El primer cliente fue la Oficina del Censo de Estados Unidos.

Freddy Alexander Peña Ramirez Página 5


La Computación
1 de enero de 2014

 1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que habían sido inventadas en los años de la
revolución industrial (finales del siglo XVIII) por el francés Joseph Marie Jacquard y perfeccionadas por el estadounidense Herman
Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número
uno, por su volumen de ventas.
 1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de almacenamiento masivo llamado tambor magnético, que con
los años evolucionaría y se convertiría en el disco magnético.

La era de la computación moderna empezó con una ráfaga de desarrollo antes y durante la Segunda Guerra Mundial, como circuitos
electrónicos, relés, condensadores y tubos de vacío que reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los
cálculos analógicos.

Las computadoras que se diseñaron y construyeron entonces se denominan a veces "primera generación" de computadoras. La primera
generación de computadoras eran usualmente construidas a mano usando circuitos que contenían relés y tubos de vacío, y a menudo usaron
tarjetas perforadas (punched cards) o cinta de papel perforado (punched paper tape) para la entrada de datos [input] y como medio de
almacenamiento principal (no volátil). El almacenamiento temporal fue proporcionado por las líneas de retraso acústicas (que usa la propagación
de tiempo de sonido en un medio tal como alambre para almacenar datos) o por los tubos de William (que usan la habilidad de un tubo de
televisión para guardar y recuperar datos).

A lo largo de 1943, la memoria de núcleo magnético estaba desplazando rápidamente a la mayoría de las otras formas de almacenamiento
temporal, y dominó en este campo a mediados de los 70.

En 1936 Konrad Zuse empezó la construcción de la primera serie Z, calculadoras que ofrecen memoria (inicialmente limitada) y
programabilidad. Las Zuses puramente mecánicas, pero ya binarias, la Z1 terminada en 1938 nunca funcionó fiablemente debido a los problemas

Freddy Alexander Peña Ramirez Página 6


La Computación
1 de enero de 2014

con la precisión de partes. En 1937, Claude Shannon hizo su tesis de master en MIT que implementó álgebra booleana usando relés electrónicos e
interruptores por primera vez en la historia. Titulada "Un Análisis Simbólico de Circuitos de Relés e Interruptores" (A Symbolic Analysis of Relay
and Switching Circuits), la tesis de Shannon, esencialmente, fundó el diseño de circuitos digitales prácticos.

La máquina subsecuente de Zuse, la Z3, fue terminada en 1941. Estaba basada en relés de teléfono y trabajó satisfactoriamente. Así, la Z3 fue
la primera computadora funcional controlada mediante programas. En muchas de sus características era bastante similar a las máquinas
modernas, abriendo numerosos avances, tales como el uso de la aritmética binaria y números de coma flotante. El duro trabajo de reemplazar el
sistema decimal (utilizado en el primer diseño de Charles Babbage) por el sistema binario, más simple, significó que las máquinas de Zuse fuesen
más fáciles de construir y potencialmente más fiables, dadas las tecnologías disponibles en ese momento.

Esto es a veces visto como la principal razón por la que Zuse tuvo éxito donde Babbage falló; sin embargo, aunque la mayoría de las máquinas
de propósito general de la actualidad continúan ejecutando instrucciones binarias, la aritmética decimal es aún esencial para aplicaciones
comerciales, financieras, científicas y de entretenimiento, y el hardware de coma flotante decimal está siendo agregado en los dispositivos
actuales (el sistema binario continua siendo usado para direccionamiento en casi todas las máquinas) como un apoyo al hardware binario.

Se hicieron programas para las Z3 en cintas perforadas. Los saltos condicionales eran extraños, pero desde los 1990s los puristas teóricos
decían que la Z3 era aún una computadora universal (ignorando sus limitaciones de tamaño de almacenamiento físicas). En dos patentes de 1937,
Konrad Zuse también anticipó que las instrucciones de máquina podían ser almacenadas en el mismo tipo de almacenamiento utilizado por los
datos - la clave de la visión que fue conocida como la arquitectura de von Neumann y fue la primera implementada en el diseño Británico EDSAC
(1949) más tarde.

Zuse también diseño el primer lenguaje de programación de alto nivel "Plankalkül" en 1945, aunque nunca se publicó formalmente hasta
1971, y fue implementado la primera vez en el 2000 por la Universidad de Berlín, cinco años después de la muerte de Zuse.

Freddy Alexander Peña Ramirez Página 7


La Computación
1 de enero de 2014

Zuse sufrió retrocesos dramáticos y perdió muchos años durante la Segunda Guerra Mundial cuando los bombarderos británicos o
estadounidenses destruyeron sus primeras máquinas. Al parecer su trabajo permaneció largamente desconocido para los ingenieros del Reino
Unido y de los Estados Unidos. Aún así, IBM era consciente de esto y financió su compañía a inicios de la post-guerra en 1946, para obtener
derechos sobre las patentes de Zuse.

En 1940, fue completada la Calculadora de Número Complejo, una calculadora para aritmética compleja basada en relés. Fue la primera
máquina que siempre se usó remotamente encima de una línea telefónica. En 1938, John Vincent Atanasoff y Clifford E. Berry de la Universidad
del Estado de Iowa desarrollaron la Atanasoff Berry Computer (ABC) una computadora de propósito especial para resolver sistemas de
ecuaciones lineales, y que emplearon condensadores montados mecánicamente en un tambor rotatorio para memoria. La máquina ABC no era
programable, aunque se considera una computadora en el sentido moderno en varios otros aspectos.

Durante la Segunda Guerra Mundial, los británicos hicieron esfuerzos significativos en Bletchley Park para descifrar las comunicaciones militares
alemanas. El sistema cypher alemán (Enigma), fue atacado con la ayuda con las finalidad de construir bombas (diseñadas después de las bombas
electromecánicas programables) que ayudaron a encontrar posibles llaves Enigmas después de otras técnicas tenían estrechadas bajo las
posibilidades. Los alemanes también desarrollaron una serie de sistemas cypher (llamadas Fish cyphers por los británicos y Lorenz cypers por los
alemanes) que eran bastante diferentes del Enigma. Como parte de un ataque contra estos, el profesor Max Newman y sus colegas (incluyendo
Alan Turing) construyeron el Colossus. El Mk I Colossus fue construido en un plazo muy breve por Tommy Flowers en la Post Office Research
Station en Dollis Hill en Londres y enviada a Bletchley Park.

El Colossus fue el primer dispositivo de cómputo totalmente electrónico. El Colossus usó solo tubos de vacío y no tenía relés. Tenía entrada
para cinta de papel [paper-tape] y fue capaz de hacer bifurcaciones condicionales. Se construyeron nueve Mk II Colossi (la Mk I se convirtió a una
Mk II haciendo diez máquinas en total). Los detalles de su existencia, diseño, y uso se mantuvieron en secreto hasta los años 1970. Se dice que

Freddy Alexander Peña Ramirez Página 8


La Computación
1 de enero de 2014

Winston Churchill había emitido personalmente una orden para su destrucción en pedazos no más grandes que la mano de un hombre. Debido a
este secreto el Colossi no se ha incluido en muchas historias de la computación. Una copia reconstruida de una de las máquinas Colossus esta
ahora expuesta en Bletchley Park.

El trabajo de preguerra de Turing ejerció una gran influencia en la ciencia de la computación teórica, y después de la guerra, diseñó,
construyó y programó algunas de las primeras computadoras en el Laboratorio Nacional de Física y en la Universidad de Mánchester. Su trabajo
de 1936 incluyó una reformulación de los resultados de Kurt Gödel en 1931 así como una descripción de la que ahora es conocida como la
máquina de Turing, un dispositivo puramente teórico para formalizar la noción de la ejecución de algoritmos, reemplaza al lenguaje universal, más
embarazoso, de Gödel basado en aritmética. Las computadoras modernas son Turing-integrada (capacidad de ejecución de algoritmo
equivalente a una máquina Turing universal), salvo su memoria finita. Este limitado tipo de Turing-integrados es a veces visto como una capacidad
umbral separando las computadoras de propósito general de sus predecesores de propósito especial.

George Stibitz y sus colegas en Bell Labs de la ciudad de Nueva York produjeron algunas computadoras basadas en relés a finales de los
años 1930 y a principios de los años 1940, pero se preocuparon más de los problemas de control del sistema de teléfono, no en computación. Sus
esfuerzos, sin embargo, fueron un claro antecedente para otra máquina electromecánica americana.

La Harvard Mark I (oficialmente llamada Automatic Sequence Controlled Calculator) fue una computadora electro-mecánica de propósito
general construida con financiación de IBM y con asistencia de algún personal de IBM bajo la dirección del matemático Howard Aiken de Harvard.
Su diseño fue influenciado por la Máquina Analítica. Fue una máquina decimal que utilizó ruedas de almacenamiento e interruptores rotatorios
además de los relés electromagnéticos.

Se programaba mediante cinta de papel perforado, y contenía varias calculadoras trabajando en paralelo. Más adelante los modelos
contendrían varios lectores de cintas de papel y la máquina podía cambiar entre lectores basados en una condición. No obstante, esto no hace

Freddy Alexander Peña Ramirez Página 9


La Computación
1 de enero de 2014

mucho la máquina Turing-integrada. El desarrollo empezó en 1939 en los laboratorio de Endicott de IBM; la Mark I se llevó a la Universidad de
Harvard para comenzar a funcionar en mayo de 1944.

ENIAC
La construcción estadounidense ENIAC (Electronic Numerical Integrator and Computer), a menudo llamada la primera computadora
electrónica de propósito general, públicamente validó el uso de elementos electrónicos para computación a larga escala. Esto fue crucial para el
desarrollo de la computación moderna, inicialmente debido a la ventaja de su gran velocidad, pero últimamente debido al potencial para la
miniaturización.

Construida bajo la dirección de John Mauchly y J. Presper Eckert, era mil veces más rápida que sus contemporáneas. El desarrollo y
construcción de la ENIAC comenzó en 1941 siendo completamente operativa hacia finales de 1945. Cuando su diseño fue propuesto, muchos
investigadores creyeron que las miles de válvulas delicadas (tubos de vacío) se quemarían a menudo, lo que implicaría que la ENIAC estuviese
muy frecuentemente en reparación. Era, sin embargo, capaz de hacer más de 100.000 cálculos simples por segundo y eso durante unas horas
que era el tiempo entre fallos de las válvulas.

Para programar la ENIAC, sin embargo, se debía realambrar por lo que algunos dicen que eso ni siquiera se puede calificar como
programación, pues cualquier tipo de reconstrucción de una computadora se debería considerar como programación. Varios años después, sin
embargo, fue posible ejecutar programas almacenados en la memoria de la tabla de función.

A todas las máquinas de esta época les faltó lo que se conocería como la arquitectura de Eckert-Mauchly: sus programas no se guardaron
en el mismo "espacio" de memoria como los datos y así los programas no pudieron ser manipulados como datos.

Freddy Alexander Peña Ramirez Página 10


La Computación
1 de enero de 2014

La primera máquinas Eckert-Mauchly fue la Manchester Baby o Small-Scale Experimental Machine, construida en la Universidad de
Manchester en 1948; esta fue seguida en 1949 por la computadora Manchester Mark I que funcionó como un sistema completo utilizando el tubo
de William para memoria, y también introdujo registros de índices. El otro contendiente para el título "primera computadora digital de programa
almacenado" fue EDSAC, diseñada y construida en la Universidad de Cambridge.

Estuvo operativa menos de un año después de la Manchester "Baby" y era capaz de resolver problemas reales. La EDSAC fue realmente
inspirada por los planes para la EDVAC, el sucesor de la ENIAC; estos planes ya estaban en lugar por el tiempo la ENIAC fue exitosamente
operacional. A diferencia la ENIAC, que utilizó procesamiento paralelo, la EDVAC usó una sola unidad de procesamiento. Este diseño era más
simple y fue el primero en ser implementado en cada onda teniendo éxito de miniaturización, e incrementó la fiabilidad. Algunos ven la Manchester
Mark I/EDSAC/EDVAC como las "Evas" de que casi todas las computadoras actuales que derivan de su arquitectura.

La primera computadora programable en la Europa continental fue creada por un equipo de científicos bajo la dirección de Segrey
Alekseevich Lebedev del Institute of Electrotechnology en Kiev, Unión Soviética (ahora Ucrania). La computadora MESM (Small Electronic
Calculating Machine (МЭСМ)) fue operacional en 1950. Tenía aproximadamente 6.000 tubos de vacío y consumía 25 kW. Podía realizar
aproximadamente 3.000 operaciones por segundo.

La máquina de la Universidad de Manchester se convirtió en el prototipo para la Ferranti Mark I. La primera máquina Ferranti Mark I fue
entregada a la Universidad en febrero de 1951 y por lo menos otras nueve se vendieron entre 1951 y 1957.

Freddy Alexander Peña Ramirez Página 11


La Computación
1 de enero de 2014

UNIVAC I
En junio de 1951, la UNIVAC I [Universal Automatic Computer] se entregó a la Oficina del Censo estadounidense. Aunque fabricada por la
Remington Rand, la máquina era erróneamente llamada la "IBM UNIVAC". La Remington Rand eventualmente vendió 46 máquinas a más de $1
millón cada una. La UNIVAC fue la primera computadora "producida en masa"; todas las predecesoras habían sido "una fuera de" las unidades.
Usaba 5.200 tubos de vacío y consumía 125 kW. Utilizó una línea de retraso de mercurio capaz de almacenar 1.000 palabras de 11 dígitos
decimales más la señal (72-bit de palabras) para memoria. En contraste con las primeras máquinas no usó un sistema de tarjetas perforadas, sino
una entrada de cinta de metal.

En 1949, la Remington Rand había demostrado el primer prototipo de la 409, una calculadora de tarjeta perforada de tarjeta enchufada
programada. Esta fue la primera instalada, en la Reneuve Service facility en Baltimore, en 1952. La 409 evolucionó para volverse la computadora
Univac 60 y 120 en 1953.

LEO
En noviembre de 1952, la compañía J. Lyons and Co. (relacionada con la industria de los alimentos) desarrolló la primera computadora de
Inglaterra la LEO (Lyons Electronic Office), esta también fue la primera computadora en resolver problemas de negocios. La computadora
contenía la misma compañía.

Freddy Alexander Peña Ramirez Página 12


La Computación
1 de enero de 2014

Las computadoras de la
primera Generación
emplearon bulbos para
procesar información. Los
operadores ingresaban los
datos y programas en
código especial.

Freddy Alexander Peña Ramirez Página 13


La Computación
1 de enero de 2014

2° Generación

Freddy Alexander Peña Ramirez Página 14


La Computación
1 de enero de 2014

La segunda generación de las computadoras reemplazó a las válvulas de vacío por los transistores.

Por eso, las computadoras de la segunda generación son más pequeñas y consumen menos electricidad que las anteriores, la forma de
comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de máquina, y que reciben el nombre de
"lenguajes de alto nivel" o lenguajes de programación. Las características más relevantes de las computadoras de la segunda generación son:

 Estaban construidas con la electrónica de transistores


 Se programaban con lenguajes de alto nivel
 1951, Maurice Wilkes inventa la microprogramación, que simplifica mucho el desarrollo de las CPU pero esta microprogramación también
fue cambiada más tarde por el computador alemán Bastian Shuantiger
 1956, IBM vendió por un valor de 1.230.000 dólares su primer sistema de disco magnético, el RAMAC [Random Access Method of
Accounting and Control]. Usaba 50 discos de metal de 61 cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos, con un coste
de 10.000$ por megabyte.
 El primer lenguaje de programación de propósito general de alto-nivel, FORTRAN, también estaba desarrollándose en IBM alrededor de
este tiempo. (El diseño de lenguaje de alto-nivel Plankalkül de 1945 de Konrad Zuse no se implementó en ese momento).
 1959, IBM envió la mainframe IBM 1401 basado en transistor, que utilizaba tarjetas perforadas. Demostró ser una computadora de
propósito general y 12.000 unidades fueron vendidas, haciéndola la máquina más exitosa en la historia de la computación. Tenía una
memoria de núcleo magnético de 4.000 caracteres (después se extendió a 16.000 caracteres). Muchos aspectos de sus diseños estaban
basados en el deseo de reemplazar el uso de tarjetas perforadas, que eran muy usadas desde los años 1920 hasta principios de los '70.

Freddy Alexander Peña Ramirez Página 15


La Computación
1 de enero de 2014

 1960, IBM lanzó el mainframe IBM 1620 basada en transistores, originalmente con solo una cinta de papel perforado, pero pronto se
actualizó a tarjetas perforadas. Probó ser una computadora científica popular y se vendieron aproximadamente 2.000 unidades. Utilizaba
una memoria de núcleo magnético de más de 60.000 dígitos decimales.
 1962, Se desarrolla el primer juego de ordenador, llamado SpaceWars.
 DEC lanzó el PDP-1, su primera máquina orientada al uso por personal técnico en laboratorios y para la investigación.
 1964, IBM anunció la serie 360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes
combinaciones de velocidad, capacidad y precio. También abrió el uso comercial de microprogramas, y un juego de instrucciones
extendidas para procesar muchos tipos de datos, no solo aritmética. Además, se unificó la línea de producto de IBM, que previamente a
este tiempo tenía dos líneas separadas, una línea de productos "comerciales" y una línea "científica". El software proporcionado con el
System/350 también incluyó mayores avances, incluyendo multi-programación disponible comercialmente, nuevos lenguajes de
programación, e independencia de programas de dispositivos de entrada/salida. Más de 14.000 System/360 habían sido entregadas en
1968.

Freddy Alexander Peña Ramirez Página 16


La Computación
1 de enero de 2014

3° Generación

Freddy Alexander Peña Ramirez Página 17


La Computación
1 de enero de 2014

A mediados de los años 60 se produjo la invención del circuito integrado o microchip, por parte de Jack St. Claire Kilby y Robert Noyce.
Después llevó a Ted Hoff a la invención del microprocesador, en Intel. A finales de 1960, investigadores como George Gamow notó que las
secuencias de nucleótidos en el ADN formaban un código, otra forma de codificar o programar.

A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes electrónicos en un solo chip o
encapsulado, que contenía en su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips
(circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.

En 1965, IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el nombre de serie Edgar.

Estas computadoras de tercera generación sustituyeron totalmente a los de segunda, introduciendo una forma de programar que aún se
mantiene en las grandes computadoras actuales.

Esto es lo que ocurrió en (1964-1971) que comprende de la tercera generación de computadoras;

 Menor consumo de energía


 Apreciable reducción del espacio
 Aumento de fiabilidad
 Teleproceso
 Multiprogramación
 Renovación de periféricos
 Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11

Se calculó π (Número Pi) con 500.000 decimales.

Freddy Alexander Peña Ramirez Página 18


La Computación
1 de enero de 2014

4° Generación

Freddy Alexander Peña Ramirez Página 19


La Computación
1 de enero de 2014

La denominada Cuarta Generación (1971 a 1981) es el producto de la microminiaturización de los circuitos electrónicos. El tamaño
reducido del microprocesador de chips hizo posible la creación de las computadoras personales (PC). Hoy en día las tecnologías LSI (Integración
a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip.
Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un
cuarto completo. Hicieron su gran debut las microcomputadoras.

Historia
Las microcomputadoras o Computadoras Personales (PC) tuvieron su origen con la creación de los microprocesadores. Un
microprocesador es "una computadora en un chip", o sea un circuito integrado independiente. Las PC´s son computadoras para uso personal y
relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares.

El término PC se deriva para el año de 1981, IBM, sacó a la venta su modelo "IBM PC",cual se convirtió en un tipo de computadora ideal
para uso "personal", de ahí que el término "PC" se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados "PC y
compatibles", usando procesadores del mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de programas. Existen
otros tipos de microcomputadoras, como la Macintosh, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman
también "PC´s", por ser de uso personal. El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló originalmente para una
calculadora, y resultaba revolucionario para su época. Contenía 2.300 transistores en un microprocesador de 4 bits que sólo podía realizar 60.000
operaciones por segundo.

Freddy Alexander Peña Ramirez Página 20


La Computación
1 de enero de 2014

Microprocesadores
El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1972 para su empleo en terminales informáticos. El Intel 8008
contenía 3.300 transistores. El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits,
que contenía 4.500 transistores y podía ejecutar 200.000 instrucciones por segundo. Los microprocesadores modernos tienen una capacidad y
velocidad mucho mayores.

Entre ellos figuran el Intel Pentium Pro, con 5,5 millones de transistores; el UltraSparc-II, de Sun Microsystems, que contiene 5,4 millones
de transistores; el PowerPC 620, desarrollado conjuntamente por Apple, IBM y Motorola, con 7 millones de transistores, y el Alpha 21164A, de
Digital Equipment Corporation, con 9,3 millones de transistores. El Microprocesador, es un circuito electrónico que actúa como unidad central de
proceso de un ordenador, proporcionando el control de las operaciones de cálculo.

Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles o aviones. En 1995 se
produjeron unos 4.000 millones de microprocesadores en todo el mundo. El microprocesador es un tipo de circuito sumamente integrado. Los
circuitos integrados, también conocidos como microchips o chips, son circuitos electrónicos complejos formados por componentes
extremadamente pequeños formados en una única pieza plana de poco espesor de un material conocido como semiconductor.

Los microprocesadores modernos incorporan hasta 10 millones de transistores (que actúan como amplificadores electrónicos, osciladores o,
más a menudo, como conmutadores), además de otros componentes como resistencias, diodos, condensadores y conexiones, todo ello en una
superficie comparable a la de un sello postal. Un microprocesador consta de varias secciones diferentes.

Freddy Alexander Peña Ramirez Página 21


La Computación
1 de enero de 2014

La unidad aritmético-lógica (ALU, siglas en inglés) efectúa cálculos con números y toma decisiones lógicas; los registros son zonas de
memoria especiales para almacenar información temporalmente; la unidad de control descodifica los programas; los buses transportan
información digital a través del chip y de la computadora; la memoria local se emplea para los cómputos realizados en el mismo chip.

Los microprocesadores más complejos contienen a menudo otras secciones; por ejemplo, secciones de memoria especializada
denominadas memoria cache, modernos funcionan con una anchura de bus de 64 bits: esto significa que pueden transmitirse simultáneamente 64
bits de datos. Un cristal oscilante situado en el ordenador proporciona una señal de sincronización, o señal de reloj, para coordinar todas las
actividades del microprocesador.

Microprocesador Intel 8008

Freddy Alexander Peña Ramirez Página 22


La Computación
1 de enero de 2014

5° Generación

Freddy Alexander Peña Ramirez Página 23


La Computación
1 de enero de 2014

La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un
ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que
utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software,1 usando el lenguaje PROLOG2 3 4 al
nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del
japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS
(Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon
diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).

El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos
en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor
de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar,
identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un
programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es
decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea
después de paralelizarla.

Freddy Alexander Peña Ramirez Página 24


La Computación
1 de enero de 2014

Historia y desarrollo del proyecto


Antecedentes y diseño
A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las
computadoras basadas en los modelos desarrollados en los Estados Unidos y el Reino Unido. Japón, a través de su Ministerio de Economía,
Comercio e Industria (MITI) decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse
camino hacia un futuro en la industria de la informática. El Centro de Desarrollo y Proceso de la Información de Japón (JIPDEC) fue el encargado
llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos con la
participación conjunta de empresas de la industria dedicadas a la tecnología e instituciones académicas, a instancias de Hazime Hiroshi. Fue
durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.

Inicio
En 1981 a iniciativa del MITI se celebró una Conferencia Internacional, durante la cual Kazuhiro Fuchi anunció el programa de investigación
y el 14 de abril de 1982 el gobierno decidió lanzar oficialmente el proyecto, creando el Institute for New Generation Computer Technology
(Instituto para la Nueva Generación de Tecnologías de Computación o ICOT por sus siglas en inglés), bajo la dirección de Fuchi,5 a quien
sucedería en el puesto como director del instituto Tohru Moto-Oka, y con la participación de investigadores de diversas empresas japonesas
dedicadas al desarrollo de hardware y software, entre ellas Fujitsu, NEC, Matsushita, Oki, Hitachi, Toshiba y Sharp.

Los campos principales para la investigación de este proyecto inicialmente eran:

 Tecnologías para el proceso del conocimiento.


 Tecnologías para procesar bases de datos y bases de conocimiento masivo.

Freddy Alexander Peña Ramirez Página 25


La Computación
1 de enero de 2014

 Sitios de trabajo del alto rendimiento.


 Informáticas funcionales distribuidas.
 Supercomputadoras para el cálculo científico.

Impacto institucional internacional

Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de
los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha
reputación entre los otros países.

Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Microelectronics and Computer Technology Corporation8 y la
Strategic Computing Initiative; por parte europea, en Reino Unido fue ALVEY,8 y en el resto de Europa su reacción fue conocida como ESPRIT
(European Strategic Programme for Research in Information Technology, en español Programa Estratégico Europeo en Investigación de la
Tecnología de la Información).

Popularidad internacional
Aparte de las reacciones a nivel institucional, en un plano más popular comenzó a ser conocido en Occidente gracias a la aparición de
libros en los que se hablaba del proyecto de manera más o menos directa o era citado10 pero principalmente por artículos aparecidos en revistas
dedicadas a los aficionados a la informática;11 así por ejemplo, en el número de agosto de 1984 de la estadounidense Creative Computing se
publicó un artículo que trataba ampliamente el tema, "The fifth generation: Japan's computer challenge to the world"12 (traducido, La Quinta
Generación: El desafío informático japonés al mundo). En el ámbito de habla hispana se puede citar por ejemplo a la revista MicroHobby, que en

Freddy Alexander Peña Ramirez Página 26


La Computación
1 de enero de 2014

julio de 1985 publicó13 una entrevista a Juan Pazos Sierra, Doctorado en Informática y vinculado en aquella época a la Facultad de Informática de
la Universidad de Madrid, en la que describía someramente el proyecto como:

...un proyecto japonés que tiene unas características curiosas y especiales; en primer lugar, la pretensión es construir un computador basado en
tecnología VLSI, con una arquitectura no Von Neumann y que llevaría como núcleo de software la programación lógica, el lenguaje PROLOG, para
construir finalmente sobre todo esto Sistemas Expertos.

Y sobre sus potenciales resultados, expresaba una opinión relativamente optimista, en la línea de lo augurado por los propios promotores
del proyecto. Así, ante la pregunta de si se había obtenido algún resultado en el mismo, respondía:

De momento, nada. Se va a desarrollar muchísimo lo que ya existe, aparecerán nuevas tecnologías, nuevos Sistemas Expertos y la investigación
se verá enormemente potenciada por la tremenda inyección de dinero que el proyecto quinta generación ha supuesto para la Inteligencia
Artificial.

Por su parte, Román Gubern, en su ensayo El simio informatizado de 1987, consideraba que:

...el ordenador de quinta generación es un verdadero intento de duplicación tecnológica del intelecto del Homo sapiens.

Principales eventos y finalización del proyecto.


 1981: se celebra la Conferencia Internacional en la que se perfilan y definen los objetivos y métodos del proyecto.
 1982: el proyecto se inicia y recibe subvenciones a partes iguales aportadas por sectores de la industria y por parte del gobierno.
 1985: se concluye el primer hardware desarrollado por el proyecto, conocido como Personal Sequential Inference machine (PSI) y la
primera versión del sistema operativo Sequentual Inference Machine Programming Operating System (SIMPOS). SIMPOS fue programado
en Kernel Language 0 (KL0), una variante concurrente de Prolog15 con extensiones para la programación orientada a objetos, el

Freddy Alexander Peña Ramirez Página 27


La Computación
1 de enero de 2014

metalenguaje ESP. Poco después de las máquinas PSI, fueron desarrolladas las máquinas CHI (Co-operative High-performance Inference
machine).
 1986: se ultima la máquina Delta, basada en bases de datos relacionales.
 1987: se construye un primer prototipo del hardware llamado Parallel Inference Machine (PIM) usando varias máquinas PSI conectadas en
red. El proyecto recibe subvenciones para cinco años más. Se desarrolla una nueva versión del lenguaje propuesto, Kernel Language 1
(KL1) muy similar al "Flat GDC" (Flat Guarded Definite Clauses), influenciada por desarrollos posteriores del Prolog y orientada a la
computación paralela. El sistema operativo SIMPOS es re-escrito en KL1 y rebautizado como Parallel Inference Machine Operating System,
o PIMOS.
 1991: concluyen los trabajos en torno a las máquinas PIM.
 1992: el proyecto es prorrogado un año más a partir del plan original, que concluía este año.
 1993: finaliza oficialmente el proyecto de la quinta generación de computadoras, si bien para dar a conocer los resultados se inicia un
nuevo proyecto de dos años de duración prevista, llamado FGCS Folow-on Project.16 El código fuente del sistema operativo PIMOS es
lanzado bajo licencia de dominio público y el KL1 es portado a sistemas UNIX, dando como resultado el KLIC (KL1 to C compiler).
 1995: finalizan todas las iniciativas institucionales vinculadas con el proyecto.

Como uno de los productos finales del Proyecto se desarrollaron cinco Máquinas de Inferencia Paralela (PIM), llamadas PIM/m, PIM/p, PIM/i, PIM/k
y PIM/c, teniendo como una de sus características principales 256 elementos de Procesamiento Acoplados en red. El proyecto también produjo
herramientas que se podían utilizar con estos sistemas tales como el sistema de gestión de bases de datos en paralelo Kappa, el sistema de
razonamiento legal HELIC-II, el lenguaje de programación Quixote, un híbrido entre base de datos deductiva orientada a objetos y lenguaje de
programación lógico17 y el demostrador automático de teoremas MGTP.

Freddy Alexander Peña Ramirez Página 28


La Computación
1 de enero de 2014

Once años después del inicio del proyecto, la gran suma de dinero, infraestructura y recursos invertida en el mismo no se correspondía con los
resultados esperados y se dio por concluido sin haber cumplido sus objetivos. William Zachman criticó el proyecto un año antes de su término,
argumentando:

Perjudica el desarrollo de aplicaciones de IA; con la IA, no importa el sistema, mientras no haya mecanismos de inferencia potentes. Ya hay un
montón de aplicaciones de tipo IA, y estoy esperando la llegada del motor de inferencia potente, por eso las computadora de quinta generación
son un error.

El hardware propuesto y sus desarrollos de software no tenían cabida en el mercado informático, que había evolucionado desde el
momento en el que se lanzara el proyecto, y en el que sistemas de propósito general ahora podían hacerse cargo de la mayoría de las tareas
propuestas como objetivos iniciales de las máquinas de quinta generación, de manera semejante a como había pasado en el caso del mercado
potencial de las máquinas Lisp, en el que sistemas para la creación de Sistemas Expertos basados en reglas como CLIPS, implementados sobre
computadoras comunes, habían convertido a estas costosas máquinas en innecesarias y obsoletas.19

Por otra parte, dentro de las disputas entre las diferentes ramas de la Inteligencia Artificial, el proyecto japonés partía del paradigma
basado en la programación lógica y la programación declarativa, dominante tras la publicación en 1969 por Marvin Minsky y Seymour Papert del
libro Perceptrons, que pasaría progresivamente a un segundo plano en favor de la programación de Redes Neuronales Artificiales (RNA) tras la
publicación en 1986 por parte de McClelland y Rumelhart del libro Parallel Distributed Processing, lo que junto a sus escasos resultados
contribuyó a que el proyecto de la quinta generación cayera en el olvido a su término en 1993.

El Institute for New Generation Computer Technology (ICOT) fue renombrado en el año 1995 a Research Institute for Advanced Information
Technology (AITEC), centro que fue clausurado en 2003, pasando todos sus recursos al Advanced IT Research Group (AITRG), dependiente del
Departamento de Investigación del JIPDEC.

Freddy Alexander Peña Ramirez Página 29


La Computación
1 de enero de 2014

Hardware

Primera etapa
Máquinas secuenciales PSI (Personal Sequential Inference machine) y CHI (Co-operative High-performance Inference machine):

 PSI-I: 30 KLIPS (Logical Inference Per Second)


 PSI-II: PSI-I + CPU VLSI
 CHI-I: 285 KLIPS

Máquinas en paralelo PIM (Parallel Inference Machine):

 PIM-D
 PIM-R

Máquina de base de datos relacional:

 DELTA

Segunda etapa
Máquinas secuenciales:

 PSI-III
 CHI-II: 490 KLIPS

Máquinas en paralelo:

Freddy Alexander Peña Ramirez Página 30


La Computación
1 de enero de 2014

 Multi-PSI

Tercera etapa
Máquinas en paralelo:

 PIM/p: 512 microprocesadores RISC, 256 MB de memoria


 PIM/m: 256 microprocesadores CISC, 80 MB de memoria
 PIM/c: 256 microprocesadores CISC, 160 MB de memoria
 PIM/k: 16 microprocesadores RISC, 1 GB de memoria
 PIM/i: 16 microprocesadores RISC (tipo LIW), 320 MB de memoria.

Freddy Alexander Peña Ramirez Página 31


La Computación
1 de enero de 2014

6° Generación

Freddy Alexander Peña Ramirez Página 32


La Computación
1 de enero de 2014

Desde 1900 hasta la actualidad somos partícipes de la sexta generación de computadoras: Una generación en la cual los ordenadores son
más pequeños, versátiles y poseen, como herramienta indispensable, Internet.

En esta sexta generación de computadoras los ordenadores cuentan con arquitecturas paralelas que agilizan sus operaciones y facilitan el
almacenamiento de información. La sexta generación de computadoras cuenta con invenciones que han revolucionado por completo el mercado
de la tecnología informática.

En la actualidad los sistemas informáticos utilizan satélites, fibra óptica e inteligencia artificial, facilitando y permitiendo un amplio
desarrollo en este campo.

La sexta generación de computadoras podría denominarse como la era de las computadoras basadas en redes neuronales artificiales o
“cerebros artificiales”. Son computadoras que utilizan superconductores como materia prima para sus procesadores, lo cual les permite no
derrochar electricidad en calor debido a su nula resistencia, ganando performance y economizando energía. La ganancia de performance es,
aproximadamente, 30 veces la de un procesador de la misma frecuencia que utiliza metales comunes para su funcionamiento.

Todos los proyectos de esta sexta generación de computadoras aún están en desarrollo, y la única noticia que ha trascendido ha sido el
uso de procesadores en paralelo, es decir, la división de tareas en múltiples unidades de procesamiento operando de manera simultánea.
Además, se han incorporado chips de procesadores especializados en las tareas de video y sonido.

Algunas características de la sexta generación de computadoras:

• Las Computadoras Portátiles (Ladtops)


• Las Computadoras de Bolsillo (PDAs)
• Los Dispositivos Multimedia
• Los Dispositivos Móviles Inalámbricos (SPOT, UPnP, Smartphone, etc.)
• El Reconocimiento de voz y escritura
• Las Computadoras Ópticas (luz, sin calor, rápidas)
• Las Computadoras Cuánticas (electrones, moléculas, qbits, súper rápidas)

Freddy Alexander Peña Ramirez Página 33


La Computación
1 de enero de 2014

• La Mensajería y el Comercio Electrónico


• La Realidad Virtual
• Las Redes Inalámbricas (WiMax, WiFi, Bluetooth)
• El Súper Computo (Procesadores Paralelos Masivos)
• Las Memorias Compactas (Discos Duros externos USB, SmartMedia, PCMCIA)

En esta sexta generación de computadoras se espera conseguir la imitación de los Sistemas Expertos, es decir, imitar el comportamiento
de un profesional humano. Para lograr este objetivo se emplearán microcircuitos con inteligencia en donde las computadoras tendrán la
capacidad de aprender, asociar, deducir y tomar decisiones para la resolución de un problema.

Cabe mencionar que el objetivo de la inteligencia artificial no sólo es equipar las computadoras con inteligencia humana, sino que también
con la capacidad de razonar para encontrar soluciones. Otra característica fundamental de la sexta generación de computadoras es la capacidad
del ordenador para reconocer patrones y secuencias de procesamiento que haya encontrado previamente (programación Heurística). Dicha
programación le permitirá a la computadora recordar resultados previos e incluirlos en el procesamiento.

La computadora aprenderá a partir de sus propias experiencias, es decir que utilizará sus datos originales para obtener la respuesta
mediante el razonamiento y luego conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.

La base de la sexta generación de computadoras está en que los conocimientos recién adquiridos le servirán a la computadora como base
para la próxima serie de soluciones.

Freddy Alexander Peña Ramirez Página 34


La Computación
1 de enero de 2014

Partes del Computador

Freddy Alexander Peña Ramirez Página 35


La Computación
1 de enero de 2014

Hardware

Freddy Alexander Peña Ramirez Página 36


La Computación
1 de enero de 2014

El término hardware se refiere a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos,
electromecánicos y mecánicos.1 Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado;
contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras),
su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define
como «Conjunto de los componentes que integran la parte material de una computadora».2 El término, aunque sea lo más común, no solamente
se aplica a las computadoras; del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia poseen
hardware (y software).3 4 La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un
cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware básico, el estrictamente necesario para el
funcionamiento normal del equipo, y complementario, el que realiza funciones específicas.

Un sistema informático se compone de una unidad central de procesamiento (UCP/CPU), encargada de procesar los datos, uno o varios
periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida
(normalmente en forma visual o auditiva) a los datos procesados.

Freddy Alexander Peña Ramirez Página 37


La Computación
1 de enero de 2014

Dispositivos de Entrada
De esta categoría son aquellos que permiten el ingreso de información, en general desde alguna fuente externa o por parte del usuario. Los
dispositivos de entrada proveen el medio fundamental para transferir hacia la computadora (más propiamente al procesador) información desde
alguna fuente, sea local o remota. También permiten cumplir la esencial tarea de leer y cargar en memoria el sistema operativo y las aplicaciones
o programas informáticos, los que a su vez ponen operativa la computadora y hacen posible realizar las más diversas tareas.11

Entre los periféricos de entrada se puede mencionar:10 teclado, mouse o ratón, escáner, micrófono, cámara web , lectores ópticos de
código de barras, Joystick, lectora de CD, DVD o BluRay (sólo lectoras), placas de adquisición/conversión de datos, etc.

Pueden considerarse como imprescindibles para el funcionamiento, (de manera como hoy se concibe la informática) al teclado, al ratón y
algún dispositivo lector de discos; ya que tan sólo con ellos el hardware puede ponerse operativo para un usuario. Los otros son más bien
accesorios, aunque en la actualidad pueden resultar de tanta necesidad que son considerados parte esencial de todo el sistema.

Freddy Alexander Peña Ramirez Página 38


La Computación
1 de enero de 2014

Dispositivos de salida

Son aquellos que permiten emitir o dar salida a la información resultante de las operaciones realizadas por la CPU (procesamiento).

Los dispositivos de salida aportan el medio fundamental para exteriorizar y comunicar la información y datos procesados; ya sea al usuario o bien a otra fuente
externa, local o remota.

Los dispositivos más comunes de este grupo son los monitores clásicos (no de pantalla táctil), las impresoras, y los altavoces.

Entre los periféricos de salida puede considerarse como imprescindible para el funcionamiento del sistema, al monitor. Otros, aunque accesorios, son sumamente
necesarios para un usuario que opere un computador moderno.

Freddy Alexander Peña Ramirez Página 39


La Computación
1 de enero de 2014

Dispositivos de almacenamiento

Los dispositivos o unidades de almacenamiento de datos son componentes que leen o escriben datos en medios o soportes de
almacenamiento, y juntos conforman la memoria o almacenamiento secundario de la computadora.

Estos dispositivos realizan las operaciones de lectura o escritura de los medios o soportes donde se almacenan o guardan, lógica y
físicamente, los archivos de un sistema informático.

Disco duro
Los discos duros tienen una gran capacidad de almacenamiento de información, pero al estar alojados
normalmente dentro de la computadora (discos internos), no son extraíbles fácilmente. Para intercambiar
información con otros equipos (si no están conectados en red) se tienen que utilizar unidades de disco, como
los disquetes, los discos ópticos (CD, DVD), los discos magneto-ópticos, memorias USB o las memorias flash,
entre otros.

El disco duro almacena casi toda la información que manejamos al trabajar con una computadora. En
él se aloja, por ejemplo, el sistema operativo que permite arrancar la máquina, los programas, archivos de
texto, imagen, vídeo, etc. Dicha unidad puede ser interna (fija) o externa (portátil), dependiendo del lugar que
ocupe en el gabinete o caja de computadora.

Un disco duro está formado por varios discos apilados sobre los que se mueve una pequeña cabeza

Freddy Alexander Peña Ramirez Página 40


La Computación
1 de enero de 2014

magnética que graba y lee la información.

Este componente, al contrario que el micro o los módulos de memoria, no se pincha directamente en la placa, sino que se conecta a ella
mediante un cable. También va conectado a la fuente de alimentación, pues, como cualquier otro componente, necesita energía para funcionar.

Además, una sola placa puede tener varios discos duros conectados.

Las características principales de un disco duro son:

• Capacidad: Se mide en gigabytes (GB). Es el espacio disponible para almacenar secuencias de 1 byte. La capacidad aumenta
constantemente desde cientos de MB, decenas de GB, cientos de GB y hasta TB.
• Velocidad de giro: Se mide en revoluciones por minuto (RPM). Cuanto más rápido gire el disco, más rápido podrá acceder a la
información la cabeza lectora. Los discos actuales giran desde las 4.200 a 15.000 RPM, dependiendo del tipo de ordenador al que
estén destinadas.
• Capacidad de transmisión de datos: De poco servirá un disco duro de gran capacidad si transmite los datos lentamente. Los discos
actuales pueden alcanzar transferencias de datos de 3 GB por segundo.

También existen discos duros externos que permiten almacenar grandes cantidades de información. Son muy útiles para intercambiar
información entre dos equipos. Normalmente se conectan al PC mediante un conector USB.

Cuando el disco duro está leyendo, se enciende en la carcasa un LED (de color rojo, verde u otro). Esto es útil para saber, por ejemplo, si la
máquina ha acabado de realizar una tarea o si aún está procesando datos.

Freddy Alexander Peña Ramirez Página 41


La Computación
1 de enero de 2014

Disquetera
La unidad de 3,5 pulgadas permite intercambiar información utilizando disquetes magnéticos de 1,44 MB de
capacidad. Aunque la capacidad de soporte es muy limitada si tenemos en cuenta las necesidades de las
aplicaciones actuales se siguen utilizando para intercambiar archivos pequeños, pues pueden borrarse y
reescribirse cuantas veces se desee de una manera muy cómoda, aunque la transferencia de información es bastante
lenta si la comparamos con otros soportes, como el disco duro o un CD-ROM.

Para usar el disquete basta con introducirlo en la ranura de la disquetera. Para expulsarlo se pulsa el
botón situado junto a la ranura, o bien se ejecuta alguna acción en el entorno gráfico con el que trabajamos (por ejemplo,
se arrastra el símbolo del disquete hasta un icono representado por una papelera).

La unidad de disco se alimenta mediante cables a partir de la fuente de alimentación del sistema. Y también va conectada mediante un
cable a la placa base. Un diodo LED se ilumina junto a la ranura cuando la unidad está leyendo el disco, como ocurre en el caso del disco duro.

En los disquetes solo se puede escribir cuando la pestaña está cerrada.

Cabe destacar que el uso de este soporte en la actualidad es escaso o nulo, puesto que se ha vuelto obsoleto teniendo en cuenta los
avances que en materia de tecnología se han producido.

Freddy Alexander Peña Ramirez Página 42


La Computación
1 de enero de 2014

Unidad de CD-ROM o "lectora"


La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad que los disquetes de 3,5 pulgadas: hasta 700 MB. Ésta es su
principal ventaja, pues los CD-ROM se han convertido en el estándar para distribuir sistemas operativos, aplicaciones, etc.

El uso de estas unidades está muy extendido, ya que también permiten leer los discos compactos de audio.

Para introducir un disco, en la mayoría de las unidades hay que pulsar un botón para que salga una especie de
bandeja donde se deposita el CD-ROM. Pulsando nuevamente el botón, la bandeja se introduce.

En estas unidades, además, existe una toma para auriculares, y también pueden estar presentes los controles de
navegación y de volumen típicos de los equipos de audio para saltar de una pista a otra, por ejemplo.

Una característica básica de las unidades de CD-ROM es la velocidad de lectura, que normalmente se expresa
como un número seguido de una «x» (40x, 52x,..). Este número indica la velocidad de lectura en múltiplos de 128 kB/s.
Así, una unidad de 52x lee información de 128 kB/s × 52 = 6,656 kB/s, es decir, a 6,5 MB/s.

Freddy Alexander Peña Ramirez Página 43


La Computación
1 de enero de 2014

Principales
Se le llama hardware a los componentes físicos de una computadora, se clasifican generalmente en básicos y complementarios, los principales
son:

• Unidad Central de Proceso – Se le puede denominar como el cerebro de la computadora.


• Tarjeta Madre – Es donde se encuentran las conexiones básicas a traves de circuitos impresos en ella para todos los componentes de la
computadora.
• El Bus – Son los circuitos impresos de la tarjeta madre por donde pasan los datos que irán de ordenador a ordenador.
• La Memoria – Es la capacidad de almacenar información, existen dos tipos de memoria: la memoria ROM y la RAM; la ROM es una memoria
de solo lectura y en ella está instalado el programa básico de iniciación, la RAM es una memoria de acceso aleatorio (puede leerse y
escribirse), en ella son almacenadas tanto las instrucciones que necesita ejecutar el microprocesador como los datos que introducimos y
deseamos procesar, así como los resultados obtenidos.
• Memorias Auxiliares – Se utiliza para almacenar información en dispositivos fuera de la computadora, los principales son: el disquete, cinta
de respaldo y CD-ROM.
• Fuente de Poder – le suministra energía regulada al microprocesador y a los circuitos ya que la más pequeña variación de voltaje podría
quemar dichos circuitos.

Freddy Alexander Peña Ramirez Página 44


La Computación
1 de enero de 2014

Partes de una tarjeta madre

Freddy Alexander Peña Ramirez Página 45


La Computación
1 de enero de 2014

Software

Freddy Alexander Peña Ramirez Página 46


La Computación
1 de enero de 2014

Se conoce como software al equipamiento lógico o soporte lógico de un sistema informático, que comprende el conjunto de los
componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son
llamados hardware.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que permite al
usuario realizar todas las tareas concernientes a la edición de textos; el llamado software de sistema, tal como el sistema operativo, que
básicamente permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el
resto de las aplicaciones, y proporcionando una interfaz con el usuario.

El anglicismo "software" es el más ampliamente difundido al referirse a este concepto, especialmente en la jerga técnica; el término
sinónimo «logicial», derivado del término francés logiciel, es sobre todo utilizado en países y zonas de influencia francesa.

Freddy Alexander Peña Ramirez Página 47


La Computación
1 de enero de 2014

Sistemas Operativos
Un sistema operativo (SO, núcleo es monolítico. Otro ejemplo para proporcionan un sistema de funcionamiento
frecuentemente OS, del inglés Operating comprender esta diferencia se encuentra similar. Este error de precisión, se debe a la
System) es un programa o conjunto de en la plataforma Amiga, donde el entorno modernización de la informática llevada a
programas que en un sistema informático gráfico de usuario se distribuía por cabo a finales de los 80, cuando la filosofía
gestiona los recursos de hardware y provee separado, de modo que, también podía de estructura básica de funcionamiento de
servicios a los programas de aplicación, reemplazarse por otro, como era el caso de los grandes computadores3 se rediseñó a
ejecutándose en modo privilegiado directory Opus o incluso manejarlo fin de llevarla a los hogares y facilitar su
respecto de los restantes y anteriores arrancando con una línea de comandos y el uso, cambiando el concepto de computador
próximos y viceversa.2 sistema gráfico. De este modo, al arrancar multiusuario, (muchos usuarios al mismo
un Amiga, comenzaba a funcionar con el tiempo) por un sistema monousuario
Nótese que es un error común muy
propio sistema operativo que llevaba (únicamente un usuario al mismo tiempo)
extendido denominar al conjunto completo
incluido en una ROM, por lo que era más sencillo de gestionar.4 (Véase
de herramientas sistema operativo, es
cuestión del usuario decidir si necesitaba AmigaOS, beOS o MacOS como los
decir, la inclusión en el mismo término de
un entorno gráfico para manejar el sistema pioneros5 de dicha modernización, cuando
programas como el explorador de ficheros,
operativo o simplemente otra aplicación. los Amiga fueron bautizados con el
el navegador web y todo tipo de
Uno de los más prominentes ejemplos de sobrenombre de Video Toasters6 por su
herramientas que permiten la interacción
esta diferencia, es el núcleo Linux, usado en capacidad para la Edición de vídeo en
con el sistema operativo, también llamado
las llamadas distribuciones Linux, ya que al entorno multitarea round robin, con gestión
núcleo o kernel. Esta identidad entre kernel
estar también basadas en Unix,
y sistema operativo es solo cierta si el

Freddy Alexander Peña Ramirez Página 48


La Computación
1 de enero de 2014

de miles de colores e interfaces intuitivos móviles, reproductores de DVD,  GNU/Linux


para diseño en 3D. computadoras, radios, enrutadores, etc.).  Unix
En cuyo caso, son manejados mediante una  Solaris
Uno de los propósitos del sistema
Interfaz Gráfica de Usuario, un gestor de  Google Chrome OS
operativo que gestiona el núcleo
ventanas o un entorno de escritorio, si es un  Debian
intermediario consiste en gestionar los
celular, mediante una consola o control  Ubuntu
recursos de localización y protección de
remoto si es un DVD y, mediante una línea  Mandriva
acceso del hardware, hecho que alivia a los
de comandos o navegador web si es un  Fedora
programadores de aplicaciones de tener
enrutador.
que tratar con estos detalles. La mayoría de  Linpus linux
aparatos electrónicos que utilizan Ejemplos de sistemas operativos para PC  Haiku (BeOS)
microprocesadores para funcionar, llevan
 Microsoft Windows
incorporado un sistema operativo (teléfonos
 Mac OS X

Freddy Alexander Peña Ramirez Página 1


La Computación
1 de enero de 2014

Programas
Un programa informático es un conjunto de instrucciones que una vez ejecutadas realizarán una o varias tareas en una computadora. Sin
programas, estas máquinas no pueden funcionar. Al conjunto general de programas, se le denomina software, que más genéricamente se refiere
al equipamiento lógico o soporte lógico de una computadora digital.

En informática, se los denomina comúnmente binarios, (propio en sistemas Unix, donde debido a la estructura de este último, los ficheros
no necesitan hacer uso de extensiones; posteriormente, los presentaron como ficheros ejecutables, con extensión .exe, en los sistemas
operativos de la familia Windows) debido a que una vez que han pasado por el proceso de compilación y han sido creados, las instrucciones que
se escribieron en un determinado lenguaje de programación, han sido traducidas al único idioma que la máquina comprende, combinaciones de
ceros y unos llamado código máquina. El mismo término, puede referirse tanto a un programa ejecutable, como a su código fuente, el cual es
transformado en un binario una vez que es compilado.

Generalmente el código fuente lo escriben profesionales conocidos como programadores. Este código se escribe en un lenguaje que sigue
uno de los siguientes dos paradigmas: imperativo o declarativo, y que posteriormente puede ser convertido en una imagen ejecutable a través de
un programa-compilador. Cuando se pide que el programa sea ejecutado, el procesador ejecuta instrucción por instrucción.

De acuerdo a sus funciones, los programas informáticos se clasifican en software de sistema y software de aplicación. En los
computadores actuales, al hecho de ejecutar varios programas de forma simultánea y eficiente, se le conoce como multitarea.

Freddy Alexander Peña Ramirez Página 1

Você também pode gostar