Você está na página 1de 19

unidad central de procesamiento, CPU (por sus siglas del inglés Central Processing

Unit), o, solo, procesador, es el componente en una computadora digital que interpreta


las instrucciones y procesa los datos contenidos en los programas de la computadora.
Las CPU proporcionan la característica fundamental de la computadora digital (la
programabilidad) y son uno de los componentes necesarios encontrados en las
computadoras de cualquier tiempo, junto con el almacenamiento primario y los
dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es
manufacturado con circuitos integrados. Desde mediados de los años 1970, los
microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de
CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los
microprocesadores.
las primeras CPU fueron diseñadas a la medida como parte de una computadora más
grande, generalmente una computadora única en su especie. Sin embargo, este costoso
método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido
en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y
estandarizados adaptados para uno o muchos propósitos. Esta tendencia de
estandarización comenzó generalmente en la era de los transistores discretos,
computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la
popularización del circuito integrado , éste ha permitido que sean diseñados y
fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto
la miniaturización como la estandarización de los CPU han aumentado la presencia de
estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones
limitadas de máquinas de computación dedicadas. Los microprocesadores modernos
aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta
teléfonos móviles o celulares, juguetes, entre otros.
Artículo principal: Historia del hardware de computador
Antes del advenimiento de las máquinas parecidas a los CPU de hoy, computadores
como el ENIAC tenían que ser físicamente recableados para poder realizar tareas
diferentes. Estas máquinas eran a menudo referidas como "computadores de programa
fijo", puesto que tenían que ser reconfiguradas físicamente para correr un programa
diferente. Puesto que el término "CPU" es generalmente definido como un dispositivo
de ejecución de software (programa de computadora), los primeros dispositivos que
podían ser llamados correctamente como CPU vinieron con el advenimiento de la
computadora con programa almacenado.
La idea de una computadora con programa almacenado ya estaba presente durante el
diseño del ENIAC, pero fue omitida inicialmente para que la máquina pudiera ser
terminada más pronto. El 30 de junio de 1945, antes de que el ENIAC incluso fuera
terminado, el matemático John von Neumann distribuyó el trabajo titulado "Primer
Borrador de un Reporte sobre el EDVAC". Este trabajo, cuya autoría principal hoy se
les reconoce a John Presper Eckert y John William Mauchly,1 esbozó el diseño de una
computadora con programa almacenado que finalmente sería terminado en agosto de
1949 . El EDVAC fue diseñado para efectuar un número determinado de instrucciones
(u operaciones) de varios tipos. Estas instrucciones podían combinarse para crear
programas útiles para ser ejecutados por el EDVAC. Significativamente, los programas
escritos para el EDVAC fueron almacenados en memoria de la computadora de alta
velocidad en lugar de ser especificados por el cableado físico de la computadora. Esto
superó una severa limitación del ENIAC, que era la gran cantidad de tiempo y esfuerzo
que tomaba reconfigurar el computador para realizar una nueva tarea. Con el diseño de
Eckert-Mauchly, el programa, o el software, que el EDVAC corría, podía ser
reemplazado simplemente cambiando el contenido de la memoria del computador.2
Debe ser notado que mientras que von Neumann es acreditado más frecuentemente por
el diseño del computador con programa almacenado debido a su diseño del EDVAC,
otros antes de él, como Konrad Zuse, habían sugerido ideas similares. Además, la
llamada arquitectura Harvard del Harvard Mark I, que fue terminada antes del EDVAC,
también utilizó un diseño con programa almacenado empleando cinta de papel
perforada en vez de memoria electrónica. La diferencia clave entre las arquitecturas de
Eckert-Mauchly y la de Harvard es que la última separa el almacenamiento y el
tratamiento de las instrucciones y de los datos del CPU, mientras que la primera usa el
mismo espacio de memoria para ambos. La mayoría de los CPU modernos son diseños
de Eckert-Mauchly en su mayor parte, pero también son vistos comúnmente elementos
de la arquitectura de Harvard.
Siendo dispositivos digitales todos los CPU tratan con estados discretos, y por lo tanto
requieren una cierta clase de elementos de conmutación para diferenciar y cambiar estos
estados. Antes de la aceptación comercial del transistor, los relés eléctricos y los tubos
de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de
conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores
diseños puramente mecánicos, no eran fiables por varias razones. Por ejemplo, hacer
circuitos de lógica secuencial de corriente directa requería hardware adicional para
hacer frente al problema del rebote de contacto. Por otro lado, mientras que los tubos de
vacío no sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar
completamente operacionales y eventualmente fallan y dejan de funcionar por
completo.3 Generalmente, cuando un tubo ha fallado, el CPU tendría que ser
diagnosticado para localizar el componente que falla para que pueda ser reemplazado.
Por lo tanto, los primeros computadores electrónicos, (basados en tubos de vacío),
generalmente eran más rápidas pero menos confiables que las computadoras
electromecánicas, (basadas en relés). Las computadoras de tubo, como el EDVAC,
tendieron en tener un promedio de ocho horas entre fallas, mientras que las
computadoras de relés, (anteriores y más lentas), como el Harvard Mark I, fallaban muy
raramente . Al final, los CPU basados en tubo llegaron a ser dominantes porque las
significativas ventajas de velocidad producidas generalmente pesaban más que los
problemas de confiabilidad. La mayor parte de estos tempranos CPU síncronos corrían
en frecuencias de reloj bajas comparadas con los modernos diseños microelectrónicos,
(ver más abajo para una exposición sobre la frecuencia de reloj). Eran muy comunes en
este tiempo las frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4
MHz, limitado en gran parte por la velocidad de los dispositivos de conmutación con los
que fueron construidos.
CPU de transistores y de circuitos integrados discretos [editar]
CPU, memoria de núcleo, e interface de bus externo de un MSI PDP-8/I.
La complejidad del diseño de los CPU se incrementó a medida que varias tecnologías
facilitaron la construcción de dispositivos electrónicos más pequeños y confiables. La
primera de esas mejoras vino con el advenimiento del transistor. Los CPU
transistorizados durante los años 1950 y los años 1960 no tuvieron que ser construidos
con elementos de conmutación abultados, no fiables, y frágiles, como los tubos de vacío
y los relés eléctricos. Con esta mejora, fueron construidos CPUs más complejos y más
confiables sobre una o varias tarjetas de circuito impreso que contenían componentes
discretos (individuales).
Durante este período, ganó popularidad un método de fabricar muchos transistores en
un espacio compacto. El circuito integrado (IC) permitió que una gran cantidad de
transistores fueran fabricados en una simple oblea basada en semiconductor o "chip". Al
principio, solamente circuitos digitales muy básicos, no especializados, como las
puertas NOR fueron miniaturizados en ICs. Los CPU basadas en estos IC de "bloques
de construcción" generalmente son referidos como dispositivos de pequeña escala de
integración "small-scale integration" (SSI). Los circuitos integrados SSI, como los
usados en el computador guía del Apollo (Apollo Guidance Computer), usualmente
contenían transistores que se contaban en números de múltiplos de diez. Construir un
CPU completo usando ICs SSI requería miles de chips individuales, pero todavía
consumía mucho menos espacio y energía que diseños anteriores de transistores
discretos. A medida que la tecnología microelectrónica avanzó, en los IC fue colocado
un número creciente de transistores, disminuyendo así la cantidad de ICs individuales
necesarios para un CPU completo. Los circuitos integrados MSI y el LSI (de mediana y
gran escala de integración) aumentaron el número de transistores a cientos, y luego a
miles.
En 1964, IBM introdujo su arquitectura de computador System/360, que fue usada en
una serie de computadores que podían correr los mismos programas con velocidades y
desempeños diferentes. Esto fue significativo en un tiempo en que la mayoría de las
computadoras electrónicas eran incompatibles una con la otra, incluso las hechas por el
mismo fabricante. Para facilitar esta mejora, IBM utilizó el concepto de microprograma,
a menudo llamado "microcódigo", que todavía ve un uso extenso en los CPU modernos
. La arquitectura System/360 era tan popular que dominó el mercado del mainframe por
las siguientes décadas y dejó una herencia que todavía es continuada por computadores
modernos similares como el IBM zSeries. En el mismo año de 1964, Digital Equipment
Corporation (DEC) introdujo otro computador influyente dirigido a los mercados
científicos y de investigación, el PDP-8. DEC introduciría más adelante la
extremadamente popular línea del PDP-11, que originalmente fue construido con ICs
SSI pero eventualmente fue implementado con componentes LSI cuando llegaron a ser
prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI, la
primera implementación LSI del PDP-11 contuvo un CPU integrado por solamente
cuatro circuitos integrados LSI .
Los computadores basados en transistores tenían varias ventajas distintas sobre sus
predecesores. Aparte de facilitar una creciente confiabilidad y un más bajo consumo de
energía, los transistores también permitían al CPU operar a velocidades mucho más
altas debido al corto tiempo de conmutación de un transistor en comparación a un tubo
o relé. Gracias tanto a la creciente confiabilidad como a la dramáticamente
incrementada velocidad de los elementos de conmutación que por este tiempo eran casi
exclusivamente transistores, fueron obtenidas frecuencias de reloj del CPU de decenas
de megahertz. Además, mientras que los CPU de transistores discretos y circuitos
integrados estaban en fuerte uso, comenzaron a aparecer los nuevos diseños de alto
rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple Data)
(Simple Instrucción Múltiples Datos). Estos tempranos diseños experimentales dieron
lugar más adelante a la era de los supercomputadoras especializados, como los hechos
por Cray Inc.
Microprocesadores [editar]

Microprocesador Intel 80486DX2 en un paquete PGA de cerámica


Artículo principal: Microprocesador
Desde la introducción del primer microprocesador, el Intel 4004, en 1970, y del primer
microprocesador ampliamente usado, el Intel 8080, en 1974. Esta clase de CPUs ha
desplazado casi totalmente el resto de los métodos de implementación de la Unidad
Central de Proceso. Los fabricantes de mainframes y minicomputadores de ese tiempo
lanzaron programas de desarrollo de ICs propietarios para actualizar sus más viejas
arquitecturas de computador, y eventualmente produjeron microprocesadores con
conjuntos de instrucciones que eran compatibles hacia atrás con sus más viejos
hardwares y softwares. Combinado con el advenimiento y el eventual vasto éxito del
ahora ubicuo computadora personal, el término "CPU" es aplicado ahora casi
exclusivamente a los microprocesadores.
Las generaciones previas de CPUs fueron implementadas como componentes discretos
y numerosos circuitos integrados de pequeña escala de integración en una o más tarjetas
de circuitos. Por otro lado, los microprocesadores son CPUs fabricados con un número
muy pequeño de ICs; usualmente solo uno. El tamaño más pequeño del CPU, como
resultado de estar implementado en una simple pastilla, significa tiempos de
conmutación más rápidos debido a factores físicos como el decrecimiento de la
capacitancia parásita de las puertas. Esto ha permitido que los microprocesadores
síncronos tengan ratas de reloj con un rango de decenas de megahertz a varios
gigahertz. Adicionalmente, como ha aumentado la capacidad de construir transistores
excesivamente pequeños en un IC, la complejidad y el número de transistores en un
simple CPU también se ha incrementado dramáticamente. Esta tendencia ampliamente
observada es descrita por la ley de Moore, que ha demostrado hasta la fecha, ser una
predicción bastante exacta del crecimiento de la complejidad de los CPU y otros ICs.
Mientras que, en los pasados sesenta años han cambiado drásticamente, la complejidad,
el tamaño, la construcción, y la forma general del CPU, es notable que el diseño y el
funcionamiento básico no ha cambiado demasiado. Casi todos los CPU comunes de hoy
se pueden describir con precisión como máquinas de programa almacenado de Eckert-
Mauchly.
A medida que la a mencionada ley del Moore continúa manteniéndose verdadera, se han
presentado preocupaciones sobre los límites de la tecnología de transistor del circuito
integrado. La miniaturización extrema de puertas electrónicas está causando los efectos
de fenómenos que se vuelven mucho más significativos, como la electromigración, y el
subumbral de pérdida. Estas más nuevas preocupaciones están entre los muchos factores
que hacen a investigadores estudiar nuevos métodos de computación como la
computadora cuántica, así como ampliar el uso de paralelismo, y otros métodos que
extienden la utilidad

Unidad de procesamiento
Al observar una computadora en su
interior, podemos notar que consiste
básicamente de un conjunto de circuitos
electrónicos. Aún sin saber a detalle
cómo funciona cada uno de tales
componentes, es interesante conocer los
principios en los que se basan. Estos
principios permiten tener criterios para
juzgar el desempeño y comparar las
características de la computadora
(velocidad, capacidad y versatilidad) en
situaciones tales como, si se desea
comprar uno nuevo, determinar si posee
la capacidad para ejecutar alguna
aplicación particular de interés, o
bien para determinar si satisface las expectativas personales de desempeño. Por lo tanto se
expondrán en este tema sobre la unidad del sistema, sus componentes, y la velocidad y tendencias
de los procesadores.

Básicamente nos encontramos con dos tipos de diseño de los microprocesadores: RISC
(Reduced-Instruction-Set Computing) y CISC (complex-instruction-set computing).
Los microprocesadores RISC se basan en la idea de que la mayoría de las instrucciones
para realizar procesos en el computador son relativamente simples por lo que se
minimiza el número de instrucciones y su complejidad a la hora de diseñar la CPU.
Algunos ejemplos de arquitectura RISC son el SPARC de Sun Microsystem's, el
microprocesador Alpha diseñado por la antigua Digital, hoy absorbida por Compaq y
los Motorola 88000 y PowerPC. Estos procesadores se suelen emplear en aplicaciones
industriales y profesionales por su gran rendimiento y fiabilidad.
Los microprocesadores CISC, al contrario, tienen una gran cantidad de instrucciones y
por tanto son muy rápidos procesando código complejo. Las CPU´s CISC más
extendidas son las de la familia 80x86 de Intel cuyo último micro es el Pentium II.
Últimamente han aparecido otras compañías como Cirix y AMD que fabrican
procesadores con el juego de instrucciones 80x86 y a un precio sensiblemente inferior al
de los microprocesadores de Intel. Además, tanto Intel con MMX como AMD con su
especificación 3D-Now! están apostando por extender el conjunto de instrucciones de la
CPU para que trabaje más eficientemente con tratamiento de imágenes y aplicaciones en
3 dimensiones.
Las computadores se construyen a partir de dispositivos de conmutación que reducen
toda la información a ceros y unos, es decir que representan los números con el sistema
binario, un sistema que denota todos los números con combinaciones de 2 dígitos. Es
decir que el potencial de la computadora se basa en sólo dos estados electrónicos:
encendido y apagado. Las características físicas de la computadora permiten que se
combinen estos dos estados electrónicos para representar letras, números, colores.
Un estado electrónico de "encendido" o "apagado" se representa por medio de un bit. La
presencia o la ausencia de un bit se conoce como un bit encendido o un bit apagado,
respectivamente. En el sistema de numeración binario y en el texto escrito, el bit
encendido es un 1 y el bit apagado es un 0.
Las computadoras cuentan con soft que convierte automáticamente los números
decimales en binarios y viceversa. El procesamiento de número binarios de la
computadora es totalmente invisible para el usuario humano.
Para que las palabras, frases y párrafos se ajusten a los circuitos exclusivamente binarios
de la computadora, se han creado códigos que representan cada letra, dígito y carácter
especial como una cadena única de bits. El código más común es el ASCII (American
Standard Code for Information Interchange, Código estándar estadounidense para el
intercambio de información).
Un grupo de bits puede representar colores, sonidos y casi cualquier otro tipo de
información que pueda llegar a procesar un computador.
La computadora almacena los programas como colecciones de bits, lo mismo que los
datos.
Unidades de medida
Bit (binary digit):Unidad básica de datos de la computadora. Byte : Grupo de 8 bits;
cada byte representa un carácter de información. Kilobyte (K): aproximadamente 1000
bytes, exactamente 1024 bytes. Megabyte (MB): aproximadamente 1000K, o sea un
millón de bytes. Gigabyte (GB): aproximadamente 1000MB.
Con estos mismos términos se cuantifica el tamaño de los archivos de una computadora.
Archivo : colección organizada de información, almacenada en una forma que pueda
leer la computadora.
Unidad central de procesamiento
UCP o CPU (central processing unit).
El usuario proporciona al computador patrones de bits (entrada) y éste sigue las
instrucciones para transformar esa entrada en otro patrón de bits (salida) y devolverla al
usuario.
Estas transformaciones son realizadas por la UCP o procesador, que interpreta y lleva a
cabo las instrucciones de los programas, efectúa manipulaciones aritméticas y lógicas
con los datos y se comunica con las demás partes del sistema. Una UCP es una
colección compleja de circuitos electrónicos. Cuando se incorporan todos estos circuitos
en un chip de silicio, a este chip se le denomina microprocesador. La UCP y otros chips
y componentes electrónicos se ubican en un tablero de circuitos.
Los factores relevantes de los chips de UCP son:
Compatibilidad: No todo el soft es compatible con todas las UCP. En algunos casos se
pueden resolver los problemas de compatibilidad usando software especial. Velocidad:
La velocidad de una computadora está determinada por la velocidad de su reloj interno,
el dispositivo cronométrico que produce pulsos eléctricos para sincronizar las
operaciones de la computadora. Las computadoras se describen en términos de su
velocidad de reloj, que se mide en megahertz. La velocidad también está determinada
por la arquitectura del procesador, es decir el diseño que establece de qué manera están
colocados en el chip los componentes individuales de la CPU.
Desde la perspectiva del usuario, el punto crucial es que "más rápido" casi siempre
significa "mejor".
La mayoría de los supercomputadores tiene varios procesadores completos que pueden
dividir los trabajos en porciones y trabajar con ellas en paralelo; es el llamado
procesamiento en paralelo.
Cada CPU tiene dos secciones fundamentales: la unidad de control y la unidad
airtmético-lógica.
Unidad de control
Si el procesador es el núcleo del sistema de computación, la unidad de control lo es del
procesador. Tiene 3 funciones principales:
Leer e interpretar instrucciones del programa.
Dirigir la operación de los componentes internos del procesador.
Controlar el flujo de programas y datos hacia y desde la RAM.
La unidad de control dirige otros componentes del procesador para realizar las
operaciones necesarias y ejecutar la instrucción.
Registros : áreas de almacenamiento de trabajo de alta velocidad que contiene la unidad
de control, que no pueden almacenar más que unos cuantos bytes. Los registros manejan
instrucciones y datos a un velocidad unas 10 veces mayor que la de la memoria caché y
se usan para una variedad de funciones de procesamiento. Los registros facilitan el
movimiento de datos e instrucciones entre la RAM, la unidad de control y la unidad
aritmético-lógica. Registro de la instrucción: registro que contiene la instrucción que se
está ejecutando. Registros de uso general: almacenan los datos necesarios para el
procesamiento inmediato.
Unidad aritmético-lógica
Realiza todos los cálculos (suma, resta, multiplicación y división) y todas las
operaciones lógicas (comparaciones numéricas o alfabéticas).
Haciendo una analogía con el ser humano:
• CPU <=> Cerebro, instrucciones
• ROM <=> Instintos
• RAM <=> Información que maneja en este momento.
• Memoria Secundaria <=> Información que se busca en elementos adicionales.
• Placa Madre, cuerpo, Sistema Nervioso
• Dispositivos Entrada: Órganos de los Sentidos (Oídos, Ojos, ...)

Almacenamiento (Memoria)
• La memoria en general se refiere a elementos que permiten almacenar
información.
• La información de un computador se compone de BITS (números que sólo
toman el valor 1 ó 0).
• Los bits se agrupan de a ocho formando un BYTE (8 bits).
Unidades de Memoria:
* Un BIT (Puede tomar valores: 1 ó 0 - binarios).
* Un BYTE : 8 bits
* Un KILOBYTE (Kb) : 2^10 bytes.
* Un MEGABYTE (Mb) : 2^10 kilobytes : 2^20 bytes.
* Un GIGABYTE (Gb) : 2^10 megabytes: 2^30 bytes
* Un TERABYTE (Tb) : 2^10 gigabytes: 2^40 bytes

• Dispositivos Salida: Entrega de información (Voz, Escritura, ...)


RAM Y CACHE
• La memoria RAM permite al computador almacenar información que la CPU
está accesando frecuentemente y necesita para operar.
Por Ej. información de un programa, instrucciones, datos, etc La memoria secundaria
son todas las unidades de disco que un computador puede tener. Se usa para almacenar
programas ejecutables y grandes volúmenes de datos que requieren ser accesados en
algún momento. Algunas características importantes de la memoria secundaria:
• Lento acceso (obtener información toma más tiempo que en RAM).
• "Permanente": al apagar el computador, no se pierde lo que hay en la memoria
secundaria.
• El usuario puede accesar o llamar directamente los archivos de memoria
secundaria.
• La unidad de memoria (Mbyte) es más barata. , lo que se traduce en que en
general hay mucha capacidad (6,4Gb, 10,2Gb, 20G, 40Gb...)
Algunos Almacenadores de Memoria Secundaria
1. Disco Duro: 6,4Gb, 10,2Gb, 20G, 40Gb... (Velocidad de acceso es importante
también: 11ns, 15ns, ....).
2. Unidad Disco Flexible (Diskette) : Diskette tamaño 3 1/2, capacidad 720Kb,
1.44Mb
3. CD-ROM (Compact Disc):
4. DVD
5. Cintas: originalmente gran tamaño y lentas.
6. Unidades ZIP,JAZ...

• ¿ Que es un Computador Mainframe ?
• Es un ordenador o computadora de alta capacidad diseñado para las tareas
computacionales más intensas. Las computadoras de tipo mainframe suelen
tener varios usuarios, conectados al sistema a través de terminales. Los
mainframes más potentes, llamados supercomputadoras, realizan cálculos muy
complejos y que requieren mucho tiempo.
• Este tipo de equipos informáticos lo utilizan principalmente los científicos
dedicados a la investigación pura y aplicada, las grandes compañías y el ejército.


• ¿ Que es un Microcomputador ?
• Es un dispositivo de computación de sobremesa o portátil, que utiliza un
microprocesador como su unidad central de procesamiento o CPU. Los
microordenadores más comunes son las computadoras u ordenadores
personales, PC, computadoras domésticas, computadoras para la pequeña
empresao micros. Las más pequeñas y compactas se denominan laptops o
portátiles e incluso palm tops por caber en la palma de la mano. Cuando los
microordenadores aparecieron por primera vez, se consideraban equipos para
un solo usuario, y sólo eran capaces de procesar cuatro, ocho o 16 bits de
informacióna la vez. Con el paso del tiempo, la distinción entre
microcomputadoras y grandes computadoras corporativas o mainframe (así
como los sistemas corporativos de menor tamaño denominados
minicomputadoras) ha perdido vigencia, ya que los nuevos modelos de
microordenadores han aumentado la velocidad y capacidad de procesamiento
de datos de sus CPUs a niveles de 32 bits y múltiples usuarios.
• Hardware, equipo utilizado para el funcionamiento de una computadora. El
hardware se refiere a los componentes materialesde un sistema informático. La
función de estos componentes suele dividirse en tres categorías principales:
entrada, salida y almacenamiento. Los componentes de esas categorías están
conectados a través de un conjunto de cables o circuitos llamado bus con la
unidad central de proceso(CPU) del ordenador, el microprocesador que
controla la computadora y le proporciona capacidad de cálculo.
• El soporte lógico o software, en cambio, es el conjunto de instrucciones que un
ordenador emplea para manipular datos: por ejemplo, un procesador de textos
o un videojuego. Estos programassuelen almacenarse y transferirse a la CPU a
través del hardware de la computadora. El software también rige la forma en
que se utiliza el hardware, como por ejemplo la forma de recuperar información
de un dispositivo de almacenamiento. La interacción entre el hardware de
entrada y de salida es controlada por un software llamado BIOS (siglas en inglés
de 'sistema básico de entrada / salida').
• Aunque, técnicamente, los microprocesadorestodavía se consideran hardware,
partes de su función también están asociadas con el software. Como los
microprocesadores tienen tanto aspectos de hardware como de software, a veces
se les aplica el término intermedio de microprogramación, o firmware.
• Software, programas de computadoras. Son las instrucciones responsables de
que el hardware (la máquina) realice su tarea. Como conceptogeneral, el
software puede dividirse en varias categorías basadas en el tipo de trabajo
realizado. Las dos categorías primarias de software son los sistemas
operativos(software del sistema), que controlan los trabajos del ordenador o
computadora, y el software de aplicación, que dirige las distintas tareas para las
que se utilizan las computadoras. Por lo tanto, el software del sistema procesa
tareas tan esenciales, aunque a menudo invisibles, como el mantenimiento de
los archivosdel disco y la administraciónde la pantalla, mientras que el software
de aplicación lleva a cabo tareas de tratamiento de textos, gestión de bases de
datos y similares. Constituyen dos categorías separadas el software de red, que
permite comunicarse a grupos de usuarios, y el software de lenguaje utilizado
para escribir programas
• Además de estas categorías basadas en tareas, varios tipos de software se
describen basándose en su método de distribución. Entre estos se encuentran
los así llamados programas enlatados, el software desarrollado por compañías y
vendido principalmente por distribuidores, el freeware y software de dominio
público, que se ofrece sin costoalguno, el shareware, que es similar al freeware,
pero suele conllevar una pequeña tasa a pagar por los usuarios que lo utilicen
profesionalmente y, por último, el infame vapourware, que es software que no
llega a presentarse o que aparece mucho después de lo prometido.
• Usuario: es el que determina el uso del sistema ya sea operando o
suministrando mantenimiento.
• Lenguajes en Computación.
• En informática, cualquier lenguaje artificial puede utilizarse para definir una
secuencia de instrucciones para su procesamiento por un ordenador o
computadora. Es complicado definir qué es y qué no es un lenguaje. Se asume
generalmente que la traducción de las instrucciones a un código que comprende
la computadora debe ser completamente sistemática. Normalmente es la
computadora la que realiza la traducción.
• Tipos De Lenguajes:
• Lenguaje Máquina
• El lenguaje propio del ordenador, basado en el sistema binario, o código
máquina, resulta difícil de utilizar para las personas. El programador debe
introducir todos y cada uno de los comandos y datos en forma binaria, y una
operación sencilla como comparar el contenido de un registrocon los datos
situados en una ubicación del chip de memoria puede tener el siguiente
formato: 11001010 00010111 11110101 00101011. La programación en lenguaje
máquina es una tarea tan tediosa y consume tanto tiempo que muy raras veces
lo que se ahorra en la ejecución del programajustifica los días o semanas que se
han necesitado para escribir el mismo.
• Lenguaje bajo nivel
• Vistos a muy bajo nivel, los microprocesadores procesan exclusivamente señales
electrónicas binarias. Dar una instrucción a un microprocesador supone en
realidad enviar series de unos y ceros espaciadas en el tiempo de una forma
determinada. Esta secuencia de señales se denomina código máquina. El código
representa normalmente datos y números e instrucciones para manipularlos.
Un modo más fácil de comprender el código máquina es dando a cada
instrucción un mnemónico, como por ejemplo STORE, ADD o JUMP. Esta
abstracción da como resultado el ensamblador, un lenguaje de muy bajo nivel
que es específico de cada microprocesador.
• Los lenguajes de bajo nivel permiten crear programas muy rápidos, pero que
son a menudo difíciles de aprender. Más importante es el hecho de que los
programas escritos en un bajo nivel sean altamente específicos de cada
procesador. Si se lleva el programa a otra máquina se debe reescribir el
programa desde el principio
• Lenguaje alto nivel
• Los lenguajes de alto nivel sueles utilizar términos ingleses del tipo LIST,
PRINT u OPEN como comandos que representan una secuencia de decenas o de
centenas de instrucciones en lenguaje máquina. Los comandos se introducen
desde el teclado, desde un programa residente en la memoria o desde un
dispositivo de almacenamiento, y son interceptados por un programa que los
traduce a instrucciones en lenguaje máquina.
• Los programas traductores son de dos tipos: interpretes y compiladores. Con un
interprete, los programas que repiten un ciclo para volver a ejecutar parte de
sus instrucciones, reinterpretan la misma instrucción cada vez que aparece. Por
consiguiente, los programas interpretados se ejecutan con mucha mayor
lentitud que los programas en lenguaje máquina. Por el contrario, los
compiladores traducen un programa integro a lenguaje máquina antes de su
ejecución, por lo cual se ejecutan con tanta rapidez como si hubiese sido escrita
directamente en lenguaje máquina.
• Se considera que fue la estadounidense Grace Hopper quien implementó el
primer lenguaje de ordenador orientado al uso comercial. Después de
programar un ordenador experimental en la Universidadde Harvard, trabajó en
los modelos UNIVAC I y UNIVAC II, desarrollando un lenguaje de alto nivel
para uso comercial llamado FLOW-MATIC. Para facilitar el uso del ordenador
en las aplicaciones científicas, IBM desarrolló un lenguaje que simplificaría el
trabajo que implicaba el tratamiento de fórmulas matemáticas complejas.
Iniciado en 1954 y terminado en 1957, el FORTRAN (acrónimo de Formula
Translator) fue el primer lenguaje exhaustivo de alto nivel de uso generalizado.
• En 1957 una asociación estadounidense, la Association for Computing
Machinery comenzó a desarrollar un lenguaje universal que corrigiera algunos
de los defectos del FORTRAN. Un año más tarde fue lanzado el ALGOL
(acrónimo de Algorithmic Language), otro lenguaje de orientación científica de
gran difusión en Europa durante las décadas de 1960 y 1970, desde entonces ha
sido sustituido por nuevos lenguajes, mientras que el FORTRAN continúa
siendo utilizado debido a las gigantescas inversiones que se hicieron en los
programas existentes. El COBOL
• (Acrónimo de Common Business Oriented Language) es un lenguaje de
programación para uso comercial y empresarial especializado en la organización
de datos y manipulación de archivos, y hoy día está muy difundido en el mundo
empresarial.
• Aunque existen centenares de lenguajes informáticos y de variantes, hay
algunos dignos de mención, como el PASCAL, diseñado en un principio como
herramienta de enseñanza, hoy es uno de los lenguajes de microordenador más
populares; el logro fue desarrollado para que los niños pudieran acceder al
mundo de la informática; el C, un lenguaje de Bell Laboratories diseñado en la
década de 1970, se utiliza ampliamente en el desarrollode programas de
sistemas, al igual que su sucesor, el C++. El LISP y el PROLOG han alcanzado
amplia difusión en el campo de la inteligencia artificial.
• Tipos de Lenguajes de Alto Nivel:
• Lenguaje C.
• Generalizando, un programa en C consta de tres secciones. La primera sección
es donde van todos los ``headers''. Estos ``headers'' son comúnmente los
``#define'' y los ``#include''. Como segunda sección se tienen las ``funciones''.
Al igual que Pascal, en C todas las funciones que se van a ocupar en el programa
deben ir antes que la función principal (main()). Declarando las funciones a
ocupar al principio del programa, se logra que la función principal esté antes
que el resto de las funciones. Ahora, solo se habla de funciones ya que en C no
existen los procedimientos.
• Y como última sección se tiene a la función principal, llamada main. Cuando se
ejecuta el programa, lo primero que se ejecuta es esta función, y de ahí sigue el
resto del programa.
• Los símbolos { y } indican ``begin'' y ``end'' respectivamente. Si en una función
o en un ciclo while, por ejemplo, su contenido es de solamente una línea, no es
necesario usar ``llaves'' ({ }), en caso contrario es obligación usarlos.
• Ejemplo de un programa en C
• /*Programa ejemplo que despliega el contenido de "ROL" en pantalla*/
• #include <stdio.h>
• #define ROL "9274002-1"
• despliega_rol() {
• printf("Mi rol es : \%s\n", ROL);
• }
• void main() {
• despliega_rol();
• }
• /* Fin programa */
• Pascal.
• Pascal es un lenguaje de programación de alto nivel de propósito general; esto
es, se puede utilizar para escribir programas para fines científicos y comerciales.
• El lenguaje de programación Pascal fue desarrollado por el profesor Niklaus
(Nicolás) Wirth en Zurich, Zuiza, al final de los años 1960s y principios de los
70s. Wirth diseñó este lenguaje para que fuese un buen primer lenguaje de
programación para personas comenzando a aprender a programar. Pascal tiene
un número relativamente pequeño de conceptos para aprender y dominar. Su
diseñofacilita escribir programas usando un estilo que está generalmente
aceptado como práctica estándar de programación buena. Otra de las metas del
diseño de Wirth era la implementación fácil. Él diseñó un lenguaje para el cual
fuese fácil escribir un compilador para un nuevo tipo de computadora.
• Program Sorting;
• Este programa lee un natural y una secuencia de N caracteres de la entrada
estándar; construye un índice para ordenarlos de menor a mayor e imprime en
la salida la secuencia ordenada.


Partes de un Computador.
Es un sistema compuesto de cinco elementos diferenciados: una CPU (unidad central
de Procesamiento), dispositivo de entrada, dispositivos de almacenamiento,
dispositivos de salida y una red de comunicaciones, denominada bus, que enlaza todos
los elementos del sistema y conecta a éste con el mundo exterior.
Ucp o cpu (central processing unit).
UCP o procesador, interpreta y lleva a cabo las instrucciones de los programas, efectúa
manipulaciones aritméticas y lógicas con los datos y se comunica con las demás partes
del sistema. Una UCP es una colección compleja de circuitos electrónicos. Cuando se
incorporan todos estos circuitos en un chip de silicio, a este chip se le denomina
microprocesador. La UCP y otros chips y componentes electrónicos se ubican en un
tablero de circuitos o tarjeta madre.
Los factores relevantes de los chips de UCP son:
Compatibilidad: No todo el soft es compatible con todas las UCP. En algunos casos se
pueden resolver los problemas de compatibilidad usando software especial.
Velocidad: La velocidad de una computadora está determinada por la velocidad de su
reloj interno, el dispositivo cronométrico que produce pulsos eléctricos para sincronizar
las operaciones de la computadora. Las computadoras se describen en función de su
velocidad de reloj, que se mide en mega hertz. La velocidad también está determinada
por la arquitectura del procesador, es decir el diseño que establece de qué manera están
colocados en el chip los componentes individuales de la CPU. Desde la perspectiva del
usuario, el punto crucial es que "más rápido" casi siempre significa "mejor".
El Procesador: El chip más importante de cualquier placa madre es el procesador. Sin
el la computadora no podría funcionar. A menudo este componente se determina CPU,
que describe a la perfección su papel dentro del sistema. El procesador es realmente el
elemento central del proceso de procesamiento de datos.
Los procesadores se describen en términos de su tamaño de palabra, su velocidad y la
capacidad de su RAM asociada.
Tamaño de la palabra: Es el número de bits que se maneja como una unidad en un
sistema de computación en particular.
Velocidad del procesador: Se mide en diferentes unidades según el tipo de computador:
MHz (Megahertz): para microcomputadoras. Un oscilador de cristal controla la
ejecución de instrucciones dentro del procesador. La velocidad del procesador de una
micro se mide por su frecuencia de oscilación o por el número de ciclos de reloj por
segundo. El tiempo transcurrido para un ciclo de reloj es 1/frecuencia.
MIPS (Millones de instrucciones por segundo): Para estaciones de trabajo, minis y
macrocomputadoras. Por ejemplo una computadora de 100 MIPS puede ejecutar 100
millones de instrucciones por segundo.
FLOPS (floating point operations per second, operaciones de punto flotante por
segundo): Para las supercomputadoras. Las operaciones de punto flotante incluyen
cifras muy pequeñas o muy altas. Hay supercomputadoras para las cuales se puede
hablar de GFLOPS (Gigaflops, es decir 1.000 millones de FLOPS).
Capacidad de la RAM: Se mide en términos del número de bytes que puede almacenar.
Habitualmente se mide en KB y MB, aunque ya hay computadoras en las que se debe
hablar de GB.
Dispositivos De Entrada:
En esta se encuentran:
• Teclado
• Mouse o Ratón
• Escáner o digitalizador de imágenes
El Teclado: Es un dispositivo periférico de entrada, que convierte la acción mecánica de
pulsar una serie de pulsos eléctricos codificados que permiten identificarla. Las teclas
que lo constituyen sirven para entrar caracteres alfanuméricos y comandos a una
computadora.
En un teclado se puede distinguir a cuatro subconjuntos de teclas:
Teclado alfanumérico: con las teclas dispuestas como en una maquina de escribir.
Teclado numérico: (ubicado a la derecha del anterior) con teclas dispuestas como en
una calculadora.
Teclado de funciones: (desde F1 hasta F12) son teclas cuya función depende del
programa en ejecución.
Teclado de cursor: para ir con el cursor de un lugar a otro en un texto. El cursor se
mueve según el sentido de las flechas de las teclas, ir al comienzo de un párrafo("
HOME "), avanzar / retroceder una pagina ("PAGE UP/PAGE DOWN "), eliminar
caracteres ("delete"), etc.
Cada tecla tiene su contacto, que se encuentra debajo de, ella al oprimirla se " Cierra " y
al soltarla se " Abre ", de esta manera constituye una llave " si – no ".
El Mouse O Ratón: es un dispositivo señalador o de entrada, recibe esta denominación
por su apariencia.
Para poder indicar la trayectoria que recorrió, a medida que se desplaza, el Mouse debe
enviar al computador señales eléctricas binarias que permitan reconstruir su
trayectoria, con el fin que la misma sea repetida por una flecha en el monitor. Para ello
el Mouse debe realizar dos funciones:
Conversión Analógica -Digital: Esta generar por cada fracción de milímetro que se
mueve, uno o más pulsos eléctricos.
Port serie: Dichos pulsos y enviar hacia la interfaz a la cual esta conectado el valor de la
cuenta, junto con la información acerca de sí se pulsa alguna de sus dos o tres teclas
ubicada en su parte superior.
Existen dos tecnologías principales en fabricación de ratones: Ratones mecánicos y
Ratones ópticos.
Ratones mecánicos: Estos constan de una bola situada en su parte inferior. La bola, al
moverse el ratón, roza unos contactos en forma de rueda que indican el movimiento del
cursor en la pantalla del sistema informático.
Ratones ópticos: Estos tienen un pequeño haz de luz láser en lugar de la bola rodante
de los mecánicos. Un censor óptico situado dentro del cuerpo del ratón detecta el
movimiento del reflejo al mover el ratón sobre el espejo e indica la posición del cursor
en la pantalla de la computadora.
El Escáner O Digitalizador De Imágenes: Son periféricos diseñados para registrar
caracteres escritos, o gráficos en forma de fotografías o dibujos, impresos en una hoja
de papel facilitando su introducción la computadora convirtiéndolos en información
binaria comprensible para ésta.
El funcionamiento de un escáner es similar al de una fotocopiadora. Se coloca una hoja
de papel que contiene una imagen sobre una superficie de cristal transparente, bajo el
cristal existe una lente especial que realiza un barrido de la imagen existente en el
papel; al realizar el barrido, la información existente en la hoja de papel es convertida
en una sucesión de información en forma de unos y ceros que se introducen en la
computadora.
Dispositivos De Almacenamiento
En esta se encuentran:
• Disco Duro
• Diskettes 3 ½
• Maletón-ópticos de 5,25
Disco Duro: Este esta compuestos por varios platos, es decir, varios discos de material
magnético montados sobre un eje central sobre el que se mueven. Para leer y escribir
datos en estos platos se usan las cabezas de lectura / escritura que mediante un proceso
electromagnético codifican / decodifican la información que han de leer o escribir. La
cabeza de lectura / escritura en un disco duro está muy cerca de la superficie, de forma
que casi da vuelta sobre ella, sobre el colchón de aire formado por su propio
movimiento. Debido a esto, están cerrados herméticamente, porque cualquier partícula
de polvo puede dañarlos.
Este dividen en unos círculos concéntricos cilíndricos (coincidentes con las pistas de los
disquetes), que empiezan en la parte exterior del disco (primer cilindro) y terminan en
la parte interior (ultimo). Asimismo, estos cilindros se dividen en sectores, cuyo
numero esta determinado por el tipo de disco y su formato, siendo todos ellos de un
tamaño fijo en cualquier disco. Cilindros como sectores se identifican con una serie de
números que se les asigna, empezando por el 1, pues el numero 0 de cada cilindro se
reservan para propósitos de identificación mas que para almacenamientos de datos.
Estos escritos / leídos en el disco deben ajustarse al tamaño fijado del almacenamiento
de los sectores. Habitualmente, los sistemas de discos duros contienen mas de una
unidad en su interior, por lo que el numero de caras puede ser mas de dos. Estas se
identifican con un numero, siendo el 0 para la primera. En general su organización es
igual a los disquetes. La capacidad del disco resulta de multiplicar el numero de caras
por el de pistas por cara y por el de sectores por pista, al total por el numero de bytes
por sector.
Diskettes 3 ½: Son disco de almacenamiento de alta densidadde 1,44 MB, este presenta
dos agujeros en la parte inferior del mismo, uno para proteger al disco contra escritura
y el otro solo para diferenciarlo del disco de doble densidad.
Maletón-Ópticos De 5,25: Este se basa en la misma tecnología que sus hermanos
pequeños de 3,5", su ventajas: Gran fiabilidad y durabilidad de los datos a la vez que
una velocidad razonablemente elevada Los discos van desde los 650 MB hasta los 5,2
GB de almacenamiento, o lo que es lo mismo: desde la capacidad de un solo CD-ROM
hasta la de 8.
Dispositivos De Salida
En esta se encuentran:
• Impresoras
• Monitor
Las Impresoras: Esta es la que permite obtener en un soporte de papel una ¨hardcopy¨:
copia visualizable, perdurable y transportable de la información procesada por un
computador.
Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los
monitores, siendo durante años el método más usual para presentar los resultados de
los cálculos en aquellos primitivos ordenadores, todo un avance respecto a las tarjetasy
cintas perforadas que se usaban hasta entonces.
Tipo De Impresoras
Impacto por matriz de aguja o punto
Chorro o inyección de tinta
Láser
El Monitor: Evidentemente, es la pantalla en la que se ve la información suministrada
por el ordenador. En el caso más habitual se trata de un aparato basado en un tubo de
rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles es una
pantalla plana de cristal líquido (LCD).
La resolución se define como el número de puntos que puede representar el monitor
por pantalla, en horizontal x vertical. Así, un monitor cuya resolución máxima sea de
1024x768 puntos puede representar hasta 768 líneas horizontales de 1024 puntos cada
una, probablemente además de otras resoluciones inferiores, como 640x480 u
800x600. Cuan mayor sea la resolución de un monitor, mejor será la calidadde la
imagen en pantalla, y mayor será la calidad (y por consiguiente el precio) del monitor.
Red De Comunicaciones: Un sistema computacional es un sistema complejo que puede
llegar a estar constituido por millones de componentes electrónicos elementales. Esta
naturaleza multinivel de los sistemas complejos es esencial para comprender tanto su
descripción como su diseño. En cada nivel se analiza su estructura y su función en el
sentido siguiente:
Estructura: La forma en que se interrelacionan las componentes
Función: La operación de cada componente individual como parte de la estructura
Por su particular importancia se considera la estructura de interconexión tipo bus. EI
bus representa básicamente una serie de cables mediante los cuales pueden cargarse
datos en la memoria y desde allí transportarse a la CPU. Por así decirlo es la autopista
de los datos dentro del PC ya que comunica todos los componentes del ordenador con
el microprocesador. El bus se controla y maneja desde la CPU.
¿ Que es UCP o CPU ?
Unidad central de proceso o UCP (conocida por sus siglas en inglés, CPU), circuito
microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el
proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador
fabricado en un chip, un único trozo de silicio que contiene millones de componentes
electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-
lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si
una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie
de registros donde se almacena información temporalmente, y por una unidad de
control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario,
acceder a los datos y presentar los resultados, la CPU se comunica a través de un
conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los
dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de
entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo,
un monitor o una impresora).
Funcionamiento de la CPU
Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa,
lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se
ejecuten en la secuencia adecuada. La unidad de control de la CPU coordina y
temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde
la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de
almacenamiento correspondiente. La instrucción viaja por el bus desde la memoria
hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador
de programa se incrementa en uno para prepararse para la siguiente instrucción. A
continuación, la instrucción actual es analizada por un descodificador, que determina
lo que hará la instrucción. Cualquier dato requerido por la instrucción es recuperado
desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de
datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los resultados se
almacenan en otro registro o se copian en una dirección de memoria determinada.
Memorias.
Memoria Ram.
Memoria de acceso aleatorio o RAM, en informática, memoria basada en
semiconductores que puede ser leída y escrita por el microprocesador u otros
dispositivos de hardware. Es un acrónimo del inglés Random AccessMemory. El acceso
a las posiciones de almacenamiento se puede realizar en cualquier orden. Actualmente
la memoria RAM para computadoras personales se suele fabricar en módulos
insertables llamados SIMM.
Memoria Rom.
Memoria de sólo lectura o ROM, en informática, memoria basada en semiconductores
que contiene instrucciones o datos que se pueden leer pero no modificar. En las
computadoras IBM PC y compatibles, las memorias ROM suelen contener el software
necesario para el funcionamiento del sistema. Para crear un chip ROM, el diseñador
facilita a un fabricante de semiconductores la información o las instrucciones que se
van a almacenar. El fabricante produce entonces uno o más chips que contienen esas
instrucciones o datos. Como crear chips ROM implica un proceso de fabricación, esta
creación es viable económicamente sólo si se producen grandes cantidades de chips.
Los diseños experimentales o los pequeños volúmenes son más asequibles usando
PROM o EPROM. El término ROM se suele referir a cualquier dispositivo de sólo
lectura, incluyendo PROM y EPROM.
Software Windows.
Windows, en informática, nombre común o coloquial de Microsoft Windows, un
entorno multitarea dotado de una interfaz gráfica de usuario, que se ejecuta en
computadoras diseñadas para MS-DOS. Windows proporciona una interfaz estándar
basada en menús desplegables, ventanas en pantalla y un dispositivo señalador como el
mouse (ratón). Los programas deben estar especialmente diseñados para aprovechar
estas características
Ventana (informática), en aplicaciones informáticas e interfaces gráficas de usuario,
una parte de la pantalla que puede contener su propio documento o mensaje. En
programas basados en ventanas, la pantalla puede dividirse en varias ventanas, cada
una de las cuales tiene sus propios límitesy puede contener un documento diferente (o
una presentación distinta del mismo documento). Cada ventana puede contener su
propio menú u otros controles, y el usuario puede ampliarla o reducirla mediante un
dispositivo señalador (puntero), que se acciona con el ratón o mouse.
Un entorno basado en ventanas es un sistema que presenta al usuario distintas
ventanas, como por ejemplo el Finder de los equipos Apple Macintosh, Microsoft
Windows y el OS/2 Presentation Manager.

Bachilleres:
Yucelis Montilla
Roberth Atencio
Andris Ruiz
Ender Campos
roberthr45[arroba]hotmail.com
Comentarios
Para dejar un comentario, regístrese gratis o si ya está registrado, inicie
sesión.

Agregar un comentario Enviar comentario


Los comentarios están sujetos a los Términos y Condiciones

Trabajos relacionados
• Seguridad Informática: Hackers

Los diez mandamientos del hacker. Pasos para


hackear. Ataques a nuestra información: cuáles
son las amenazas? Eavesdropp...
• Manual de auditoría de sistemas

Auditoría de Sistemas. Planeación de la


Auditoría en Informática. Evaluación de
Sistemas. Evaluación del Análisis. Evalu...

• Todo sobre Modem: Las


comunicaciones entre
ordenadores

Las comunicaciones entre ordenadores.


Naturaleza de La Información ¿Qué es un
Módem? Cómo Funciona un Módem. Velocidad
e...

Ver mas trabajos de General

Você também pode gostar