Você está na página 1de 39

CAPITULO 1

1. INTRODUCCIN GENERAL 1.1.- Informtica 1.2.- Computacin 1.3.- Computadora 1.4.- Dato 1.5.- Informacin 1.6.- Procesar 1.7.- Programa 1.8.- Hardware 1.9.- Software 1.10.- Algoritmo 1.11.- Sistema informtico 1.12.- Firmware 1.13.- Unidades de medida 1.13.1.- Sistema Binario Teora de Computacin. Codigo ASCII 1 1.13.2.-

Ing. Johnny Larrea P.

1.1.- INFORMATICA
Ciencia encargada del estudio y desarrollo de las computadoras y de los mtodos para procesar la informacin. El trmino informtica se cre en Francia en 1962 Contraccin Informacin automtica.

Ciencia que estudia el tratamiento automtico y racional de la informacin, Elemento Fsico Elemento Lgico Elemento Humano
2 Ing. Johnny Larrea P.

Sustenta

Teora de Computacin.

1.2.- COMPUTACIN
se refera al conjunto de conocimientos, tcnicas y formas de uso relativas a computadoras en general.

Teora de Computacin.

Ing. Johnny Larrea P.

DIFERENCIA COMPUTACIN E INFORMTICA


Desde hace aproximadamente 50 aos, despus de la Segunda Guerra Mundial, tom auge la tecnologa que prcticamente gener el actual significado de la palabra "computacin". Su origen lingstico proviene del latn "computare", cuyo sentido se interpreta conceptualmente "con el pensamiento", y que tom el significado de "contar o calcular algo con nmeros", segn lo define el diccionario de la Real Academia de la Lengua Espaola.Actualmente, la palabra "computacin" comprende un significado tan vasto, que se considera una ciencia completa vinculada fundamentalmente al proceso de informacin con instrumentos creados por el hombre. En los ltimos aos, surgi el trmino "informtica", que parece competir con el mismo significado. Muchas personas utilizan hoy ambas palabras en forma aparentemente indistinta, situacin que con seguridad se puede atribuir a la mentalidad mercantilista de siglo XX. Cuando en el mercado de "marcas" aparece una que tiene xito, inmediatamente surge otra que pretende ofrecer lo mismo. Volviendo a la "informtica", sta es una palabra evidentemente derivada del trmino "informacin" que, como muchos otros, se mezcla con "automtico", adjetivo que tom fuerza con el desarrollo tecnolgico de la posguerra y que, con seguridad, vincula su significado con el concepto "proceso de informacin".
Teora de Computacin. 4 Ing. Johnny Larrea P.

DIFERENCIA COMPUTACIN E INFORMTICA


Entonces surge la pregunta de si "computacin" e "informtica" son o no sinnimos. Para la palabra "computacin", el Pequeo Larrousse de 1986 dice: "Cmputo o clculo". El Diccionario Enciclopdico Ocano Uno de 1990 dice: "Conjunto de disciplinas y tcnicas desarrolladas para el tratamiento automtico de la informacin, considerada como soporte de los conocimientos de la sociedad humana, mediante el uso de computadoras". Para la palabra "informtica", el Pequeo Larrousse dice: "Ciencia del tratamiento automtico y racional de la informacin considerada como soporte de los conocimientos y las comunicaciones". El Diccionario Ocano Uno dice: "ver computacin". Si se consultan otras obras especializadas, la complicacin se hace mayor, sobre todo porque los autores incorporan sus estilos al presentar estos conceptos. De acuerdo con estas apreciaciones, todo parece indicar que para la mayora de los casos prcticos, ambos trminos son efectivamente sinnimos, aunque no se puede descartar la existencia de algunas diferencias entre ellos. acceso a la informacin, las reas temticas de inters, los sistemas en lnea, en vivo, por control remoto o por satlite, los flujos direccionados de informacin, etctera.
Teora de Computacin. 5 Ing. Johnny Larrea P.

DIFERENCIA COMPUTACIN E INFORMTICA


Aunque existen nuevos elementos que reflejan las diferencias entre "computacin" e "informtica", stos no tendran valor o significado si no se toma en consideracin su relacin con las computadoras y con el proceso de la informacin propiamente dicho, de tal manera que superficialmente justifican la aceptacin de la sinonimia entre ambos trminos. No obstante, en situaciones donde se haga indispensable hacer nfasis en alguno de estos aspectos, se puede definir esta diferencia del siguiente modo: "Computacin" est ntimamente ligada a la tecnologa de las computadoras, mientras que "informtica" est ms bien vinculada a las formas de uso de los resultados. En cualquier caso, se trata de computadoras.

Teora de Computacin.

Ing. Johnny Larrea P.

1.3.- COMPUTADORA

Latn COMPUTARE = Contar, Calcular

Es una mquina compuesta de elementos fsicos de tipo electrnico, capaz de realizar una gran variedad de trabajos a gran velocidad y con gran precisin siempre que se le den las instrucciones adecuadas . Es un dispositivo electrnico que recibe un conjunto de datos de entrada, los procesa y genera determinados resultados o informacin, con gran capacidad para el almacenamiento de los datos y elevada velocidad de clculo
Teora de Computacin. 7 Ing. Johnny Larrea P.

1.4.- DATO
Son en general cifras originales, tomados de diversas fuentes que, solos, tienen poco significado. El dato es un concepto bsico o elemental, como los nombres de las cosas o las cantidades ( un precio, una fecha, el nombre de una persona, ...)
CAB 1.5687 $5,78
8 Sep tiem bre

e ild lot C
8 Ing. Johnny Larrea P.

Teora de Computacin.

1.5.- INFORMACIN
Son datos ya trabajados y con un orden y significado til para la persona que los recibe. Los datos una vez procesados se convierten en informacin provechosa. La informacin es un conjunto de datos convertidos en una forma til o inteligible como, por ejemplo, un documento impreso, un recibo, etc.

Teora de Computacin.

Ing. Johnny Larrea P.

1.6.- PROCESAR
El procesamiento en una computadora se refiere a la realizacin de operaciones aritmticas ( calcular (+, -, /, *,...), mover, ordenar, comparar (>, =, <,...), buscar, clasificar,... y lgicas (decidir: si A > B, implica C).

Para que una computadora pueda procesar datos es necesario suministrarle las reglas (instrucciones adecuadas) para la manipulacin de esos datos, las cuales le deben ser dadas en forma de programas.

Teora de Computacin.

10

Ing. Johnny Larrea P.

1.7.- PROGRAMA
Es la secuencia de instrucciones (rdenes) que se dan a una computadora para realizar un proceso determinado.

Conjunto de instrucciones escritas en un lenguaje de programacin susceptibles de ser ejecutadas por ordenador para realizar una determinada funcin.

Programa = conjunto de datos y de algoritmos

Teora de Computacin.

11

Ing. Johnny Larrea P.

1.8.- HARDWARE
Son todos los componentes fsicos que integran la computadora, junto con los dispositivos que realizan las tareas de entrada y salida.

Teora de Computacin.

12

Ing. Johnny Larrea P.

1.9.- SOFTWARE
Son los programas lgicos que intervienen en el funcionamiento y operatividad del Hardware. Es la parte lgica o intangible (Programas) de un sistema informtico. Software Operativo : D.O.S. Windows, Linux, Solaris, etc. Software de Aplicacin : Ofimtica, Edicin y diseo grfico de Gestin empresarial, Ingeniera y Ciencia. Software de Desarrollo o de Programacin : Compiladores e Interpretes, Ensambladores, montadores, cargadores, Depuradores y trazadores
Teora de Computacin. 13 Ing. Johnny Larrea P.

1.10.- ALGORITMO
Forma de describir una solucin a un problema. Serie ordenada y finita de instrucciones elementales que trabaja sobre los datos, posiblemente modificndolos. Conjunto de operaciones necesarias para transformar los datos iniciales en los resultados que se desean obtener en un determinado trabajo. Un algoritmo puede ser elaborado de forma grfica o escrita y una vez que ste es traducido a un lenguaje de programacin es que se denomina programa.

Teora de Computacin.

14

Ing. Johnny Larrea P.

1.11.- SISTEMA INFORMATICO


La unin de tres elementos bsicos, el hardware, el software y el personal informtico, cuya principal finalidad es procesar datos y/o informacin.

42 * 46
Teora de Computacin.

MULTIPLICACION
15

1932
Ing. Johnny Larrea P.

1.12.- FIRMWARE
Para denominar cierta parte del software (programas objeto de uso comn) que traen las computadoras pregrabadas desde su fabricacin y que pueden estar en memorias de tipo ROM (memorias de slo lectura) o incorporadas en su circuitera. Tambin se conoce como firmware a los programas en microcdigo almacenados en una memoria de control de alta velocidad.

Teora de Computacin.

16

Ing. Johnny Larrea P.

1.13.- UNIDADES DE MEDIDA


1.13.1.- EL SISTEMA BINARIO
Sistema lgico que poseen los computadores digitales para interpretar toda la informacin procesada en ste. Toda la informacin introducida o extrada del computador est codificada en el Sistema de Bit, consiste en la unin de los caracteres ( 0 , 1 ); a partir de ellos son formados cdigos para el almacenamiento y manejo de los datos. 0= Negativo (Apagado) 1= Positivo (Encendido) 5V 28 = 256 Lenguaje de mquina 00101101
Teora de Computacin. 17

Lenguaje de alto nivel 45


Ing. Johnny Larrea P.

EL SISTEMA BINARIO
Recordando que una computadora funciona con impulsos elctricos que adquieren dos estados.

Bit: Abreviatura en ingls de "Binary Digit" Dgito Binario, se refiere


a cada uno de los smbolos que componen un sistema binario, es decir un sistema que utiliza dos smbolos (1 y 0, Verdadero y Falso, Alto y bajo, etc.) para codificar nmeros.

Byte: Se denomina as a un conjunto de 8 bit, que puede codificar


instrucciones o datos. 1 0 1 0 1 0 1 0

2 2 B yte = bits 2 B yte(B ). 2 = 2 22B yte = . 1 1 yte = K ilo B ytes(K B ) 11 B 1 2 22B yte = . 11 1 1 yte = K B x K B = M egaB yte(M B ) 11 1 B . 1 1 1 2 22B yte = . 12 2 B yte = 2 B x 2 B = 2 ig aB yte (G B ) 11 1. 2 1 .22 M K G 2 22B yte = . 11 11 11 1 1 yte = M B x M B = T eraB yte (T B ) 11 1 1 1 B . . . 1 1 1
Teora de Computacin. 18 Ing. Johnny Larrea P.

1.13.2.- CODIGO ASCII


AMERICAN STANDARD INTERCHANGE CODE FOR INFORMATION

Los bytes pueden tomar un total de 256 valores diferentes gracias a la combinacin de valores de los ocho bits de que se componen. Forman un cdigo internacional que permite el intercambio de informacin entre diversos sistemas informticos. Este cdigo se llama ASCII.
Caracteres de control Caracteres norm ales de 2 222 escritura, puntuacin y 2acentuacin 1 1 222 Caracteres grficos 1sim ples 1 1 222 Caracteres de notacin 1matemtica
Teora de Computacin. 19 Ing. Johnny Larrea P.

22 -2

1.13.3.- UNIDADES DE MEDIDAS DE TIEMPO


Unidades de tiempo tiles en informtica

2Segundo (s) 1-2s = 22 s = 2 Decisegundo (ds) 1 , 2-2s = 22 2 = 2 Centisegundo (cs) 2 , s 2-2s = 22 2 s = 2 M ilisegundo (ms) 2 , 2 2-2s = 22 2 2 2 22 M icrosegundo ( s) 2 , s=2 2-2s = 22 2 2 2 2 s =2 2 2 2 , 2 2 Nanosegundo (ns) 2-1 s = 22 2 2 2 2 2 2 2 s =2 2 2 2 2 2 21 , 2 2 Femtosegu ndo (fs)

Teora de Computacin.

20

Ing. Johnny Larrea P.

FRECUENCIA
Otra nocin til es la DE FRECUENCIA

1/s = s-1 = 1 Hertz(Hz). 1000/s = 103 s-1 = 1 Kilohertz (KHz) 1000000/s = 106 s-1 = 1 Megahertz (MHz) 1000000000/s = 109 s-1 = 1 Gigahertz (GHz)

Teora de Computacin.

21

Ing. Johnny Larrea P.

HERTZIO (Hz)
El Hertzio es la unidad de medida de la frecuencia equivalente a 1/segundo. Utilizado principalmente para los refrescos de pantalla de los monitores, en los que se considera 60 Hz (redibujar 60 veces la pantalla cada segundo) como el mnimo aconsejable. Hoy en da los avances en comunicaciones e informtica han hecho que se utilicen ms sus mltiplos: kHz, MHz, GHz.

MEGAHERTZIOS (Mhz)
Megahertzios, es una medida de frecuencia (nmero de veces que ocurre algo en un segundo). En el caso de los ordenadores, un equipo a 200 MHz ser capaz de dar 200 millones de pasos por segundo. En la velocidad real de trabajo no slo influyen los MHz, sino tambin la arquitectura del procesador (y el resto de los componentes); por ejemplo, dentro de la serie X86, un Pentium a 60 MHz era cerca del doble de rpido que un 486 a 66 MHz. Megahertzio, mltiplo del hertzio igual a 1 milln de hertzios. Utilizado para medir la "velocidMegahertzios, es una medida de frecuencia (nmero de veces que ocurre algo en un segundo). En el caso de los ordenadores, un equipo a 200 MHz ser capaz de dar 200 millones de pasos por segundo. En la velocidad real de trabajo no slo influyen los MHz, sino tambin la arquitectura del procesador (y el resto de los componentes); por ejemplo, dentro de la serie X86, un Pentium a 60 MHz era cerca del doble de rpido que un 486 a 66 MHzad bruta" de los microprocesadores.

NANOSEGUNDOS
Es una Milmillonsima parte de un segundo. Es decir, en un segundo hay 1.000.000.000 de nanosegundos. Se trata de una escala de tiempo muy pequea, pero bastante comn en los ordenadores, cuya frecuencia de proceso es de unos cientos de Megahercios. Decir que un procesador es de 500 Mhz, es lo mismo que decir que tiene 500.000.000 ciclos por segundo, o que tiene un ciclo cada 2 ns.

Teora de Computacin.

24

Ing. Johnny Larrea P.

REPRESENTACIN DE LOS DATOS


SISTEMA DE NUMERACIN DECIMAL Tambin llamado sistema de numeracin Base 10, utiliza diez dgitos para representar cualquier cifra. Ellos son: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 Combinando estos dgitos, podemos construir cualquier nmero.

Representacin de los datos


Sistema de numeracin decimal Ejemplo: El nmero 348 es un dato representado en sistema de numeracin decimal. Lo construimos mediante: 3 x 102 + 4 x 101 + 8 * 100 = 300 + 40 + 8 = 348
Centena Decena Unidad

REPRESENTACIN DE LOS DATOS


SISTEMA DE NUMERACIN BINARIO Tambin llamado sistema de numeracin Base 2, utiliza dos dgitos para representar cualquier cifra. Ellos son: 0, 1 Combinando estos dgitos, podemos construir cualquier nmero. Ejemplo: El nmero 110101 es un dato representado en sistema de numeracin binario.

Representacin de los datos


Sistema de numeracin binario Nosotros no estamos familiarizados con el sistema de numeracin binario, entendemos ms fcilmente los datos representados en sistema decimal. Para comprender mejor el nmero 110101, aplicamos un proceso de conversin, que nos lo muestre en sistema decimal.

Representacin de los datos


Sistema de numeracin binario Ejemplo: El nmero 110101 en sistema binario equivale a: 1 x 25 + 1 x 24 + 0 x 23 + 1 x 22 + 0 x 21 + 1 * 20 = 32 + 16 + 0 + 4 + 0 + 1 = 53 en sistema decimal.

Representacin de los datos


Sistema de numeracin binario Tambin podemos realizar el proceso inverso. Ejemplo: El nmero 53 en sistema decimal equivale a:
53 / 2 = 26 ------------------------------------------ Resto: 1 26 / 2 = 13 -------------------------------- Resto: 0 13 / 2 = 6 --------------------------- Resto: 1 6 / 2 = 3 --------------------- Resto: 0 3 / 2 = 1 -------------- Resto: 1 1 / 2 = 0 ------- Resto: 1

110101 binario

Representacin de los datos


Ejercicio: Calcule el equivalente decimal del numero binario 10001010

27

26

25

24

23

22

21

20

Sumamos las casillas que tienen 1 e ignoramos las que tienen 0 128 + 8 + 2 = 138 en sistema decimal.

Representacin de los datos


Y para los que quieren contar con los dedos
20 = 21 = 22 = 23 = 24 = 1 (Dedo pulgar) 2 (Dedo ndice) 4 (Dedo corazn) 8 (Dedo anular) 16 (Dedo meique)

REPRESENTACIN DE LOS DATOS


SISTEMA DE NUMERACIN OCTAL Tambin llamado sistema de numeracin Base 8, utiliza ocho dgitos para representar cualquier cifra. Ellos son: 0, 1, 2, 3, 4, 5, 6, 7 SISTEMA DE NUMERACIN HEXADECIMAL Tambin llamado sistema de numeracin Base 16, utiliza diecisis dgitos para representar cualquier cifra. Ellos son: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F

REPRESENTACIN DE LOS DATOS


Los ordenadores representan todos sus datos en sistema de numeracin binario. Los datos viajan, se procesan y se almacenan en los ordenadores a travs de impulsos elctricos. Estos impulsos se representan por dos estados: Prendido o apagado = 1 0

REPRESENTACIN DE LOS DATOS


UNIDADES DE MEDIDA PARA ALMACENAMIENTO DE DATOS

Bit: Acrnimo de Binary Digit (Dgito binario), es la mnima unidad de


informacin que viaja y se almacena en un computador. Cada bit representa un impulso elctrico (1 0). Byte: Acrnimo de Binary Term (Trmino binario), es un grupo de 8 bits que el ordenador utiliza para representar cada smbolo o caracter que conocemos, es decir un nmero, una letra, un signo de puntuacin, etc. Con un byte, el ordenador puede representar 256 smbolos o caracteres diferentes.

Representacin de los datos


Unidades de medida para almacenamiento de datos Bytes Ejemplo: Para representar el nmero 348 Cuntos Bytes necesita nuestra computadora? El nmero est compuesto por 3 dgitos => Necesitamos 3 bytes 00000011 3 00000100 4 00001000 8

Representacin de los datos


Unidades de medida para almacenamiento de datos El sistema de medicin para almacenamiento de datos se fundamenta en: Un Byte como medida base. 1024 (210) como factor multiplicador para el incremento. Los prefijos: Kilo, Mega, Giga, Tera, etc. As: 1 KiloByte = 1024 Bytes 1 MegaByte = 1024 KiloBytes = 1024 x 1024 Bytes 1 GigaByte = 1024 MegaBytes = 1024 x 1024 KiloBytes

Representacin de los datos


Unidades de medida para almacenamiento de datos
Terabytes Gigabytes Megabytes Kilobyte Byte
1 1 1 1 1 1.024 1.024 1.048.576 1.024 1.048.576 1.073.741.824 1.024 1.048.576 1.073.741.824

Bit
8 8.192 8.388.608

Teora de Computacin.

39

Ing. Johnny Larrea P.

Você também pode gostar