Você está na página 1de 3

Representacion de Datos

REPRESENTACION DE LOS
DATOS EN INFORMATICA

La representación interna de la información en los ordenadores es un aspecto de notable


importancia pese a pasar desapercibido generalmente entre los usuarios de sistemas informáticos.
El desarrollo de este tema tiene como base el estudio de los sistemas de numeración, de los que
provienen los sistemas de codificación que se aplican a la informática.
Los sistemas de codificación pretenden optimizar la tarea de la representacion interna de la
información en los sistemas informáticos.
Para un ordenador se diferenciarán dichas representaciones de la informacion en varios grupos
generales como son: texto, sonido, imagen y datos numericos.

INTRODUCCIÓN

La representación interna de la información en los ordenadores es un aspecto de notable


importancia pese a pasar desapercibido generalmente entre los usuarios de sistemas informáticos.
El desarrollo de este tema tiene como base el estudio de los sistemas de numeración, de los que
provienen los sistemas de codificación que se aplican a la informática. Los sistemas de
codificación pretenden optimizar la tarea de la representación interna de la información en los
sistemas informáticos.
Para un ordenador se diferenciarán dichas representaciones de la información en varios grupos
generales como son: texto, sonido, imagen y datos numéricos.
Para entender la manera en que las computadoras procesan datos, es importante conocer cómo la
computadora representa los datos.
Las personas se comunican a través del habla combinando palabras en oraciones. El habla
humana es análoga porque utiliza señales continuas que varían en fortaleza y calidad.
Las computadoras son digitales, pues reconocen solo dos estados: encendido (on) y apagado
(off). Esto es así porque las computadoras son equipos electrónicos que utilizan electricidad, que
también tiene solo dos estados: on y off.
Los dos dígitos O y 1 pueden fácilmente representar estos dos estados. El dígito cero representa
el estado electrónico apagado (la ausencia de carga electrónica). El dígito uno representa el
estado electrónico encendido (presencia de carga electrónica).
El sistema binario es un sistema numérico que tiene tan solo dos dígitos, O y 1, llamados bits. Un
bit (binary digit) es la unidad de datos más pequeña que la computadora puede representar. Por sí
solo, un bit no es muy informativo.
Cuando ocho bits se agrupan como una unidad, forman un byte. El byte es informativo porque
provee suficientes combinaciones diferentes de O y 1 para representar 256 caracteres
individuales.
Esos caracteres incluyen números, letras mayúsculas y minúsculas, signos de puntuación y otros.
Las combinaciones de O y 1 que representan caracteres son definidas por patrones llamados
esquemas de códigos (coding scheme).

REPRESENTACIÓN DE TEXTOS

Cualquier información escrita, cualquier texto se puede representar por medio de caracteres. Los
caracteres utilizados en informática se suelen clasificar en cinco categorías:
1. Caracteres alfabéticos: letras mayúsculas y minúsculas del alfabeto inglés:
A, B, C, D,..., X, Y, Z, a, b, c, d,..., x, y, z

2. Caracteres numéricos: constituidos por las diez cifras decimales:


0, 1, 2, 3, 4, 5, 6, 7, 8, 9

3. Caracteres especiales: símbolos ortográficos y matemáticos no incluidos en los grupos


anteriores:
)(/&%$#“i !=?‘+_1*Çç<>,;.:(espacio)

4. Caracteres geométricos y gráficos: símbolos con los que se representan formas geométricas o
iconos elementales:
┬ ┴ ┼ ═ ║▲►▼◄• ◘ ◙ ○☺☻☼ ♀♠ ♣ ♥ ♦ ♪ ♫

5. Caracteres de control: representan órdenes de control, como salto de línea (NL), comienzo de
línea (CR), sincronización de una transmisión (SYN), pitido (BEL), etc.
Estos caracteres son insertados en los textos por los usuarios o por los programas de
comunicación o control de periféricos como por ejemplo cuando se escribe con un teclado y se
pulsa la tecla de nueva línea. En ese caso se insertarían automáticamente los caracteres de control
NL y CR.
Cuando se introducen textos en un ordenador a través del periférico que corresponda, los
caracteres se codifican con un código de entrada/salida, asociando a cada carácter una
determinada combinación de n bits.
Un código de E/S es por tanto, una correspondencia entre el conjunto de caracteres y el alfabeto
binario:
α≡{0,1,2, ..., a,b, Y,Z,+,&,%,…}◘β≡{0,1}*

Los elementos del conjunto de caracteres, así como su número m, dependerán del código de E/S
utilizado por el programa que interprete el texto introducido así como del periférico que lo
codifique.
A continuación se describir algunos de los códigos más extendidos en la informática real:
EBCDIC, ASCII y UNICODE.

CÓDIGO EBCDIC

EBCDIC (Extended Binary Coded Decimal Interchange Code) es un código estándar de 8 bits
usado por computadoras mainframe IBM. IBM adaptó el EBCDIC del código de tarjetas
perforadas en los años 1960 y lo promulgó como una táctica customer-control cambiando el
código estándar ASCII.
EBCDIC es un código binario que representa caracteres alfanuméricos, controles y signos de
puntuación. Cada carácter está compuesto por 8 bits 1 byte, por eso EBCDIC define un total de
256 caracteres.
Existen muchas versiones (“codepages”) de EBCDIC con caracteres diferentes, respectivamente
suce- siones diferentes de los mismos caracteres. Por ejemplo al menos hay 9 versiones
nacionales de EBCDIC con Latín 1 caracteres con sucesiones diferentes.

CÓDIGO ASCII

El código ASCII (acrónimo inglés de American Standard Code for Information Interchange —
Código Estadounidense Estándar para el Intercambio de Información), pronunciado
generalmente [áski], es un código de caracteres basado en el alfabeto latino tal como se usa en
inglés moderno y en otras lenguas occidentales.
Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969
como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una refundición o
evolución de los conjuntos de códigos utilizados entonces en telegrafía.
Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control
para formar el código conocido como US-ASCII.
ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez en
1986. En la actualidad define códigos para 33 caracteres no imprimibles, de los cuales la mayoría
son caracteres de control obsoletos que tienen efecto sobre como se procesa el texto, más otros
95 caracteres imprimibles que les siguen en la numeración (empezando por el carácter espacio).
Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión
compatible para representar textos y para el control de dispositivos que manejan texto Las
computadoras solamente entienden números. El código ASCII es una representación numérica de
un carácter como “a” o”@”.
Como otros códigos de formato de representación de caracteres, el ASCII es un método para una
correspondencia entre cadenas de bits y una serie de símbolos (alfanuméricos y otros),
permitiendo de esta forma la comunicación entre dispositivos digitales así como su procesado y
almacenamiento. El código de caracteres ASCII2 — o una extensión compatible (ver más abajo)
— se usa casi en todos los ordenadores, especialmente con ordenadores personales y estaciones
de trabajo.
El nombre más apropiado para este código de caracteres es “US-ASCII”.
!"#$%&'()*+,-./0123456789:;<=>?
@ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_
`abcdefghijklmnopqrstuvwxyz{}~

REFERENCIA:

http://friendsforever-jesusmendoza.blogspot.com/2009_12_01_archive.html

Você também pode gostar