Você está na página 1de 38

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Defensa


Universidad Nacional Experimental Politécnica de la Fuerza Armada
U.N.E.F.A.
Núcleo – Puerto Cabello

Integrantes:
Gonzalez, Juval – C.I.: xx.xxx.xxx
Rojas, Gerardo – C.I.: 19.196.127
Zambrano, Orlando – C.I.: 18.343.008

Materia: Teleprocesos
Ing. de Sistemas
12vo. Término Sección A

Puerto Cabello, noviembre de 2009


ADLS

ADSL son las siglas de Asymmetric Digital Subscriber Line ("Línea de Suscripción
Digital Asimétrica"). ADSL es un tipo de línea DSL. Consiste en una transmisión de datos
digitales (la transmisión es analógica) apoyada en el par simétrico de cobre que lleva la
línea telefónica convencional o línea de abonado, siempre y cuando el alcance no supere
los 5,5 km. medidos desde la Central Telefónica, o no haya otros servicios por el mismo
cable que puedan interferir.

Frecuencias usadas en ADSL. El área roja es el área usada por la voz en telefonía
normal, el verde es el upstream o subida de datos y el azul es para el downstream o
descarga de datos.

Es una tecnología de acceso a Internet de banda ancha, lo que implica una mayor
velocidad en la transferencia de datos. Esto se consigue mediante una modulación de las
señales de datos en una banda de frecuencias más alta que la utilizada en las
conversaciones telefónicas convencionales (300-3800 Hz), función que realiza el Router
ADSL. Para evitar distorsiones en las señales transmitidas, es necesaria la instalación de un
filtro (llamado splitter o discriminador) que se encarga de separar la señal telefónica
convencional de las señales moduladas de la conexión mediante ADSL.

Esta tecnología se denomina asimétrica debido a que la capacidad de descarga


(desde la Red hasta el usuario) y de subida de datos (en sentido inverso) no coinciden.
Normalmente, la capacidad de bajada (descarga) es mayor que la de subida.
En una línea ADSL se establecen tres canales de comunicación, que son el de envío de
datos, el de recepción de datos y el de servicio telefónico normal.

Actualmente, en diversos países (como España) las empresas de telefonía están


implantando versiones mejoradas de esta tecnología como ADSL2 y ADSL2+ con capacidad
de suministro de televisión y video de alta calidad por el par telefónico, lo cual supone una
dura competencia entre los operadores telefónicos y los de cable, y la aparición de ofertas
integradas de voz, datos y televisión, a partir de una misma línea y dentro de una sola
empresa, que ofrezca estos tres servicios de comunicación. El uso de un mayor ancho de
banda para estos servicios limita aún más la distancia a la que pueden funcionar, por el par
de hilos.
Tabla comparativa

Nombre Nombre común Bajada max. Subida max.


ANSI T1.413-1998 Issue 2 ADSL 8 Mbit/s 1.0 Mbit/s
ITU G.992.1 ADSL (G.DMT) 12 Mbit/s 1.3 Mbit/s
ITU G.992.1 Annex A ADSL over POTS 1 Mbit/s 1.3 MBit/s
ITU G.992.1 Annex B ADSL over ISDN 12 Mbit/s 1.8 MBit/s
ITU G.992.2 ADSL Lite (G.Lite) 1.5 Mbit/s 0.5 Mbit/s
ITU G.992.3 ADSL2 12 Mbit/s 1.0 Mbit/s
ITU G.992.3 Annex J ADSL2 13 Mbit/s 3.15 Mbit/s
ITU G.992.3 Annex L RE-ADSL2 5 Mbit/s 0.8 Mbit/s
ITU G.992.4 splitterless ADSL2 1.5 Mbit/s 0.5 Mbit/s
ITU G.992.5 ADSL2+ 24 Mbit/s 1.0 Mbit/s
ITU G.992.5 Annex M ADSL2+M 24 Mbit/s 3.5 Mbit/s

Ventajas e inconvenientes de la tecnología ADSL

ADSL presenta una serie de ventajas y también algunos inconvenientes, respecto a


la conexión telefónica a Internet por medio de un modem.

Ventajas

 Ofrece la posibilidad de hablar por teléfono mientras se navega por Internet, ya


que, como se ha indicado anteriormente, voz y datos trabajan en bandas
separadas, lo cual implica canales por separados.
 Usa una infraestructura existente (la de la red telefónica básica). Esto es ventajoso,
tanto para los operadores que no tienen que afrontar grandes gastos para la
implantación de esta tecnología, como para los usuarios, ya que el costo y el
tiempo que tardan en tener disponible el servicio es menor que si el operador
tuviese que emprender obras para generar nueva infraestructura.
 Ofrece una velocidad de conexión mucho mayor que la obtenida mediante
marcación telefónica a Internet. Éste es el aspecto más interesante para los
usuarios.
 La posibilidad de usar la telefonía IP para llamadas de larga distancia (antes
demasiado costosas), hace que el servicio telefónico básico se ofrezca actualmente
por las operadoras como un servicio añadido, más que un uso principal,
ofertándose tarifas planas para su uso.

Inconvenientes
En algunos países, no existe la posibilidad de dar de alta el ADSL
independientemente de la línea de teléfono fijo.

 No todas las líneas telefónicas pueden ofrecer este servicio, debido a que las
exigencias de calidad del par, tanto de ruido como de atenuación, por distancia a la
central, son más estrictas que para el servicio telefónico básico. De hecho, el límite
teórico para un servicio aceptable equivale a 5 km.
 Debido que requieren estas líneas, el servicio no es económico en países con pocas
o malas infraestructuras, sobre todo si lo comparamos con los precios en otros
países con infraestructuras más avanzadas.
 El router necesario para disponer de conexión, o en su defecto, el módem ADSL, es
caro (en menor medida en el caso del módem). No obstante, en algunos países es
frecuente que los ISPs subvencionen ambos aparatos.
 Se requiere una línea telefónica para su funcionamiento, aunque puede utilizarse
para cursar llamadas.
 El servicio no es muy estable

Caracteristicas

 El abonado necesita un nombre de usuario y contraseña para "marcar" su conexión


(en el caso de tener una IP dinámica), contrario a la conexión a traves de
cablemodem que está siempre activa.

Router ADSL

El router ADSL es un dispositivo que permite conectar uno o varios equipos o


incluso una red de área local (LAN)

Diagrama de una red simple con un modem 2Wire que actúa como ruteador
Firewall y DHCP.

Realmente se trata de varios componentes en uno. Realiza las funciones de:

 Puerta de enlace, ya que proporciona salida hacia el exterior a una red local.
 Router: cuando le llega un paquete procedente de Internet, lo dirige hacia la
interfaz destino por el camino correspondiente, es decir, es capaz de encaminar
paquetes IP.
 Módem ADSL: modula las señales enviadas desde la red local para que puedan
transmitirse por la línea ADSL y demodula las señales recibidas por ésta para que
los equipos de la LAN puedan interpretarlos. De hecho, existen configuraciones
formadas por un módem ADSL y un router que hacen la misma función que un
router ADSL.
 Punto de acceso wireless: algunos router ADSL permiten la comunicación vía
Wireless (sin cables) con los equipos de la red local.
Como se puede ver, los avances tecnológicos han conseguido introducir la
funcionalidad de cuatro equipos en uno sólo.

Interfaz ADSL

El cable telefónico de par de cobre que tenemos todos en casa se diseñó


inicialmente para la transmisión de voz. Al comienzo de la era de las comunicaciones
digitales se comenzó a utilizar para la transmisión de datos. El sistema era fácil: los "unos"
(que no dejan de ser más que un impulso de tensión de unos 5 voltios durante un tiempo
determinado) y "ceros" (o ausencia de esa tensión por el mismo periodo de tiempo) de
que estaban compuestas las señales digitales que genera el ordenador no podían circular
por el cable telefónico. Para poder hacerlo se "modulaban", es decir, se convertían en un
sonido que sí puede transmitirse. Las señales que se recibían lo hacían en forma de sonido
que, a su vez, eran demoduladas y convertidas de nuevo en señales eléctricas ("unos" y
"ceros"). Esto lo hacía un modem (modulador - demodulador). Es como si silbáramos con
dos notas distintas (una para los "unos" y otra para los "ceros") por el teléfono. Todo el
ancho de banda que admite el cable es empleado por la transmisión de datos. Este tipo de
tecnología se denomina analógica.

Posteriormente se crea la tecnología RDSI que hizo posible que por los cables de
teléfono pudiesen circular los "unos" y "ceros" puros, sin modular, como impulsos
eléctricos que son. Ésta es la única tecnología de transmisión de datos verdaderamente
digital. Esta tecnología presenta, sin embargo, un inconveniente, que se considera
insalvable: las características electrónicas del famoso cable telefónico impide que se
puedan transmitir datos en forma digital a una velocidad superior a 64 kBps. Para
aumentar la velocidad se emplean varias líneas telefónicas. Se puede hablar y enviar datos
por una línea básica porque está compuesta por dos líneas individuales, una de voz y otra
de datos.

Entonces surge ADSL. En contra de lo que se cree, no es una tecnología digital, sino
tan analógica como el antiguo modem de 56 KBps. La diferencia estriba en un elemento
definitivo: el oído humano no es capaz de oír todo el rango de frecuencias que produce la
voz (el mismo principio empleado para poder comprimir música). De este modo, se aplica
un filtro sofométrico que deja pasar sólo el rango de frecuencias audibles y descarta las
restantes, tanto por encima como por debajo de este rango. Es la función que desempeña
el microfiltro que se pone en los teléfonos en una línea ADSL. En este espacio que queda
libre se colocan diversas frecuencias portadoras moduladas con datos igual que hacía el
modem. El aumento en la velocidad del ADSL viene dado porque, según va aumentando el
nivel tecnológico, es posible meter más frecuencias portadoras en esos espacios libres,
pues los filtros que separan unas portadoras de otras son cada vez más selectivos.
El router ADSL proporciona acceso a Internet a través de una línea ADSL, por lo que
la interfaz que comunica con el exterior debe adaptarse a este medio. Por ello, este
dispositivo lleva una interfaz RJ11 para conectar el cable telefónico. Existen routers que
disponen de dos conexiones RJ11 para poder transmitir sobre dos líneas y así duplicar la
capacidad de transmisión. Además, debe de estar provisto de un modulador para adecuar
las señales de datos a las frecuencias en las que trabaja la tecnología ADSL y de un
demodulador para poder interpretar las señales que le llegan desde el exterior.

Interfaz LAN

Por el otro lado está el conjunto de equipos o la red de área local a la cual se quiere
dar conexión a Internet. En esta parte hay más posibilidades para realizar la comunicación.
Las más comunes son Ethernet y Wireless, incluso hay dispositivos que proporcionan
ambas a la vez.

Para el primer caso, el router ADSL debe tener una o varias interfaces Ethernet. A
cada una de estas interfaces se pueden conectar los equipos directamente o bien subredes
comunicadas por medio de un concentrador (hub) o un conmutador (switch).

Para el caso de una interfaz Wireless, la comunicación se realiza sin cables.


Simplemente hay que ubicar el equipo que se quiere conectar a Internet con una interfaz
de estas características en una zona que tenga cobertura.

Otra interfaz que pueden ofrecer los routers ADSL es por puerto USB. Lo normal en
este caso es conectar un sólo equipo al router por este puerto.

VIDEO CONFERENCIA
Definición

Al sistema que nos permite llevar a cabo el encuentro de varias personas ubicadas
en sitios distantes, y establecer una conversación como lo harían si todas se encontraran
reunidas en una sala de juntas se le llama sistema de "videoconferencia".

Como sucede con todas las tecnologías nuevas, los términos que se emplean no se
encuentran perfectamente definidos. La palabra "Teleconferencia" está formada por el
prefijo "tele", que significa distancia, y la palabra "conferencia", que se refiere a
encuentro, de tal manera que combinadas establecen un encuentro a distancia.

En los Estados Unidos la palabra teleconferencia es usada como un término


genérico para referirse a cualquier encuentro a distancia por medio de la tecnología de
comunicaciones; de tal forma que frecuentemente es adicionada la palabra video a
"teleconferencia" o a "conferencia" para especificar exactamente a qué tipo de encuentro
se está haciendo mención. De igual forma se suele emplear el término "audio conferencia"
para hacer mención de una conferencia realizada mediante señales de audio.

El término "videoconferencia" ha sido utilizado en los Estados Unidos para describir


la transmisión de video en una sola dirección usualmente mediante satélites y con una
respuesta en audio a través de líneas telefónicas para proveer una liga interactiva con la
organización.

En Europa la palabra teleconferencia se refiere específicamente a las conferencias o


llamadas telefónicas, y la palabra "videoconferencia" es usada para describir la
comunicación en dos sentidos de audio y video. Esta comunicación en dos sentidos de
señales de audio y de video es lo que nosotros llamaremos "videoconferencia".

Existen algunos términos que pueden crear confusión con respecto a


videoconferencia, como puede ser el término "televisión interactiva"; esté término ha sido
empleado para describir la interacción entre una persona y un programa educativo
previamente grabado en un disco compacto (Láser disc) pero no requiere de la transmisión
de video.

Durante el desarrollo de este tema, se habrá de utilizar el término


"videoconferencia" para describir la comunicación en doble sentido ó interactiva entre dos
puntos geográficamente separados utilizando audio y video.
La videoconferencia puede ser dividida en dos áreas:

Videoconferencia Grupal o Videoconferencia sala a sala con comunicación de video


comprimido a velocidades desde 64 Kbps (E0, un canal de voz) hasta 2.048 mbps (E1, 30
canales de voz) y, videotelefonía, la cual está asociada con la Red Digital de Servicios
Integrados mejor conocida por las siglas "ISDN" operando a velocidades de 64 y 128 Kbps.
Esta forma de videoconferencia esta asociada a la comunicación personal o
videoconferencia escritorio a escritorio. Durante el desarrollo de éste y los siguientes
capítulos, se utilizará el término videoconferencia haciendo referencia al modo grupal o
sala a sala.

Historia

El interés en la comunicación utilizando video ha crecido con la disponibilidad de la


televisión comercial iniciada en 1.940. Los adultos de hoy han crecido utilizando al
televisor como un medio de información y de entretenimiento, se han acostumbrado a
tener un acceso visual a los eventos mundiales más relevantes en el momento en que
estos ocurren. Nos hemos convertido rápidamente en comunicadores visuales. Es así, que
desde la invención del teléfono, los usuarios han tenido la idea de que el video podría
eventualmente ser incorporado a éste.
AT&T presentó en 1.964 en la feria del comercio mundial de Nueva York un
prototipo de videoteléfono el cual requería de líneas de comunicación bastante costosas
para transmitir video en movimiento, con costos de cerca de mil dólares por minuto. El
dilema fue la cantidad y tipo de información requerida para desplegar las imágenes de
video.

Las señales de video incluyen frecuencias mucho más altas que las que la red
telefónica podía soportar (particularmente las de los años 60's). El único método posible
para transmitir la señal de video a través de largas distancias fue a través de satélite. La
industria del satélite estaba en su infancia entonces, y el costo del equipo terrestre
combinado con la renta de tiempo de satélite excedía con mucho los beneficios que
podrían obtenerse al tener pequeños grupos de personas comunicados utilizando este
medio.

A través de los años 70's se realizaron progresos substanciales en muchas áreas


claves, los diferentes proveedores de redes telefónicas empezaron una transición hacia
métodos de transmisión digitales. La industria de las computadoras también avanzó
enormemente en el poder y velocidad de procesamiento de datos y se descubrieron y
mejoraron significativamente los métodos de muestreo y conversión de señales analógicas
(como las de audio y video) en bits digitales.

El procesamiento de señales digitales también ofreció ciertas ventajas,


primeramente en las áreas de calidad y análisis de la señal; el almacenamiento y
transmisión todavía presenta obstáculos significativos. En efecto, una representación
digital de una señal analógica requiere de mayor capacidad de almacenamiento y
transmisión que la original. Por ejemplo, los métodos de video digital comunes de fines de
los años 70 y principios de los 80 requirieron de relaciones de transferencia de 90
megabits por segundo. La señal estándar de video era digitalizada empleando el método
común PCM (Modulación por codificación de pulsos) de 8 bits, con 780 pixeles por línea,
480 líneas activas por cuadro de las 525 para NTSC (Netware Transmisión System
Codification) y con 30 cuadros por segundo.
La necesidad de una compresión confiable de datos digitales fue crítica. Los datos
de video digital son un candidato natural para comprimir, debido a que existen muchas
redundancias inherentes en la señal analógica original; redundancias que resultan de las
especificaciones originales para la transmisión de video y las cuales fueron requeridas para
que los primeros televisores pudieran recibir y desplegar apropiadamente la imagen.
Una buena porción de la señal de video analógica está dedicada a la sincronización y
temporización del monitor de televisión. Ciertos métodos de compresión de datos fueron
descubiertos, los cuales eliminaron enteramente esta porción redundante de información
en la señal, con lo cual se obtuvo una reducción de la cantidad de datos utilizados de un
50% aproximadamente, es decir, 45 mbps, una razón de compresión de 2:1.

Las redes telefónicas en su transición a digitales, han utilizado diferentes relaciones


de transferencia, la primera fue 56 Kbps necesaria para una llamada telefónica (utilizando
métodos de muestreo actuales), enseguida grupos de canales de 56 Kbps fueron reunidos
para formar un canal de información más grande el cual corría a 1.5 mbps (comúnmente
llamado canal T1). Varios grupos de canales T1 fueron reunidos para conformar un canal
que corría a 45 mbps (ó un "T3"). Así usando video comprimido a 45 mbps fue finalmente
posible, pero todavía extremadamente caro, transmitir video en movimiento a través de la
red telefónica pública. Estaba claro que era necesario el comprimir aún más el video digital
para llegar a hacer uso de un canal T1 (con una razón de compresión de 60:1), el cual se
requería para poder iniciar el mercado. Entonces a principios de los 80's algunos métodos
de compresión hicieron su debut, estos métodos fueron más allá de la eliminación de la
temporización y sincronización de la señal, realizando un análisis del contenido de la
imagen para eliminar redundancias.

Esta nueva generación de video codecs (COdificador/DECodificador ), no sólo tomó


ventajas de la redundancias, sino también del sistema de la visión humana. La razón de
imágenes presentadas en el video en Norte América es de 30 cuadros por segundo, sin
embargo, esto excede los requerimientos del sistema visual humano para percibir
movimiento. la mayoría de las películas cinematográficas muestran una secuencia de 24
cuadros por segundo. La percepción del movimiento continuo puede ser obtenida entre 15
y 20 cuadros por segundo, por tanto una reducción de 30 cuadros a 15 cuadros por
segundo por sí misma logra un porcentaje de compresión del 50 %. Una relación de 4:1 se
logra obtener de esta manera, pero todavía no se alcanza el objetivo de lograr una razón
de compresión de 60:1.

Los codecs de principios de los 80's utilizaron una tecnología conocida como
codificación de la Transformada Discreta del Coseno (abreviado DCT por su nombre en
inglés). Usando esta tecnología DCT las imágenes de video pueden ser analizadas para
encontrar redundancia espacial y temporal. La redundancia espacial es aquella que puede
ser encontrada dentro de un cuadro sencillo de video, "áreas de la imagen que se parecen
bastante que pueden ser representadas con una misma secuencia". La redundancia
temporal es aquella que puede ser encontrada de un cuadro de la imagen a otro " áreas de
la imagen que no cambian en cuadros sucesivos". Combinando todos los métodos
mencionados anteriormente, se logró obtener una razón de compresión de 60:1.

El primer codec fue introducido al mercado por la compañía Compression Labs Inc.
(CLI) y fue conocido como el VTS 1.5, el VTS significaba Video Teleconference System, y el
1.5 hacía referencia a 1.5 mbps ó T-1. En menos de un año CLI mejoró el VTS 1.5 para
obtener una razón de compresión de 117:1 (768 Kbps), y renombró el producto a VTS 1.5E.
La corporación británica GEC y la corporación japonesa NEC entraron al mercado lanzando
codecs que operaban con un T-1 (y debajo de un T-1 si la imagen no tenía mucho
movimiento). Ninguno de estos codecs fueron baratos, el VTS 1.5E era vendido en un
promedio de $180.000 dólares, sin incluir el equipo de video y audio necesarios para
completar el sistema de conferencia, el cual era adquirido por un costo aproximado de
$70.000 dólares, tampoco incluía costos de acceso a redes de transmisión, el costo de
utilización de un T-1 era de aproximadamente $1.000 dólares la hora.

A mediados de los 80's se observó un mejoramiento dramático en la tecnología


empleada en los codecs de manera similar, se observó una baja substancial en los costos
de las medios de transmisión. CLI(Compression Labs Inc) introdujo el sistema de video
denominado Rembrandt los cuales utilizaron ya una razón de compresión de 235:1 (384
Kbps). Entonces una nueva compañía, Picture Tel (originalmente PicTel Communications),
introdujo un nuevo codec que utilizaba una relación de compresión de 1600:1 (56 Kbps).
PictureTel fue el pionero en la utilización de un nuevo método de codificación denominado
Cuantificación jerárquica de vectores (abreviado HVQ por su nombre en inglés). CLI lanzó
poco después el codec denominado Rembrandt 56 el cual también operó a 56 Kbps
utilizando una nueva técnica denominada compensación del movimiento. Al mismo
tiempo los proveedores de redes de comunicaciones empleaban nuevas tecnologías que
abarataban el costo del acceso a las redes de comunicaciones. El precio de los codecs
cayeron casi tan rápido como aumentaron los porcentajes de compresión.

En 1990 los codecs existentes en el mercado eran vendidos en aproximadamente


$30.000 dólares, reduciendo su costo en más del 80 %, además de la reducción en el
precio se produjo una reducción en el tamaño. El VTS 1.5E medía cerca de 5 pies de alto y
cubría un área de 2 y medio pies cuadrados y pesaba algunos cientos de libras. El
Rembrandt 56 media cerca de 19 pulgadas cuadradas por 25 pulgadas de fondo y pesó
cerca de 75 libras.

El utilizar razones de compresión tan grandes tiene como desventaja la degradación


en la calidad y en la definición de la imagen. Una imagen de buena calidad puede
obtenerse utilizando razones de compresión de 235:1 (384 kbps) ó mayores.

Los codecs para videoconferencia pueden ser encontrados hoy en un costo que
oscila entre los $25.000 y los $60.000 dólares. La razón de compresión mayor empleada es
de 1600:1 (56 Kbps), ya que no existe una justificación para emplear rangos de compresión
aún mayores, puesto que utilizando 56 Kbps, el costo del uso de la red telefónica es
aproximado el de una llamada telefónica. El emplear un canal T-1 completo cuesta
aproximadamente $50 dólares por hora. Esto ha permitido que los fabricantes de codecs
se empleen en mejorar la calidad de la imagen obtenida utilizando 384 kbps ó mayores
velocidades de transferencia de datos. Algunos métodos de codificación producen
imágenes de muy buena calidad a 768 Kbps y T-1 que es difícil distinguirla de la imagen
original sin compresión. Algunos paquetes de equipo de audio y video creados
específicamente para aplicaciones de videoconferencia pueden adquirirse entre $15,000 y
$42.000. Un sistema completo para videoconferencia tiene un costo que oscila entre los
$40.000 y $100.000 dólares.

Aplicaciones de la Videoconferencia

La baja sustancial registrada en los equipos de videoconferencia, así como también


el abaratamiento y disponibilidad de los servicios de comunicación han hecho que la
industria de videoconferencia sea la de mayor crecimiento en el mercado de
teleconferencias.

Con las videoconferencias, una reunión crítica toma sólo unos cuantos minutos en
organizar. Además previenen errores y están siempre disponibles. Gracias a ellas, la
información está siempre fresca, exacta y a tiempo. Cancelar una reunión importante,
adelantarla o aplazarla es muy fácil, eliminándose de esta manera los problemas que esto
podría traer al tener que cancelar compra de pasajes a última hora, o reservar vuelos
anteriores, etc.

Actualmente la mayoría de compañías innovadoras del primer mundo utilizan las


videoconferencias para:

 Administración de clientes en agencias de publicidad.


 Juntas de directorio.
 Manejo de crisis.
 Servicio al cliente.
 Educación a distancia.
 Desarrollo de ingeniería.
 Reunión de ejecutivos.
 Estudios financieros.
 Coordinación de proyectos entre compañías.
 Actividad en bancos de inversión.
 Declaraciones ante la corte.
 Aprobación de préstamos.
 Control de la manufactura.
 Diagnósticos médicos.
 Coordinación de fusiones y adquisiciones.
 Gestión del sistema de información administrativa.
 Gestión y apoyo de compra / ventas.
 Contratación / entrevistas.
 Supervisión.
 Adiestramiento / capacitación.
 Acortar los ciclos de desarrollo de sus productos.
 Comunicarse con sus proveedores y socios.
 Mejorar la calidad de los productos.
 Entrevistar candidatos para un determinado cargo en la empresa.
 Manejar la unión o consolidación de empresas.
 Dirigir la empresa más efectivamente.
 Obtener soporte inmediato en productos o servicios extranjeros.

Estándares e Interoperabilidad de los sistemas de Videoconferencia

El mercado estuvo restringido por muchos años porque las unidades de fax
manufacturadas por diferentes vendedores no eran compatibles. Es claro que la explosión
que ahora experimentamos está directamente relacionada a el estándar desarrollado por
el grupo 3 del Comité Consultivo Internacional para la Telefonía y Telegrafía (CCITT), el cual
hace posible que las unidades de fax de diferentes fabricantes sean compatibles.

Algo similar ocurrió con la videoconferencia/videoteléfono. El mercado de la


videoconferencia punto a punto estuvo restringido por la falta de compatibilidad hasta que
surgió la recomendación de CCITT H.261 en 1990, con lo que el mercado de la
videoconferencia ha crecido enormemente. Hay otros tres factores que han influido en
este crecimiento, el primero es el descubrimiento de la tecnología de video compresión, a
partir de la cual, el estándar está basado. Mediante la combinación de las técnicas de la
codificación predictiva, la transformada discreta del coseno (DCT), compensación de
movimiento y la codificación de longitud variable, el estándar hace posible el transmitir
imágenes de TV de calidad aceptable con bajos requerimientos de ancho de banda,
anchos de banda que se han reducido lo bastante para lograr comunicaciones de bajo
costo sobre redes digitales conmutadas.

El segundo factor que ha influido es el desarrollo de la tecnología VLSI (Very Large


System Integration), la cual redujo los costos de los codecs de video. Ahora en el mercado
se encuentran chips mediante los cuales se pueden implantar las tecnologías DCT y de
compensación de movimiento, partes del estándar.

El tercer factor es el desarrollo de ISDN (Integrated Services Data Network; Red


Digital de Servicios Integrados), la cual promete proveer de servicios de comunicaciones
digitales conmutados de bajo costo. El acceso básico de ISDN consiste de dos canales full
dúplex de 64 Kbps denominados canales B y un canal también full dúplex de 16 Kbps
denominado D.
El estándar H.261 está basado en la estructura básica de 64 Kbps de ISDN. Esta da
nombre al título de la recomendación H.261 "Video Codec para servicios audiovisuales a
PX64 Kbps". Aunque tomará varios años para que ISDN esté disponible globalmente, los
videos codecs que cumplen con el estándar H.261 pueden ya operar sobre las redes de
comunicaciones actualmente disponibles.

La CCITT es una parte de la Organización de la Naciones Unidas, y su propósito es el


desarrollo formal de "recomendaciones" para asegurar que las comunicaciones mundiales
sean establecidas eficiente y efectivamente.

La CCITT trabaja en ciclos de 4 años, y al final de cada periodo un grupo de


recomendaciones es publicado.
Los libros "rojo" y "azul" que contienen estas recomendaciones fueron publicados
en 1984 y 1988 respectivamente. En el libro rojo de 1984 fueron establecidas las primeras
recomendaciones para codecs de videoconferencia (la H.120 y H.130). Estas
recomendaciones fueron definidas específicamente para la región de Europa (625 líneas;
2.048 Mbps, ancho de banda primario) y para la interconexión entre Europa y otras
regiones. Debido a que no existían recomendaciones para las regiones fuera de Europa, la
CCITT designó un "grupo de especialistas en Codificación para Telefonía Visual" con el fin
de desarrollar una recomendación internacional. La CCITT estableció dos objetivos para el
grupo de especialistas:

1. Desarrollar una recomendación para un video codec para aplicaciones de


videoconferencia que operará a NX384 Kbps y
2. Empezar un proceso de estandarización para el video codec de
videoconferencia/video teléfono que operara a MX64 Kbps. El resultado fue una
sola recomendación que se aplica a los rangos desde 64 Kbps hasta 2 Mbps,
utilizando PX64 Kbps.

En 1989, un diverso número de organizaciones en Europa, EUA y Japón


desarrollaron codec flexibles para encontrar una especificación preliminar de la
recomendación. Varios sistemas fueron interconectados en los laboratorios y a través de
largas distancias para poder validar la recomendación. Estas pruebas resultaron exitosas y
apareció entonces una versión preliminar de la recomendación H.261 en el libro azul de
CCITT. Sin embargo, esta versión estaba incompleta, la versión final de la recomendación
fue aprobada en diciembre de 1990.

Actualmente, la mayoría de los fabricantes ofrecen algoritmos de compresión que


cumplen con los requisitos especificados en la norma CCITT H.261, y ofrecen también en el
mismo codec, algoritmos de compresión propios. La norma CCITT H.261 proporciona un
mínimo común denominador para asegurar la comunicación entre codecs de diferentes
fabricantes.
A continuación se enlistan cuáles son las recomendaciones de la CCITT que definen
a las comunicaciones audio visual sobre redes digitales de banda angosta.

Servicios

 F.710 Servicios de Videoconferencia.


 F.721 Servicio Básico de videoteléfono en banda angosta en la ISDN.
 H.200 Recomendaciones para servicios audiovisuales.

Equipo Terminal Audio Visual:

Punto a punto

 H.320 Equipo terminal y sistemas de telefonía visual para banda angosta.


 H.261 Video codec para servicios audiovisuales a PX64 Kbps.
 H.221 Estructura de comunicaciones para un canal de 64 Kbps a 1920 Mbps en
teleservicios audiovisuales.
 H.242 Sistemas para el establecimiento de las comunicaciones entre terminales
audiovisuales usando canales digitales arriba de 2 Mbps.
 H.230 Control de sincronización y señales de indicación para sistemas
audiovisuales.
 G.711 Modulación por codificación por pulsos (MPC) de frecuencias de voz.
 G.722 Codificación de audio de 7 Khz dentro de 64 Kbps. diversos
 H.100 Sistemas de telefonía visual.
 H.110 Conexiones hipotéticas de referencia utilizando grupos primarios de
transmisiones digitales.
 H.120 Codecs para videoconferencia para grupos primarios de transmisiones
digitales.
 H.130 Estructuras para la interconexión internacional de codecs digitales para
videoconferencia de telefonía visual.

Multipunto

 H.231 Unidades de control de multipunto (MCU) para sistemas audiovisuales


usando canales digitales de más de 2 Mbps.
 H.243 Procedimientos básicos para el establecimiento de las comunicaciones entre
tres o más terminales audiovisuales usando canales digitales de más de 2 Mbps.

Seguridad

 H.233 Recomendaciones para sistemas de confiabilidad para servicios


audiovisuales.
 H.KEY Recomendaciones de la CCITT de encriptación para servicios audiovisuales.
A continuación se enlistan cuales son las recomendaciones de la CCITT que definen
las comunicaciones audiovisuales sobre ISDN de banda ancha (B-ISDN).

Estándares ISO para almacenamiento y utilización de material audiovisual (MPEG).

 Codificación de imágenes con movimiento y medios de almacenamiento digital


para video para más de 1.5 Mbps (MPEG1: Comité 11172).
 Codificación de imágenes con movimiento y medios de almacenamiento digital
para video para más de 10 Mbps (MPEG2).
 Codificación de imágenes con movimiento y medios de almacenamiento digital
para video para más de 40 Mbps (MPEG3).

Estándar ISO para compresión de imágenes fijas (JPEG).

 Compresión digital y codificación de imágenes fijas.


 Compresión ISO Bi-nivel compresión de imágenes fijas.
 Estándar de compresión progresiva bi-nivel para imágenes.

Elementos Básicos de un Sistema de Videoconferencia

Para fines de estudio y de diseño los sistemas de videoconferencia suelen


subdividirse en tres elementos básicos que son:

 La red de comunicaciones,
 La sala de videoconferencia y
 El CODEC.

A su vez la sala de videoconferencia se subdivide en cuatro componentes


esenciales: el ambiente físico, el sistema de video, el sistema de audio y el sistema de
control.

A continuación se describe brevemente cada uno de los elementos básicos de que


consta un sistema de videoconferencia.

La red de comunicaciones

Para poder realizar cualquier tipo de comunicación es necesario contar primero con
un medio que transporte la información del transmisor al receptor y viceversa o
paralelamente (en dos direcciones). En los sistemas de videoconferencia se requiere que
este medio proporcione una conexión digital bidireccional y de alta velocidad entre los dos
puntos a conectar. Las razones por las cuales se requiere que esta conexión sea digital,
bidireccional y de alta velocidad se comprenderán más adelante al adentrarnos en el
estudio del procesamiento de las señales de audio y video.
El número de posibilidades que existen de redes de comunicación es grande, pero
se debe señalar que la opción particular depende enteramente de los requerimientos del
usuario.

Es importante hacer notar que, como se observa en la figura 1 el círculo que


representa al CODEC no toca al que representa a la red, de hecho existe una barrera que
los separa la que podemos denominarle como una interface de comunicación, esto es para
representar el hecho de que la mayoría de los proveedores de redes de comunicación
solamente permiten conectar directamente equipo aprobado y hasta hace poco la mayoría
de los fabricantes de CODECs no incluían interfaces aprobadas en sus equipos.

La Sala de Videoconferencia

La sala de videoconferencia es el área especialmente acondicionada en la cual se


alojará el personal de videoconferencia, así como también, el equipo de control, de audio
y de video, que permitirá el capturar y controlar las imágenes y los sonidos que habrán de
transmitirse hacia el(los) punto(s) remoto(s).
El nivel de confort de la sala determina la calidad de la instalación. La sala de
videoconferencia perfecta es la sala que más se asemeja a una sala normal para
conferencias; aquellos que hagan uso de esta instalación no deben sentirse intimidados
por la tecnología requerida, más bien deben sentirse a gusto en la instalación. La
tecnología no debe notarse o debe de ser transparente para el usuario.

El Codec

Las señales de audio y video que se desean transmitir se encuentran por lo general
en forma de señales analógicas, por lo que para poder transmitir esta información a través
de una red digital, ésta debe de ser transformada mediante algún método a una señal
digital, una vez realizado esto se debe de comprimir y multiplexar estas señales para su
transmisión. El dispositivo que se encarga de este trabajo es el CODEC
(Codificador/Decodificador) que en el otro extremo de la red realiza el trabajo inverso para
poder desplegar y reproducir los datos provenientes desde el punto remoto. Existen en el
mercado equipos modulares que junto con el CODEC, incluyen los equipos de video, de
audio y de control, así como también equipos periféricos como pueden ser:

 Tabla de anotaciones.
 Convertidor de gráficos informáticos.
 Cámara para documentos.
 Proyector de video-diapositivas.
 PC.
 Videograbadora.
 Pizarrón electrónico, etc.
TELE-MEDICINA
Definición

Telemedicina significa Medicina practicada a distancia, incluye tanto diagnóstico y


tratamiento, como también la educación médica. Es un recurso tecnológico que posibilita
la optimización de los servicios de atención en salud, ahorrando tiempo y dinero y
facilitando el acceso a zonas distantes para tener atención de especialistas. Otra de las
utilidades que presta el uso de la transmisión de datos médicos sobre redes adecuadas es
la educación, donde los alumnos de medicina y enfermería pueden aprender semiología
remotamente, apoyados por su profesor y con la presencia del paciente. Así podemos
definir los siguientes servicios, que la telemedicina presta:

 Servicios complementarios e instantáneos a la atención de un especialista


(obtención de una segunda opinión).
 Diagnósticos inmediatos por parte de un médico especialista en un área
determinada.
 Educación remota de alumnos de las escuelas de enfermería y medicina.
 Servicios de archivo digital de exámenes radiológicos, ecografías y otros.

Todo esto se traduce en una disminución de tiempos entre la toma de exámenes y


la obtención de resultados, o entre la atención y el diagnóstico certero del especialista, el
cual no debe viajar o el paciente no tiene que ir a examinarse, reduciendo costos de
tiempo y dinero.

Historia

Aunque el concepto de Telemedicina puede parecer muy reciente y relacionado


con la globalización de las comunicaciones y la ubicuidad de internet, existen antecedentes
de diagnósticos a distancia desde casi la invención del teléfono. Por ejemplo, en la década
de los 60 se logró transmitir electrocardiogramas desde barcos. Hoy en día se cuenta con
equipamiento y experiencias satisfactorias de diagnóstico remoto en prácticamente todas
las especialidades médicas.

Cronología de hitos importantes de la Telemedicina a nivel mundial

 1924, Aparece en la revista Radio News, un artículo titulado “Doctor por Radio”, el
cual abarcó la portada y se describe el esquema de la circuitería necesaria para
lograrlo.
 1951, primera demostración que abarca varios de los estados de Estado Unidos,
usando líneas dedicadas y estudios de televisión.
 1955, en Montreal, el Dr. Albert Jutras realiza teleradiología, a fin de evitar las altas
dosis de radiación que incidían en las fluoroscopias , se hizo uso de un interfono
convencional.
 1959, Nebraska, Cecil Wittson comienza sus primeros cursos de teleeducación y de
telepsiquiatría , entre su Hospital y el Hospital del Estado en Norfolk, Virginia, a 180
kilómetros de distancia.
 1971, Se inicia la era de los satélites, en especial el ATS (lanzado en 1966), con el fin
de mejorar las prestaciones de una comunidad de nativos de Alaska.
 1972, inicio de STARPAHC, programa de asistencia médica para nativos de Papago
Arizona. Se realizó electrocardiografía y radiología y se transmitió por medio de
microondas .
 1975, finaliza el programa STARPAHC, el cual fue adaptado de un programa de
atención médica para astronautas por la compañía Lockheed.
 1988, Nasa lanza el programa “Space Bridge” a fin de colaborar con Armenia y Ufa
(en esa época pertenecientes a la unión soviética), Armenia fue devastada por un
terremoto. Las conexiones se hicieron usando vídeo en una dirección y voz y fax
bidireccionales entre el Centro Médico de Yerevan, Armenia y cuatro Hospitales en
Estados Unidos, extendiéndose posteriormente el programa a Ufa, para socorrer a
los quemados en un terrible accidente de tren.
 1991, Cátedra UNESCO de Telemedicina, CATAI. Primera cuantificación de ADN a
distancia en el mundo, aplicado al análisis de imagen de factores pronósticos en el
cáncer de mama.
 1995, La Clínica Mayo pone en marcha una conexión permanente con el Hospital
Real de Ammán en Jordania, se realizaban consultas diarias entre un médico
Hachemita y otros de Estados Unidos, el médico Hachemita presentaba, como si de
una sesión clínica del hospital se tratase, a los pacientes de forma sucesiva; en
directo los médicos americanos preguntaban o pedían al médico jordano que
preguntara a su vez al paciente por sus dolencias. En otros casos eran
interpretaciones de radiografías o problemas dermatológicos .
 2001, Un doctor en New York elimina la vesícula enferma de un paciente en
Estraburgo, Francia, por medio de un brazo robot.

Aplicaciones

En la actualidad, dentro del campo de la Telemedicina, podemos encontrar que la


Telemedicina se usa básicamente en 2 áreas de trabajo: La práctica y la educación.
Dentro de la práctica es posible resaltar las siguientes formas:

 Tele diagnosis.
 Tele consulta.
 Reuniones médicas para obtener segundas opiniones (Teleconferencia).
 Almacenamiento digital de datos o fichas médicas.

Dentro del área educativa se destaca la siguiente forma:


 Clases a distancia desde centros médicos (e-learning por medio de
videoconferencia).

Básicamente, la educación médica hace uso de las técnicas de videoconferencia, ya


que de esta manera se saca mayor provecho a los recursos educativos y las experiencias
presentadas en la exposición.

Funcionamiento de un sistema de telemedicina

Un sistema de telemedicina, según su definición, es un sistema complementario


para las actividades médicas. En la actualidad, el “medio de apoyo”, son las
telecomunicaciones y las ciencias informáticas, ya que lo que hoy en día encontramos en
esta naciente área, son sistemas capaces de transmitir audio, video, imágenes y
documentos por medio de diversos sistemas de telecomunicaciones.

En el mercado, existen diversas compañías que han dedicado tiempo y recursos al


desarrollo de implementos capaces de apoyar labores médicas a distancia, ya sea a través
de la creación de una nueva línea de productos o por medio de instaurar una empresa
dedicada exclusivamente a este mercado, el cual por cierto es bastante exclusivo.

Un sistema de telemedicina opera básicamente de la siguiente manera: Existe un


centro hospitalario menor que presenta una carencia de profesionales en un(as) área(s)
específica(s), dicho centro será asistido por uno de mayor envergadura, el cual dispondrá
de los especialistas y el tiempo necesario para la atención de los pacientes de manera
“remota”, quienes se encontrarán físicamente en la ciudad donde esté el centro de menor
tamaño. Esto conlleva beneficios de ahorro de tiempo y dinero para los pacientes y mejora
la gestión de los centros de salud más apartados.
Para que un sistema de estas características funcione bien, se debe contar con los
siguientes elementos:

 Equipos capaces de comunicarse (preferiblemente videoconferencia).


 Medio de comunicación (satelital, Internet, etc.).
 El hospital o clínica de apoyo que debe gestionar los recursos necesarios
(infraestructura, tiempo y especialmente especialistas) para prestar los servicios
médicos.

En lo referente a la telemedicina en sus formas de Teleconferencia (conferencias


médicas a distancia) y Educación a distancia, el sistema debe ser similar al de tele
diagnosis, siendo imperativo la capacidad de montar una videoconferencia.

Si nos referimos a la Telemedicina como medio de almacenamiento digital, esta se


presenta como una manera de apoyar la labor de los médicos de manera de la obtención
de información de manera rápida y eficiente, permitiendo la manipulación de la misma
para poder llevar registros actualizados y requerir, de ser necesario, una segunda opinión
en una forma más fácil y expedita. Además el mantener fichas o registros digitales,
conlleva la capacidad de manejar volúmenes de información mayores en menor espacio
físico, permite la agilización de procesos internos, lo que entrega como resultado una
mejora en la gestión del servicio.

Estandarización

La estandarización tiene un indudable impacto en el desarrollo de las aplicaciones


de la telemedicina y su difusión práctica comercial, más allá de proyectos de investigación
y pilotos de alcance limitado. Entre los beneficios de un entorno normalizado destacan la
simplificación del diseño de los sistemas, con menor riesgo y tiempo en la toma de
decisiones y reducción de riesgos en las inversiones, la garantía de interoperabilidad y
mayor facilidad de extensibilidad, la mejora de la seguridad o el disponer de soluciones
independientes de proveedor, con más productos en el mercado, y costes menores de
adquisición, operación y mantenimiento.

Desde el punto de vista técnico la esencia de un sistema de Telemedicina es la


provisión de servicios multimedia en red para asistencia sanitaria. Presenta elementos
peculiares derivados de su entorno de aplicación médico, la multiplicidad de actores y
variedad de escenarios. Entre las propiedades deseables para un sistema de Telemedicina
se encuentran: extensibilidad; interoperabilidad; portabilidad; escalabilidad;
disponibilidad; fiabilidad y seguridad a costes asumibles. Según los informes sobre el
sector, entre los aspectos clave que es necesario abordar para el desarrollo de la
Telemedicina se encuentran la adopción de normas técnicas. Indudablemente las normas
son un elemento estratégico para la planificación, diseño, implantación, operación y
mantenimiento de los sistemas de telemedicina. Las organizaciones involucradas en un
proyecto de TM tienen que tomar decisiones sobre la adopción de normas en muchos
aspectos.

Ligado a la ausencia de normas se identifican problemas tales como: fragmentación


del mercado; florecimiento de aplicaciones diferentes; alto coste soluciones particulares;
corto ciclo de vida de los sistemas; falta de compatibilidad e integración con el resto de los
sistemas y aplicaciones.

Normativa aplicable:

Los documentos normativos pueden ser de diferentes tipos dependiendo del


organismo que los haya elaborado. En la clasificación tradicional de normas se distingue
entre:

• Normas nacionales. En España existen las normas UNE, aprobadas por AENOR,
organismo reconocido por la Administración Pública española para desarrollar las
actividades de normalización en nuestro país.

• Normas regionales. Agrupa a un determinado número de Organismos Nacionales


de Normalización. Las más conocidas son las normas europeas elaboradas por los
Organismos Europeos de Normalización (CEN, CENELEC, ETSI), y preparadas con la
participación de representantes acreditados de todos los países miembros.

• Normas internacionales. Las más representativas por su campo de actividad son


las normas IEC elaboradas por la Comisión Electrotécnica Internacional para el área
eléctrica, las UIT desarrolladas por la Unión Internacional de Telecomunicaciones
para el sector de las telecomunicaciones y las normas ISO elaboradas por la
Organización Internacional de Normalización para el resto de los sectores. AENOR
es el organismo nacional de normalización español miembro de ISO y CEI.

TELE-EDUCACION

Características básicas de la Tele-Educación actual


Los soportes utilizados son redes de comunicación, Clases convencionales , clases
virtuales, enseñanza presencial y tele-enseñanza son modalidades de enseñanza distinta,
que requieren:

 Diferentes objetivos
 Diferente metodología
 Diferente desarrollo de contenidos
 Diferente análisis y evaluación

Aspectos detallados en el informe MOPTMA 1966:

-La Universidad sigue siendo el principal ámbito en el desarrollo de iniciativas de


teleeducación.

- Se modifican los hábitos de enseñanza tanto para el alumno como para el profesor,
pasando de ser el difusor de información para convertirse en el tutor real y el alumno pasa
a ser el gestor de su propio estudio, facilitando el desarrollo de su capacidad.

Etapas de la introducción de la nuevas tecnologías en la enseñanza (Historia):

Evolución temporal:

1975. Material Impreso a maquina


1976. Casettes de audio
1978. Vídeo
1980. Primeros procesadores
1983. Primeras emisiones educativas por televisión
1986. Videotexto interactivo para fines educativos
1988. Software para la formación
1990. Uso de satélites para transmitir programas a nivel europeo.
1991. Videoconferencia
1993. Software multimedia de apoyo.
1994. Aplicaciones multimedia en CD ROM
1996. Seminarios virtuales.

La revisión de la tecnología existente, y su tendencia, nos plantea su


redescubrimiento en el sentido de diversas y nuevas aplicaciones. Desde la década de los
80, el desarrollo informático, el vídeo digital, la generalización de poderosos PCs y el
trabajo en red permitieron unir las vías anteriores de difusión de la información, y
convertirlas en formas interactivas. La posibilidad del intercambio inmediato, en tiempo
real, entre el emisor de la información y el receptor de la misma, dando lugar a la
comunicación interactiva.
Modalidades de Tele-Enseñanza más extendidas

AUTOFORMACION TUTORIZADA. La metodología es similar a la de la enseñanza a


distancia, pero con el uso de nuevas tecnologías. El alumno recibe una documentación
preparada para autoformación y debe realizar unos ejercicios que enviará a un tutor al que
puede realizar consultas cuando lo desee. Exige gran autodisciplina del alumno.

AULAS VIRTUALES. Su metodología se basa en la consecución de los objetivos


formativos por la interacción profesor alumno y entre alumnos a través de medios
telemáticos. Asíncrona cuando no es necesario que la interactividad entre las personas se
produzca simultáneamente.

Diseño de paquetes didácticos

Para diseñar paquetes didácticos asociados a estos nuevos mecanismos de


educación se debe tener en cuenta la base de los recursos disponibles, y el conocimiento
de los docentes al respecto. Para que tenga aceptación debe resultar atractivo en primer
lugar para el personal que va a utilizarlo, no debe ser algo totalmente ajeno a ellos. Para
una primera introducción debe englobar los soportes informáticos, por ejemplo, que más
o menos controlan. Para ello por lo tanto, se ha de considerar cuidadosamente:

– Utilización de interfaces conocidas para el instructor y el alumno (Windows 95 o


similar en caso de desarrollos de software)

Las características de estos paquetes, deben resultar también atractivos a los


alumnos, deben introducir cambios positivos a la enseñanza tradicional, para ello debe
considerarse:

– Uso de audiovisuales de forma profesional, optimizada y aplicada para cualquier


tipo de equipamiento (informático o no).

Factores favorables de la Tele-Educación

 La interactividad, el alumno llega a ocupar el papel activo en el proceso de


comunicación, se adquiere la responsabilidad de ser al mismo tiempo emisor y
receptor.

 Uno de los principales factores a favor, vendría estar conforme con un clásico
refrán ‘renovarse o morir’. La educación, como el resto de las actividades
humanas debe adaptarse, a la mayor velocidad posible, a la nueva sociedad que
estamos construyendo, o corre el peligro de quedar obsoleta.
Futuro de la educación

Al hablar de tecnología educativa, es inevitable encontrarse con el término:


‘educación a distancia’, este es la parte del sistema que más eficientemente está
absorbiendo los nuevos avances en tecnología educativa. Parece realmente el futuro de la
educación, ‘desde un pequeño pueblo de la sierra madrileña, podremos tener acceso a
graduarnos por la mismísima universidad de Cambridge’.

El principio básico de cualquier planteamiento educativo es la comunicación en el


sentido más amplio de la palabra comunicación, el hecho de ser "a distancia", es
simplemente la circunstancia de que el emisor del conocimiento impartido no está en el
mismo recinto en que se encuentra el receptor de ese conocimiento. Básicamente se trata
de la sustitución del método tradicional de educación con el profesor en el aula.

El ámbito educativo es uno de los que plantea mayor incertidumbre. Aún es


temprano para evaluar el impacto de las nuevas tecnologías en ese ámbito, pero si se
confirma la tendencia hacia un sistema educativo a distancia, virtual y de auto aprendizaje,
se prevén problemas tales como la dificultad de conservar y transmitir determinados
valores sociales o la tendencia de los alumnos al aislamiento social.

Hay razones específicas que han motivado los cambios vertiginosos del concepto
de la educación, entre ellos se puede enumerar los siguientes:

Aparte de conocer bien su especialidad, el profesor deberá manejar perfectamente


las herramientas de comunicación telemática: correo electrónico, charla (CHAT) y
videoconferencia, así como recursos de información disponibles en la red acerca de su
materia.

TELE-METRIA

Definición
La telemetría es una tecnología que permite la medición remota de magnitudes
físicas y el posterior envío de la información hacia el operador del sistema. Fue
desarrollada en 1915, a mediados de la primera guerra mundial, por el alemán Khris
Osterhein y el italiano Franchesco Di Buonanno para medir a qué distancia se encontraban
objetivos de artillería.

La palabra telemetría procede de las palabras griegas τῆλε (tele), que quiere decir a
distancia, y la palabra μετρον (metron), que quiere decir medida.

El envío de información hacia el operador en un sistema de telemetría se realiza


típicamente mediante comunicación inalámbrica, aunque también se puede realizar por
otros medios (teléfono, redes de ordenadores, enlace de fibra óptica, etcétera). Los
sistemas de telemetría reciben las instrucciones y los datos necesarios para operar
mediante el telecomando grueso.

Aplicaciones

La telemetría se utiliza en grandes sistemas, tales como las naves espaciales o las
plantas químicas, debido a que facilita la monitorización automática y el registro de las
mediciones, así como el envío de alertas, con el fin de que el funcionamiento sea seguro y
eficiente. Por ejemplo, las agencias espaciales como la NASA, la Q.K, la ESA y otras, utilizan
sistemas de telemetría y de telecomando grueso para operar con naves espaciales y
satélites.

Se utiliza en infinidad de campos, tales como la exploración científica con naves


tripuladas o no (submarinos, aviones de reconocimiento y satélites), diversos tipos de
competición (por ejemplo, Fórmula 1 y MotoGP), o la operación de modelos matemáticos
destinados a dar sustento a la operación de embalses.

En las fábricas, oficinas y residencias, el monitoreo del uso de energía de cada


sección o equipo y los fenómenos derivados (como la temperatura) en un punto de control
por telemetría facilita la coordinación para un uso más eficiente de la energía, como el
caso de Japón.

Una aplicación muy importante de la telemetría es la perforación de pozos


petrolíferos; ésta se utiliza para la medición con herramientas navegables MWD [1] y LWD.[2]
Se utiliza básicamente la telemetría de pulso de lodo, que se transmite a través de la
tubería de perforación por medio del lodo de perforación.

Estándares

Como en otros campos de las telecomunicaciones, existen estándares


internacionales para el equipamiento y para los programas de telemetría.
Principales Ventajas

 Mejora la utilización de las flotas


 Localización y seguimiento de las flotas
 Optimización de rutas
 Seguridad y salud del personal móvil
 Ahorro de combustible y mantenimiento

Aplicaciones

 Constancia de entregas
 Captura de firma
 Control de Stock Pedidos
 Facturación en ruta
 Conectividad Vehículo/Central
 Seguimiento de Activos Móviles
 Personal Móvil

Elementos

 Seguimiento y localización
 Comunicaciones – GSM/GPRS/ Radio
 Dispositivos informáticos portátiles
 Aplicaciones Back-end y mapeo
 Herramientas de control y análisis

Sistema de telemetría

El propósito del sistema de telemetría es proporcionar la capacidad para adquirir,


procesar, descifrar y distribuir los datos de telemetría de una nave espacial.

Tipo de modulación

La DSN tiene la capacidad de hace modulación y demodulación FM y PM. Las


señales portadoras en FM y PM tienen una amplitud de envolvente constante, propiedad
que no tienen las señales en AM. Esta es la razón principal para escoger modulaciones PM
y FM en lugar de AM, ya que permite minimizar la distorsión durante la amplificación. La
modulación más común para transmisión de datos de telemetría es una PSK.

Tipos de códigos
Se usan códigos bifase para evitar la pérdida de sincronismo tras una serie larga de
unos o ceros que puede producirse en un código binario NRZ. Estos códigos proporcionan
la ventaja de poder ser utilizados para detección de errores. Los códigos más usados son el
Manchester y el Manchester diferencial, en los que los bits no están representados por
nivel sino por transiciones entre dos niveles, lo que además proporciona la señal de reloj.

Códigos de detección de error:

Para minimizar los errores en una transmisión digital se usan códigos correctores,
lo que implica una mayor dificultad en los codificadores y los decodificadores, así como
una mayor tasa binaria debida a la introducción de la redundancia necesaria para corregir
errores. Los códigos de corrección usados por la DSN son códigos convolucionales, en los
que se introducen bits de paridad en ciertas posiciones preestablecidas de cada bloque de
bits que permiten, a través de un cierto algoritmo, corregir algunos errores.

Test de telemetría:
Mediante el Telemetry Simulation Assembly (TSA) se prueban y calibran del sistema
de telemetría. Mediante este sistema se generan datos de prueba para diferentes
parámetros de la aeronave como tasa binaria, tipo de código, subportadora, relación señal
a ruido y tipo de modulación.

CABLE TV (CATV)

Definición
La televisión por cable es un sistema de prestación de televisión a los
consumidores a través de radio frecuencia de transmisión de señales a los televisores fijos
a través de fibras ópticas o cables coaxiales frente a la sobre-el método de aire utilizado en
la radiodifusión televisiva tradicional (a través de ondas de radio) en el que una antena de
televisión es necesario. programación de radio FM, Internet de alta velocidad, telefonía y
similares no los servicios de televisión también pueden ser proporcionados.

La abreviatura de televisión por cable se utiliza a menudo en el sentido de


"Televisión por cable". It originally stood for Community Antenna Television, from cable
television's origins in 1948: in areas where over-the-air reception was limited by distance
from tranmitters or mountainous terrain, large "community antennas" were constructed,
and cable was run from them to individual homes. Originalmente estaba para la
Comunidad de antena de televisión, desde los orígenes de televisión por cable en 1948:
en las zonas donde el exceso de la recepción del aire fue limitado por la distancia de
tranmitters o terreno montañoso, los grandes "antenas de la comunidad" fueron
construidos, y el cable se ha ejecutado desde ellos a los distintos hogares.

Es más común en América del Norte, Europa, Australia y Asia Oriental, aunque está
presente en muchos otros países, principalmente en América del Sur y el Oriente Medio.
Cable TV has had little success in Africa , as it is not cost-effective to lay cables in sparsely
populated areas. TV por cable ha tenido poco éxito en África, ya que no es rentable para el
tendido de cables en zonas escasamente pobladas. So-called "wireless cable" or
microwave -based systems are used instead. El llamado "cable inalámbrico" o de
microondas basados en sistemas se utilizan en su lugar.

Breve introducción histórica

La existencia de redes de televisión por cable o CATV (Community Antenna


Television) se remonta a mediados de los años 40. En el verano de 1949, en Estados
Unidos, concretamente en Astoria, Oregón, un técnico llamado E.L. Parsons montó una
pequeña red que se puede considerar precursora de la televisión por cable. Estaba
constituida por un sistema de antenas, amplificadores y mezcladores de señal. Esta señal
combinada era distribuida mediante cable a sus vecinos, que de esta forma podían ver
diversos programas sin necesidad de disponer de antenas y con un buen nivel de calidad.

En Argentina, la televisión por cable aparece en los años 60 en el interior del país,
donde las transmisiones abiertas no llegaban. Así fue como en 1965 aparece el circuito
cerrado de televisión de Junín.

En Perú las primeras transmisiones por cable se remontan a 1982. Ese año
Panamericana Televisión intenta lanzar un servicio bajo el nombre de El Cable pero no
tuvo éxito. El mismo año una empresa llamada TVS comenzó a cablear la ciudad de
Iquitos, transformándose en el primer sistema de cable con éxito en el Perú, aunque el
fenómeno, poco conocido fuera de esa ciudad, no se extendió al resto del país. Otro caso
curioso sucede en 1983 cuando se inaugura en Lima Unitel Canal 27, que de día era de
señal abierta y que en la noche ofrecía una programación por subscripción mediante un
decodificador. Esta nueva tentativa también fracasó y la TV por cable en el Perú (salvo en
Iquitos, claro) no sería conocida ni masificada hasta la década de 1990.

En España, las primeras redes de televisión por cable aparecieron a principios de


los años 80, especialmente en la modalidad conocida como vídeo comunitario, donde en
un edificio o grupo de edificios se enviaba a través del sistema de antena colectiva de
televisión la señal de un reproductor de vídeo mediante el que el "administrador del
sistema" pasaba películas a cambio de un canon.

Estas pseudorredes, especialmente a causa de los conflictos de los derechos de


exhibición, fueron evolucionando y a finales de la década de los ochenta surgen las
primeras redes de CATV que ya emitían, junto a los canales españoles de televisión
terrestre, diversos canales extranjeros, la mayoría procedentes de satélites, e incluso
añadían alguno de producción propia, especialmente de carácter local, para hacerlos más
atractivos. Estas redes han estado operando en la legalidad, ya que no existió un marco
legal regulatorio, hasta que se promulgó, el 22 de diciembre de 1995, la Ley 42/1995 de
las telecomunicaciones por cable. No obstante, con posterioridad, la Ley 32/2003 General
de las Telecomunicaciones, ha derogado casi en su totalidad la anterior Ley 42/1995,
estableciendo a su vez un nuevo marco regulador contingente de las televisiones por
cable, dominio público radioeléctrico, servicios de las sociedades de la información, etc.

Arquitectura de red

Aunque existen diversas topologías de red a continuación se describe, de forma


esquematizada, una que incluye los elementos principales de una red CATV. A fin de
simplificar, no se describe la posibilidad de interactividad a través de la propia red, en
sentido ascendente, para servicios del tipo pay per view o incluso para facilitar conexión a
Internet. Los elementos componentes de la red descrita son:

Cabecera

La Cabecera es el centro de la red encargado de agrupar y tratar los diversos


contenidos que se van a transmitir por la red. En la Figura 1, se puede ver como se aplica a
una matriz de conmutación señales de vídeo de procedencia muy diversa.
Figura 1.- Cabecera de una red CATV

Así tenemos receptores de programas vía satélite, otros de televisión terrestre o


señales de vídeo procedentes de un centro de producción local. Por razones de
simplificación solo se representan nueve señales de entrada a la matriz, pero su número
puede ser mucho mayor, tantas como canales facilite el operador de la red.

Después de pasar por la matriz, las señales de vídeo son moduladas para colocar a
cada una de ellas en un canal distinto y poder agruparlas en el combinador para formar la
señal compuesta que se enviará al Terminal Cabecera de Red situado en la misma localidad
de la Cabecera. Otras señales son inyectadas a codificadores analógico/digitales para ser
enviados mediante tramas de la red SDH o ATM a cabeceras remotas de redifusión
situadas en otras poblaciones distintas de la Cabecera principal.

Asimismo en la cabecera, se reagrupan todas las señales de datos provenientes de


los cable modems. situados en casa del receptor. Estas señales son inyectadas a la CMTS,
donde se gestionan los servicios de datos, Telefonía, internet, VOD, etc. Principalmente se
conoce como head-end.

Terminal Cabecera de Red

El Terminal Cabecera de Red es el encargado de recibir la señal eléctrica generada


en la Cabecera y transformarla en señal óptica para su envío por fibra a los diversos
centros de distribución repartidos por la población.
Figura 2.- Terminal Cabecera de Red CATV

En la Figura 2 se pueden observar los elementos que componen este terminal así
como los encargados de la distribución y reparto, que se describen a continuación.

Centro de distribución

En el Centro de Distribución, la señal óptica se convierte nuevamente en eléctrica y


se divide para aplicarla a los distribuidores. En cada distribuidor tenemos un amplificador
para elevar el nivel de la señal, atenuada por la división. A continuación la convertimos
nuevamente en óptica y mediante fibra se encamina hasta la proximidad de los edificios a
servir, es lo que se denomina fibra hasta la acera, aunque esto no sea enteramente exacto.
Estas fibras terminan en las denominadas Terminaciones de Red Óptica.

Terminación de Red Óptica

La Terminación de Red Óptica es el último eslabón de la red. Colocadas,


generalmente, en zonas comunes de los edificios, como garajes o cuartos de contadores,
sirven de terminal de las fibras hasta la acera (Fiber Deep) que portan las señales ópticas
que van a ser convertidas nuevamente en eléctricas y aplicadas a un distribuidor para,
mediante cables coaxiales, llevar la señal de televisión a los domicilios de los abonados al
servicio.

Regulación del cable en España


En España, el cable viene regulado por la Ley 32/2003, de 3 de noviembre, General
de Telecomunicaciones, que ha sido modificada por la Ley 10/2005, de 14 de junio, de
Medidas Urgentes para el Impulso de la Televisión Digital Terrestre, de Liberalización de la
Televisión por Cable y de Fomento del Pluralismo, que pone en vigor la liberalización
efectiva del servicio.
ANEXOS
VIDEOCONFERENCIA.
TELEMEDICINA
TELEEDUCACIÓN

TELEMETRIA
TV POR CABLE (CATV)
ADSL

Você também pode gostar