Você está na página 1de 56

Preguntas relacionadas

las Redes
Una red es un conjunto de ordenadores conectados entre si, que pueden
comunicarse para compartir datos y recursos sin importar la localización física de los
distintos dispositivos.

A través de una red se pueden ejecutar procesos en otro ordenador o acceder a


sus ficheros, enviar mensajes, compartir programas.

¿Qué es una red de comunicación?

Una Red de Comunicación es una conexión de diferentes computadoras que pueden


comunicarse e intercambiar información, utilizando sus propios recursos o recursos
ajenos. Cuando las computadoras conectadas están próximas unas a otras, la red se
llama red local (local network).

¿Cuáles son las redes de telecomunicaciones?

Se entiende por red de telecomunicación al conjunto de medios de transmisión


y comunicación), tecnologías procesadas, protocolos y facilidades en general,
necesarios para el intercambio de información entre los usuarios de la red.
La red es una estructura compleja.

¿Qué son nodos en telecomunicaciones?

En informática y en telecomunicación, de forma muy general, un nodo es un


punto de intersección, conexión o unión de varios elementos que confluyen en
el mismo lugar. ... En redes de computadoras cada una de las máquinas es
un nodo, y si la red es Internet, cada servidor constituye también un nodo.

¿Cuáles son las redes de telecomunicaciones?

En general se puede afirmar que una red de telecomunicaciones consiste en


las siguientes componentes: a) un conjunto de nodos en los cuales se procesa
la información, y b) un conjunto de enlaces o canales que conectan los nodos
entre sí y a través de los cuales se envía la información desde y hacia los
nodos.

¿Qué son las redes informáticas?

Una red de computadoras, también llamada red de ordenadores o red


informática, es un conjunto de equipos conectados por medio de cables,
señales, ondas o cualquier otro método de transporte de datos, que comparten
información (archivos), recursos (CD-ROM, impresoras, etc.) y servicios
(acceso a internet, e-mail, chat, ...
¿Qué es la Ingeniería en Telecomunicaciones?

La ingeniería de telecomunicación (o de telecomunicaciones) es una rama de


la ingeniería, que resuelve problemas de transmisión y recepción de señales e
interconexión de redes. ... Esto incluye muchas tecnologías, como radio,
televisión, teléfono, comunicaciones de datos y redes informáticas como
Internet.

¿Que son y cómo funcionan las telecomunicaciones?

Las telecomunicaciones, en cuanto a la transmisión de información por medio


de ondas electromagnéticas, funcionan con frecuencias, las que son emitidas
por un potente emisor electromagnético, el que genera ondas de la misma
índole con diferente frecuencia, todo dependiendo de la función que lleve a
cabo; puede ser de ...16 jun. 2013

¿Qué son las telecomunicaciones y para qué sirven?


Transcript of para que sirven las telecomunicaciones. Naturalmente sirven
paraque las personas del resto del mundo estén comunicadas y tengan
información del resto del mundo en minutos,Para eso están las
comunicaciones que nos ayudan a tener esa información mas rápido. 18 may.
2017

Diseño de una red


Diseñar una red siempre ha sido difícil, pero hoy en día la tarea es cada vez más difícil
debido a la gran variedad de opciones. cuales son las prioridades que se adaptan al
desarrollo de la red, entre otras cosas. Un efectivo administrador de la red es también
un cuidadoso planeador.

Metas del diseño

El diseñador de la red debe siempre preguntarse algunas preguntas básicas de la red


antes de que empiece la fase del diseño. ¿Quién va a usar la red? ¿Qué tareas van a
desempeñar los usuarios en la red? ¿Quién va a administrar la red? Igualmente,
importante ¿Quién va a pagar por ella? ¿Quién va a pagar para mantenerla? Cuando
esas respuestas sean respondidas, las prioridades serán establecidas y el proceso del
diseño de la red será mucho más productivo. Estas prioridades se convertirán en las
metas del diseño. Vamos a examinar algunas de esas metas clave.
Desempeño (performance): Los tipos de datos procesados pueden determinar el
grado de desempeño requerido. Si la función principal de la red es transacciones en
tiempo real, entonces el desempeño asume una muy alta prioridad y
desafortunadamente el costo de eleva súbitamente en este trueque desempeño/costo.
Volumen proyectado de tráfico: Algunos equipos de interconexión como los puentes,
concentradores pueden ocasionar cuellos de botella (bottlenecks) en las redes con
tráfico pesado. Cuando se está diseñando una red se debe de incluir el número
proyectado de usuarios, el tipo de trabajo que los usuarios harán, el tipo de
aplicaciones que se correrán y el monto de comunicaciones remotas (www, ftp, telnet,
VoIP, realaudio, etc). ¿Podrán los usuarios enviar ráfagas cortas de información o
ellos podrán enviar grandes archivos? Esto es particularmente importante para
determinar el monto de gráficas que se podrán transmitir sobre la red. Si bien un
diseñador de red no puede predecir el futuro, éste debe de estar al tanto de las
tendencias de la industria. Si un servidor de fax o email va a hacer instalado en la red,
entonces el diseñador deberá de anticipar que estos nuevos elementos no afecten
grandemente al volumen actual de tráfico de la red.
Expansión futura: Las redes están siempre en continuo creciendo. Una meta del
diseño deberá ser planear para el crecimiento de la red para que las necesidades
compañía no saturen en un futuro inmediato. Los nodos deberán ser diseñados para
que estos puedan ser enlazados al mundo exterior. ¿Cuantas estaciones de trabajo
puede soportar el sistema operativo de red? ¿La póliza de precios del vendedor de
equipos hace factible la expansión futura? ¿El ancho de banda del medio de
comunicación empleado es suficiente para futuro crecimiento de la red? ¿El equipo de
comunicaciones tiene puertos disponibles para futuras conexiones?
Seguridad: Muchas preguntas de diseño están relacionadas a la seguridad de la red.
¿Estarán encriptados los datos? ¿Qué nivel de seguridad en los passwords es
deseable? ¿Son las demandas de seguridad lo suficientemente grandes para requerir
cable de fibra óptica? ¿Qué tipos de sistema de respaldo son requeridos para
asegurar que los datos perdidos siempre puedan ser recuperados? Si la red local tiene
acceso a usuarios remotos, ¿Que tipo de seguridad será implementada para prevenir
que hackers entren a nuestra red?
Redundancia: Las redes robustas requieren redundancia, sí algún elemento falla, la
red deberá por sí misma deberá seguir operando. Un sistema tolerante a fallas debe
estar diseñado en la red, de tal manera, si un servidor falla, un segundo servidor de
respaldo entrará a operar inmediatamente. La redundancia también se aplica para los
enlaces externos de la red. Los enlaces redundantes aseguran que la red siga
funcionando en caso de que un equipo de comunicaciones falle o el medio de
transmisión en cuestión. Es común que compañías tengan enlaces redundantes, si el
enlace terrestre falla (por ejemplo, una línea privada), entra en operación el enlace vía
satélite o vía microondas. Es lógico que la redundancia cuesta, pero a veces es
inevitable.
Compatibilidad: hardware & software La compatibilidad entre los sistemas, tanto
en hardware como en software es una pieza clave también en el diseño de una red. Los
sistemas deben ser compatibles para que estos dentro de la red puedan funcionar y
comunicarse entre sí, por lo que el diseñador de la red, deberá tener cuidado de
seleccionar los protocolos mas estándares, sistemas operativos de red, aplicaciones
(como un simple procesador de palabras). Así como de tener a la mano el conversor de
un formato a otro.
Compatibilidad: organización & gente: Ya una vez que la red esta diseñada para ser
compatible con el hardware y software existente, sería un gran error si no se considera
la organización y el personal de la compañía. A veces ocurre que se tienen sistemas
de la más alta tecnología y no se tiene el personal adecuado para operarlos. O lo
contrario, se tiene personal con amplios conocimientos y experiencia operando
sistemas obsoletos. Para tener éxito, la red deberá trabajar dentro del marco de
trabajo de las tecnologías y filosofías existentes.
Costo : El costo que implica diseñar, operar y mantener una red, quizá es uno de los
factores por los cuales las redes no tengan la seguridad, redundancia, proyección a
futuro y personal adecuado. Seguido ocurre que las redes se adapten al escaso
presupuesto y todos las metas del diseño anteriores no se puedan implementar. Los
directivos, muchas veces no tienen idea del alto costo que tiene un equipo de
comunicaciones, un sistema operativo para múltiple usuarios y muchas veces no
piensan en el mantenimiento. El costo involucrado siempre será un factor importante
para el diseño de una red.

Diagrama de 4 pasos en el proceso de construcción e implementación de una red

El paso de Especificación de Requerimientos es la etapa preliminar y es donde se


especifican todos los requerimientos y variables que van a estar presentes en el
diseño de una red. La Fase de Diseño, toma los elementos de la Especificaci&oacut;n
para diseñar la red en base a las necesidades de la organización. Cualquier punto no
previsto se revisa y se lleva a la fase anterior de Especificación de Requerimientos. La
fase de Instalación se toman "los planos" de la fase de diseño y se empiezan a instalar
físicamente los dispositivos y elementos de la red. Cualquier imprevisto se regresa
nuevamente a la fase de Diseño o en su caso a la fase de Especificación. La fase de
Pruebas es la fase final del proceso y consiste en realizar toda clase de pruebas a la
red ya instalada para comprobar o constatar que cumple con las Especificaciones de
Requerimientos. Ya realizadas las pruebas con éxito la red está lista para su uso.
Cualquier imprevisto, se regresa a las fases anteriores.

Hits: 129853
 < Prev

 Next >
Artículos Relacionados

Red de Transporte


Planeacion y diseño de redes WLAN


Concepto de red y tipos de redes

Topologías de red


Arquitecturas de red

Integración de Tecnologías en el Diseño de Hogares Inteligentes

La evolucion de la telefonia movil




Created on Tuesday, 01 May 2001

Por Evelio Martínez


Publicado en la Revista RED Mayo de 2001.
INTRODUCCIÓN
Las tecnologías inalámbricas están teniendo mucho auge y desarrollo en estos últimos años, una
de las que ha tenido un gran desarrollo ha sido la telefonía celular, desde sus inicios a finales de
los 70s ha revolucionado enormemente las actividades que realizamos diariamente. Los
teléfonos celulares se han convertido en una herramienta primordial para la gente común y de
negocios, las hace sentir más segura y las hace más productivas.
A pesar que la telefonía celular fue concebida para la voz únicamente, debido a las limitaciones
tecnológicas de esa época, la tecnología celular de hoy en día es capaz de brindar otro tipo de
servicios tales como datos, audio y video con algunas limitaciones, pero la telefonía inalámbrica
del mañana hará posible aplicaciones que requieran un mayor consumo de ancho banda.

BREVE HISTORIA DE LA TELEFONÍA CELULAR


Martin Cooper fue el pionero en esta tecnología, a él se le considera como "el padre de la
telefonía celular" al introducir el primer radioteléfono en 1973 en los Estados Unidos mientras
trabajaba para Motorola; pero no fue hasta 1979 en que aparece el primer sistema comercial en
Tokio Japón por la compañía NTT (Nippon Telegraph & Telephone Corp.)
En 1981 en los países Nórdicos se introduce un sistema celular similar a AMPS (Advanced
Mobile Phone System). Por otro lado, en los Estados Unidos gracias a que la entidad reguladora
de ese país adopta reglas para la creación de un servicio comercial de telefonía celular, en
octubre de 1983 se pone en operación el primer sistema comercial en la ciudad de Chicago. A
partir de entonces en varios países se diseminó la telefonía celular como una alternativa a la
telefonía convencional alámbrica. La tecnología inalámbrica tuvo gran aceptación, por lo que a
los pocos años de implantarse se empezó a saturar el servicio, por lo que hubo la imperiosa
necesidad de desarrollar e implementar otras formas de acceso múltiple al canal y transformar
los sistemas analógicos a digitales para darle cabida a más usuarios. Para separar una etapa de la
otra, a la telefonía celular se ha categorizado por generaciones. A continuación se describen
cada una de ellas.

LAS GENERACIONES DE LA TELEFONíA INALÁMBRICA


La primer generación 1G
La 1G de la telefonía móvil hizo su aparición en 1979, se caracterizó por ser analógica y
estrictamente para voz. La calidad de los enlaces de voz era muy baja, baja velocidad [2400
bauds], la transferencia entre celdas era muy imprecisa, tenían baja capacidad [basadas en
FDMA, Frequency Divison Multiple Access] y la seguridad no existía. La tecnología
predominante de esta generación es AMPS (Advanced Mobile Phone System).

La segunda generación 2G
La 2G arribó hasta 1990 y a diferencia de la primera se caracterizó por ser digital. El sistema 2G
utiliza protocolos de codificación más sofisticados y son los sistemas de telefonía celular usados
en la actualidad. Las tecnologías predominantes son: GSM (Global System for Mobile
Communications); IS-136 (conocido también como TIA/EIA-136 o ANSI-136) y CDMA (Code
Division Multiple Access) y PDC (Personal Digital Communications), éste último utilizado en
Japón.
Los protocolos empleados en los sistemas 2G soportan velocidades de información mas altas
para voz pero limitados en comunicaciones de datos. Se pueden ofrecer servicios auxiliares tales
como datos, fax y SMS [Short Message Service]. La mayoría de los protocolos de 2G ofrecen
diferentes niveles de encriptación. En los Estados Unidos y otros países se le conoce a 2G como
PCS (Personal Communications Services).

La generación 2.5G
Muchos de los proveedores de servicios de telecomunicaciones (carriers) se moverán a las redes
2.5G antes de entrar masivamente a 3G. La tecnología 2.5G es más rápida y más económica
para actualizar a 3G.

La generación 2.5G ofrece características extendidas para ofrecer capacidades adicionales que
los sistemas 2G tales como GPRS (General Packet Radio System), HSCSD (High Speed Circuit
Switched Data), EDGE (Enhanced Data Rates for Global Evolution), IS-136B, IS-95B, entre
otros. Los carriers europeos y de Estados Unidos se moverán a 2.5G en el 2001. Mientras que
Japón ira directo de 2G a 3G también en el 2001.

La tercer generación 3G
La 3G es tipificada por la convergencia de la voz y datos con acceso inalámbrico a Internet,
aplicaciones multimedia y altas transmisiones de datos. Los protocolos empleados en los
sistemas 3G soportan más altas velocidades de información enfocados para aplicaciones mas
allá de la voz tales como audio (MP3), video en movimiento, video conferencia y acceso rápido
a Internet, sólo por nombrar algunos. Se espera que las redes 3G empiecen a operar en el 2001
en Japón por NTT DoCoMo, en Europa y parte de Asia en el 2002, posteriormente en Estados
Unidos y otros países.
Los sistemas 3G alcanzaran velocidades de hasta 384 Kbps permitiendo una movilidad total a
usuarios viajando a 120 kilómetros por hora en ambientes exteriores y alcanzará una velocidad
máxima de 2 Mbps permitiendo una movilidad limitada a usuarios caminando a menos de 10
kilómetros por hora en ambientes estacionarios de corto alcance o en interiores. Entre las
tecnologías contendientes de la tercera generación se encuentran UMTS (Universal Mobile
Telephone Service), cdma2000, IMT-2000, ARIB[3GPP], UWC-136, entre otras.

El impulso de los estándares de la 3G está siendo apoyando por la ITU (International


Telecomunications Union) y a este esfuerzo se le conoce como IMT-2000 (International Mobile
Telephone).

La cuarta generación 4G
La cuarta generación es un proyecto a largo plazo que será 50 veces más rápida en velocidad
que la tercer generación. Se planean hacer pruebas de esta tecnología hasta el 2005 y se espera
que se empiecen a comercializar la mayoría de los servicios hasta el 2010.

EL ESTATUS ACTUAL DE LA TELEFONÍA MÓVIL


Existen hoy en día tres tecnologías de telefonía celular predominantes en el mundo: IS-136, IS-
95 y GSM.
IS-136 (Interim Standard 136) fue la primer tecnología digital de telefonía celular (D-AMPS,
versión la versión digital de AMPS) desarrollada en Estados Unidos, IS-136 esta basada en
TDMA (Time Division Multiple Access), una técnica de acceso múltiple la cual divide los
canales de radio en tres ranuras de tiempo, cada usuario recibe en una ranura diferente. Este
método permite a tres usuarios en cada canal de radio comunicarse sin interferirse uno con el
otro. D-AMPS (IS-54) es utilizado principalmente en Norteamérica, Latinoamérica, Australia,
partes de Rusia y Asia.

Por otro lado, CDMA, tecnología desarrollada por Qualcomm, utiliza la tecnología de espectro
disperso en la cual muchos usuarios comparten simultáneamente el mismo canal pero cada uno
con diferente código. Lo anterior permite una mayor capacidad en usuarios por celda. A CDMA
de segunda generación se le conoce como cdmaOne. Hasta diciembre del 2000 existen más de
27 millones de usuarios en más de 35 países alrededor del mundo utilizando cdmaOne.

GSM (siglas derivadas originalmente de Groupe Spéciale Mobile) es tecnología celular


desarrollada en Europa considerada como la tecnología celular más madura, con mas de 200
millones de usuarios en mas de 100 países alrededor del mundo. GSM es un servicio de voz y
datos basado en conmutación de circuitos de alta velocidad la cual combina hasta 4 ranuras de
tiempo en cada canal de radio.

A continuación se muestra una tabla donde se especifican los diferentes servicios ofrecidos por
cada una de estas tres tecnologías:

Las tres principales vertientes en la telefonía móvil


Inicio de operación
Tecnología Servicio Capacidad de datos esperada*
Datos conmutados por
circuitos basados en el Disponible actualmente a
GSM estándar GSM 07.07 9.6 Kbps a 14.4 Kbps nivel mundial
Disponible actualmente,
HSCSD 28.8 a 56 Kbps operación limitada.
IP y comunicaciones X.25
GPRS en el orden de Kbps Disponible en el 2001
Comunicaciones IP a 384
Kbps. Posible Periodo de pruebas en el
compatibilidad con las 2001, lanzamiento del
EDGE redes IS-136 servicio en el 2002
Similar a EDGE pero son
posibles velocidades a 2 Lanzamiento inicial en el
W-CDMA Mbps en interiores. 2002 o 2003

Algunos carriers ofrecen el


servicio, pero no se ha
extendido como se esperaba
debido a que los principales
Datos conmutados por carrieres ya ofreciean
circuitos basados en el CDPD (Cellular Digital
IS-136 estándar IS-135 9.6 Kbps Packet Data)
Comunicaciones IP a 384
Kbps. Posible
compatibilidad con las Lanzamiento inicial en el
EDGE redes GSM 2002 o 2003
Similar a EDGE pero No hay planes de
WCDMA (o Wideband incorpora velocidades a 2 lanzamiento todavía
TDMA, WTDMA) Mbps en interiores definidos

Datos conmutados por


circuitos basados en el Disponible actualmente por
CDMA estándar IS-707 9.6 Kbps a 14.4 Kbps algunos carriers
Lanzado en el mercado
Comunicaciones IP a 64 japonés a principios del
IS-95B Kbps 2000
Periodo de pruebas en el
Comunicaciones IP a 144 2001, lanzamiento del
CDMA2000 – 1XRTT Kbps servicio en el 2002
Comunicaciones IP a 384
Kbps en exteriores y 2 Lanzamiento inicial en el
CDMA2000 – 3XRTT Mbps en interiores 2002 o 2003
* Rysavy Research
LA BATALLA POR LA SUPREMACIA CELULAR
La industria de la telefonía celular se está preparando para la batalla de la década entre los
estándares IS-95/CDMA2000 y GSM/W-CDMA, dos tecnologías consideradas como las más
importantes en el ramo de la telefonía inalámbrica. Existen varias consideraciones entre ambas
tecnologías contrincantes como las siguientes: W-CDMA construida bajo los protocolos de la
red de GSM, les será más fácil a los proveedores de servicios de GSM emigrar a W-CDMA que
a CDMA2000. Por otro lado a los proveedores de servicios de IS-95 les será más fácil emigrar a
CDMA2000. Otra consideración de mayor importancia son los derechos de propiedad
intelectual. La compañía Qualcomm, quién es dueña de muchas patentes de CDMA, tiene la
más fuerte posición con respecto a la propiedad intelectual con CDMA2000 que con W-CDMA.
De hecho, la industria celular europea inventó W-CDMA en parte para trabajar con las patentes
de Qualcomm.

En los Estados Unidos se verán ambas tecnologías compitiendo en el mercado, pero muchos de
los países del resto del mundo se inclinan más por el uso de W-CDMA. La dominación
potencial de W-CDMA en el mundo pondría a dudar a algunos operadores de IS-95 en países
como Japón y Corea para aceptar W-CDMA, en vez de arriesgarse a tener sistemas que no son
compatibles con los sistemas celulares de los países vecinos.

Independientemente de cual tecnología se imponga, ambas tecnologías ofrecen alta velocidad


con soporte de IP, los clientes fácilmente podrán transferir aplicaciones de una red a otra y
dispositivos multimodo en un futuro próximo podrán hacer posible la intercomunicación entre
ambas tecnologías.

Qué es UMTS UMTS (Universal Mobile Telephone Service) es un sistema móvil de tercera
generación que está siendo desarrollado por el organismo ETSI (European Telecommunications
Standards Institute) junto el IMT-2000 de la ITU. UMTS es sistema europeo que está intentando
combinar la telefonía celular, teléfonos inalámbricos, redes locales de datos, radios móviles
privados y sistemas de radiolocalización (paging). Va a proveer velocidades de hasta 2 Mbps
haciendo los videoteléfonos una realidad. Las licencias de UMTS están atrayendo gran interés
entre los carriers del continente europeo debido a que representa una oportunidad única para
crear un mercado en masa para el acceso a la información, altamente personalizado y amigable
para la sociedad. UMTS busca cimentar y extender el potencial de las tecnologías móviles,
inalámbricas y satelitales de hoy en día.
EL FUTURO DE LA TELEFONÍA MÓVIL
Lo que sigue en este momento es esperar a que los carriers ofrezcan los servicios de 3G. Por
ejemplo, en Japón ya están operando con las tecnologías de 3G. El servicio con más éxito es i-
mode de NTT DoCoMo que utiliza una red basada en paquetes conocida como PDC-P, aunque
es una tecnología propietaria tiene actualmente más de 17 millones de subscriptores. NTT
DoCoMo también piensa incursionar con W-CDMA y sus contendientes en ese país para
servicios 3G son DDI y J-Phone. En Estados Unidos, compañías como Qualcomm y Sprint PCS
ya empezaron a realizar pruebas del servicio 3G.
La batalla por las licencias de 3G de UMTS es otro asunto de gran importancia y varias son las
compañías las involucradas en obtener las valiosas licencias de telefonía móvil de tercera
generación, tales como: Telecom Italia (Italia); Vodafone, Orange y BT Cellnet (Inglaterra); T-
Mobil (Alemania), France Telecom (Francia); KPN Telecom (Holanda), NTTDoCoMo (Japón),
etc. Las compañías que dominan mercados pequeños deberán aliarse con los grupos grandes.

A parte de las cantidades enormes de dinero que cuestan las licencias, hay que tomar en cuenta
que las redes telefónicas de estos carriers son redes grandes y complejas, por lo que les tomará
tiempo y grandes inversiones de capital para implementar la tecnología. Pero muchas de las
ventajas de esas redes son que varias de ellas ya están ofreciendo servicios de datos, y
prevalecerán aquellas empresas de telecomunicaciones que tengan la mayor experiencia en
tecnologías inalámbricas y tomen ventaja de ello para las nuevas redes del futuro.

En relación en predicciones en cuanto a usuarios móviles, The Yankee Group anticipa que en el
2004 habrá más de 1150 Millones de usuarios móviles en el mundo, comparados con los 700
millones que hubo en el 2000. Por otra parte Ericsson predice que habrá 1000 millones de
usuarios en el 2002. Dichas cifras nos anticipan un gran numero de capital involucrado en la
telefonía inalámbrica, lo que con más razón las compañías fabricantes de tecnología, así como
los proveedores de servicios de telecomunicaciones estarán dispuestos a invertir su capital en
esta nueva aventura llamada 3G.

Independientemente de cual tecnología en telefonía inalámbrica predomine, lo único que le


interesa al usuario final es la calidad de voz, que no se bloqueen las llamadas y que en realidad
se ofrezcan las velocidades prometidas. El tiempo y las fuerzas del mercado nos darán la razón.
Algunas referencias en telefonía móvil

Organismo Significado
3GPP Third Generation Partnership Project
URL
ETSI European Telecommunications Standards Institute
http://www.3gpp.org/
GAA GPRS Application Alliance
http://www.etsi.org/
GSM Global System for Mobile Communications
http://www.gprsworld.com/
IMT-2000 Association
http://www.gsmworld.com/
ITU International Mobile Telephone Standard 2000
http://www.itu.int/imt/
NTT International Telecommunications Union
http://www.itu.int/
DoComo NTT DoCoMo
http://www.nttdocomo.net/
UMTS ForumUniversal Mobile Telecommunications System http://www.umts-forum.org/
UWCC Forum
http://www.uwcc.org/
WDF Universal Wireless Communications Consortium
http://www.wirelessdata.org/
Wireless Data Forum

Hits: 182141

 < Prev

 Next >

Artículos Relacionados


El ABC de la telefonía celular (parte 1)

El ABC de la telefonía celular (parte 2)


Telefonia Celular: 15 años de historia en México


Evolución de las redes

A la espera de la cuarta generación (4G) de la telefonía móvil


Fusiones de operadores de telefonía Móvil-Fijo: Un repaso a la experiencia internacional

Uso de Tecnologías (en la educación)




Created on Monday, 28 April 2008

¿Garantía de eficacia en los procesos de enseñanza aprendizaje en la educación superior?

Por Claudia Islas Torres


Abril de 2008

Introducción
En el ámbito de la educación superior el uso de las tecnologías se ha convertido en uno de los
requerimientos básicos para el desarrollo de los procesos de enseñanza aprendizaje ya que el
rápido avance tecnológico nos lleva a vernos inmersos en este vertiginoso cambio.

Desarrollo
Debido a la inmersión de las tecnologías en la educación surge el reto de conocer, entender e
implementar la forma adecuada en que éstos medios tecnológicos (computadoras personales,
video proyectores, plataformas en línea, la web; entre otros) nos llevan a dar soporte a las
actividades de enseñanza-aprendizaje que buscan el desarrollo de capacidades y habilidades en
los alumnos de educación superior. De tal manera que los medios deben ser utilizados como un
canal para instruir más que solamente para informar, nuestros alumnos están acostumbrados a
utilizar la información y no a interpretarla por eso debe ponerse sumo cuidado en la elaboración
de los modelos pedagógicos que se basan completamente en las tecnologías o hacen uso parcial
de ellas, porque un gran número de alumnos sigue apostando por la enseñanza tradicional,
donde el factor dominante es la exposición oral del docente. Es decir el curriculum debe
adecuarse a que los alumnos tengan opción de cambiar sus esquemas de aprendizaje. Por lo
tanto si hacemos uso de las TIC’s sin un sentido bien definido podemos seguir cayendo en el
error de generar estudiantes que sean seres mecánicos que solo se sirvan de la información que
encuentran en la red sin ni siquiera desarrollar capacidades de razonamiento, análisis, critica,
síntesis, etc; utilizando estos medios simplemente como facilitadores de información.
Aunque las escuelas tienen cada vez más acceso a las TIC’s la presencia de éstas en la
metodología de la enseñanza todavía es muy escasa, debido a la falta de formación en los
docentes ya que muchos de ellos no poseen los conocimientos informáticos suficientes para
sentirse cómodos empleándolas en su práctica. Es por eso que surge la pregunta ¿el uso de
tecnologías garantiza la eficacia de los procesos de enseñanza aprendizaje en la educación
superior? para poder dar respuesta a este cuestionamiento se considera necesario:

 -- Revalorar los estilos de aprendizaje de los jóvenes, sabiendo esto, será más productivo el
uso de las tecnologías aunque si bien no pueden atenderse todos los estilos si puede buscarse la
forma de preparar materiales que permeen a la mayoría.

 -- Facilitar a los profesores la adquisición de bases teóricas y destrezas que les permitan
integrar en su práctica docente, los medios didácticos en general y los basados en las tecnologías
en particular.

 -- Hacer una revaloración en cuanto a la integración de las tecnologías en los programas


educativos analizando los cambios que sufren sus diferentes elementos, metodologías,
contenidos, evaluación, etc.

 -- Preparar a los profesores para que puedan reflexionar sobre su propia práctica así evaluaran
el papel y la contribución de los medios al proceso de enseñanza-aprendizaje.

 -- Preparar a los alumnos para que encuentren el beneficio de usar tecnologías en su


formación y desarrollen su autoaprendizaje.
Es de esperarse que los alumnos preparen trabajos basados en consultas de bases de datos
especiales, softwares educativos, bibliotecas virtuales, etc; medios que les permitirían
desarrollar trabajos de calidad en los que se viese reflejada su habilidad para la escritura y
comprensión; desafortunadamente esto está lejos de ser así, los alumnos se dedican a cumplir
sin haber analizado la información previamente y mucho menos apropiarse de los conceptos que
en ella se le presenten. Es necesario poder cambiar este tipo de prácticas y despertar en ellos un
interés mayor por mejorar su formación y esto no puede lograrse sin la cooperación de todos los
personajes que se ven involucrados en los procesos de enseñanza aprendizaje.

El compromiso está latente, los docentes debemos buscar más maneras de que los alumnos
sientan que el usar un medio tecnológico les será de beneficio en función de la planeación
didáctica del profesor y del interés por desarrollar las capacidades que el alumno tenga. Las
TIC´s son un medio de apoyo y muchas veces un sustituto de las clases presenciales pero
debemos estar consientes de que en todo momento debe existir un objetivo claro de lo que
quiere alcanzarse.

Conclusiones
Estamos consientes de que el camino por recorrer aún es muy largo; necesitamos que la
utilización de recursos técnicos sirva para dar un cambio sustancial al curriculum y la práctica
docente. Aún tenemos que buscar la manera de cambiar la cultura de los alumnos que buscan
más bien la convivencia, el socializar con otros compañeros, el tener el contacto directo con sus
profesores, el estar sujetos a un horario y un espacio; haciéndoles notar de los beneficios que las
tecnologías pueden otorgarles, aunque empiezan a notarlo ya; no ha sido suficiente, hay que
trabajar más en el sentido de que ellos sientan que la tecnología les abre las puertas a un
autoaprendizaje, a una interacción independiente del tiempo y del espacio y a experimentar el
desarrollo de habilidades de aprendizaje que no conocen o que aún no ponen en práctica.
Referencias
Carnoy Martin. “Las TIC en la enseñanza: posibilidades y retos”.
http://www.uoc.edu/inaugural04/dt/esp/carnoy1004.pdf (consultado en Marzo de 2008)
María Eugenia. “Las TIC´s en los procesos de enseñanza aprendizaje”
http://educatics.blogspot.com (consultado en Noviembre, 2007)
Litwin Edith. “La educación a distancia”. Argentina, 2000: Amorrortu editores.

La autora es profesor de tiempo completo del Centro Universitario de los Altos, Universidad de
Guadalajara. Tepatitlán, Jalisco.

Hits: 169258

 < Prev

 Next >

Artículos Relacionados


Tecnologias de Comunicacion Inalambrica


El impacto de las tecnologías de la Información en la educación

El uso de las TIC como apoyo a las actividades docentes


Las Tecnologías de la Información y la Migración Calificada


Tecnologías móviles y capacitación: potenciar el desarrollo humano mediante la participación y
la Innovación

Certificaciones Profesionales en las Tecnologías de la Información

El correo electrónico y su historia




Created on Monday, 21 November 2011

Por Evelio Martinez Martinez,


Mundo Digital
evelio@eveliux.mx

Introducción
El correo electrónico o e-mail (electronic mail)
es mucho más que un método para transmitir
datos, imágenes, video, etc. Tener una cuenta
de correo electrónico es muchas veces un
requisito indispensable para abrir otro tipo de
cuentas, ya sea para hacer compras en un
establecimiento en línea, una red social,
mensajería instantánea, foros de discusión, y
otros.

Anteriormente para ser poseedor de una cuenta de correo electrónico habría que
pertenecer a una Universidad, Centro de Investigación o a una empresa. Antes de
1996 no existía ningún servicio de correo gratuito para el público en general. Con la
llegada del servicio de correo electrónico Hotmail, el 4 de julio de 1996, se cambió este
paradigma. A partir de entonces cualquier persona interesada podría tener una cuenta
de correo gratuita y podría leerla desde cualquier parte.

Antecedentes del correo electrónico


En 1965, el Instituto Tecnológico de Massachusetts (MIT) fue el pionero en demostrar
el uso del primer sistema de correo electrónico, conocido como MAILBOX. Este
sistema enviaba mensajes a diferentes usuarios en la misma computadora, debido a
que en ese entonces no existían las redes de computadoras.

En 1971, Ray Tomlinson, creó la primera aplicación de correo electrónico sobre la red
ARPANET, precursora de Internet. Esta aplicación llamada SNDMSG era capaz de
enviar mensajes a otras personas vía red. El primer mensaje de correo electrónico fue
QWERTYUIOP, que corresponde al primer renglón de letras de un teclado
convencional. A Tomlinson, también se le atribuye el sistema de direccionamiento
utilizado en el correo electrónico, hasta nuestros días, el cual incluye también el uso
del símbolo ´@´ (arroba), que significa “en” en el idioma inglés, utilizado en el formato
típico usuario@servidor. Por esta razón a Ray Tomlinson se le llama el padre del
correo electrónico.

Cómo funciona
El correo electrónico se asemeja mucho al correo postal. Ambos son usados para
recibir y transmitir mensajes utilizando buzones de correo intermedios (servidores)
donde los mensajes son almacenados temporalmente antes de enviarse a su destino.
Los servidores de correo electrónicos son los repositorios de almacenamiento de todos
los mensajes recibidos y transmitidos para una cuenta de correo específica.

Al leer un correo electrónico, el cliente se conectará al servidor de correos y se traerá


una copia de los últimos correos, o aquellos que no se han leído. Para hacer este
proceso se hará uso de un protocolo llamado POP (Post Office Protocol). Para enviar
un correo se tiene que especificar un protocolo de envío de correos, como el SMTP
(Simple Mail Transfer Protocol). Lo que permitirá que el correo enviado llegue al
destino deseado.

Una breve historia de Hotmail


Sabeer Bhatia y Jack Smith, estudiantes de la Universidad de Stanford en Palo Alto,
California. Con muchas ideas en la cabeza y el por el hecho de vivir en el Valle del
Silicio, se enteraban de la apertura de empresas emergentes (StartUps) en Internet, y
que muchas de ellas ahora son importantes.

Bathia y Smith se conocen en la compañía Apple Computer, en donde trabajaron para


el mismo proyecto relacionado con computadoras portátiles “PowerBook”. Dado que
no vieron muchas expectativas en la compañía fabricante de computadoras, tiempo
después ambos deciden abandonarla, para unirse a una nueva empresa llamada
FirePower Systems. Pasaron dos años, y no le iba muy bien a la empresa, pero
seguían motivados en emprender su propia empresa de Internet.

Uno de los principales factores para convertirse en empresarios, fue la creación de


Yahoo!, fundado por colegas suyos de la Universidad de Stanford. Un inversionista,
había apostado un millón de dólares en la nueva empresa.
Bathia entonces empieza a hacer un plan de negocios de JavaSoft, una base de datos
basada en el Web. Plan de negocios que compartió a su amigo Jack, y éste no dudo
en decir. ¿Dónde le firmo? Mientras trabajaban en FirePower Systems, la empresa
instaló un firewall (filtro de paquetes de datos) dentro de la Intranet, lo cual les impedía
leer sus cuentas personales de correo electrónico, Bathia, utilizaba una cuenta de la
Universidad de Stanford y Jack una de America Online. Así que empezaron a
intercambiar información a través de discos floppies o en papel. Así es cuando se les
ocurrió “Espera un minuto, podemos accesar cualquier sitio web a través de un
navegador web. Si hacemos el correo electrónico disponible a través de un navegador,
eso resolvería nuestro problema”. Si esto resuelve nuestro problema, también
resolvería los problemas de los demás”. En ese tiempo, ellos sólo podían accesar a los
correos electrónicos desde dos lugares: desde el hogar y en la oficina. Pero mientras
se estaba en el trabajo, no se podía accesar al correo personal. La idea brillante de
proveer acceso ubicuo al correo electrónico desde cualquier navegador en el mundo,
fue la “idea principal” de este plan de negocio.

El nombre del servicio fue HoTMaiL, queriendo destacar el nombre del lenguaje HTML.
Bathia y Smith, tuvieron que pedir prestado $300 mil dólares para darle forma a este
proyecto. El lanzamiento de este servicio fue el 4 de julio de 1996. En los primeros tres
meses, ya había 100 mil suscriptores, con una suscripción diaria de más de 5 mil.
Finalmente Hotmail, fue vendido en diciembre de 1997 a la compañía Microsoft.

Después del Hotmail salieron a la red proyectos similares tales como Yahoo! Mail,
Rocketmail.com, AOL Mail, GMX Mail, Gmail.com, y todos los servicios de correo
electrónico que conocemos ahora.

Conclusión
El correo electrónico fue uno de los primeros servicios de la red ARPANET (hoy
Internet), y nace como una necesidad de comunicación interpersonal (no en tiempo
real), que ayudó a que los internautas puedan establecer un vínculo con sus
semejantes de una manera directa.
Desde que se creó no han habido muchos cambios, sólo que el servicio de correo es
utilizado intensivamente por “mercadologos” para enviar correo basura (SPAM). El
correo electrónico esta basado en el modelo cliente-servidor, en este modelo el
navegador web de un usuario es el cliente que solicita una petición a un servidor web,
correos que pueden ser leídos mediante vía web (HTTP) o mediante el protocolo
POP3.

Con el boom de los dispositivos móviles, ahora es posible leer los correos desde las
tablets, teléfonos inteligentes, y otros dispositivos, desde cualquier lugar, a cualquier
hora, sin estar atados a computadoras de escritorio. Pero la movilidad acarrea otro
problema relacionado con los délitos informáticos tales como los robos de información
o identidad de las personas.
Aunque para los internautas mayores de 35 años el correo electrónico, sigue siendo el
“killer application”, los jóvenes no piensan lo mismo. Según un estudio del sitio
www.socialmouths.com, los jóvenes tienen otra opinión acerca del futuro del correo
electrónico. El 44% de los jóvenes opinaron que el correo electrónico todavía tiene
futuro. El 15% opinan que va a morir, y el 41% de los jóvenes opinan que el correo
electrónico tiene un futuro incierto. Es decir, los jóvenes están buscando otras formas
para comunicarse, más en tiempo real y más interactivo, tales como las plataformas
del “social media”, que utilizan las tecnologías del Web 2.0.

----- FIN -----------

Medios de transmisión


Created on Sunday, 01 December 2002

Evelio Martínez Martínez


Publicado en la Revista RED en la edición especial
"El ABC de las Telecomunicaciones", Diciembre del 2002
Introducción
La comunicación es la transferencia de información desde un lugar a otro. Por otra parte la
información es un patrón físico al cual se le ha asignado un significado comúnmente acordado.
El patrón debe ser único "separado y distinto", capaz de ser enviado por un transmisor y capaz
de ser detectado y entendido por un receptor. La información es transmitida a través de señales
eléctricas o por medio de señales ópticas a través de un canal de comunicación o medio de
transmisión.
El medio de transmisión es el enlace eléctrico ú óptico entre el transmisor y el receptor, siendo
el puente de unión entre la fuente y el destino. Este medio de comunicación puede ser un par de
alambres, un cable coaxial, inclusive el aire mismo. Pero sin importar el tipo, todos los medios
de transmisión se caracterizan por la atenuación, ruido, interferencia, desvanecimiento y otros
factores muy importantes que impiden que la señal sea propagada libremente por el medio.
Todos estos factores son los que hay que contrarrestar al momento de transmitir cualquier
información al canal con ruido.

En este artículo describiremos los medios de transmisión más importantes, los cuales se
clasifican en dos tipos:

♦ Confinados
♦ No-confinados
Aunque no es muy correcto decir medios alámbricos "es así como la mayoría los
conocemos" debido a que no siempre son alambres el medio de conducción de las señales; tal es
el caso de la fibra óptica que está construida con un material de fibra de vidrio, el otro caso es la
guía de onda, la cual está construida de un material metálico. La mejor manera de clasificar a
este tipo de medios es como medios confinados, es decir son medios tangibles confinados sobre
conductos de cobre, fibra de vidrio o contenedores metálicos. En otras palabras los medios
confinados se ven limitados por el medio y no salen de él, excepto por algunas pequeñas
pérdidas.
Por otro lado, existen los medios no-confinados, es decir no están contenidos en ninguno de los
materiales descritos anteriormente. Los medios no físicos o no-confinados son aquellos donde
las señales de radio frecuencia (RF) originadas por la fuente se radian libremente a través del
medio y se esparcen por éste " el aire por ejemplo. El medio, aire, es conocido técnicamente
como el espectro radioeléctrico o electromagnético. Comúnmente conocemos a este tipo de
medios como medios inalámbricos; del inglés wireless o sin alambres.

Medios confinados
Cable metálico
En los medios confinados tenemos en primer lugar al alambre sin aislar. El alambre fue el
primer medio de comunicación empleado tras haberse inventado el telégrafo en 1844. Hoy en
día los alambres vienen protegidos con materiales aislantes. El material del conductor puede ser
cobre, aluminio u otros materiales conductores y se emplea en diversas aplicaciones como
conducción de electricidad, telefonía, redes, etc.

Los semiconductores están construidos de materiales que se comportan como conductores y


aislantes. Bajo determinadas condiciones esos mismos elementos permiten la circulación de la
corriente eléctrica en un solo sentido. Esa propiedad se utiliza para rectificar corriente alterna,
detectar señales de radio, amplificar señales de corriente eléctrica, funcionar como interruptores
o compuertas utilizadas en electrónica digital. Los semiconductores más empleados son el
silicio (Si), el germanio (Ge), el selenio (Se) y Arseniuro de Galio (GaAs), sin embargo, se han
desarrollado nuevos materiales compuestos que constituirán los medios de transmisión del
futuro.
Los conductores ofrecen una baja resistencia al paso de la corriente eléctrica. Entre los mejores
conductores empleados se encuentra el cobre (Cu), el aluminio (Al), la plata (Ag), el mercurio
(Hg), oro (Au), etc. Aunque, predomina el cobre por sus características eléctricas y su bajo
costo, en la conducción de la electricidad en las redes telefónicas y redes de datos.

Los grosores de los cables son medidos de diversas maneras, el método predominante en los
Estados Unidos y en otros países sigue siendo el American Wire Gauge
Standard (AWG), "gauge" significa diámetro. Mediante este sistema se puede distinguir un
cable de otro mediante su diámetro. Por ejemplo, los grosores típicos de los conductores
utilizados en cables eléctricos para uso residencial son del 10 al 14 AWG. Los conductores
utilizados en cables telefónicos pueden ser del 22, 24 y 26 AWG. Los conductores utilizados en
cables para aplicaciones de redes son el 24 y 26 AWG. En este sistema entre mayor sea el
número AWG menor será su diámetro. El grosor del cable determina otras características
eléctricas importantes tales es el caso de la resistencia o impedancia.

Cable coaxial
El cable coaxial tiene diversas aplicaciones en televisión por cable,
circuitos cerrados de televisión y se utilizó, antes de aparecer el
cable par trenzado, en redes locales de datos.

Este tipo de cable consiste de un conductor central fijo (axial)


sobre un forro de material aislante, que después lleva una cubierta
metálica en forma de malla como segundo conductor. La capa
exterior evita que las señales de otros cables o que la radiación
electromagnética afecte la información conducida por el cable
coaxial.

El uso de cable coaxial aplica en:

♦ Banda base (baseband)


♦ Banda ancha (broadband)

El cable coaxial de banda base se utiliza en redes de datos de área local. El término banda base
significa que en este tipo de aplicaciones, las señales que viajan por el cable no se modulan. El
cable coaxial de banda ancha se utiliza en aplicaciones de video de las compañías de televisión
por cable, circuitos cerrados de TV y otras aplicaciones del tipo CATV (Community Antenna
Television). El término banda ancha se refiere a que las señales que pasan por el cable son
moduladas y amplificadas para aumentar, desde luego, la capacidad de ancho de banda y para
extender la distancia de la propagación de la señal.

El cable coaxial puede transmitir información tanto en frecuencia


intermedia (IF) como en banda base. En IF el cable coaxial se utiliza en aplicaciones de video,
ya que es muy adecuado para enviar los canales de televisión en los sistemas de televisión por
cable. En banda base el coaxial se utilizó en aplicaciones de datos en redes de área local (LAN)
tanto en redes Token Ring como Ethernet.

Los dos tipos de cables coaxiales más empleados para aplicaciones de LAN son el 10Base5 y el
10Base2. El 10Base5 es conocido comúnmente como cable coaxial grueso, en cambio el
10Base2 es conocido como cable coaxial delgado. En la siguiente tabla se hace una
comparación entre estos dos tipos de cable.

Tipos de cable coaxial para LAN

Parámetro/Tipo de Cable 10Base5 10Base2

Tasa de transmisión 10 Mbps 10 Mbps

Longitud máxima 500 mts. 185 mts.

Impedancia 50 ohms 50 ohms, RG58

Diámetro del conductor 2.17 mm 0.9 mm


Los conectores de cable coaxial más utilizados son: el BNC (Bayonet Network Connector o
Bayone-Neill-Concelman) usado para redes de computadoras y equipos de prueba como
analizadores de espectro, generadores de señal y osciloscopios y el conector tipo F, usado
ampliamente en aplicaciones de video.

El cable coaxial puede transmitir información tanto en frecuencia intermedia IF (Intermediate


Frequency) como en banda base. La frecuencia intermedia es una frecuencia en la cual la
frecuencia portadora es desplazada localmente como un paso intermedio entre transmisión y
recepción; es generada al mezclar la señal de frecuencia de radio recibida con la frecuencia del
oscilador local.

El cable coaxial en banda base se utilizó como medio de transmisión en aplicaciones de redes de
área local. Los tipos de cable coaxial para datos son los siguientes:

♦ Cable coaxial delgado (thinnet)


♦ Cable coaxial grueso (thicknet)

Cable coaxial delgado


El cable coaxial delgado es un medio flexible, económico y fácil de instalar. La mayoría de
estos cables pertenecen a la familia del RG-58, el cual tiene 50 ohms de impedancia. La
impedancia, es la oposición que presenta un conductor o circuito al paso de la corriente, en
términos de corriente alterna.
El cable delgado puede transmitir señales confiables hasta una distancia de 185 metros. El cable
coaxial delgado típico es conocido como 10Base2. El diámetro del conductor central es de 6
mm (0.25 pulgadas) equivalente a 9 AWG. La tasa de transmisión es de 10 Mbps y permite en
términos prácticos un total de 30 nodos, en un segmento de 185 metros.
Cable coaxial grueso
El cable coaxial grueso posee un conductor de mayor grosor, aproximadamente 13 mm (0.5
pulgadas). Tiene también una impedancia de 50 ohms y puede transmitir señales hasta 500
metros permitiendo un máximo de 100 nodos en todo el segmento. El cable estándar es
conocido como 10Base5 y permite velocidades de 10 Mbps, al igual que el cable coaxial
delgado.
Para conectar cualquiera de los cables, el 10BaseT o el 10Base2, a una tarjeta de red tiene que
emplearse un conector BNC en forma de T. Las primeras tarjetas de red traían por omisión un
conector de 15 pins (DB15). Para conectar el BNC al DB15 era necesario un pequeño
dispositivo conocido como AUI (Attachment Unit Interface); posteriormente se fabricaron
tarjetas de red que traían directamente el conector BNC macho.

Dado el costo y desempeño en las conexiones del cableado con coaxial, el par trenzado se
convirtió en una alternativa viable para los administradores de la red. Este medio de
comunicación tiene un amplio uso en la industria de las redes de computadoras y hasta la fecha,
aún predomina. A continuación se describen sus carácterísiticas.

Cable Par trenzado


El cable par trenzado (twisted pair) está compuesto de conductores de cobre
aislados por material plástico y trenzados en pares. Este trenzado ayuda a
disminuir la diafonía, el ruido y la interferencia. El trenzado es en promedio
de tres trenzas por pulgada. Para mejores resultados, el trenzado debe ser
variado entre los diferentes pares. Este tipo de cables de par trenzado tienen
la ventaja de no ser caros, ser flexibles y fáciles de conectar, entre otras más
propiedades que no las tiene el coaxial en las aplicaciones de redes. Como
medio de comunicación tiene la desventaja de tener que usarse a distancias
limitadas (menos de 100 metros) ya que la señal se va atenuando y puede
llegar a ser imperceptible si se rebasa ese límite.

Los cables de par trenzado más comúnmente usados como interfaces de capa física son los
siguientes: 10BaseT (Ethernet), 100BaseTX (Fast Ethernet), 100BaseT4 (Fast Ethernet con 4
pares) y 1000BaseT (Gigabit Ethernet).

Existen dos tipos de cable par trenzado, el UTP (Unshielded Twisted Pair Cabling), o cable par
trenzado sin blindaje y el cable STP (Shielded Twisted Pair Cabling), o cable par trenzado
blindado. En la siguiente tabla se muestran las diferentes categorías de cables UTP y su
aplicación.

Distintas categorías del cable UTP

Tipo Aplicación

Categoría 1 Voz solamente (cable telefónico)

Categoría 2 Datos hasta 4 Mbps (LocalTalk [Apple])

Categoría 3 Datos hasta 10 Mbps (Ethernet)

Categoría 4 Datos hasta 20 Mbps (16 Mbps Token Ring)

Categoría 5 Datos hasta 100 Mbps (Fast Ethernet)

Categoría 5e Datos hasta 1000 Mbps (Gigabit Ethernet)

Los cables UTP están disponibles en varias categorías:

♦ Categoría 1: son cables de par trenzado utilizados comúnmente por las compañías
telefónicas para aplicaciones exclusivas de voz. Funcionan en un intervalo de frecuencia
menor a los 100 KHz.
♦ Categoría 2: funcionan en aplicaciones de voz y datos, con velocidades de información
de hasta 1 Mbps en un intervalo de frecuencias de 1 MHz.
♦ Categoría 3: permite aplicaciones de voz y datos permitiendo velocidades de hasta 10
Mbps en un intervalo de frecuencias de 16 MHz.
♦ Categoría 4: posee características similares a la categoría anterior, pero alcanza
velocidades de información de hasta 16 Mbps en un intervalo de frecuencias de 20 MHz.
♦ Categoría 5: actualmente, es la categoría más utilizada en redes locales de datos (LAN),
permite velocidades de información de hasta 100 Mbps en un intervalo de frecuencias de
100 MHz. El cable más utilizado es el 100BaseT
♦ Categoría 5e: es una mejora (enhanced) de la categoría 5, tolera velocidades de hasta
1000 Mbps (1 Gigabit por segundo) en un intervalo de frecuencias de 100 MHz. Sus
aplicaciones se centran en la interconexión de redes locales en el ambiente de redes de
campus. El cable más utilizado es el 1000BaseT.
♦ Categoría 6: permite velocidades semejantes a la categoría 5e de 1000 Mbps pero cubre
un intervalo de frecuencias de 250 MHz. La categoría 6 corresponde al estándar
ANSI/TIA/EIA-568-B.2-1.
♦ Categoría 6a: llamada comúnmente como 6 aumentada (Augmented) alcanza
velocidades de información de 10 Gigabits en un intervalo de frecuencias de 550 MHz.
Este tipo de cable ya permite aplicaciones de video y está cobijada bajo el estándar
ANSI/TIA/EIA-568-B.2-10.
Por lo general, los cables UTP categoría 5 (CAT5) utilizan sólo 2 pares (4 hilos), el resto de los
conductores queda para otros usos y aplicaciones. Las categorías 5e, 6, 6a aprovechan por lo
general los 4 pares de conductores para permitir velocidades más altas. Este tipo de cables,
tienen mejoras notables en lo que respecta a la atenuación, NEXT (Near-End Crosstalk) y
PSELFEXT (Power Sum Equal-Level Far End Crosstalk).

NEXT es la diferencia en amplitud en decibeles entre una señal transmitida y la diafonía


recibida en el otro par, en el mismo extremo del cable; dicho de otra manera, es la interferencia
en dos pares de conductores medidos en el mismo extremo del cable del transmisor. Mayores
valores de NEXT corresponden a mejor desempeño en el cable.
FEXT (Far End Crosstalk) es similar a NEXT, excepto que ocurre en el lado receptor del cable.
Por lo tanto, PSELFEXT es la suma de los valores FEXT de los 3 pares de conductores que
afectan al par restante.

Fibra óptica
La fibra óptica es muy medio de comunicación que utiliza la luz
confinada en una fibra de vidrio para transmitir grandes cantidades de
información en el orden de Gigabits (1x109 bits) por segundo. Para
transmitir los haces de luz se utiliza una fuente de luz como un LED
(Light-Emitting Diode) o un diodo láser. En la parte receptora se utiliza
un fotodiodo o fototransistor para detectar la luz emitida. También será
necesario poner al final de cada extremo un conversor de luz (óptico) a
señales eléctricas.
Debido a que el láser trabaja a frecuencias muy altas, entre el intervalo de la luz visible e
infrarroja, la fibra óptica es casi inmune a la interferencia y el ruido.

La transmisión óptica involucra la modulación de una señal de luz " usualmente apagando,
encendiendo y variando la intensidad de la luz " sobre una fibra muy estrecha de vidrio llamado
núcleo " el diámetro de una fibra puede llegar a ser de una décima del diámetro de un cabello
humano.

La otra capa concéntrica de vidrio que rodea el núcleo se llama revestimiento. Después de
introducir la luz dentro del núcleo ésta es reflejada por el revestimiento, lo cual hace que siga
una trayectoria zigzag a través del núcleo. Por lo tanto las dos formas de transmitir sobre una
fibra son conocidas como transmisión en modo simple y multimodo. En el modo simple o
monomodo, se transmite un haz de luz por cada fibra, mientras en una fibra multimodo más de
un haz de luz puede ser transmitido. Dada las características de transmisión de las fibras
monomodo, es posible la propagación del haz de luz a decenas de kilómetros. Este tipo de fibra
es comúnmente utilizada para enlaces de larga distancia, por ejemplo la interconexión de
centrales telefónicas. La fibra multimodo en cambio se utiliza para distancias más cortas y sirve
para interconectar redes de área local entre edificios, intercampus, etc.
La tecnología de la fibra óptica ha avanzado muy rápidamente y en la actualidad es posible
incrementar la capacidad de una fibra y aumentar la distancia de propagación. Por ejemplo, los
amplificadores de fibra dopada con erbio (EDFA, Erbium-doped Fiber Amplifiers) son
repetidores/amplificadores que dopan a la fibra con el metal erbio a intervalos de 50 a 100
kilómetros. La introducción de los EDFAs ha hecho posible de los sistemas de fibra óptica de
hoy en día operen a 10 Gbps. Los EDFAs abrieron el camino para WDM (Wavelength Division
Multiplexing) o multicanalización por división de longitud de onda. WDM es el proceso de
dividir el espectro de la fibra óptica en un número de longitudes de onda sin traslaparse una con
la otra. Cada longitud de onda es capaz de soportar un canal de comunicaciones de alta
velocidad.

Otra tecnología innovadora en las fibras ópticas en el DWDM (WDM denso). Con esta
tecnología se pueden soportar más de 16 longitudes de onda. Por ejemplo los sistemas OC-48
(Optical Carrier, 2.5 Gbps) pueden soportar de 60 a 160 longitudes de onda. En la actualidad los
sistemas pueden soportar más de 320 longitudes de onda equivalente a 320 canales de alta
velocidad por fibra. Se están haciendo desarrollos para que en un futuro cercano se puedan
transmitir más de 15,000 longitudes de onda por fibra con la tecnología conocida como
"chirped-pulse WDM" de los laboratorios Bell. Con esta tecnología las fibras ópticas tendrán
una capacidad inimaginable.

Los cables de fibra óptica submarina son otro ejemplo de la gran capacidad que existe en este
medio. El primer cable submarino con fibra óptica (el TAT-8) fue puesto en servicio en 1988 y
utilizaba tres pares de fibras con repetidores espaciados cada 65 millas, su capacidad es de
40,000 circuitos de voz bidireccionales. En el 2001 fue instalado otro cable trasatlántico el AC-
2, el cual ofrece una capacidad de 10 Gbps en 32 longitudes de onda sobre 8 pares de fibras para
un total de 2.5 Terabits por segundo (2.5 x 1012 bps) utilizando WDM.
La fibra óptica como medio de transmisión en el área de las telecomunicaciones ha demostrado
su potencialidad al cursar por éstas casi todo el tráfico de voz y datos del mundo, así como el
tráfico de Internet. Pero también en el campo de la medicina la fibra óptica tiene un uso muy
vasto, la laparoscopía, colposcopía y la endoscopía son sólo unos ejemplos.

Cableado estructurado
En el pasado había dos especificaciones principales de terminación de cableado: Los cables de
datos y por otro lado, los cables de voz. En la actualidad, en el mundo de los sistemas de
cableado estructurado existen diferentes tipos de servicios (e.g. voz , datos, video, monitoreo,
control de dispositivos, etc.) que pueden cursarse sobre un mismo tipo de cable.

El estándar de cableado estructurado más utilizado y conocido en el mundo está definido por la
EIA/TIA [Electronics Industries Association/ Telecommunications Industries Association] de
Estados Unidos. Este estándar especifica el cableado estructurado sobre cable de par trenzado
UTP de categoría 5, el estándar se llama EIA/TIA 568A. Existe otro estándar producido por
AT&T "mucho antes de que la EIA/TIA fuera creada en 1985" , el 258A, pero ahora es
conocido bajo el nombre de EIA/TIA 568B.
El estándar EIA/TIA 568A define 6 subsistemas de cableado estructurado los cuales se detallan
a continuación:
1. Entrada al edificio: La entrada a los servicios del edificio es el punto en el cual el cableado
externo hace interfaz con el cableado de la dorsal dentro del edificio. Este punto consiste en la
entrada de los servicios de telecomunicaciones al edificio (acometidas), incluyendo el punto de
entrada a través de la pared y hasta el cuarto o espacio de entrada. Los requerimientos de la
interface de red están definidos en el estándar TIA/EIA-569A
2. Cuarto de equipos: El cuarto de equipos es un espacio centralizado dentro del edificio donde
se albergan los equipos de red [enrutadores, conmutadores de paquetes (switches),
concentradores (hubs), conmutadores telefónicos (PBXs), etc.], equipos de voz , video, etc. Los
aspectos de diseño del cuarto de equipos está especificado en el estándar TIA/EIA 569A.
3. Cableado de la dorsal (backbone): El cableado de la dorsal permite la interconexión entre
los gabinetes de telecomunicaciones, cuartos de telecomunicaciones y los servicios de la entrada
del edificio. Consiste de cables de dorsal, terminaciones mecánicas, equipos principales y
secundarios de conexión cruzada (cross-connects), regletas o puentes (jumpers) usados para la
conexión dorsal a dorsal. Esto incluye: conexión vertical entre pisos (risers), cables entre un
cuarto de equipos, cable de entrada a los servicios del edificio y cables entre edificios.
Los tipos de cables requeridos para la dorsal son:

♦ UTP de 100 ohm (24 o 22 AWG), distancia máxima 800 metros (voz)
♦ STP de 150 ohm, distancia máxima 90 metros (datos)
♦ Fibra Multimodo 62.5/125 µm, distancia máxima 2,000 metros
♦ Fibra Monomodo 8.3/125 µm, distancia máxima 3,000 metros

4. Gabinete de Telecomunicaciones: El gabinete (rack) de telecomunicaciones es el área


dentro de un edificio donde se alberga el equipo del sistema de cableado de telecomunicaciones.
Este incluye las terminaciones mecánicas y/o equipos de conexión cruzada para el sistema de
cableado a la dorsal y horizontal.
5. Cableado horizontal: El sistema de cableado horizontal se extiende desde el área de trabajo
de telecomunicaciones hasta el gabinete de telecomunicaciones y consiste de lo siguiente:
♦ Cableado horizontal
♦ Enchufe de telecomunicaciones
♦ Terminaciones de cable (asignaciones de guías del conector modular RJ-45
♦ Conexiones de transición

Tres tipos de medios son reconocidos para el cableado horizontal, cada uno debe de tener una
extensión máxima de 90 metros:

♦ Cable UTP 100-ohm, 4-pares, (24 AWG sólido)


♦ Cable STP 150-ohm, 2-pares
♦ Fibra óptica 62.5/125 µm, 2 fibras

6. Area de trabajo: Los componentes del área de trabajo se extienden desde el enchufe de
telecomunicaciones a los dispositivos o estaciones de trabajo.
Los componentes del área de trabajo son los siguientes:

♦ Dispositivos: computadoras, terminales, teléfonos, etc.


♦ Cables de parcheo: cables modulares, cables adaptadores/conversores, jumpers de fibra,
etc.
♦ Adaptadores: deberán ser externos al enchufe de telecomunicaciones.

Medios no-confinados
Los medios no-confinados utilizan el aire como
medio de transmisión, y cada medio de
transmisión viene siendo un servicio que utiliza
una banda del espectro de frecuencias. A todo el
rango de frecuencias se le conoce como espectro
electromagnético. El espectro electromagnético ha
sido un recurso muy apreciado y como es
limitado, tiene que ser bien administrado y
regulado. Los administradores del espectro a nivel
mundial son la WRC (World
Radiocommunication Conference) de la ITU-R
(International Telecommunications Union
Radiocommunications sector). Esta entidad realiza
reuniones mundialmente en coordinación con los entes reguladores de cada país para la
asignación de nuevas bandas de frecuencia y administración del espectro. En el caso de México,
la entidad reguladora del radio espectro es la Instituto Federal de Telecomunicaciones
(IFETEL, http://www.ift.org.mx ) y la Secretaría de Comunicaciones y Transportes
(SCT, http://www.sct.gob.mx ).
Cada subconjunto o banda de frecuencias dentro del espectro electromagnético tiene
propiedades únicas que son el resultado de cambios en la longitud de onda. Por ejemplo, las
frecuencias medias (MF, Medium Frequencies) que van de los 300 kHz a los 3 MHz pueden ser
radiadas a lo largo de la superficie de la tierra sobre cientos de kilómetros, perfecto para las
estaciones de radio AM (Amplitud Modulada) de la región. Las estaciones de radio
internacionales usan las bandas conocidas como ondas cortas (SW, Short Wave) en la banda de
HF (High Frequency) que va desde los 3 MHz a los 30 MHz. Este tipo de ondas pueden ser
radiadas a miles de kilómetros y son rebotadas de nuevo a la tierra por la ionosfera como si
fuera un espejo, por tal motivo las estaciones de onda corta son escuchadas casi en todo el
mundo.
Los estaciones de FM (Frecuencia Modulada) y TV (televisión) utilizan las bandas conocidas
como VHF (Very High Frequency) y UHF (Ultra High Frequency) localizadas de los 30 MHz a
los 300 MHz y de los 300 MHz a los 900 MHz, este tipo de señales debido a que no son
reflejadas por la ionosfera cubren distancias cortas, una ciudad por ejemplo. La ventaja de usar
este tipo de bandas de frecuencias para comunicaciones locales permite que docenas de
estaciones de radio FM y televisoras " en ciudades diferentes " puedan usar frecuencias
idénticas sin causar interferencia entre ellas.

Espectro electromagnético

Banda Significado Rango de Frecuencias Servicios

Conducción de
VLF Very Low Frequency 3 kHz - 30 kHz electricidad

Conducción de
electricidad, navegación
marítima, control de
LF Low Frequency 30 kHz - 300 kHz tráfico aéreo

MF Medium Frequency 300 kHz - 3 MHz Radio AM

HF High Frequency 3 MHz - 30 MHz Radio SW

Very High Radio FM, TV, radio dos


VHF Frequency 30 MHz - 300 MHz vías
TV UHF, telefonía
Ultra High celular, WLL,
UHF Frequency 300 MHz - 3 GHz comunicaciones móviles

Servicios por

Super High Satélite y microondas,


SHF Frequency 3 GHz - 30 GHz MMDS, LMDS

Extremely High
EHF Frequency 30 GHz en adelante LMDS

Infrarojo 3 x 1012 - 4.3 x 1014 Hz WPANs

Luz visible 4.3 x 1014 - 7.5 x 1014 Hz Fibras ópticas

Ultravioleta 7.5 x 1014 - 3 x 1017 Hz


1 kHz = 1x103 Hz
1 MHz = 1x106 Hz
1 GHz = 1x109 Hz
WLL = Wireless Local Loop
MMDS = Multichannel Multipoint Distribution Service
LMDS= Local Multipoint Distribution Service
WPANs = Wireless Personal Area Networks

Así cada una de las subbandas del espectro electromagnético proveen un servicio diferente, lo
que nos permite hablar por un teléfono celular, escuchar la radio, ver la televisión, sin
interferirse un servicio con el otro. A continuación se describirá el medio de comunicación
conocido como microondas terrestres, otros servicios que utilizan el espectro radioeléctrico (e.g.
satélite, telefonía celular, MMDS, LMDS, WLL,..) se describirán en la sección de
comunicaciones inalámbricas.

Microondas terrestre
Las microondas son todas aquellas bandas de frecuencia en el rango de
1 GHz en adelante, el término microondas viene porque la longitud de
onda de esta banda es muy pequeñ (milimétricas o micrométricas),
resultado de dividir la velocidad de la luz (3x108 m/s) entre la
frecuencia en Hertz. Pero por costumbre el término microondas se le
asocia a la tecnología conocida como microondas terrestres que utilizan
un par de radios y antenas de microondas.
Los operadores tanto de redes fijas como móviles están utilizando las microondas para superar
el cuello de botella de la última milla de otros medios de comunicación. Las microondas es un
medio de transmisión que ya tiene muchas décadas de uso. En el pasado las compañías
telefónicas se aprovechaban de alta capacidad para la transmisión de tráfico de voz.
Gradualmente, los operadores reemplazaron el corazón de la red a fibra óptica, dejando como
medio de respaldo la red de microondas. Lo mismo sucedió con el video, el cual fue sustituido
por el satélite. Las microondas terrestres a pesar de todo sigue siendo un medio de
comunicación muy efectivo para redes metropolitanas para interconectar bancos, mercados,
tiendas departamentales y radio bases celulares.

Las estaciones de microondas consisten de un par de antenas con línea de vista


conectadas a un radio transmisor que radian radio frecuencia (RF) en el orden
de 1 GHz a 50 GHz. Las principales frecuencias utilizadas en microondas se
encuentran alrededor de los 10-15 GHz, 18, 23 y 26 GHz, las cuales son
capaces de conectar dos localidades de hasta 24 kilómetros de distancia una de
la otra. Los equipos de microondas que operan a frecuencias más bajas, entre
2-8 GHz, puede transmitir a distancias entre 30 y 45 kilómetros. La única
limitante de estos enlaces es la curvatura de la tierra, aunque con el uso de repetidores se puede
extender su cobertura a miles de kilómetros.

Debido a que todas las bandas de frecuencias de microondas terrestres ya han sido subastadas,
para utilizar este servicio es necesario la utilización de frecuencias permisionadas por las
autoridades de telecomunicaciones; es muy frecuente el uso no-autorizado de este tipo de
enlaces en versiones punto-punto y punto-multipunto. En el sitio web de la IFETEL se
encuentra la lista de los permisionarios autorizados de esta banda de frecuencias.

Conclusión
Los medios de transmisión son el canal para que el transmisor y el receptor puedan comunicarse
y puedan transferirse información. Es necesario saber que existen varios factores externos que
inciden sobre el canal que producen ruido e interferencia, por lo que es necesario una buena
relación a ruido para superar estos obstáculos. La selección adecuada del mejor servicio y medio
de transmisión para cubrir nuestras necesidades es de vital importancia para operar
óptimamente.

Los medios de transmisión inalámbricos han abierto un nuevo panorama y perspectivas de


comunicación que nos permiten el intercambio de información en casi cualquier lugar, pero hay
que tener en cuenta sus ventajas y desventajas de este medio nos brinde.
Por otro lado, el desarrollo en fibras ópticas ha tenido un avance significativo, incrementándose
su capacidad a niveles muy altos y son hoy en día son las venas y las arterias de la mayoría de
las comunicaciones de la actualidad.

evelio(@)eveliux.com
Fuente: Libro --- Fundamentos de Telecomunicaciones y Redes

Hits: 151959

 < Prev
 Next >

Artículos Relacionados


clasificación de los medios de transmisión

Transmisión de radio AM y FM


Transmisión Serial y Paralelo


Transmisión Sincrona y Asincrona

Conservación de energía en medios inalámbricos

El Impacto y los peligros de las redes


sociales


Created on Wednesday, 09 September 2009

Publicado en la Revista RED, edición agosto-septiembre 2009

Introducción
Quiza una de las aplicaciones con más impacto y popularidad entre los internautas de la llamada
Web 2.0, son las redes sociales. La creación de aplicaciones de Web 2.0 en el entorno de las
redes sociales ha generado un fenómeno cultural de amplio alcance y con un número explosivo
de usuarios. Por ejemplo, el Internet como medio de comunicación en sólo cuatro años generó
más de 50 millones de usuarios. Las redes sociales como Facebook pasó de 200 a 250 millones
de usuarios registrados en tan sólo tres meses. Las redes sociales han sido un fenómeno en estos
últimos años, no sólo las utilizan personas, sino también están siendo utilizadas por grandes
corporaciones, organizaciones y compañías para promover sus productos y servicios, y tener un
encuentro más cercano con sus consumidores o adeptos.

Antecedentes
Desde sus orígenes, la Web fue concebida como una herramienta social. Desde que su inventor,
Tim Berners-Lee, creó a principios de los años 90 el World Wide Web, su motivación fue la de
mejorar la comunicación con sus colegas investigadores. En sus inicios, la primera fase de la
Web fue caracterizada principalmente por páginas web personales y empresariales con
contenidos estáticos, utilizando el lenguaje de programación conocido como HTML (HyperText
Markup lenguage, por sus siglas en inglés). En esta etapa los dueños de los sitios Web tenían el
control total del contenido y los usuarios eran simplemente unos observadores. Posteriormente
el desarrollo de nuevos lenguajes como PHP, Javascript, Java, XML, Ajax, entre otros, permitió
la creación de nuevas plataformas que permiten al usuario adoptar, no sólo el papel de
observador, sino también de creador de contenido. De esta forma nacen las llamadas redes
sociales, las bitácoras (blogs), los wikis (e.g. wikipedia), mashups (híbridas), entre otras
aplicaciones que se consideran parte de la plataforma Web 2.0, término acuñado por Tim
O'Reilly en 2004.

En la Web 2.0, el usuario de Internet tiene una participación activa, no sólo accediendo a la
información, sino además aportando en contenidos. Mediante las capacidades de la Web 2.0, el
usuario de Internet puede desempeñar funciones que anteriormente estaban restringidas a
especialistas. Tales son los casos de la edición de audio, video e imagen, publicación de libros y
artículos, procesamiento de información, administración de recursos, entre muchas otras. Todas
estas características y más, forman parte de las redes sociales.

¿Qué son las redes sociales en internet?


El término red, proviene del latín rete, y se utiliza para definir a una estructura que tiene un
determinado patrón. Existen diversos tipos de redes: informáticas, eléctricas, sociales. Las redes
sociales de podrían definir como estructuras en donde muchas personas mantienen diferentes
tipos de relaciones amistosas,laborales, amorosas.Hoy en día el término "red social " se ha
resignificado para definir un fenómeno inexistente en los últimos años, y se llama así a los
diferentes sitios o páginas de internet que ofrecen registrarse a las personas y contactarse con
infinidad de individuos que comparten gustos, profesiones, preferencias similares. En este
artículo nos referiremos a los sitios de redes sociales por su abreviatura SRS, que viene del
inglés social network sites.

Las primeras Redes sociales


Una de las primeras redes sociales más populares, Friendster.com, apareció en el año 2002, y
fue creada para ayudar a encontrar amigos de amigos, y desde su comienzo hasta la difusión
oficial del sitio, en mayo del 2003, había crecido de boca en boca a la cantidad de 300 mil
usuarios. Con el correr del tiempo, al no estar preparado el sistema para la gran cantidad de
registros que crecían día a día, han sufrido problemas técnicos, que hicieron que se cayera el
sitio a menudo, pues el crecimiento era constante. Un rumor comenzó a crecer en el
ciberespacio, y ha sido que los administradores de Friendster empezarían a cobrar por su
servicio. Esto, sumado a los problemas técnicos, harían que el creciemiento comenzara a
aminorar. Pero como las oportunidades no se pierden, sino que las aprovechan otros, pronto
aparecieron otras queriendo ofrecer un servicio similar.

Desde el 2003 hacia acá, muchas redes sociales se han ido gestando. Myspace.com se lanzó
precisamente en 2003 para competir con la idea de captar a los usuarios no muy conformes con
los rumores de que Friendster iría a cobrar honorarios a los usuarios. Por dicho motivo, las
mismas personas que usaban el sitio, invitaban a probar una red social diferente, como lo era la
recién creada Myspace. Paralelamente estaba dando sus pasos Fotolog.net, sitio dedicado a
compartir fotografías, dio sus primeros pasos en mayo del 2002 y al día de hoy cuenta con más
de 26 millones de usuarios registrados, quienes la mayoría de ellos forman parte de las
ciberculturas, conocidos como floggers.

La red social Linkedin.com apareció en el 2003, y ha sido pensada para que se registren
profesionales y se puedan contactar con fines laborales. Pero la niña mimada hoy es
Facebook.com, este sitio que ha sido creado por Mark Zuckerberg y originalmente estaba
destinado sólo a estudiantes de la Universidad de Harvard, pero hoy está abierto a cualquier
persona que tenga una cuenta de correo electrónico. Según proyecciones realizadas por ellos, a
finalizar el 2009 contarían con 300 millones de usuarios. En noviembre del año pasado han
logrado tener la mayor cantidad de usuarios si se los compara con otros SRS y han lanzado
versión en otros idiomas como francés, alemán y español para expandirse fuera de EEUU, pues
sus usuarios se concentraban en Estados Unidos, Canadá y Gran Bretaña.

El impacto de las redes sociales


Debido al gran potencial que ofrece la Web 2.0 y las redes sociales, numerosas empresas
alrededor del mundo han comenzado utilizar ampliamente aplicaciones basadas en Web 2.0.
Corporativos importantes iniciaron la adquisición de compañías de Internet con éxito y
popularidad entre usuarios, como es el caso de la compra de YouTube por Google por la
cantidad de 1,650 millones de dólares, la compra de Skype por parte de Ebay por 2,600 millones
de dólares. En julio de 2005 el empresario Rupert Murdoch, un magnate de medios de
comunicación tradicionales (News Corp.), pagó 580 millones de dólares por MySpace. En
octubre de 2007 Microsoft adquiere $240 millones de dólares en acciones de Facebook; este
trato valuó a Facebook en $15 mil millones de dólares. En marzo de 2008 American Online
(AOL) pagó $850 millones de dólares por la red social Bebo.com. Estos son sólo algunos
ejemplos de las adquisiciones que se han hecho entorno a empresas basadas en Web 2.0.

Tanto es la popularidad que está en ascenso de los SRS que la niña mimada por tantos usuarios,
Facebook, tiene como proyecto de convertir su historia en película. Cada día son más los
adolescentes, principalmente, y toda persona que navega en internet, que se suma a alguna o
varias de las tantas redes sociales, pues es común que un solo usuario esté inscrito en varias de
ellas. En cuanto a los usuarios particulares, hay una gran diversidad de motivos por los cuales
usan las SRS. Hay quienes se registran para hacer un lugar de encuentro para todos aquellos que
pasaron por una escuela que está de cincuentenario, y que sus ex alumnos esparcidos
territorialmente puedan colgar fotos, escribir anécdotas, etc. Otros usuarios, de perfil profesor,
argentino, al preguntarle ¿Por qué te registraste en redes sociales? responde, me inscribí en
facebook y Sónico, y por ahora sólo para integrarme, pues me parecen sitios para conocer gente,
es que te van relacionando con gente conocida de tus conocidos amigos.

Es menester aclarar a qué nos referimos específicamente cuando decimos "Impacto de las redes
sociales", el prestigioso sociólogo argentino Alejandro Piscitelli Murphy* opina que "Cuando se
habla de "impacto" siempre la idea suena como si fuera algo que "viniera de afuera". Por un
lado es obvio que este "invento" vino del mundo virtual generado en alguna otra sociedad, pero
por otra parte también es cierto que cada cultura toma al nuevo fenómeno de formas diferentes.
Pero más allá de esta cuestión, es claro que estas redes sociales producen un cambio social de lo
cotidiano muy significativo y además canaliza tendencias culturales que ya se venían
insinuando. Me refiero a es necesidad de ver y ser visto de nuestras sociedades contemporáneas,
estar en los escenarios públicos para consumir y ser consumido como diría Baumann. Y esto se
nota en experiencias personales cuando luego de un fin de semana uno encuentra en el facebook
fotos de "amigos" que nos muestran lo que hicieron. Y en realidad esos que muestran las fotos
son conocidos y no tan amigos nuestros y de no existir Facebook, jamás nos hubieran mostrado
esas fotos. Por supuesto que es un poco injusto generalizar sobre las "redes sociales" porque las
hay muy diversas, pero lo que es cierto es que todas producen significativos cambios en la vida
cotidiana.

Los peligros de las redes sociales


Los peligros de las redes sociales pueden ser varios, los que los padres imaginan y más temen
como que un niño pueda ser seducido por una supuesta amistad que le ofrece un pedófilo, una
chica adolescente que decida conocer a un chico, y resulta que el tal adolescente tenía ¡veinte
años más que ella! Estos, y otros peligros son lo que los padres tratan de evitar en sus hijos,
pero, hay otras miradas al respecto. Piscitelli Murphy tiene una mirada más profunda y afirma
"creo que los peligros son diversos según el tipo de red social y según la condición y la edad de
la persona que las usa. En líneas generales creo que el peligro más común es el de una
sobreexposicón de la intimidad y el de una excesiva "cosificación" en la forma en la que me
presento (como un producto a ser mostrado). Sin negar todos los aportes positivos que las redes
hacen. En cuanto al sí hay un perfil de usuario más susceptible a estos peligros que otros, el
sociólogo Murphy opina que "Como en tantas cosas, obviamente que sí. Así como son más
víctimas de la moda aquellas personas que tienen mayores problemas de identidad, en estos
casos creo que son más vulnerables aquellas personas que tengan carencias de personalidad y/o
identidad porque comenzarán a buscar en las redes cosas que las redes no les pueden dar. Y si
ya tenés carencias de origen la cuestión se complica"

Dentro de las recomendaciones más comunes de seguridad es no revelar información personal y


sensible dentro del perfil, tales como direcciones postales, teléfono, información económica y
financiera, fotografías reveladoras, publicar en donde se encuentra en ese momento, etc.
Muchos se preguntarán, ¿Si no publico esta información sobre mí, entonces que de interesante
tienen las redes sociales? Como recomendación para resolver esta pregunta es permitir sólo el
acceso al perfil a personas conocidas. Pero nada te garantiza que un amigo le de acceso a otra
persona u otras personas a tu perfil. Por eso, volvemos al principio, hay que ser discretos con lo
que publicamos en los SRS.

Una de las tantas razones por las que MySpace desbancó a Friendster es porque MySpace les
permitió a sus usuarios actualizar en mayor medida sus perfiles. Pero esto abrió la puerta a que
los deliencuentes informáticos pudiesen insertar códigos maliciosos, así como también ataques
convincentes de phishing directamente desde los perfiles de Myspace. Este tipo de
flexibilidades de la mayoría de los SRS los hace más vulnerables a ataques, los cuales son
aprovechados por los ciberdelincuentes. Otro problema de inseguridad de los SRS es que
permiten a terceras partes la inclusión de aplicaciones para fines de entretenimiento o de
mercadotecnía. Facebook es un claro ejemplo de esto. Estas aplicaciones poseen ciertos riegos
los cuales los usuarios desconocen, ya que tienen un falso sentido de seguridad de las
aplicaciones asociadas al sitio que ellos confían.

El futuro de las redes sociales


Frente a todo este crecimiento constante que vienen teniendo las redes sociales en los últimos
años la pregunta es ¿qué será que sucedará con ellas en el futuro? Piscitelli Murphy dice que "Es
un poco difícil hacer futurología pero sí podría decir que me parece que las redes más populares
están muy influidas por la moda, la idea de estar siempre comunicados, en una gran red
mundial, y con el valor agregado de ser más visual que textual. Lo que sí se puede es hacer una
lectura del comportamiento de los usuarios de redes sociales y de los internautas en general. Sus
preferencias van variando a medida que se les ofrece más y diferentes variantes. Y esto tiene
que ver con un nueva idea de "estar conectados" no ya sólo desde la PC, celular y otros
dispositivos móviles, como ya está sucediendo con twitter. Pareciera que la innovación de la
web que se viene la 3.0, se basaría en esta idea de estar siempre comunicados, en una gran red
mundial, y con el valor agregado de ser más visual que textual.

Seguramente las redes sociales se irán modernizando a medida que vayan observando los gustos
y preferencias de los usuarios, cada vez más exigentes, debido a la cada vez más amplia oferta
de redes sociales.

Queda claro que el futuro de las redes sociales no sólo se va a limitar a la computadora como
medio de acceso, hoy en día es posible accesar a un SRS desde un celular, y algún otro
dispositivo móvil que tenga acceso a Internet. Esto da la posibilidad que el número de usuarios
crezca exponencialmente y no se limiten su uso a un escritorio.
Por lo tanto, el futuro de los SRS está en la conciencia de movilidad, presencia y ubicación. Es
decir, el usuario no sólo podrá conocer si sus amigos están en línea, si no también podrá conocer
si están cerca, geográficamente hablando. Si un usuario accede desde un celular, éste podrá ser
localizado vía triangulación de celdas o con un sistema localización satelital (GPS).
Comercialmente hablando, la conciencia de ubicación podrá ser utilizada por los negocios para
ofrecerte productos en base a tu perfil. Si estamos hablando de una red social de citas amorosas,
los usuarios podrán saber la ubicación geográfica de sus prospectos. Todo esto elevará la
inseguridad de las redes sociales la máxima potencia si se hace un mal uso de todos estos
adelantos tecnológicos. Todo lo que tu hagas en la red, los sitios web que visitas, los artículos
que lees, la música que escuchas, los artículos que compras, los amigos con los que dialogas
(chateas), podrán ser utilizados por los SRS para bombardearte de información violando muchas
veces tu privacidad. Pero como al registrarte con un SRS aceptas los términos y condiciones de
uso, tendrás que aceptar que tu información, tus intereses y tu comportamiento van a ser
públicos.

Conclusión
La manera de relacionarse de las personas ha cambiado de manera rápida en los últimos años,
hoy nadie pasa de visita sin previo aviso por mensaje de texto SMS, por chat, email, dejar
mensaje en alguna red en la que se está suscripto, pareciera ser que el término "comunicación"
es sinónimo de "te mando un mensaje por cualquier vía tecnológica".

¿Las redes sociales aportan a la real comunicación? o , por el contrario, se están transformando
en una escusa para que cada vez se cultiven menos las relaciones cara a cara, el verse los gestos,
la mirada. Qué le pasa al otro cuando se está junto, eso sólo se puede percatar en presencia
física, en el contacto directo. Nada puede suplantar esto.

No se trata de juzgar el rol que cumplen las redes sociales, sería soberbio no reconocerle toda la
utilidad que cumplen al achicar distancias cuando realmente se está lejos, pero sí, es bueno
saber, que si el amigo está a poca distancia, qué mejor que pasar por la casa, lugar de trabajo,
porque un abrazo, una palabra dicha mirando a los ojos, no suplanta la mejor red social jamás
inventada. En definitiva, sí a las redes sociales, para achicar distancias y relacionarse con quien
está lejos. El uso de las redes sociales son un excelente recurso para acercar a los que están
lejos,y para repensar en no caer en la trampa de "alejar" a los que están cerca.

Las redes sociales bien aprovechadas pueden servir para crear comunidades donde sus
miembros compartan información de común interés. Pero debido al gran éxito de las redes
sociales y al número de usuarios que congregan, son el foco de atracción de muchos
depredadores que buscan únicamente aprovecharse de usuarios incautos o inocentes que
publican información sensible que es aprovechada por los delincuentes informáticos.

Tabla 1. Números de usuarios de redes sociales

Red social cantidad de usuarios 2009


Facebook 250 millones
MySpace 130 millones
Friendster 105 millones
Hi5 80 millones
Orkut 120 millones
Tencent QQ 342 millones
Vkontakte 14 millones
Fuente: tabla 1 ComScore

Figura 1. Mapa de las redes sociales

El mapa que ha sido elaborado por el italiano Vincenzo Consenza , analista, bloguero, director
de la oficina digital PR en Roma, se ha basado en datos recogido de Alexa y Google Trends.
Con los datos armó el mapa mundial de las redes sociales. Se puede observar en el mismo como
Facebook, identificado con el color verde es el que tiene más presencia a nivel mundial.
También nota la presencia en color violeta de los chinos por QQ. En otros países como Brasil e
India, prefieren Orkut. Facebook es la más elegida en EEUU, según datos de Alexa.

Los autores, Evelio Martínez Martínez y Fabiana Furch son Profesor-Investigador de la


Universidad Autónoma de Baja California en México y Periodista-Profesora Universidad
Nacional del Noroeste de la Provincia de Buenos Aires, referente TICs Equipo Secundaria
DGE Buenos Aires, Argentina. Se les puede contactar
en evelio@eveliux.com y fabianafurch@gmail.com.

Hits: 151263

 < Prev

 Next >

Artículos Relacionados


El servicio i-mode y su exito en Japon

Internet y la riqueza


Redes de Alta Velocidad SDH/SONET


El ABC de las redes inalámbricas [WLANs]


Las bases de la navegación dinámica

Planeacion y diseño de redes WLAN

Estándares de Telecomunicaciones


Created on Thursday, 01 July 1999

Por Evelio Martínez


Publicado en la Revista RED Julio 1999.
"Los estándares hacen que la vida sea más simple, permitiendo mayor fiabilidad y efectividad
en los bienes y servicios que usamos"

INTRODUCCIÓN
¿ Alguna vez usted se ha preguntado por qué su tarjeta de crédito puede insertarse en cualquier
cajero automático del mundo ? Es porque los fabricantes del plástico de las tarjetas se basan en
un estándar conocido como ISO 7810 en donde se definen las dimensiones del plástico (85mm
de largo, 54mm ancho y 0.8mm de grosor); en otro estándar, el ISO 7811, se definen las
características del grabado y de la banda magnética.

Este es sólo un ejemplo de los miles de estándares que existen hoy en día, los cuales rigen
nuestras actividades diarias, pues regulan los bienes y servicios que empleamos, permitiendo
olvidarnos de marcas o de algún fabricante en especial. Por ejemplo, cuando vamos a comprar
un módem, nos deberíamos de olvidar en primer término de la marca o modelo, debe de
interesarnos en primera instancia que cumple con el estándar ITU-T V.90 cuando se trata de un
módem de 56 Kbps o V.34 cuando se trata de uno de 28.8 Kbps.

La estandarización evita las arquitecturas cerradas, los monopolios y los esquemas propietarios.
Cuando compramos equipos de telecomunicaciones con estándares propietarios no está
garantizado que vayan a comunicarse con los demás equipos de la red. Tenemos que comprar el
mismo dispositivo de la misma marca y la mayoría de las veces hasta del mismo modelo, para
que exista comunicación de extremo a extremo. Los estándares son la esencia de la
interconexión de redes de comunicaciones, de muchas maneras, ellos son la interconexión. Así
mismo, los estándares son la base de los productos y típicamente son los que marcan la
diferencia entre la comunicación y la incompatibilidad.

LA HISTORIA DE LA ESTANDARIZACIÓN
A principios del siglo XIX Europa vivía en un estado de agitación; los efectos de la revolución
industrial se hacían evidentes en cualquier parte del continente. La revolución de la
transportación dio inicio con la aparición de la máquina de vapor y el ferrocarril. Los rieles por
los que los trenes se desplazaban fue el primer problema de estandarización entre los países;
éstos tenían que ponerse de acuerdo en las dimensiones, material y las demás características de
las vías por donde pasaría el tren. Tal situación de entendimiento fue la ideal para la
introducción del telégrafo. Al ponerse en funcionamiento este nuevo medio de comunicación,
inmediatamente se hicieron evidentes sus beneficios al acercar aún más a las empresas e
industrias que existían en ese tiempo y quienes tenían una imperiosa necesidad de difundir
noticias y mensajes de manera rápida y eficiente. Tanto el ferrocarril como el telégrafo
transformaron de manera notable a la Europa del Siglo XIX.

Con el propósito de buscar una estructura y un método de funcionamiento que permitieran


conocer los problemas planteados por las nuevas tecnologías de comunicación, así como
también las demandas de los usuarios, en 1865 se fundó la Unión Internacional de Telegrafía
(ITU, por sus siglas en inglés). La ITU fue la primer organización intergubernamental e
internacional que se creó. Sin lugar a duda, la ITU fue el primer esfuerzo para estandarizar las
comunicaciones en varios países.

Años más tarde, en 1884 al otro lado del Atlántico, en Estados Unidos se funda la IEEE
(Institute of Electrical and Electronics Engineers), organismo encargado hoy en día de la
promulgación de estándares para redes de comunicaciones. En 1906, en Europa se funda la IEC
(International Electrotechnical Commission), organismo que define y promulga estándares para
ingeniería eléctrica y electrónica. En 1918 se funda la ANSI (American National Standards
Institute), otro organismo de gran importancia en la estandarización estadounidense y mundial.

En 1932, al fusionarse dos entidades de la antigua ITU, se crea la Unión Internacional de


Telecomunicaciones, entidad de gran importancia hoy en día encargada de promulgar y adoptar
estándares de telecomunicaciones. Por otra parte, en 1947 pasada la segunda guerra mundial, es
fundada la ISO (International Organization for Standardization), entidad que engloba en un
ámbito más amplio estándares de varias áreas del conocimiento. Actualmente existe una gran
cantidad de organizaciones y entidades que definen estándares.

¿QUÉ ES UN ESTÁNDAR?
Un estándar, tal como lo define la ISO "son acuerdos documentados que contienen
especificaciones técnicas u otros criterios precisos para ser usados consistentemente como
reglas, guías o definiciones de características para asegurar que los materiales, productos,
procesos y servicios cumplan con su propósito". Por lo tanto un estándar de telecomunicaciones
"es un conjunto de normas y recomendaciones técnicas que regulan la transmisión en los
sistemas de comunicaciones". Queda bien claro que los estándares deberán estar documentados,
es decir escritos en papel, con objeto que sean difundidos y captados de igual manera por las
entidades o personas que los vayan a utilizar.
TIPOS DE ESTÁNDARES
Existen tres tipos de estándares: de facto, de jure y los propietarios. Los estándares de facto son
aquellos que tienen una alta penetración y aceptación en el mercado, pero aún no son oficiales.

Un estándar de jure u oficial, en cambio, es definido por grupos u organizaciones oficiales tales
como la ITU, ISO, ANSI, entre otras.

La principal diferencia en cómo se generan los estándares de jure y facto, es que los estándares
de jure son promulgados por grupos de gente de diferentes áreas del conocimiento que
contribuyen con ideas, recursos y otros elementos para ayudar en el desarrollo y definición de
un estándar específico. En cambio los estándares de facto son promulgados por comités
"guiados" de una entidad o compañía que quiere sacar al mercado un producto o servicio; sí
tiene éxito es muy probable que una Organización Oficial lo adopte y se convierta en un
estándar de jure.

Por otra parte, también existen los "estándares" propietarios que son propiedad absoluta de una
corporación u entidad y su uso todavía no logra una alta penetración en el mercado. Cabe
aclarar que existen muchas compañías que trabajan con este esquema sólo para ganar clientes y
de alguna manera "atarlos" a los productos que fabrica. Si un estándar propietario tiene éxito, al
lograr más penetración en el mercado, puede convertirse en un estándar de facto e inclusive
convertirse en un estándar de jure al ser adoptado por un organismo oficial.

Un ejemplo clásico del éxito de un estándar propietario es el conector RS-232, concebido en los
años 60's por la EIA (Electronics Industries Association) en Estados Unidos. La amplia
utilización de la interfase EIA-232 dio como resultado su adopción por la ITU, quién describió
las características eléctricas y funcionales de la interfase en las recomendaciones V.28 y V.24
respectivamente. Por otra parte las características mecánicas se describen en la recomendación
2110 de la ISO, conocido comúnmente como ISO 2110.

TIPOS DE ORGANIZACIONES DE ESTÁNDARES


Básicamente, existen dos tipos de organizaciones que definen estándares: Las organizaciones
oficiales y los consorcios de fabricantes.

El primer tipo de organismo está integrado por consultores independientes, integrantes de


departamentos o secretarías de estado de diferentes países u otros individuos. Ejemplos de este
tipo de organizaciones son la ITU, ISO, ANSI, IEEE, IETF, IEC, entre otras.

Los consorcios de fabricantes están integrados por compañías fabricantes de equipo de


comunicaciones o desarrolladores de software que conjuntamente definen estándares para que
sus productos entren al mercado de las telecomunicaciones y redes (e.g. ATM Forum, Frame
Relay Forum, Gigabit Ethernet Alliance, ADSL Forum, etc). Una ventaja de los consorcios es
que pueden llevar más rápidamente los beneficios de los estándares promulgados al usuario
final, mientras que las organizaciones oficiales tardan más tiempo en liberarlos.

Un ejemplo característico es la especificación 100 Mbps (Fast Ethernet 100Base-T). La mayoría


de las especificaciones fueron definidas por la Fast Ethernet Alliance, quién transfirió sus
recomendaciones a la IEEE. La totalidad de las especificaciones fueron liberadas en dos años y
medio. En contraste, a la ANSI le llevó más de 10 años liberar las especificaciones para FDDI
(Fiber Distributed Data Interface).
Otro aspecto muy importante de los consorcios de fabricantes es que éstos tienen un contacto
más cercano con el mundo real - y productos reales. Esto reduce el riesgo de crear
especificaciones que son demasiado ambiciosas, complicadas, y costosas de implementar. El
modelo de capas OSI (Open Systems Interconnect) de la organización ISO es el ejemplo clásico
de este problema. La ISO empezó a diseñarlas a partir de una hoja de papel en blanco tratando
de diseñar estándares para un mundo ideal sin existir un impulso comercial para definirlas. En
cambio, los protocolos del conjunto TCP/IP fueron desarrollados por personas que tenían la
imperiosa necesidad de comunicarse... ese fue su éxito. Los consorcios de fabricantes
promueven la interoperatividad teniendo un amplio conocimiento del mercado.

¿ CUANDO ES OFICIAL UN ORGANISMO?


En Estados Unidos, donde se aglutinan la mayoría de las organizaciones, la mejor manera para
saber si una organización de estándares es oficial consiste en conocer si la organización está
avalada por la ISO. La ANSI, IEEE y IETF, todas ellas están reconocidas por la ISO y por lo
tanto son organismos oficiales. En el resto del mundo, aquellas organizaciones avaladas por la
ITU o ISO son organizaciones oficiales.

A continuación se describiran brevemente algunas de las organizaciones de estándares más


importantes.

La Unión Internacional de Telecomunicaciones


La ITU es el organismo oficial más importante en materia de estándares en
telecomunicaciones y está integrado por tres sectores o comités: el primero de
ellos es la ITU-T (antes conocido como CCITT, Comité Consultivo
Internacional de Telegrafía y Telefonía), cuya función principal es desarrollar
bosquejos técnicos y estándares para telefonía, telegrafía, interfases, redes y
otros aspectos de las telecomunicaciones. La ITU-T envía sus bosquejos a la ITU y ésta se
encarga de aceptar o rechazar los estándares propuestos. El segundo comité es la ITU-R (antes
conocido como CCIR, Comité Consultivo Internacional de Radiocomunicaciones), encargado
de la promulgación de estándares de comunicaciones que utilizan el espectro electromagnético,
como la radio, televisión UHF/VHF, comunicaciones por satélite, microondas, etc. El tercer
comité ITU-D, es el sector de desarrollo, encargado de la organización, coordinación técnica y
actividades de asistencia.

La IEEE
Fundada en 1884, la IEEE es una sociedad establecida en los Estados
Unidos que desarrolla estándares para las industrias eléctricas y
electrónicas, particularmente en el área de redes de datos. Los
profesionales de redes están particularmente interesados en el trabajo
de los comités 802 de la IEEE. El comité 802 (80 porque fue fundado
en el año de 1980 y 2 porque fue en el mes de febrero) enfoca sus esfuerzos en desarrollar
protocolos de estándares para la interfase física de la conexiones de las redes locales de datos,
las cuales funcionan en la capa física y enlace de datos del modelo de referencia OSI. Estas
especificaciones definen la manera en que se establecen las conexiones de datos entre los
dispositivos de red, su control y terminación, así como las conexiones físicas como cableado y
conectores.
La Organización Internacional de Estándares (ISO)
La ISO es una organización no-gubernamental establecida en 1947, tiene representantes
de organizaciones importantes de estándares alrededor del mundo y actualmente
conglomera a más de 100 países. La misión de la ISO es "promover el desarrollo de la
estandarización y actividades relacionadas con el propósito de facilitar el intercambio
internacional de bienes y servicios y para desarrollar la cooperación en la esfera de la actividad
intelectual, científica, tecnológica y económica". Los resultados del trabajo de la ISO son
acuerdos internacionales publicados como estándares internacionales. Tanto la ISO como la ITU
tienen su sede en Suiza.

Conclusión
Día con día las organizaciones oficiales y los consorcios de fabricantes están gestando
estándares con el fin de optimizar la vida diaria. En la industria global de redes, los fabricantes
que puedan adoptar los estándares a sus tecnologías serán los que predominen en el mercado.
Los fabricantes tienen dos grandes razones para invertir en estándares. Primero, los estándares
crean un nicho de mercado; segundo, los fabricantes que puedan estandarizar sus propias
tecnologías podrán entrar más rápido a la competencia. Antes de comprar algún equipo de
telecomunicaciones y redes, acuérdese de los estándares y elija aquellos que han sido adoptados
en su país. "Un mundo sin estándares sería un tremendo caos"
ALGUNAS ORGANIZACIONES DE ESTáNDARES

A A E I I I N P S
s m ur n n n at e y
T T
y e o s I t t io r s
T e In el
m r p t n e e n s t
A e c te e
m i e i t r r al o e
s Gc w n rn c
e c a t e n n T n m
y i nw o at o Telec
t a n u r a a el a A
n gow l io m omu
r n T t n ti ti e l d
c al . o n m nicac
i N el e e o o c C m
h bog g al u iones
c a e o t n n o o i
r i gi T í T ni www
D t c f E al a m m n
o tí g el a el c .indu
i i o E n M l m m i
n Eaa e s e S at stry.
g o m l g u O u u s
o T t Gb - d c T T e io net/t
i n m e i lt r ni n t
T u el hi it vi e o el el g n iaW3
t a u c n i g c ic r
e sT e eg- d l me e u s CWo
a l ni t e m a at a a
c Te c w rae e a mc c w r w Inrld
l S c r e e n io ti ti
nw w r c w o w w nbt w w o w I u o o w w i w d Wide
S S t at i r d i n o o
ow w a nw m w FFw ei h w w c w nwni m w m w w dw u Web
I u a io c i ia z s n n
A l w Lw n ow u w rr.f t t e Lw w o w f wc u w u w . a. st Cons
OG b n n a n T a In s N
RN Ds o. dA. As l . s ni . aarf AEr l A.i gI.i eln .i ti owat ni wd ni . I p e ds ry ortiu
G I E Sc ga aNa Tf oa S c e Fm m o l t n Ne ne f m r . io c .
a T e o u
c n c ea A mTec
n t
AF N rL í d sn Me gd a t Re e r l he se t t e t m i n a i a t i nn ss nolo
r ta n a c n st d w
N I F Fi as dys Fr í s n ci s FRRu i et dye s ef o r c f as s ci t ry ci i u a o r s o gías
I COo Al. A W i. oMal. E o i. oeem ar . I W . I r. I e . c o U o uN o a P . S e. ci Web
b s d E k n o A s r
S AQU r D c N Ao ro Ac T n o rl l .c G
n no E Ao E no M n o I i . Ini n . T n . C Pc A do Tat www
e I ar l F f r ss tr k
MDURu So S Nr ud To S e r uaao Ecer E Nr T er T ci r S óc To e c I e c I Co N er Iio .w3c.
r n d e o e S o y S
OOELmLmI sg m e MmI s g m yymAet g E sg F tg C a g O nhU n s hA s hA SmS sg A n org
L s s c r r t ci A e
i t In t c e a at s c
n i st r e n n io s u
e t it o ci d n o ri
u ut n n a ci t
t e i g ri a y
e c C z ti
s o a o
E n ti n
n s o
g o n
i rt
n i
e u
e m
r
s
Hits: 97473

 < Prev

 Next >

Artículos Relacionados


Estandares


Un vistazo a los estándares (ODF una alternativa para las aplicaciones de oficina)


Historia de las Telecomunicaciones


Términos basicos telecomunicaciones

Cronología de Organizaciones de Estándares


Servicios de Telecomunicaciones

Tecnologias de Comunicacion
Inalambrica


Created on Sunday, 01 December 2002

Publicado en la Revista RED en la edición especial


"El ABC de las Telecomunicaciones", Diciembre del 2002
Introducción
En 1887 Heinrich Rudolph Hertz, un físico alemán, demostró que existían las ondas
electromagnéticas y que éstas podrían ser usadas para mover información a muy grandes
distancias — esto le valió que la unidad con las que son medidas las frecuencias del espectro
lleven su apellido (Hertz o Hz).

La base teórica de las ondas electromagnéticas fueron desarrolladas mucho antes por el físico
escocés James Clerk Maxwell en 1864. El primer uso de las ondas electromagnéticas fue la
telegrafía inalámbrica. Este relevante acontecimiento sería el predecesor de la propagación
electromagnética o transmisión de radio.

Utilizando estos conceptos, el italiano Guglielmo Marconi inventa la radio en 1901. La radio
fue el primer medio masivo de comunicación inalámbrica y a poco más de 100 años de su
invención, las comunicaciones móviles han demostrado ser una alternativa a las redes cableadas
para ofrecer nuevos servicios que requieren gran ancho de banda, pero con otros beneficios
como la movilidad y la ubicuidad, estar comunicado en cualquier lugar, en cualquier momento.

Algunos de los beneficios que brindan las comunicaciones inalámbricas en comparación con las
redes cableadas son las siguientes:

 Capacidad para un gran número de suscriptores


 Uso eficiente del espectro electromagnético debido a la utilización repetida de frecuencias
 Compatibilidad a nivel nacional e internacional, para que los usuarios móviles puedan utilizar
sus mismos equipos en otros países o áreas
 Prestación de servicios para aplicaciones de datos, voz y video;
 Adaptación a la densidad de tráfico; dado que la densidad de tráfico es diferente en cada punto
de la zona de cobertura.
 Calidad del servicio — en el caso de la voz— comparable a servicio telefónico tradicional y
accesible al público en general
Las primeras redes móviles
En los 1920s, en Detroit, Estados Unidos, nacen las primeras redes de comunicación móvil.
Eran sistemas de radio comunicación utilizados por el cuerpo de policía que trabajan en ese
entonces a 2 MHz. Una década más tarde fueron utilizados por la policía de la ciudad de Nueva
York. El sistema se fue perfeccionando conforme transcurrían los años hasta que en los 1950s
se establecieron las primeras dos bandas tal y como las conocemos ahora; la banda de VHF de
radio de 150 MHz y la banda de UHF de radio en los 450 MHz. En esta época seguían
utilizándose en vehículos; dispositivos portátiles eran imposibles de cargar debido al peso de las
baterías y de los aparatos mismos.

En 1973 Martin Cooper introduce el primer radioteléfono mientras trabajaba para la compañía
Motorola, Cooper pionero en esta tecnología, se le considera como "el padre de la telefonía
celular". En 1979 aparece el primer sistema comercial en Tokio Japón por la compañía NTT
(Nippon Telegraph & Telephone Corp.) dos años más tarde en Estados Unidos surge también el
primer sistema celular analógico comercial que trabajaba en la banda de los 800 MHz. En otros
países ocurrió lo mismo y surgieron muchas tecnologías paralelas pero incompatibles entre sí.

A continuación se describirán las principales tecnologías de comunicación inalámbricas, sobre


todo aquellas que han tenido más impacto en la sociedad como la telefonía celular,
comunicación satelital, WLL, MMDS y LMDS.

La telefonía celular

La telefonía sin duda es uno de los servicios inalámbricos con más penetración en la sociedad.
En nuestro país, casi 1 de cada 4 mexicanos poseen un teléfono celular. La explosión empezó
desde "el que llama paga", lo cual redujo los precios del tiempo aire y las personas empezaron a
comprar más aparatos. De ser un servicio elitista se convirtió en un servicio más accesible a los
usuarios de bajos ingresos. En la actualidad, en México, el número de teléfonos celulares supera
por mucho a las líneas telefónicas fijas.
El funcionamiento de un sistema celular es muy complejo, implica una serie de tareas que
implican modulación, codificación, acceso múltiple, monitoreo y tarificación, sólo por
mencionar algunas.

Un sistema celular para su funcionamiento está compuesto por los siguientes elementos:

1.- Unidades móviles (teléfonos): Un teléfono móvil contiene una unidad de control, un
transreceptor y un sistema de antena.

2.- Las celdas (radio bases): La radio base provee la interface entre el MTSO y las unidades
móviles. Tiene una unidad de control, cabinas de radio, antenas y una planta de generadora
eléctrica y terminales de datos.

3.- El conmutador central móvil (MTSO, Mobil Telephone Switching Office): El conmutador
central el procesador y conmutador de las celdas. Está interconectada con la Oficina Central de
telefonía pública fija. Controla el procesamiento y tarificación de llamadas. El MTSO es el
corazón del sistema celular móvil.

4.- Las conexiones o enlaces: Los enlaces de radio y datos interconectan los tres subsistemas.
Estos enlaces pueden ser por medio de antenas de microondas terrestres o por medio de líneas
arrendadas.

Las técnicas de acceso múltiple


Una de las estrategias más importantes para aumentar el número de usuarios en un sistema
basado en celdas radica principalmente en la técnica de acceso múltiple que éste sistema
emplee. Las técnicas de acceso múltiple en un sistema inalámbrico permiten que varios usuarios
puedan estar accesando simultáneamente un canal o un grupo de frecuencias, lo que permite el
uso eficiente del ancho de banda.

Existen tres técnicas para compartir un canal de Radio Frecuencia (RF) en un sistema celular:

a) FDMA (Acceso Múltiple por División de frecuencias, Frequency Division Multiple Access)

b) TDMA (Acceso Múltiple por División de Tiempo, Time Division Multiple Access)

c) CDMA (Acceso Múltiple por División de Código, Code Division Multiple Access)

FDMA
Los sistemas celulares basados en FDMA formaron la base de los primeros sistemas celulares
en el mundo. FDMA fue implementada en la banda de 800 MHz utilizando un ancho de banda
de 30 kHz por canal.
FDMA subdivide el ancho de banda en frecuencias, cada frecuencia sólo puede ser usada por un
usuario durante una llamada. Debido a la limitación en ancho de banda, esta técnica de acceso
es muy ineficiente ya que se saturan los canales al aumentar el número de usuarios alrededor de
una celda. Esta técnica de acceso múltiple predominó en los sistemas celulares analógicos de la
primer generación.

TDMA
Después de la introducción de FDMA, operadores celulares y fabricantes de equipo inalámbrico
reconocieron las limitaciones de esta técnica de acceso analógica. Años más adelante aparecen
los primeros sistemas celulares digitales basados en TDMA. Con el fin de continuar la
compatibilidad con la asignación de espectro del sistema anterior ocupado por la tecnología
AMPS, se desarrolla en Norteamérica a finales de los 80s un sistema conocido como DAMPS
(Digital AMPS) también con 30 kHz de ancho de banda por canal. En Europa se desarrolla
también un sistema celular digital basado en TDMA conocido como GSM (Groupe Special
Mobile) con canales de 200 kHz. Los primeros sistemas bajo GSM fueron instalados en 1991,
mientras el primer sistema instalado en Norteamérica fue instalado en Canadá en 1992.

Los sistemas celulares bajo TDMA utilizan el espectro de manera similar a los sistemas FDMA,
con cada radio base ocupando una frecuencia distinta para transmitir y recibir. Sin embargo,
cada una de estas dos bandas son divididas en tiempo (conocidas como ranuras de tiempo) para
cada usuario en forma de round-robin. Por ejemplo, TDMA de tres ranuras divide la
transmisión en tres periodos de tiempo fijos (ranuras), cada una con igual duración, con una
asignación particular de ranuras para transmisión para uno de 3 posibles usuarios. Este tipo de
metodología requiere una sincronización precisa entre la terminal móvil y la radio base. Como
puede verse en este esquema de tres ranuras por canal, se incrementa en un factor de tres la
capacidad de TDMA con respecto a FDMA.
CDMA
A mediados de los 80s algunos investigadores vieron el potencial de una tecnología conocida
como espectro disperso (spread spectrum) la cual era utilizada para aplicaciones militares pero
que también podría ser usada para telefonía celular. Esta tecnología de espectro disperso
involucra la transformación de la información de banda angosta a una señal de banda amplia
para transmisión, la cual puede ser vista como una manera de aumentar las capacidades de los
sistemas TDMA que limitan el número de usuarios al número de ranuras de tiempo.

Espectro disperso es una tecnología de banda amplia desarrollada por los militares
estadounidenses que provee comunicaciones seguras, confiables y de misión critica. La
tecnología de espectro disperso está diseñada para intercambiar eficiencia en ancho de banda
por confiabilidad, integridad y seguridad. Es decir, más ancho de banda es consumido con
respecto al caso de la transmisión en banda angosta, pero el "trueque" ancho de banda/potencia
produce una señal que es en efecto más robusta al ruido y así más fácil de detectar por el
receptor que conoce los parámetros (código) de la señal original transmitida. Si el receptor no
está sintonizado a la frecuencia correcta o no conoce el código empleado, una señal de espectro
disperso se detectaría solo como ruido de fondo. Debido a estas características de la tecnología
de espectro disperso la interferencia entre la señal procesada y otras señales no esenciales o
ajenas al sistema de comunicación es reducida.

Al asignar diferentes códigos únicos a los usuarios, un sistema de acceso múltiple es posible. A
este método de acceso múltiple se le conoce como CDMA. Las limitaciones de reuso de
frecuencia vistas en FDMA y TDMA ya no son tan críticas en CDMA, ya que múltiples
terminales móviles y radio bases pueden ocupar las mismas frecuencias a la vez. Es obvio
entonces que la capacidad en usuarios en CDMA se incrementa bastante con respecto a las otras
dos técnicas de acceso múltiple.

Las generaciones de la telefonía móvil


En la actualidad la telefonía celular en México se encuentra en la segunda generación (2G),
aunque en otros países se presume de que se encuentran en la generación 2.5G y la tercera
generación, tal es el caso de países como Japón y Corea del Sur.

La primer generación (1G) se caracterizó por ser analógica, por ofrecer servicios solamente de
voz a bajas velocidades y por utilizar FDMA. La tecnología más conocida de esta generación es
conocida como AMPS (American Mobile Phone System).

La segunda generación (2G) se caracteriza por ser digital y ofrecer servicios de voz y datos a
baja velocidad. Aunque se sigue utilizando la banda de 800 MHz, fue abierta la banda de 1.9
GHz (1,850 ?1,990 MHz) conocida como PCS (Personal Communications Services). En la
banda de PCS están encasilladas tres tecnologías básicamente: GSM (Groupe Spécial Mobile),
TDMA IS-136 y CDMA IS-95. Estas tres tecnologías caracterizan a la segunda generación de
telefonía móvil. En el caso de México, TELCEL opera su red celular bajo TDMA, el resto de
los operadores celulares (e.g. Pegaso, Movistar, Unefon, Iusacell) tiene su red bajo la tecnología
CDMA. Aunque se abrieron también nuevos servicios con la 2G y la banda de PCS, el servicio
más popular es el conocido como servicio de mensajes cortos (SMS, Short Messaging Service),
utilizado comúnmente entre los jóvenes, por ser sencillo, rápido y barato. Existen dos versiones
de este servicio: directamente teléfono a teléfono y a través de una página web hacia un
teléfono.

La generación 2.5G se caracteriza por el aumento de la velocidad en la transmisión de datos


utilizando redes de conmutación de paquetes . La 2.5G la realización principalmente aquellos
operadores que optaron por TDMA/GSM como tecnología base. El brinco directo a la tercera
generación (3G), se les complicó y optaron por crear una intermedia entre la 2G y 3G. EDGE
(Enhanced Data Rates for Global Evolution) y GPRS (General Packet Radio Service) son los
ejemplos más característicos de esta generación. Las velocidades de transmisión máximas son
384 Kbps para EDGE y 115 Kbps para GPRS. El sistema característico de los operadores cuya
tecnología base es CDMA se llama "CDMA 2000 1X" y trabaja a una velocidad máxima de 144
Kbps.

Sistemas satelitales
Las comunicaciones vía satélite han sido una tecnología muy utilizada para proveer
comunicaciones a áreas alejadas y de difícil acceso. Ante la escasa y en muchos casos nula
infraestructura terrestre de comunicaciones (e.g. fibra óptica) en las zonas remotas, las
comunicaciones vía satélite abren una ventana hacia al resto del mundo. Las comunicaciones
satelitales permiten transmitir múltiples servicios de voz, datos y video a velocidades en el
orden de Megabits por segundo. Las terminales satelitales hacen posible las comunicaciones
donde otros medios no pueden penetrar por su alto costo.

La introducción de pequeñas terminales conocidas como VSAT (Very Small Aperture


Terminal) ha permitido que el costo de las comunicaciones vía satélite haya bajado
drásticamente. VSAT es una tecnología de comunicaciones vía satélite que mediante el uso de
antenas de satélite con diámetros pequeños, permiten comunicaciones altamente seguras entre
una estación maestra y nodos dispersos geográficamente. Entre las aplicaciones típicas de este
tipo de terminales se encuentra la telefonía rural, educación a distancia, redes privadas y acceso
a Internet, entre otras.

Es sin duda las comunicaciones por satélite una opción muy utilizada por compañías mexicanas
desde la introducción del Morelos I en 1985. El satélite fue parte importante en las
comunicaciones durante el terremoto de ese año, después de que las comunicaciones por tierra
colapsaron.
Existen satélites de todo tipo, los hay geoestacionarios (GEO, Geostacionary Earth Orbit),
aquellos que giran a una órbita natural a 36,000 kms de la superficie de la tierra. Este tipo de
satélites (e.g Satmex V, Solidaridad II) proveen comunicaciones fijas para aplicaciones de voz,
datos y video en las bandas C y Ku principalmente. Existen satélites en órbitas bajas (LEO, Low
Earth Orbit)) y medias (MEO, Medium Earth Orbit) que dan varias vueltas a la tierra y que para
cubrir casi toda la superficie están agrupados en constelaciones de satélites. Muchos de estos
satélites proveen aplicaciones móviles de voz, sensado remoto (SCADA), meteorología,
determinación de la posición (GPS), etc. La mayoría de estos trabajan en la banda móvil L.

Los métodos de acceso al medio en comunicación trabajan de manera similar a la telefonía


celular. Aunque en comunicaciones vía satélite SCPC/FDMA (Single Channel Per
Carrier/FDMA) y TDMA son los métodos de acceso múltiple más populares para redes privadas
con VSATs; otras variantes de TDMA como DAMA (Demand Asigment Multiple Access) y
ALOHA son también utilizados en menos proporción. TDMA y CDMA son ampliamente
usados para comunicaciones móviles por satélite por los satélites LEOs y MEOs. En la tabla 1
se muestran las bandas de frecuencias más utilizadas en las comunicaciones por satélite, así
como su uso:

Tabla 1. Frecuencias de satélite de uso comercial


Banda Enlace Subida/Bajada Aplicaciones
VoQ 50/40 GHz Datos a altas velocidades
Ka 30/20 GHz Datos y TV a altas velocidades
Ku (BSS) 17/12 GHz Video directo al hogar
Ku 14/11-12 GHz VSAT, video e Internet
C 6/4 GHz Datos, voz y video
S 2/2 GHz Servicios móviles de voz
L 1.6/1.5 GHz Servicios móviles de voz
BSS: Broadcasting Satelite Service, Servicio de difusión por
satélite
Tecnologías de acceso inalámbrico fijo (WLL)
Acceso inalámbrico fijo (Wireless Local Loop, WLL) es un sistema basado en celdas que
conecta a usuarios a la red pública telefónica conmutada (RPTC) utilizando señales de radio,
sustituyendo al cableado de cobre entre la central y el abonado. Estos sistemas incluyen
sistemas de radio fijos, sistemas celulares fijos y sistemas de acceso sin alambres.

En países subdesarrollados las tecnologías inalámbricas basadas en WLL son una buena
alternativa para los operadores tanto en costo de instalación como de mantenimiento. Según la
UIT, la demanda de WLL en el mundo de 1997 al 2002 sobrepasará los 856 millones de nuevas
líneas. De las cuales, el 82% serán para los países subdesarrollados y el 18% restante serán para
los países desarrollados.

Los servicios que pueden ser ofrecidos por un sistema WLL incluyen:

o Servicio de voz: PCM (Pulse Code Modulation) de 64 Kbps, ADPCM (PCM adaptivo
diferencial) de 32 Kbps
o Servicio de datos en banda de voz: 56 Kbps fax/módem
o Servicios de datos: 155 Kbps (e.g. Internet)
o Servicio ISDN: 144 Kbps (2B+D)
LMDS
LMDS (local multipoint distribution service) es una tecnología de banda amplia inalámbrica
punto-multipunto basada en celdas ?al igual que la telefonía celular o WLL? con la capacidad
de transportar grandes cantidades de información a muy altas velocidades. LMDS opera a
frecuencias milimétricas, típicamente en las bandas de 28, 38, o 40 GHz. Esto permite
velocidades de datos de hasta 38 Mbps por usuario pero con la restricción de que las distancias
de cobertura deben ser cortas, menos de 8 Km. La alta capacidad de LMDS hacen posible una
gama de servicios tales como video digital, voz, televisión interactiva, música, multimedia y
acceso a Internet a altas velocidades. LMDS es una tecnología de costo efectivo, ya que su
implantación es rápida en áreas urbanas o en áreas con baja densidad de población, como es el
caso de las comunidades rurales. LMDS provee una solución efectiva de última milla que puede
sustituir a los servicios cableados tradicionales a un bajo costo y altas velocidades. En México
existen muchos operadores que ofertan este servicio principalmente para redes privadas y
acceso a Internet a altas velocidades.

MMDS
Las redes MMDS (Multichannel Multipoint Distribution Service) se caracterizan por el limitado
número de canales disponibles en las bandas asignadas para este servicio, sólo 200 MHz de
espectro en la banda de 2.5 GHz a 2.7 GHz.

Esta desventaja reduce el número efectivo de canales en un sistema MMDS. El uso principal de
esta tecnología es la televisión restringida inalámbrica — competencia directa de las compañías
de televisión por cable. Como el ancho de banda de un canal de televisión es de 6 MHz,
solamente 33 canales cabrían en el espectro asignado.

Un sistema de MMDS consiste de una cabecera o centro de control (headend), donde se


encuentra el equipo de recepción de las señales origen, un radio transmisor y una antena
transmisora. En el lado del usuario se encuentra una antena receptora, un dispositivo de
conversión de frecuencia y un receptor decodificador.

El rango de una antena de transmisión MMDS puede alcanzar los 55 kilómetros dependiendo de
la altura de la antena y de la potencia de radiodifusión. La potencia de transmisión es
usualmente entre 1 y 100 Watts, la cual es sustancialmente menor a los requerimientos de
potencia de las estaciones de televisión abierta de VHF y UHF.

La antena de recepción en el lado del usuario está condicionada para recibir señales con
polarización vertical u horizontal. Las señales de microondas son pasadas por un convertidor de
frecuencias, el cual convierte las frecuencias de microondas a las frecuencias estándar de cable
VHF y UHF, y pueda conectarse directamente al televisor.

Conclusión
Los sistemas cableados — dígase, una compañía telefónica o una compañía de televisión por
cable— tardan más tiempo en promedio para ofrecer toda la gama de los servicios. El tiempo de
instalación de toda la infraestructura cableada puede durar por lo regular desde muchos meses
hasta años con una razón de clientes potenciales del 70%, lo cual implica muchos gastos previos
por el largo tiempo transcurrido en la instalación total del sistema. En contraste, la gran mayoría
de los sistemas inalámbricos puede ser instalados en unos cuantos meses con una razón de
clientes potenciales del 90%. Otra de las ventajas de las tecnologías inalámbricas es que pueden
ser llevadas a áreas de difícil acceso geográfico y así ofrecer servicios a comunidades
marginadas y alejadas, lugares donde los medios cableados son más difíciles de ofertarse.

Otra ventaja de los sistemas inalámbricos es que son adaptables al tráfico, es decir, pueden
instalarse menos radio bases separadas a más distancia entre ellas en lugares donde el tráfico sea
menor. De la misma manera, pueden instalarse más radio bases a más corta distancia entre ellas
en lugares donde hay mucho tráfico — dígase la zona metropolitana en una ciudad.
En general las comunicaciones vía inalámbrica proveen beneficios adicionales que no proveen
los sistemas cableados. El público — el usuario final— determinará cuales servicios son los más
adecuados a sus necesidades, y desechará aquellos servicios que no le satisfagan.

Es muy importante para el usuario final conocer sobre la tecnología que está detrás del servicio
que el proveedor de servicios de telecomunicaciones. Así tendrá una visión más clara de las
bondades o limitantes, así como la calidad del servicio que le están

Hits: 92432

 < Prev

 Next >

Artículos Relacionados


El impacto de las tecnologías de la Información en la educación


Uso de Tecnologías (en la educación)


Las Tecnologías de la Información y la Migración Calificada

Tecnologías móviles y capacitación: potenciar el desarrollo humano mediante la participación y
la Innovación


Certificaciones Profesionales en las Tecnologías de la Información

Integración de Tecnologías en el Diseño de Hogares Inteligentes

Você também pode gostar