Você está na página 1de 106

Administración de TI

1 - Complejidad de la tecnología

Hace poco más de 40 años, la informática era vista como una forma eficiente de procesar los
datos y de posibilitar la automatización de funciones repetitivas, como las ejecutadas por los
departamentos administrativos y contables de las organizaciones. En los años posteriores, su
matrimonio con la electrónica, también llamada mecatrónica o automatización industrial,
contribuyó a aumentar la eficiencia y la productividad en el área de fábrica de las industrias. En
poco tiempo, otras importantes y radicales transformaciones cambiarían al mundo y,
fundamentalmente, al sector corporativo.

La exitosa alianza entre informática y telecomunicaciones permitió hacer realidad el concepto de


globalización, expandiendo las fronteras de las empresas hacia todo el mundo por medio de un
simple clic en el mouse. El paso siguiente es la convergencia tecnológica, reuniendo funciones de
teléfono, computadora, Internet, agenda electrónica, juegos, televisión, música, entre otras
facilidades, en un único dispositivo.
Si para una persona común es difícil asimilar tantos cambios en tan corto espacio de tiempo, para
un gerente del área de Tecnología de la Información (TI) de una empresa eso representa un
enorme y constante desafío. La complejidad de los actuales parques de máquinas, redes y
sistemas instalados es muy grande y está en continua evolución.

A eso se suma la necesidad cada vez más urgente de entender no sólo de bits y bytes, sino
también de la estrategia de negocios de la compañía, para responder rápidamente a las
necesidades de los clientes y del mercado y establecer con los proveedores y demás socios un
intercambio de información eficiente y en tiempo real.
Por otro lado, la opinión de los usuarios internos de tecnología (empleados de los diversos
departamentos de la empresa) también comenzó a ser considerada para la elección de
herramientas y soluciones, obligando al gerente de TI a tener en cuenta el factor humano entre
sus atribuciones y responsabilidades.

En este nuevo contexto, el profesional de TI necesitó y necesita reinventarse, volviéndose más


flexible y abierto, y menos técnico y cerrado, como era imprescindible en un pasado no tan
distante.
El ambiente centralizado

Retrocediendo en el tiempo, verificamos que, hasta fines de los años 50, las computadoras eran
vistas como obra de la imaginación humana o como una fantasía extraída de los libros y películas
de ciencia ficción. Prácticamente sólo unos pocos segmentos, como las áreas académica, militar y
de gobierno, se aventuraban en la experimentación de las entonces grandiosas y complejas
máquinas. En Brasil, el gobierno del Estado de San Pablo fue pionero al adquirir, en 1957, una
Univac-120 para calcular el consumo de agua en la capital paulista. El equipo estaba formado por
4.500 válvulas, realizaba 12 mil sumas y restas por minuto y 2.400 multiplicaciones o divisiones
por minuto.
En el sector privado, una de las primeras empresas que invirtió en ese sentido fue Anderson
Clayton, que compró una Ramac 305 de IBM, en 1959. La máquina tenía casi 2 metros de ancho
y 1,80 de alto, con mil válvulas en cada puerta de entrada y salida de la información, ocupando un
piso entero de la empresa. Considerada, en su época, lo máximo de la innovación, esa
computadora tardaba 5 minutos en buscar una información y la impresora operaba con una
velocidad de 12,5 caracteres por segundo.

En poco menos e diez años, esas fabulosas máquinas evolucionaron y despertaron el interés de
las empresas de gran tamaño, organismos del gobierno nacional y universidades. Eran los años
60, en los que reinaban absolutos los CPDs - Centros de Procesamiento de Datos, ambientes
climatizados, cercados de paredes de vidrio, como una verdadera campana, y preparados para
alojar a las grandes máquinas.
Los mainframes

En general, el CPD era un área separada dentro de la empresa, a la que sólo tenían acceso los
profesionales directamente involucrados con las computadoras, como analistas de sistemas,
técnicos de mantenimiento, programadores, operadores, entre otros. Inaccesible para los
empleados de otros departamentos, el único eslabón entre esas islas informáticas y el resto de la
compañía eran las pilas de formularios continuos conteniendo información procesada, solicitada
por los usuarios de algún sector específico.
Hasta fines de los años 70, predominó lo que se acordó en llamar la Era de los CPDs, o también
la Era de la Computadora, en la que todas las decisiones referidas a la tecnología estaban a cargo
del gerente de procesamiento de datos y de sistemas de información. Ese profesional reportaba a
la máxima autoridad financiera de la empresa, y era imprescindible que tuviera conocimiento y
competencia esencialmente técnicos. La productividad era en aquel entonces el foco de la
tecnología y la tendencia organizacional del área de informática era la de centralización.

En ese ambiente, el enfoque administrativo era el de control y las inversiones en tecnología eran
conservadoras y debían pasar por el tamiz del área financiera de la organización. Confinados y
aislados en el ambiente cerrado de los CPDs, el gerente y los otros profesionales de informática
permanecían ajenos a las necesidades de los empleados de los diferentes departamentos y
también a la estrategia de negocios de la empresa. Dedicaban todo el tiempo a la creación de
algoritmos, rutinas, lenguajes de programación, desarrollo de aplicativos y otras funciones
técnicas.
Cuando necesitaban justificar nuevas inversiones en el sector, los gerentes de informática se
preocupaban por demostrar las ganancias de costos del sistema, de mano de obra y de
manutención, y no los beneficios propiciados por la tecnología para la empresa como un todo. La
mayor dificultad, en esa época, era convencer al directorio financiero sobre la real necesidad de
las inversiones requeridas para aumentar la capacidad de los sistemas, mantenimiento y
desarrollo de nuevos aplicativos. El área de informática era básicamente vista como un sector
generador de gastos y considerada “un mal necesario”.

El entorno cliente/servidor
A comienzos de la década del 80, los avances de la microelectrónica favorecieron el desarrollo de
computadoras más pequeñas, que ocupaban menos espacio y, al mismo tiempo, se volvían más
poderosas en lo que respecta al aumento de la capacidad de procesamiento, agilidad y memoria,
siendo también más accesibles en términos económicos. A partir de 1975, todas las funciones
necesarias para el funcionamiento de una computadora ya estaban integradas en un solo chip. La
capacidad de memoria se duplicaba año a año. Gradualmente, el procesamiento de informaciones
dejaba de realizarse en lotes de transacciones (en tiempo posterior o batch) y pasaba a ser online
(en tiempo real), o sea, las actualizaciones de los archivos se realizaban a medida que las
transacciones eran efectuadas.

Pero fue a partir de los años 90, con la evolución de la microinformática, que los cambios se
tornaron más significativos y visibles. La Era de los CPDs llegaba a su fin para dar comienzo a la
“Era de la Información”. Lentamente, los grandes mainframes, demasiado complejos para los
usuarios comunes y que exigían personal altamente especializado para operarlos y encargarse de
su mantenimiento, y encima de todo, muy costosos, comenzaron a ser reemplazados por
máquinas servidoras de aplicativos, en un proceso bautizado downsizing y rightsizing. En muchas
empresas, sin embargo, los mainframes se preservaron para operaciones más complejas y
estratégicas.
Fueron agregándose nuevas máquinas y periféricos al parque de las empresas. Las redes de
terminales “dummy” conectadas al mainframe fueron reemplazándose por las estaciones cliente y
por las computadoras de escritorio - los personal computers (PCs) - provistos de interfaces
gráficas y aplicativos que hicieron que su operación fuera más fácil y amigable para las personas
que no tenían conocimientos de tecnología.

Comenzaba a cobrar fuerza el modelo cliente-servidor, proporcionándole a todas las esferas de la


empresa el acceso a la información. El ambiente centralizado y cerrado del mainframe y de los
antiguos CPDs abrió lugar a plataformas heterogéneas. En esa época, comenzaban a proliferar
las empresas de software, aumentando la oferta de software básico y paquetes aplicativos,
decretando el fin de la era de la arquitectura propietaria y abriendo camino hacia el entorno abierto
y la compatibilidad entre los diferentes sistemas.
Los aplicativos empresariales

La informática comienza a ser entendida como Tecnología de la Información e inclusive las


medianas y pequeñas empresas se convierten en usuarias. En las grandes compañías, surge un
nuevo tipo de profesional, el CIO - Information Officer, definido como el más alto ejecutivo, cuya
principal función es administrar la información. El gerente esencialmente técnico sale de escena y
entra el ejecutivo, que debe ser principalmente un hombre de negocios, con capacidad de
administrar los recursos de información y actuar como un estratega de la tecnología.
La competencia requerida para el cargo es la administración de negocios. El CIO pasa a reportar
al CEO - Chief Executive Officer o Director Ejecutivo, y se sitúa al nivel de la alta gerencia. El
enfoque de la tecnología pasa a ser la ventaja competitiva de la empresa frente a la competencia,
la misión, la innovación tecnológica y las inversiones en el sector son agresivas. El área de
informática deja de ser vista como un sector meramente generador de costos, y pasa a ser
considerado el factor esencial para mantener la agilidad de la empresa, su poder de competencia
y permitir su inserción en el nuevo orden económico dictado por la globalización.

Al mismo ritmo que las innovaciones del hardware, surgen las ondas tecnológicas y los
respectivos paquetes de aplicativos, orientados a integrar a toda la empresa y a aumentar la
productividad y facilitar la comunicación y transmisión de datos en diferentes niveles. Los sistemas
de administración empresarial, conocidos por la sigla ERP (Enterprise Resource Planning) son
adoptados inicialmente por las empresas de gran tamaño y, a continuación, por el middle market.
La oferta de nuevos aplicativos para todos los tipos de usuarios prolifera en escala exponencial.
La informática está en todos lados y gana nuevos y poderosos aliados: Internet y las innovaciones
en el campo de las telecomunicaciones.
En las industrias, el empleo de la TI permite no sólo agilizar la producción, sino también facilitar el
contacto directo con proveedores y socios de negocios. El punto central son las redes internas y
externas, el intercambio electrónico de documentos (EDI, reemplazado por Web EDI), código de
barras, y soluciones que permitan la perfecta integración con la cadena de provisión (supply
chain).

En el sector financiero, la atención se orienta hacia la seguridad y al almacenamiento de los datos


y a los aplicativos de misión crítica. Las operadoras de telecomunicaciones y empresas minoristas
y del sector de servicios priorizan los paquetes que permiten identificar y seleccionar a los
clientes, como las soluciones de Customer Relationship Management (CRM), o administración de
las relaciones con el cliente. Las soluciones de Business Intelligence, que permiten el análisis de
los datos desde las más variadas e inusitadas perspectivas, comienzan a llamar la atención de las
empresas de diferentes sectores. La oferta de productos se diversifica todavía más y se mantiene
en continua evolución.
En todos los tipos y tamaños de empresas, los usuarios pasan a tener participación activa en la
elección e implementación de nuevas herramientas Su colaboración se vuelve imprescindible para
el éxito de los nuevos proyectos tecnológicos.

El Futuro

Paradójicamente, al mismo tiempo en que la tecnología se vuelve más flexible para un mayor
número de personas, su administración es cada vez más compleja. El gerente de TI debe dirigir
ambientes heterogéneos compuestos por máquinas de diferentes épocas y fabricantes, intranets,
extranets, redes locales (LAN), redes de larga distancia (WAN), redes y dispositivos inalámbricos
(notebooks, handhelds, palmtops etc.), comunicación por satélite, software para diferentes
aplicaciones, firewall, antivirus, política de seguridad y una serie de cuestiones puramente
tecnológicas.

Pero, a pesar de eso, todavía debe ocuparse de otros aspectos: saber escuchar, respetar y cubrir
las necesidades de los profesionales de todos los sectores de la empresa, integrar hardware y
software nuevos con los legados, evaluar las innovaciones tecnológicas, no descuidar los
aspectos relacionados con la seguridad, ocuparse de reducir y controlar los costos, alinear la TI a
la estrategia de negocios de la empresa, y demostrar los beneficios propiciados. Estas son sólo
algunas de sus nuevas atribuciones.
En la actualidad, administrar la TI significa saber trabajar las ideas y los problemas de tal modo de
analizar la cuestión bajo diferentes perspectivas integradas: los factores estratégicos, funcionales,
técnicos, tecnológicos y de costos. También es importante saber administrar a terceros, ya que la
tendencia de transferir buena parte de las funciones de TI a empresas externas y especializadas
crece.

El gerente de TI deberá enfrentarse a nuevos desafíos, como el grid computing, también llamado
utility computing y computación a pedido - una manera de organizar los recursos de TI como las
concesionarias públicas usan las redes eléctricas para brindar sus servicios.
El concepto, hasta ahora más utilizado por las comunidades técnicas y científicas que por los
negocios comerciales, permite que los usuarios compartan energía, almacenamiento de datos,
base de datos y otros servicios en tiempo real. Sin embargo, esa tendencia, según afirman los
consultores de mercado, todavía demorará entre 10 y 15 años para hacerse en realidad.
Abordaremos este tema con mayor profundidad en los demás módulos.

Alvin Toffler, consultor y periodista norteamericano, autor de varios libros y respetado como
“futurólogo”, señala que estamos viviendo lo que él llama la Sociedad de Información de la
Tercera Ola, en la que el conocimiento se transformó en el activo más importante de las empresas
en lugar de la producción. El desafío de los administradores de todo el mundo, según su opinión,
será el de crear redes de conocimiento capaces de conectar los elementos monetarios de sus
negocios a los factores no monetarios, como la articulación de la sociedad civil, que cuestiona el
comportamiento ambiental de las empresas.
Toffler destaca tres puntos clave para la administración del futuro. El primero de ellos es el efecto
de la velocidad, que significa la capacidad de hacer un seguimiento de todas las informaciones
que afectan directa o indirectamente los negocios. El segundo es el efecto de la complejidad, que
implica administrar la diversidad de necesidades emanadas de una sociedad informada, o sea, la
capacidad de ofrecer productos personalizados para cada cliente. Y, finalmente, el efecto de la
constelación, que se refiere a la capacidad de detectar las innumerables redes interconectadas en
un negocio. Esto no se restringe a identificar áreas de negocios, proveedores y consumidores,
sino que exige poner especial atención en la estrategia, que debe ser capaz de coordinar los
varios aspectos que componen la actividad económica.

2 - Métricas y metodologías

“Lo que no puede medirse no puede administrarse.” La frase es de Peter Drucker, renombrado
profesor, consultor y uno de los popes de la administración moderna. Su razonamiento refleja la
necesidad, cada vez mayor, de los actuales administradores de TI (Tecnología de la Información)
de hacer uso de metodologías e indicadores que les permitan establecer objetivos, monitorear los
resultados y verificar, de manera objetiva, cómo y si las metas propuestas fueron alcanzadas. La
experiencia ha demostrado que los antiguos manuales de procedimientos utilizados en el pasado
ya no cumplen con los requisitos de las empresas.

El turbulento ambiente empresarial, apoyado en la tecnología y en constante transformación,


exige formas más ágiles y flexibles de administración. Dentro de esa nueva óptica, gana fuerza lo
que se acordó en llamar gobernabilidad de TI, que no es más que una estructura bien definida de
las relaciones y procesos controlados y dirigidos por una organización. El principal interés es
permitir que las perspectivas de negocios, de infraestructura, de personas y de operaciones se
tengan en cuenta en el momento de definir lo que más le interesa a la empresa, alineando la TI a
su estrategia.
En ese contexto, además de las métricas y metodologías que permitan medir la capacidad (en uso
y potencial) de los sistemas, cada vez adquiere más importancia la adopción de estándares que
aseguren e impriman más flexibilidad a la infraestructura tecnológica corporativa. Esos estándares
tienen un papel crítico en la administración de ambientes heterogéneos, sin los cuales no sería
posible facilitar la integración y la interoperabilidad entre los diferentes sistemas y soluciones.

Actualmente, frente a la complejidad y la diversidad tecnológica presentes en las corporaciones,


ya no basta administrar PCs de escritorio, servidores, redes, datos y software en forma aislada.
Todos esos componentes deben interactuar unos con otros, para posibilitar la conectividad y los
servicios, y la administración debe contemplar esas cuestiones. En ese sentido, los proveedores
de tecnología están incorporando estándares a sus productos para otorgarles mayor facilidad de
integración y, al mismo tiempo, permitirles a los usuarios una administración más eficaz, con
menores costos. Por su lado, las empresas usuarias de tecnología también comienzan a prestarle
más atención a esos detalles y a elegir productos basados en estos aspectos.
Una de las principales organizaciones centradas en la creación, empleo, mantenimiento y
divulgación de estándares e iniciativas para la administración de ambientes de TI es la Distributed
Management Task Force (DMTF – www.dmtf.org), que cuenta en su lista de subsidiarias y
colaboradores con los principales proveedores de Tecnología de la Información, además de
grupos y entidades de estandarización. El resultado de esa unión de fuerzas fue la creación de
una serie de estándares, entre los que se destacan el CIM (Common Information Model), WBEM
(Web-Based Enterprise Management), DEN (Directory Enabled Networking), ASF (Alert Standard
Format) y DMI (Desktop Management Iniciative).

CIM, WBEM, DEN, ASF y DMI


En términos simples, el CIM (Modelo de Información Común) puede ser entendido como un
modelo conceptual para la descripción de los entornos computacionales y de red de las
corporaciones - sus componentes, configuraciones, operaciones, relaciones etc.-, sin referirse a
una implementación en particular. Se lo utiliza para direccionar la administración punto a punto de
las estaciones/clientes a los servidores y por la red, es decir, permitir el intercambio de
información de administración entre sistemas y aplicativos.

El CIM está compuesto por dos partes: el CIM Specification, que describe el lenguaje, la
nomenclatura y las técnicas de mapeo a otros modelos de administración (como los SNMP MIBs y
DMTF MIFs, entre otros), presentando también el Meta Schema, que es la definición formal del
modelo; y el CIM Schema, que provee una serie de clases con propiedades y asociaciones que
propician la mejor comprensión conceptual del framework, en el cual se organiza la información
disponible sobre el entorno administrado. El CIM propicia una semántica estandarizada, parecida
a un diccionario de términos de administración, que describe los entornos de TI y de red de la
corporación. El modelo fue concebido para ayudar a minimizar los impactos causados por la
introducción de nuevas tecnologías, facilitando la integración e interoperabilidad con los demás
sistemas ya instalados.
Otro estándar desarrollado por DMTF es el Web-Based Enterprise Management (WBEM),
dedicado a acoplar el CIM a los protocolos de Internet, como XML y HTTP. La arquitectura del
WBEM incorpora el CIM Server y varios proveedores de datos de administración. El CIM Server
actúa como un corrector (broker) de información entre los proveedores de datos de
instrumentación y los clientes/aplicativos de administración. El WBEM puede entenderse como un
set de tecnologías de administración y de estándares Internet desarrollados para unificar la
administración de un entorno corporativo de TI.

El DEN (Redes Habilitadas en Directorio) fue inicialmente definido como un modelo de


información basado en una extensión del CIM. Describe cómo utilizar el CIM y un directorio para
localizar y tener acceso a informaciones de administración. El DEN está centrado en informar los
beneficios, usos y estructura de un directorio, considerado un componente de un entorno
completo de administración.
El DEN también especifica los mapeos de bajo nivel de LDAP para los reportes CIM. Esto permite
crear una plantilla para intercambio de informaciones entre directorios y posibilita que los
proveedores de tecnología compartan una definición común (aunque extensible) tanto de
entidades, como de sistemas, aplicativos y servicios.

Otro estándar es el Alert Standard Format (ASF), que le permite al administrador de TI responder
en forma proactiva y reactiva a los problemas que se presenten en un sistema en particular, o en
varios sistemas, cuando un sistema operativo no está presente o disponible. Históricamente, esos
problemas se resolvían mediante el empleo de tecnologías propietarias y muy costosas. Con el
ASF esos costos pueden reducirse considerablemente.
El ASF es un sistema cliente (o servidor o varios sistemas), definido como “cliente”, y una consola
de administración que lo controla y monitorea. Una computadora ASF permite la administración
remota en un escenario de sistema operativo ausente y la realización de una serie de acciones,
tales como transmitir mensajes por el sistema ASF, incluyendo alertas de seguridad; recepción y
procesamiento de solicitudes remotas de mantenimiento enviadas por consola de administración;
capacidad de describir las características de un sistema cliente a la consola de administración; y
capacidad de describir el software usado para configurar o controlar el sistema cliente en los
casos en que el sistema operativo está presente.

El ASF agrega importantes medidas de seguridad, que definen interfaces de alerta y de control
remoto, permitiendo la administración proactiva de elementos de la red cuando sus sistemas
operativos están ausentes. La especificación ASF define el Remote Management Control Protocol
(RMCP), que permite que el administrador de la red responda a una alerta en forma remota de
diferentes maneras: activando los sistemas, desactivando los sistemas, o forzando un reboot.
Esa funcionalidad permite que el administrador ahorre un tiempo valioso, en la medida en que
reduce las visitas al entorno de PC de escritorio, pues tendrá la posibilidad de solucionar los
problemas en forma remota por medio de una consola de administración. El ASF también define
un protocolo de cuatro etapas que incluye el descubrimiento, la autenticación, el comando de
transferencia y la finalización. Con esas capacidades de autenticación, es posible que el
administrador cubra, también en forma remota, las necesidades de seguridad requeridas por la
corporación.

El OS-absent (sistema operativo ausente) se define como un estado del entorno computacional en
el cual el sistema operativo no está disponible. Esto puede suceder por problemas de boot o
errores, o porque el sistema está en estado de reposo. Con la especificación ASF, el
administrador de la red recibirá un alerta de fallas en componentes específicos, minimizando así el
mantenimiento on-site y, al mismo tiempo, aumentando la visibilidad y el acceso remotos a los
sistemas locales. Sin el ASF, los problemas de sistema operativo ausente requieren una
intervención manual para reactivar los sistemas o forzar un reboot/reinicio.
Los principales proveedores de soluciones de TI, entre los que se incluyen Intel, 3Com, HP e IBM,
entre otros, desempeñaron un papel activo en el desarrollo del ASF, trabajando conjuntamente
con DMTF. Esas empresas apuestan a ese estándar para garantizarles a sus clientes del sector
corporativo una administración más eficiente de sus entornos distribuidos, ayudando inclusive a
maximizar el uptime (disponibilidad) de los sistemas.

Por otro lado, las corporaciones usuarias de tecnología ya comienzan a exigir ese estándar en los
productos. Otro estándar desarrollado por DMTF es el Desktop Management Interface (DMI)
Specification, que establece un framework estándar para administrar PCs de escritorio, notebooks
y servidores conectados en red.
El DMI fue el primer estándar para administración de PC de escritorio y coexiste en los entornos
actuales con el WBEM. La especificación inicial, creada en 1993, comprendía la administración
remota por una interfaz y disponía de un modelo para filtrado de eventos. La versión 2.0, lanzada
en 1996, extendió la especificación original con la definición de un mecanismo que envía las
informaciones de administración a través de la red a los clientes no locales o por un sitio central.

Metodologías e indicadores
A partir de mediados de la década del 80, comenzó a verse que la TI podría jugar un papel
decisivo en la vida de las organizaciones, contribuyendo de manera efectiva a aumentar la
competitividad de la empresa.

De acuerdo con el profesor José Antão Beltrão Moura, del Centro de Ingeniería Eléctrica e
Informática de la Universidad Federal de Campina Grande, la empresa tiene una serie de
objetivos al usar TI, para volverse digital. Algunos de ellos son: reducir los costos de los procesos
de negocio y los costos de clientes y proveedores, diferenciar productos y servicios, reducir las
ventajas de la competencia, innovar en la creación de nuevos productos y servicios, además de
explotar nuevos mercados o nuevos nichos de mercado.
La empresa digital también necesita promocionar y administrar la expansión regional y global de
los negocios, diversificar e integrar productos y servicios, crear organizaciones virtuales de socios
de negocios, desarrollar sistemas que permitan entablar relaciones estratégicas de negocios con
clientes, proveedores y prestadores de servicio. Su plataforma de TI debe construirse
considerando la necesidad de orientar las inversiones en personal, hardware, software y redes
para uso operativo hacia las aplicaciones estratégicas. La TI también será útil para recolectar y
analizar datos internos y externos, en la construcción de una base estratégica de información.

Medidas estratégicas
La ardua tarea de administración del entorno de tecnología también puede facilitarse con la
adopción de herramientas, indicadores y metodologías que ayudan a los profesionales a medir el
uso efectivo y el potencial de uso de los sistemas. La lista de productos es vasta y variada.
Actualmente, a las soluciones conocidas y tradicionales se suman otras, como Balanced
ScoreCard, Return on Investment (ROI), TCO (Total Cost of Ownership), Economic Value Added
(EVA) y Activity Based Costing, y otros modelos empleados por el sector corporativo, como el
CobiT, ITIL y CMM. A continuación, describiremos brevemente las principales herramientas de
medición utilizadas por el mercado para apoyo de la administración empresarial.

Desarrollada en los Estados Unidos, la metodología CobiT – Control Objectives for Information
and Related Technology- fue creada por el Information System Audit and Control Association
(Isaca) en 1996, a partir de herramientas de auditoría, funcionando como una especie de guía
para la administración de TI en las empresas. El CobiT incluye una serie de recursos, como
sumario ejecutivo, framework, control de objetivos, mapas de auditoría y un conjunto de procesos
de trabajo ya establecidos y empleados por el mercado, entre los que se incluyen el CMM
(Capability Maturity Model), la ISO 9000 (para calidad), BS7799/ISSO 17799 (normas para
seguridad de la información) y el ITIL (para administración del departamento de TI).
El CobiT es independiente de las plataformas de TI adoptadas por las empresas y su uso está
orientado a los negocios, para proveer informaciones detalladas para la administración de
procesos. La metodología se divide en tres niveles distintos: gerentes que necesitan evaluar los
riesgos y controlar las inversiones de TI; usuarios que necesitan asegurar la calidad de los
servicios prestados a los clientes internos y externos; y auditores que deben evaluar el trabajo de
administración de TI y aconsejar en cuanto al control interno de la organización. El foco principal
está puesto en señalar dónde deben realizarse mejoras.

Complementario al CobiT, el ITIL - Information Technology Infraestructure Library es una


biblioteca que describe las mejores prácticas de administración, específicamente elaborada para
el área de TI. Creado a fines de los años 80 por la Central Computing and Telecommunications
Agency para el gobierno británico, el ITIL reúne un conjunto de recomendaciones, y se divide en
dos bloques: soporte de servicios (service support), que incluye cinco disciplinas y una función; y
entrega de servicios (service delivery), con otras cinco disciplinas. Los puntos tratados presentan
las mejores prácticas a la central de atención, administración de incidentes, administración de
problemas y administración financiera para servicios de TI.
Orientado a ayudar a las empresas a mejorar la productividad de los procesos de desarrollo de
software y a organizar el funcionamiento de sus entornos de TI, el CMM - Capability Maturity - es
una metodología que muestra las metas a ser alcanzadas, actuando como un modelo de
orientación y calificación de los estados de madurez. El CMM define cinco niveles de madurez
para los entornos de desarrollo de software - inicial, repetible, definido, administrado y optimizado
-, cada uno de ellos compuesto por un conjunto de áreas clave de proceso (KPA – Key Process
Areas) que describen las cuestiones y grandes temas que deben ser abordados y resueltos para
alcanzar un determinado nivel.

Metodologías tradicionales
Una de las metodologías más buscadas en la actualidad es el Balanced ScoreCard, creada a
inicios de la década del 90 por Robert Kaplan y David Norton, ambos profesores de la Harvard
University (EE.UU.). Su empleo permite que una empresa obtenga una base más amplia para la
toma de decisiones, considerando cuatro perspectivas: la financiera (según la visión de los
accionistas), la de los clientes, la de procesos internos de negocios y la de innovación.

En la práctica, la metodología logra mostrar lo más crítico, posibilitando dirigir los recursos hacia
los procesos que de hecho agregarán valor a la empresa. La tecnología es una pieza importante
para poner el BSC en funcionamiento, pero no es suficiente, porque interactúa con la cultura de la
corporación. Por ser compleja e involucrar a toda la estructura empresarial, la adopción de ese
modelo debe ser decidida por la alta dirección o hasta por el presidente de la empresa.
El proyecto de construcción del BSC es aplicable a cualquier empresa, independientemente del
sector de actividad o tamaño, llevando en promedio de 8 a 12 semanas para su conclusión, pero
los beneficios recién comienzan a percibirse un año después de su implementación. El uso de
esta metodología otorga una visión amplia, general e integrada de la empresa, por medio de
diversos paneles. Se trata de un modelo flexible, que permite ajustes a lo largo del tiempo.

El Balanced ScoreCard crea un lenguaje para comunicar la misión y la estrategia de la empresa a


todos los empleados y utiliza indicadores para informar sobres los vectores de éxito alcanzados
hasta el momento y los pretendidos para el futuro. De esa forma, es posible canalizar las energías
y los esfuerzos de las personas para alcanzar los objetivos de largo plazo.
Otro indicador de desempeño fundamental en el sector corporativo es el Return on Investment
(ROI, retorno sobre la inversión), utilizado para apoyar y justificar nuevas inversiones en
tecnología. El ROI se calcula considerando el beneficio anual proveniente de la inversión, dividido
por el monto invertido, siendo expresado en porcentajes y, por lo tanto, fácilmente comparable a
otras tasas, por ejemplo, la de intereses y la de costo de capital. Este indicador, sin embargo, no
considera los riesgos involucrados ni otras variables durante un determinado período. En ese
sentido, no es muy recomendado para la evaluación de proyectos de larga duración, en los que
los costos y beneficios sufrirán grandes modificaciones con el tiempo. Aún así, el ROI es uno de
los indicadores preferidos por los principales ejecutivos de las empresas porque ofrece un valor
posible de cuantificación y bien definido.

TCO, TVO y CAPT


Una de las grandes preocupaciones del sector corporativo es verificar hasta qué punto los gastos
se realizan en forma inteligente y cuáles son las ganancias reales obtenidas. Lo más importante
no es saber cuánto se invierte en TI, sino tener una comprensión general de su impacto en la
organización. Entre las metodologías existentes, una de las más conocidas y que se convirtió en
estándar en todo el mundo es el TCO -Total Cost of Ownership o Costo Total de Propiedad,
desarrollada en 1987 por el Gartner Group –, que está evolucionando hacia un concepto todavía
más amplio, llamado TVO – Total Value of Opportunity o Valor Total de Oportunidad.

El TCO comenzó a considerarse ampliamente a medida que la computación distribuida se


desarrollaba y las empresas se dieron cuenta de que, a pesar de que el modelo cliente/servidor
brindaba una serie de beneficios muy válidos, en contrapartida, planteaba una serie de desafíos
que el modelo centralizado anterior, de cierta forma, no planteaba, por ser más controlado. Entre
esos desafíos, los principales eran la administración de costos y la cuestión de la seguridad.
Inicialmente, la metodología se desarrolló para medir solamente los costos relativos a las PCs.
Después, el concepto maduró, expandiéndose para abarcar a todo el resto de la computación
distribuida, como redes LAN (Local Area Network), puentes, hubs, routers, periféricos etc.
La idea que se intentaba inculcar en el sector corporativo, a fines de los años 80, por medio del
análisis del TCO, era que el costo de contar con un activo de TI no se restringía al valor de
adquisición. La suma gastada en la compra de la solución o del equipo representaba sólo una
pequeña parte de una ecuación mucho más compleja, que también incluía los costos relativos al
mantenimiento y uso de ese activo a lo largo del tiempo. Similar a un plan de cuentas contable, el
plan de cuentas del TCO incluye todos los costos de mantenimiento de una solución de TI - tanto
los costos directos y estimados (como adquisición de hardware y software, operación y
administración), como los indirectos y no estimados (como tiempo de inactividad de los sistemas y
operaciones de los usuarios finales).

Analizar los costos de TI en forma más amplia, sin embargo, todavía no es considerado por
muchas empresas como algo totalmente satisfactorio. Muchos deseaban comprobar los reales
beneficios propiciados por la tecnología en uso.
Otra metodología para medir el costo total de propiedad es el Costo Anual por Teclado – CAPT,
creado alrededor de 1998 por el CIA/FGV (Centro de informática Aplicada de la Fundación Getúlio
Vargas de San Pablo). El método se caracteriza por su sencilla y fácil aplicación, y consiste,
básicamente, en relevar todas las sumas orientadas al área de TI (inversiones y gastos en
hardware, software, mantenimiento, soporte, actualización, capacitación de empleados y todo lo
que esté bajo el ámbito de TI). De esa forma, se arriba a una suma unificada y ese monto se
divide por el número de “teclados” o de equipos existentes en la empresa. La facilidad reside
justamente en el hecho de que toda la empresa dispone de esa información. La propuesta del
CAPT es la de ser un indicador que proporciona una visión bastante clara de cómo la empresa se
encuentra en aquel momento o, por lo menos, cómo está la administración de los recursos de
tecnología.

El CAPT no se basó en ningún modelo preexistente, sino que fue el resultado de un trabajo de
investigación, realizado por el equipo de investigadores del CIA, que incluye a profesores y
alumnos de la Fundación Getúlio Vargas, y que tenía por objetivo identificar cuáles eran las
informaciones importantes y que debían ser incluidas en una lista para poder medir, en forma
eficiente, los costos de TI.
La metodología de la FGV es sólo una parte de la radiografía sobre los costos de TI de una
empresa. Los mismos creadores del método reconocen su limitación. Permite obtener pocas
informaciones, exigiendo el uso de otros indicadores para brindar una mejor percepción sobre la
dirección de los gastos e inversiones en TI.

Específicamente en cuanto al uso de aplicativos, existe una metodología denominada Total Cost
of Application Ownership (TCA), que se aplica especialmente para la evaluación de los costos
relacionados con la computación basada en red. Con la proliferación del uso de redes en las
empresas, muchos aplicativos son puestos a disposición de usuarios fijos, móviles o que se
encuentran dispersos geográficamente. Los aplicativos deben ser accesibles por medio de una
gran variedad de opciones de conectividad, como redes LAN, WAN, VPN, wireless y Web based,
entre otras.
También el número y la variedad de dispositivos fijos y móviles, como PCs, notebooks, PDAs,
entre otros, ha crecido mucho en las empresas. El TCA se enfoca en el análisis de los costos
asociados a los dispositivos informáticos específicamente, y considera cómo se accede a los
aplicativos, la ubicación de los usuarios, las opciones y la variedad de conectividad y de tipos de
dispositivos-cliente.

Indicadores tradicionales
Además de las metodologías y métricas específicas para el área de TI, los administradores
informáticos pueden utilizar otros sistemas que ya venían siendo utilizados por las empresas
antes del uso masivo de la tecnología. El método Activity Based Costing (ABC-Costeo basado en
Actividad), por ejemplo, fue inicialmente adoptado por el sector industrial, usado como una
poderosa herramienta para la administración de los costos de producción, siendo posteriormente
empleado también en otras áreas, como la de servicios.

La idea básica es que todas las actividades de una empresa, orientadas a apoyar la producción y
distribución de bienes y servicios, deben considerarse como costos del producto. El ABC integra
varias actividades distintas, entre ellas, el análisis de valor, el análisis de procesos, el control de
costos y el control de calidad. Los enfoques basados en actividades generan informaciones
importantes para apoyar la toma de decisión, ya que les brindan a los gerentes un panorama claro
de cómo se comportan los costos y cuáles son las formas de controlarlos eficientemente para
optimizar el desempeño de los negocios.
Algunos administradores también utilizan el Economic Value Added (EVA), o Valor Económico
Agregado -, método de desempeño corporativo desarrollado por la consultora norteamericana
Stern Stewart, en la década del 80, que corresponde a la resta de la ganancia operativa del costo
de capital.

También existen otras metodologías y métricas que constituyen importantes herramientas para
ayudar a los gerentes de tecnología a monitorear y controlar costos y evaluar beneficios. El uso de
esos sistemas, individualmente o combinados, está volviéndose obligatorio para que las
corporaciones mantengan su agilidad y aseguren su poder de competitividad.

3 - Administración de PCs

Durante décadas, el director de informática se limitó a administrar la tecnología en forma táctica y


técnica. El entorno centralizado, basado en la tecnología propietaria que predominó en los años
60 y 70, aunque presentara gran complejidad, era más fácil de administrar. La atención del
administrador del área estaba básicamente centrada en el desarrollo de aplicativos, en el análisis
de sistemas, en el trato con su equipo, el mantenimiento, y atender a las solicitudes de los
diferentes departamentos de la empresa y actividades técnicas.
La diversidad de máquinas y software era pequeña, en comparación con la actualidad. Al
mainframe se conectaban algunos periféricos y las entonces llamadas “terminales dummy o
bobas”, que permitían que sólo un limitado número de usuarios tuviera acceso a los datos. En esa
época, la elección de nuevas tecnologías era de cierta forma sencilla, ya que había pocos
proveedores en el mercado.

Ese modelo perdió su preponderancia con la proliferación del entorno cliente-servidor y de la


informática distribuida. En poco tiempo, nuevas empresas proveedoras de hardware y software
ampliaron considerablemente la oferta de opciones, volviendo más complicado el proceso de
selección. Por otra parte, los usuarios de diferentes departamentos de la corporación comenzaron
a tener acceso a herramientas tecnológicas, lo que provocó el aumento del número de estaciones
de trabajo, de PCs y dispositivos móviles (notebooks) en uso.

De ese modo, el entorno informático se volvió múltiple y mucho más complejo. Muchas empresas
comenzaron a disponer de un parque heterogéneo, compuesto por máquinas de diferentes
fabricantes, tamaños y fechas de fabricación, ejecutando diferentes sistemas operativos y usando
diferentes versiones de software.

Viejas y nuevas generaciones de herramientas de TI conectadas en redes comenzaron a convivir


en un mismo entorno, que pasó a estar en permanente transformación. Administrar la Tecnología
de la Información dejó de ser una actividad meramente técnica. Hoy, significa orientar recursos
para alcanzar objetivos estratégicos.

Nuevos desafíos

La dinámica de la evolución tecnológica generó un efecto colateral. Los altos costos directos e
indirectos relacionados con el mantenimiento de todo el aparato informático llevaron a las
empresas a reevaluar su infraestructura de TI y a buscar identificar, medir y comprobar los
beneficios propiciados en disponibilidad, confiabilidad, accesibilidad y eficiencia de los sistemas.

Frente a esa variedad de cambios, le corresponde al director de TI la difícil tarea de imprimir


eficiencia a los procesos de negocios, y, al mismo tiempo, reducir los costos operativos. La buena
administración y la mejor utilización del aparato informático instalado pasó a ser fundamental y
también el principal desafío para el administrador de TI.
En lo que se refiere específicamente al parque de PCs (desktops), estudios del instituto de
investigaciones Gartner mostraron que las empresas que no realizan una adecuada
administración del hardware y software distribuidos pueden registrar un aumento anual de entre el
7% y el 10% en el costo total de propiedad.

Por monitoreo inadecuado, esas corporaciones terminan teniendo acceso a informaciones


incorrectas para planificar upgrades de hardware o sistemas operativos. Además de aumentar los
costos, la mala administración colabora para que los administradores del área tracen predicciones
incorrectas sobre los equipos que los usuarios de hecho tienen y para los cuales deben
desarrollar aplicativos.

Gartner también concluyó que, inversamente, cuando la administración es correcta y bien


ejecutada, puede reducirse el TCO (costo total de propiedad) en casi un 30%. La estrategia se
resume a enfocar la reducción de costos de todas las etapas del ciclo de vida de la PC, tomando
en cuenta también el entorno de TI del que forma parte.

Centralizar el control de TI y optar por la adopción de un entorno estandarizado (con productos de


un único fabricante o de pocos proveedores) son otras actitudes que pueden producir grandes
beneficios. Entre ellos, podemos citar el soporte facilitado, la resolución de problemas más ágil, la
actualización de antivirus y de programas aplicativos de manera más sencilla y la optimización de
la capacitación de usuarios, además de la reducción de costos.

Una investigación realizada por Giga Information Group mostró que la estandarización de PCs
puede generar reducciones de entre el 15% y el 25% en el costo de TI durante el ciclo de vida de
los sistemas.

Planificación de la capacidad

El ciclo de vida de las PCs está dividido en cuatro etapas principales: evaluación,
distribución/migración, administración y desactivación/renovación.
Para evitar errores simples - como ofrecer una máquina con un procesador de alta potencia, gran
capacidad de memoria y recursos sofisticados a un empleado que sólo utilizará un procesador de
textos y una planilla electrónica, o entregarle a un ingeniero un equipo que no le permita ejecutar
aplicativos más pesados y necesarios para su trabajo - es fundamental hacer una evaluación
previa de la base de usuarios para definir la configuración de las PCs que se les proveerán, para
cubrir sus necesidades reales.

La planificación de la capacidad (sizing) de las PCs debe considerar dos aspectos. El primero se
refiere al análisis del perfil de uso de cada empleado, para que el equipo y los aplicativos
presenten las características y funcionalidades en la medida exacta para las necesidades de
trabajo de ese profesional. En ese sentido, la administración puede facilitarse si los usuarios son
agrupados en categorías, de acuerdo con sus áreas de actuación: ventas, ingeniería,
administración, marketing etc.

También es importante considerar las características de trabajo de cada usuario, por ejemplo,
verificar la necesidad de movilidad de los profesionales de campo y si suelen participar de
reuniones externas con clientes y proveedores, o los que viajan con gran frecuencia; empleados
que usan aplicativos que requieren mayor poder de procesamiento, como los del área de
ingeniería y de desarrollo de productos, y así sucesivamente.
La segunda característica se refiere a la medición del volumen de procesamiento de cada
máquina. Ese cálculo se realiza en base a los datos históricos de uso de cada máquina y de
proyecciones de uso futuro de los sistemas. El mundo de los negocios no es estático. Al contrario,
vive en constante transformación, y eso debe ser considerado por el administrador de TI.

Es necesario evaluar y hacer un seguimiento del ritmo de los cambios dentro de la corporación y,
en consecuencia, de las necesidades de cada usuario. Verificar continuamente la necesidad de
ampliar la capacidad de memoria, la capacidad de los discos, la velocidad de procesamiento,
upgrade de software, movilidad, recursos multimedia, recursos para trabajo en grupo, entre otros
elementos, son actividades fundamentales para optimizar el parque de PCs y adecuar su uso.

Actualmente, existen herramientas que ayudan al administrador en la tarea de hacer ese


relevamiento, confeccionar un inventario sobre el número de máquinas instaladas (inclusive
notebooks, PDAs y dispositivos wireless) y monitorear sus respectivas configuraciones, software
utilizado, métricas de rendimiento y nivel de integración con otros sistemas.

La distribución/migración es otra cuestión importante. Generalmente, los usuarios terminan


requiriendo horas de personal técnico del área de soporte y mesa de ayuda para configurar
software en sus equipos. Pero ese trabajo puede ser hecho en forma remota, por medio de
herramientas específicas basadas en red. La configuración automatizada reduce los riesgos de
fallas humanas y proporciona mayor estandarización y confiabilidad. En principio, ese proceso
permite cargar en las nuevas PCs el sistema operativo y los aplicativos que fueron configurados
en un sistema de referencia.

En lo que respecta a la administración de las PCs, otros dos elementos son importantes: la
actualización de software y la resolución de problemas. Son procesos que también pueden
realizarse en forma remota, mediante herramientas específicas y por procesos de monitoreo.
Fallas en las PCs implican una disminución de la productividad de los empleados, por eso se
recomienda la adopción de herramientas que, combinadas con aplicaciones de mesa de ayuda,
permiten que los técnicos controlen los sistemas por la red y propongan la resolución de las fallas
en forma rápida y eficiente.

La determinación del tiempo de vida útil de los equipos es una práctica recomendada por los
institutos de investigación y por los consultores como forma de reducir los costos de soporte y
mantenimiento, además de facilitar la administración. El Giga Information Group recomienda que
cada tres años se renueve el parque de PCs y, cada dos, el de notebooks, considerando que es
más caro para la empresa mantener en operación los equipos antiguos que invertir en su
reemplazo por productos de última generación.

Cuanto más antiguo sea el parque, mayores serán los costos de mantenimiento y de soporte,
además de que aumentan los riesgos de fallas en los sistemas y de baja velocidad de
procesamiento, lo que puede comprometer los niveles de productividad de la empresa.

Estabilidad de la plataforma

Se estima que en el mundo existen 500 millones de PCs con una vida útil superior a cuatro años,
y dentro de ese número, el 50% se utiliza en el sector corporativo. La mayoría de esos equipos
está dotada de sistemas operativos más antiguos, como el Windows 95 y 98. En cuanto a los
demás aplicativos, también exigen renovación, inclusive porque muchos proveedores de
productos ya no proveen soporte para versiones antiguas de sus soluciones. No acompañar esa
tendencia del mercado puede significar para las corporaciones la obligación de solventar costos
adicionales.

Invertir en nuevas plataformas y en software de última generación puede representar una


inversión inicial más grande, pero las ganancias en productividad y la reducción de la necesidad
de mantenimiento demuestran, en las cuentas, que se trata de una práctica que debe
implementarse. Renovar el parque informático equivale a la compra de un auto nuevo. Cuantos
más años de uso tenga el auto, más veces tendrá que ir al taller, generando gastos de
mantenimiento.
En el caso de la informática, sucede lo mismo. Además de sufrir más fallas, los sistemas pueden
presentar baja productividad y ser más vulnerables a intentos de invasión por parte de hackers y
virus.

De acuerdo con algunos consultores, en la práctica, es grande el número de empresas que opta
por la estrategia de renovar el parque instalado en Estados Unidos y en los países del primer
mundo, que tienen mecanismos financieros y de mercado favorables. Pero no sucede lo mismo en
países como Brasil y otros de Latinoamérica. En esos lugares, se verifica que la actualización
tecnológica no es primordial, sino que se limita a algunos segmentos de la empresa,
especialmente a los que tienen interfaces con el mundo externo.

En Brasil, no es difícil encontrar industrias que todavía utilizan soluciones antiguas, por ejemplo, el
lenguaje Cobol y el sistema operativo DOS, y que no quieren invertir en innovación porque esas
tecnologías antiguas todavía les sirven.

En lo que respecta a las nuevas inversiones en informática en los países emergentes, la realidad
muestra que los administradores necesitan verificar cómo fluye la informática en los diferentes
departamentos y cuál es el grado de madurez de los usuarios para trabajar con ella. Otra cuestión
importante es verificar qué resultados se obtendrán con las nuevas herramientas y cuánto
impactará la actualización tecnológica en la evolución de los negocios de la corporación.
Las prácticas de administración representan un peso más grande, principalmente en la reducción
de los costos directos e indirectos, que hoy constituyen la mayor presión sobre los
administradores de TI ejercida por la alta dirección. Hacer un inventario del parque de hardware y
software instalado posibilita un mejor control de los activos, además de combatir la piratería, en la
medida en que se hace un relevamiento de la cantidad de licencias instaladas, y también
contribuye a disciplinar el uso de esos recursos dentro de la organización.

También es importante contar con un programa eficiente de seguridad y protección de datos, para
disciplinar el uso de los activos de TI, impidiendo la instalación y la desinstalación de software por
parte de los usuarios. Optar por la estandarización del entorno también es un actitud inteligente,
ya que facilita la utilización de los recursos por parte de los usuarios, además de reducir los costos
de capacitación y minimizar el trabajo de la mesa de ayuda. Son prácticas que, en conjunto,
contribuyen a reducir los costos totales en hasta un 30%.

Administración de la movilidad

Actualmente, la fuerza de trabajo es mucho más móvil y distribuida que nunca, y ese proceso
deberá acentuarse en los próximos años. Los sistemas operativos modernos y los aplicativos de
administración brindan un largo espectro de herramientas que permite monitorear y administrar los
sistemas cliente en forma remota, controlando el inventario, solucionando problemas e instalando
o renovando el software.

Las soluciones que posibilitan la administración remota de la base de usuarios móviles facilitan,
principalmente, las tareas de mantenimiento y mesa de ayuda. Si un usuario tiene problemas con
un aplicativo, el personal técnico podrá visualizar el problema y solucionarlo remotamente. Según
Gartner, tan sólo adoptando esa práctica, las corporaciones pueden registrar un ahorro de entre
USD 21 y USD 77 por máquina, por año, en los costos de mesa de ayuda.

Otra forma de reducir costos y optimizar la administración de los entornos distribuidos es repartir
por la corporación estaciones de reserva en las cuales los empleados pueden hacer backups y
reponer componentes de los sistemas según sus necesidades. De ese modo, se crean estaciones
de servicios orientadas a la atención de los usuarios de notebooks para ayudarlos a solucionar
problemas en forma rápida y eficiente.

En resumen, las mejores prácticas para la buena administración de la base de PCs recomiendan
que se tomen algunas medidas simples, como reemplazar PCs en forma proactiva, simplificar y
estandarizar el entorno, segmentar la base de usuarios, mantener los softwares actualizados,
optimizar el proceso de distribución de sistemas y monitorear el entorno móvil por medio de
soluciones distribuidas.
4 - Administración de servidores

Las corporaciones vienen optando por el modelo informático distribuido desde comienzos de la
década del 80. Esos entornos de tecnología pueden disponer de una sola computadora con mayor
capacidad, utilizada como servidor de varias estaciones-cliente (desde PCs comunes a estaciones
de trabajo).

Sin embargo, la situación más habitual es que las empresas cuentan con un entorno heterogéneo,
con varios servidores distribuidos o conectados en cluster, o sea, varios servidores conectados en
red. Ese modelo requiere que se tenga más cuidado con la administración para que la
infraestructura no se vuelva demasiado compleja, ineficiente y costosa, exigiendo continuas
inversiones en equipos, componentes y personal.

Debido a las limitaciones del hardware y del software, antiguamente, muchos operadores y
administradores se mantenían fieles a algunos conceptos y reglas, por ejemplo, la que
determinaba que cada aplicación de misión crítica debía permanecer en un único servidor
dedicado, que nunca podía utilizar más que el 80% de la capacidad de la CPU (unidad central de
procesamiento). Con la evolución tecnológica, eso ya no tiene sentido.
Actualmente, la gran preocupación de los administradores informáticos se relaciona con la
proliferación del número de servidores. Las empresas invierten cada vez más en nuevos equipos,
tratando de aumentar la productividad y cumplir con las crecientes necesidades de negocios, lo
que, por otro lado, puede ocasionar graves trastornos y dificultad de administración. La diversidad
de plataformas operativas y de generaciones tecnológicas en un solo entorno provoca problemas
de operación, mantenimiento, actualización y, como consecuencia, repercute en los costos.

Uno de los factores que ha contribuido mucho al aumento del número de servidores en las
empresas es la reducción del costo de hardware, año a año, aunque ese valor represente sólo el
20% del costo total de propiedad. La alternativa de instalar varios servidores puede parecer
económica, pero cada nueva máquina agrega costos ocultos significativos, requiriendo dedicación
de los técnicos especializados en actividades de depuración, optimización y administración.

Además, se necesita mantener diferentes configuraciones, como scripts, operativos, versiones de


sistemas, utilitarios de apoyo, procedimientos de backup y disaster recovery.

Mantener todo ese aparato bajo control requiere adoptar algunas medidas, entre las cuales se
incluyen las siguientes consolidaciones: geográfica, física, de datos y aplicativos. Se entiendo por
consolidación geográfica la reducción del número de centros, concentrando los servidores en un
número menor de máquinas.
En la práctica, eso permite reducir costos de administración, ya que disminuye la necesidad de
técnicos remotos. También se optimizan los niveles de servicio, por medio de la adopción de
procedimientos y reglas operativas.

Consolidación física significa transferir la carga de varios servidores de menor tamaño a máquinas
más grandes, lo que mejora la utilización general de los recursos. En promedio, un servidor
distribuido utiliza entre el 20% y el 30% de su capacidad, lo que equivale al uso del pleno
potencial de un solo servidor cada tres máquinas.

Otra medida recomendable se refiere a la consolidación de datos y aplicativos, lo que exige


acciones más sofisticadas y planificación precisa para combinar diversas fuentes de datos y
plataformas en una sola.

Para comprender mejor esos conceptos, basta imaginar que una empresa disponga de un parque
de 200 servidores, mezclando tecnologías Intel y RISC, de diversos proveedores y generaciones
tecnológicas, que operan con sistemas operativos distintos, como Unix, Linux y diversas versiones
de MSWindows y NetWare, de Novell. Administrar ese entorno heterogéneo implica costos de
personal especializado para operación y soporte, además de gastos en las innumerables
versiones de software y de soluciones de administración y de seguridad.
Todas esas cuestiones pueden minimizarse si la empresa opta por una simple consolidación
geográfica y física, reemplazando esos equipos por 30 o 40 de mayor tamaño, obteniendo como
resultado la reducción del número de técnicos, de los costos de instalación física y operativos, y
también registrando ganancias de disponibilidad, seguridad, nivel de servicio y aprovechamiento
de los recursos informáticos.

La planificación de la capacidad de los servidores es otra tarea que el administrador de TI debe


realizar en forma continua, según la demanda y el volumen de procesamiento de los sistemas,
para que las variaciones de uso que se dan en el entorno no comprometan el rendimiento
deseado y adecuado.

La periodicidad con que ese trabajo debe realizarse puede ser diaria, semanal o mensual, de
acuerdo con las características de demanda de los equipos, del volumen de información
procesada y de la criticidad del entorno.

Pueden emplearse herramientas que ayuden en el análisis histórico de uso de los sistemas y en la
realización de cálculos para proyectar necesidades de expansiones futuras, considerando
aspectos tales como: número de usuarios simultáneos con acceso al servidor, mayor velocidad de
procesamiento, aumento de la capacidad de memoria, ampliación del número de estaciones
cliente conectadas a los servidores, nuevos periféricos y aplicativos agregados.
La administración del cambio

El propósito principal de la administración es preservar y asegurar la confiabilidad y el buen


rendimiento de los sistemas, al menor costo posible de propiedad y de mantenimiento. La
plataforma seleccionada debe tener en cuenta cinco factores fundamentales: flexibilidad,
escalabilidad, rendimiento, confiabilidad y seguridad. Para evitar problemas futuros, el
administrador de TI debe prestarle atención a la garantía de calidad de las herramientas
empleadas en la corporación.

Las mejores prácticas de mercado recomiendan que en el caso de servidores es importante


obtener una garantía de los proveedores de por lo menos el 99,9% de confiabilidad. Los
procedimientos para asegurar el buen desempeño de los servidores deben ser los mismos que se
aplican a las computadoras más grandes, como mainframes, con monitoreo y mantenimiento
periódicos y planificación del desempeño y uso de los sistemas.

En los casos en que TI soporta operaciones importantes para la empresa, pero cuenta con
equipos más pequeños para desarrollar esa tarea, es recomendable optar por servidores en
cluster, asegurando la redundancia del entorno y garantizando el mantenimiento de los servicios,
inclusive en caso de desperfectos en algún equipo. También es importante disponer de un
sistema de backup para prevenir eventuales problemas de pérdida de datos o de indisponibilidad
de los sistemas.

También es necesario adoptar algún tipo de administración de cambios, que puede realizarse
manual o automáticamente. Cuando el sector corporativo comenzó a emplear los primeros
servidores, el software se instalaba manualmente, a través de varios tipos de medios, como
diskettes y los actuales CD-ROMs. En esa época, el software instalado en el servidor era
comúnmente estático, y requería modificaciones sólo una o dos veces al año. Cuando requerían
modificaciones, los técnicos demoraban horas para realizar el proceso.

Con el correr del tiempo y los avances tecnológicos, las empresas comenzaron a adquirir un
número mayor de servidores y, de ese modo, surgió la necesidad de administrarlos en forma
remota. Algunas organizaciones utilizaban scripts desarrollados internamente y software utilitario,
con el objetivo de distribuir los aplicativos en servidores remotos. Después, recurrían a
herramientas de administración y control para instalarlos.

Esa sistemática no brindaba escalabilidad y era necesaria la intervención manual y de


profesionales especializados. Con el crecimiento de la web y el aumento del uso de aplicativos
basados en red, también aumentó la frecuencia de cambios en códigos y contenidos, y al mismo
tiempo las arquitecturas de TI se volvían cada vez más complejas.
Para cubrir esas necesidades, surgieron soluciones de administración de cambios, productos que,
sintéticamente, son recomendados para simplificar la administración de aplicativos y datos,
reduciendo la necesidad de administración local y, por consiguiente, disminuyendo la cantidad de
llamadas a la mesa de ayuda.

Hoy, la mayoría de las soluciones para administración de cambios en servidores está formada por
una mezcla de sistema de distribución de aplicativos y de contenido, y de instalación de archivos,
a partir de repositorios principales para puntos de la red, cuyo objetivo es ofrecer control en
tiempo real y disponibilidad de recursos.

5 - Administración de redes

El surgimiento de las redes está íntimamente relacionado con la proliferación de PCs, estaciones
de trabajo, servidores y otras herramientas. Fueron proyectadas, inicialmente, para permitir
compartir recursos caros, como algunos programas aplicativos específicos y bases de datos,
además de impresoras y demás periféricos.

Las primeras redes locales surgieron en las universidades norteamericanas a inicios de los años
70, pero fue a partir de la década del 80, con el lanzamiento comercial de la Ethernet (que se
transformó en estándar de redes locales de PCs) y con la proliferación del modelo cliente/servidor,
que ese proceso de difundió en las empresas.
En los años siguientes, la evolución de las herramientas informáticas y de las telecomunicaciones,
aliada a la reducción de costos de los recursos informáticos, sumada al crecimiento de Internet y a
las tecnologías móviles e inalámbricas, permitió la creación de diferentes tipos y tamaños de
redes, que se mantienen en constante evolución.

La lógica es muy simple: a partir del momento en que pasamos a usar más de una computadora,
sea dentro de una gran empresa o en una pequeña oficina, fatalmente surge la necesidad de
transferir archivos y programas, compartir la conexión a Internet y periféricos de uso común entre
los sistemas.

Adquirir una impresora, un modem y un drive de CD-ROM para cada computadora, por ejemplo, y
usar diskettes, o CDs grabados para intercambiar archivos, no sería productivo, además de elevar
demasiado los costos.

Con las computadoras conectadas en red, transferir archivos, compartir la conexión a Internet, así
como las impresoras, drives y otros periféricos, contribuye no sólo al mejor aprovechamiento de
las inversiones realizadas en esas herramientas, sino que también optimiza la comunicación entre
los usuarios, sea por intermedio de un sistema de mensajes o de una agenda grupal, entre otras
posibilidades.
En una empresa en que varias personas deben operar los mismos archivos, por ejemplo, un
estudio de arquitectura, donde normalmente muchos profesionales trabajan en el mismo proyecto,
centralizar los archivos en un solo lugar es una opción interesante. En la medida en que hay sólo
una versión del archivo circulando por la red y, al abrirla, los usuarios estarán siempre trabajando
con la versión más reciente.

Centralizar y compartir archivos también es una medida que permite ahorrar espacio en el disco,
ya que, en vez de haber una copia del archivo en cada equipo, existe una única copia guardada
en el servidor de archivos. Con todos los archivos en el mismo lugar, es muy sencillo mantener un
backup de todo.

Además de archivos individuales, es posible compartir directorios o inclusive una unidad de disco
entera, siempre con el recurso de establecer contraseñas y permisos de acceso. La sofisticación
de los recursos de seguridad varía de acuerdo al sistema operativo utilizado.

Un sistema que permita enviar mensajes a otros usuarios puede parecer inútil en una red
pequeña, pero en una empresa con varios centenares de PCs, distribuidas en varios pisos de un
edificio, o hasta entre ciudades o países diferentes, puede ser vital para mejorar la comunicación
entre los empleados. Además de texto (que se transmite por e-mail común), puede montarse un
sistema de comunicación viva-voz, o inclusive de videoconferencia, ahorrando gastos de llamados
telefónicos, por Internet (Voz sobre IP - VoIP).

Originalmente diseñado para la transmisión de datos, el protocolo IP se convirtió en estándar de


Internet y se destaca en el tráfico de voz, datos e imágenes, siendo cada vez más empleado por
el sector corporativo. Hoy, las empresas buscan integrar sus redes a la web para permitir que
clientes, proveedores de negocios y los mismos empleados tengan acceso a la información desde
cualquier lugar.

Las opciones en productos, arquitecturas, protocolos, tipos de transmisión, entre otros elementos
que componen una red, son inagotables y le corresponde al administrador de TI saber elegir y
agregar nuevos componentes y orquestar todo ese aparato, de modo que funcione en perfecta
armonía. Y, a medida que aumenta la cantidad de usuarios de los aplicativos corporativos, el
volumen de información y la necesidad de administrar los datos crece, en las mismas
proporciones.

De esa forma, aumenta la necesidad de monitorear el consumo de banda y de programar su


expansión o, inclusive, de estudiar el empleo de tecnologías para compresión de datos. También
se hace necesario controlar la disponibilidad de los recursos informáticos, verificando si los
servidores y las PCs están funcionando bien y si los aplicativos están disponibles cuando los
usuarios los necesitan. El análisis del rendimiento es otro elemento fundamental para, en el caso
de alguna caída del sistema, identificar dónde está el problema, si en la red, en las computadoras
o en los aplicativos.

Tipos de red

En términos generales, existen dos tipos de red: las locales, también llamadas LAN (Local Area
Network) y las remotas o de larga distancia, llamadas WAN (Wide Area Network). La LAN une las
computadoras de una oficina, de un edificio, o inclusive de un conjunto de edificios cercanos,
usando cables u ondas de radio, y la WAN interconecta computadoras situadas en ciudades,
países o inclusive continentes diferentes, usando links de fibra óptica, microondas o hasta
satélites. Generalmente, una WAN está formada por varias LANs interconectadas.

Determinadas por el alcance geográfico limitado y también por estar restringidas a una
organización, las redes locales no deben ser entendidas como mera interconexión de equipos
para posibilitar el uso compartido de recursos. Esto se debe a que preservan la capacidad de
procesamiento individual de cada usuario y posibilitan que las computadoras se comuniquen con
equipos de otras redes o con máquinas de mayor tamaño, sin perder autonomía.
La LAN puede clasificarse como una red de datos de alta velocidad, con baja tasa de errores de
transmisión, cubriendo un área geográfica relativamente pequeña y formada por servidores,
estaciones de trabajo, sistema operativo de red y link de comunicaciones. El diseño de ese
sistema, o arquitectura, incluye hardware (placas, conectores, PCs y periféricos), software
(sistema operativo, utilitarios y aplicativos), medio de transmisión, método de acceso, protocolos
de comunicación, instrucciones e informaciones.

La transferencia de mensajes es gestionada por un protocolo de transporte como IPX/SPX,


NetBEUI y TCP/IP. Una LAN puede tener dos o varios centenares de estaciones, cada una
separada por metros de distancia, posibilitando que los usuarios compartan recursos como
espacio en disco, impresoras, unidades de CD-ROM etc., a través de NOS (Network Operation
System – software de red) y placas de red.

La WAN permite la interconexión entre computadoras distantes unas de las otras. Esa necesidad
de transmisión remota de datos entre computadoras surgió con los mainframes, y las primeras
soluciones se basaban en conexiones punto a punto, hechas a través de líneas privadas o
discadas.

Con la proliferación de las PCs y de las LANs, aumentó la demanda de transmisión de datos a
larga distancia, lo que llevó a la creación de servicios de transmisión de datos - y también en
redes y paquetes - en los cuales, a partir de un único medio físico, se puede establecer la
comunicación con varios puntos diferentes.

Un ejemplo de servicios sobre redes de paquetes son los que ofrecen las empresas de
telecomunicaciones y basados en tecnología Frame Relay. Existen varias arquitecturas de red
WAN, entre ellas las que se basan en el protocolo TCP/IP (Transmission Control Protocol), que es
el estándar para redes Unix, Novell, Windows NT y OS/2 y también la utilizada en Internet.

Con el desarrollo de la tecnología inalámbrica, surgieron las WLAN (wireless local area network),
que proveen conectividad para distancias cortas, generalmente limitadas a 150 metros. En ellas,
los adaptadores de redes de las computadoras y los dispositivos de red (hubs, puentes) se
comunican por medio de ondas electromagnéticas. Su uso es ideal en entornos con alta movilidad
de los usuarios y en lugares donde no es posible el cableado tradicional.

Reuniendo los mismos conceptos de las redes WAN (Wide Area Network), empleadas para
permitir la conexión de sistemas que se encuentran a larga distancia, las WWANs se diferencian
de ellas por utilizar antenas, transmisores y receptores de radio en vez de fibras ópticas y modem
de alta velocidad, entre otras formas de conexión. En tecnología de transmisión, las WWANs
pueden usar las mismas usadas por las LANs inalámbricas. Pero también pueden utilizar la
tecnología de telefonía móvil celular.
La influencia de Internet

El surgimiento de Internet, entendida como el conjunto de redes de computadoras interconectadas


en el mundo entero, teniendo en común un conjunto de protocolos y servicios, fue un factor que,
sin duda, causó un gran impacto en las empresas y potenció el uso de los recursos internos. La
Internet propició la creación de otros tipos de redes, como las de uso exclusivo interno (intranets)
y las destinadas a las relaciones de la empresa con sus socios de negocios (extranets),
configurándose como el medio eficiente para agilizar y facilitar el intercambio de información y de
documentos (vía WebEDI).

Por otro lado, Internet también amplió las vulnerabilidades: riesgos (virus, accesos no autorizados,
invasiones al sistema, piratería etc.) y proporcionó el exceso de tráfico de datos (por mails y
mensajes instantáneos), llevando al cuestionamiento de la dimensión de las capacidades de las
máquinas y, en consecuencia, complejizando la administración.

Internet también se mostró como la infraestructura ideal para conectar redes privadas como las
VPNs (Virtual Private Network), de acceso restringido. En vez de usar links dedicados o redes de
paquetes, como Frame Relay, las VPNs usan la infraestructura de Internet para conectar redes
remotas. La principal ventaja es el bajo costo, muy inferior se lo comparamos al de los links
dedicados, especialmente cuando las distancias son grandes.
Administración

Independientemente del tipo, tamaño de la red, sus componentes, arquitecturas y protocolos


utilizados, si se conectan físicamente vía cable, o remotamente vía satélite, ondas de radio, o
infrarrojo, lo que permanece inalterable y común a todas ellas es la necesidad de controlar cada
elemento, de tal forma que sea posible maximizar su eficiencia y productividad, y asegurar su
funcionamiento.

La administración de todo este mecanismo, sea una simple red compuesta por pocos
computadoras, o la más compleja de las composiciones, comprende un conjunto de funciones
integradas, proporcionando mecanismos de monitoreo, análisis y control de los dispositivos y
recursos.

Los principales objetivos de administrar esos entornos son, básicamente, reducir costos
operativos, minimizar los congestionamientos de la red, detectar y corregir fallas en el menor
tiempo posible para disminuir el downtime (tiempo de inactividad) de los sistemas, aumentar la
flexibilidad de operación y de integración, imprimir mayor eficiencia y facilitar el uso para la
organización como un todo.
La realización de esas tareas requiere metodologías apropiadas, herramientas capaces de
promover su automatización, además de personal calificado. Actualmente existen en el mercado
diversos tipos de herramientas que ayudan al administrador en las actividades de administración.
Esas herramientas se dividen en cuatro categorías principales:

• Herramientas de nivel físico, que detectan problemas en cables y conexiones de hardware

• Monitores de red, que se conectan a las redes, supervisando el tráfico

• Analizadores de red, que ayudan en el rastreo y en la corrección de problemas encontrados en


las redes
• Sistemas de administración de redes, que permiten el monitoreo y el control de una red entera, a
partir de un punto central

Entre la gama de soluciones posibles para la administración de redes, una de las más usuales
consiste en utilizar una computadora que interactúe con los diversos componentes de la red para
extraer de ellos la información necesaria para su administración.

Evidentemente, es necesario montar una base de datos en la computadora, que será el


administrador de la red, conteniendo informaciones necesarias para apoyar el diagnóstico y la
búsqueda de soluciones a problemas. Esto incluye el esfuerzo de identificación, rastreo y
resolución de situaciones de fallas. Como el tiempo de espera del usuario para el restablecimiento
del servicio debe ser el menor posible, todo esto debe ser hecho de manera eficiente.

Los sistemas de administración de redes presentan la ventaja de tener un conjunto de


herramientas de análisis y depuración. También pueden presentar una serie de mecanismos que
facilitan la identificación, la notificación y el registro de problemas, por ejemplo:
• Alarmas que indican anormalidades en la red, por medio de mensajes o bips de alerta

• Generación automática de informes conteniendo la información recolectada

• Facilidades para integrar nuevas funciones al propio sistema de administración

• Generación de gráficos estadísticos en tiempo real

• Presentación gráfica de la topología de las redes


Los servicios de telecomunicaciones constituyen otro punto que merece atención por parte del
administrador de TI. Figuran como gastos más difíciles de administrar. Hoy, el desafío es aún
mayor, pues es necesario reducir costos sin comprometer la solidez de la infraestructura de la red
de la corporación.

Existen herramientas de administración de servicios de comunicación que facilitan una serie de


tareas, como la realización del inventario central, que incluye los aspectos técnicos y de rotulado
de cada circuito; administración de datos y herramientas para la producción de informes y control
de cuentas, contratos y administración del circuito; integración de otras plataformas de TI, como
sistemas de mesa de ayuda, plataformas para administración de PCs y red, planificación de
recursos empresariales y contabilidad; y links con operadoras y otros proveedores de servicios vía
XML o extranet.

La administración de telecomunicaciones corporativas permite una administración continua de las


operaciones de la empresa. Pero es necesario determinar qué nivel producirá el mejor retorno
sobre la inversión.

Administración de red en la práctica


Debido a la gran complejidad de los entornos de TI y de las presiones no sólo para reducir costos,
sino también para justificar la real necesidad de inversiones, es prácticamente imposible que el
director del área logre una administración eficaz sin el auxilio de metodologías y herramientas que
permitan automatizar los procesos. Las empresas, y principalmente las que dependen
fuertemente de la tecnología, son cada vez más concientes de esa necesidad.

6 - Herramientas de administración

Ya terminaron los tiempos en los que era posible administrar el entorno de TI en forma empírica y
manual. Con la adopción masiva del modelo informático distribuido por parte de las empresas, y la
creciente dependencia de la tecnología para alcanzar las metas de negocios, es cada vez más
grande la necesidad de disponer de herramientas que permitan monitorear y controlar los
sistemas en todos los niveles y capas. No es de extrañar, por lo tanto, la tendencia de crecimiento
del mercado de software de administración que, según datos de la International Data Corporation
(IDC), habría movido cifras cercanas a los USD 11,5 mil millones en 2006.

De todos los factores que contribuyeron a esa realidad, Internet, sin duda, tuvo un gran peso, ya
que creó una red que permite un nivel de interacción nunca antes imaginado entre la empresa,
clientes, proveedores y otros socios de negocios. Administrar la infraestructura que soporta las
transacciones en el mundo virtual es esencial.

Monitorear y aceitar la red son procedimientos importantes. Lo mismo vale para sus principales
actores (PCs y servidores) individualmente, y también analizar la disponibilidad de aplicativos y
bases de datos, planificar la capacidad de los sistemas y administrar el uso de software y fallas,
contenido y personas, sin descuidar la seguridad. Existen herramientas de administración para
cada una de esas áreas, que se adaptan a las más complejas y diferentes plataformas, sean las
basadas en Unix y Linux, o las basadas en MSWindows y entorno Intel.
Una de las formas de prever la viabilidad de utilización de las herramientas de administración es
diseñar workflows para cada proceso de la empresa. Pueden adoptarse soluciones que cubran,
inicialmente, las áreas más críticas y, después, expandir su uso. No existe, sin embargo, ninguna
fórmula a ser seguida. También puede haber problemas de integración posterior de las diferentes
soluciones, aunque eso sea evitado por los proveedores que logran personalizar el software para
cada cliente y situación específica.

Evolución de las herramientas

En los últimos 30 años, el segmento de herramientas de administración se diversificó y hoy está


muy pulverizado. A comienzos del proceso de maduración de esa tecnología, la era del framework
dominó el mercado. El chasis, como se conoció el dispositivo, servía de base a los aplicativos,
pero dificultaba la integración entre diferentes marcas de productos.

Actualmente, sin embargo, la mayoría de las herramientas disponibles son más amigables,
abiertas y modulares, y permiten el diseño de un proyecto de largo plazo y la combinación de
productos de diferentes proveedores e inclusive soluciones caseras, desarrolladas por la
empresa.
Se recomienda que las corporaciones analicen sus procesos internos para determinar qué es
crítico y qué no para el core business, antes de seleccionar la herramienta. También se debe
chequear la infraestructura para verificar si las condiciones son favorables para recibir el nuevo
aplicativo.

En el caso de que la red no esté preparada, el software de administración podrá generar más
problemas que resultados. Una prueba piloto es fundamental, ya que en ese momento se define el
monitoreo necesario. Otro cuidado vital es entrenar a las personas para que sepan exactamente
qué están haciendo. Si el equipo no está preparado y el proyecto está mal dimensionado, el
resultado puede tardar en hacerse visible o hasta frustrar las expectativas.

Administración de redes

Los programas de administración de red reúnen varias herramientas de monitoreo y control - ya


que proveen una única interfaz de operación - y son ejecutados en servidores, hubs y placas de
red. Su función es recolectar estadísticas del movimiento de los datos y vigilar las condiciones que
exceden el límite de los programas. Al detectar algún problema, alertan al programa de
administración central, lo que pode desencadenar algunas acciones de reinicio o ruteo y pedir
ayuda humana mediante alarmas o avisos.
En general, los fabricantes de equipos para redes adoptan conjuntos de estándares que permiten
la operación de programas administradores. El más conocido y usado es el Administrador de
Protocolos de Red Simple (SNMP – Simple Network Management Protocol), aplicable a todos los
sistemas. Este protocolo fue proyectado a mediados de los años 80 como respuesta a los
problemas de comunicación entre los diversos tipos de red.

La idea básica era ofrecer un modo sencillo de implementación, con bajo overhead de
administración de routers, servidores, estaciones de trabajo y otros recursos de redes
heterogéneas. El SNMP es un protocolo de nivel de aplicación de la arquitectura TCP/IP, que
opera típicamente sobre el UDP (User Datagram Protocol).

Bajo el SNMP, pequeños programas de administración, conocidos como agentes, se ejecutan en


un procesador especial contenido en una variedad de dispositivos conectados en red. Esos
programas monitorean los dispositivos y recolectan los datos estadísticos en el formato conocido
como Management Information Base (MIB - base de informaciones de administración). Un
programa central, denominado Management Console Program (programa consola de
administración), ordena los agentes en una base regular y descarga el contenido de sus MIBs.

El lugar ideal para un agente de administración es el hub, dispositivo en el centro del sistema de
cables. De esa forma, el agente puede monitorear el nivel de actividad y el tipo de dato que va y
vuelve a cada estación cliente y a cada servidor. Generalmente, los servidores tienen su propios
agentes, que reportan detalles de las condiciones del equipo y de las acciones de las máquinas
cliente. Los agentes de administración también están disponibles para ciertos modelos de placas
de red y para productos especializados.

Para redes corporativas constituidas por diversas LANs (redes locales) conectadas por WAN (red
de larga distancia), se usa el protocolo RMON (Remote Monitoring) - una capacidad de
administración remota del SNMP. Esto se debe a que los enlaces de red de larga distancia, por
operar a tasas de transmisión inferiores a las de las LANs que las interconectan, pasar a tener
gran parte de su banda de transmisión ocupada por informaciones de administración. El protocolo
RMON brinda soporte a la implementación de un sistema de administración distribuida. Cada
elemento RMON tiene como tarea recolectar, analizar, tratar y filtrar informaciones de
administración de red y sólo notificar a la estación gerente los eventos significativos y situaciones
de error.

Modelos de administración

Existen algunos modelos para la administración de redes. Uno de ellos es el modelo Internet, que
adopta un enfoque administrador/agente. Los agentes mantienen informaciones sobre recursos, y
los administradores solicitan esas informaciones a los agentes. Otro modelo es el OSI, de ISSO,
basado en la teoría de orientación a objeto. Ese modelo genera agentes más complejos de
desarrollar, consumiendo más recursos de los elementos de red y liberando al administrador para
tareas más inteligentes.

También hay sistemas de administración basados en Java, que consisten en un browser


administrador en el Network Management System (NMS) y una máquina Java en el agente.
Independientemente del modelo escogido, de los protocolos y herramientas empleadas, la
administración permite monitorear la disponibilidad y el rendimiento de cada elemento de la red,
medir el nivel de utilización del parque de software, el consumo de banda, y una serie de factores
que aseguran la continuidad de las operaciones y el mejor uso de la infraestructura de TI.

También pueden utilizarse herramientas que administrarán elementos específicos y puntuales,


como servidores, PCs, storage, e-mails, entre otros. Generalmente, las soluciones de
administración de servidores permiten evaluar el rendimiento de las máquinas, así como planificar
su capacidad de procesamiento, hacer el inventario de hardware y software y monitorear las
bases de datos y demás aplicativos (como ERP, CRM, BI etc.).

En el caso de las PCs, uno de los principales beneficios propiciados por los sistemas de
administración es brindarle al director del área de TI más control sobre el parque de máquinas y,
especialmente, sobre las licencias de software. Como en general en las grandes empresas la
decisión sobre el uso de software es del usuario final, existe un gran riesgo de utilización de
programas piratas, licencias no autorizadas o inclusive aplicativos no autorizados por la empresa.
Todo esto, además de generar complicaciones legales, contribuye a aumentar el costo causado
por el exceso de programas ejecutados en red. El gran desafío de las herramientas de
administración no es exactamente el control, sino la ayuda al usuario, para que entienda lo que
puede o no usar.

Administración de datos y e-mail

Con el uso intensivo de Internet, de intranets y extranets, también se volvió necesario otro tipo de
administración: la de storage o almacenamiento. Especialmente en las empresas más grandes o
en las que cuentan con un gran parque tecnológico, el crecimiento del volumen de datos requiere
tomar medidas apropiadas para su correcto almacenamiento.

Algunos analistas evalúan que al mercado brasileño todavía le falta madurez en ese sector. Esto
se debe, aunque la oferta de herramientas de administración de storage sea vasta, a que los
ejecutivos de TI optan por la compra de discos de almacenamiento que, en la práctica, no
cumplen con las expectativas y dificultan el control.
Pero ese panorama ya está cambiando, por la necesidad de suministrar datos online y de
almacenar datos con criterio. El buen uso de las herramientas puede permitir, por ejemplo, que la
cantidad de datos que cada profesional de tecnología administra pase de 1,5 TB a 15 TB. Esto
significa que la reducción de costo no se da solamente en los equipos de storage, sino en el
Departamento de Recursos Humanos.

Otra cuestión preocupante para las empresas, en general, se relaciona con la administración de
e-mails y de accesos a la web. Transformada en una herramienta de trabajo indispensable, si
Internet trae por una lado una serie de beneficios y facilidades, por otro requiere iniciativas para
normativizar su uso. Hay fallas en la utilización tanto de e-mails como de sitios, lo que implica la
reducción de productividad, destrucción de informaciones y mayor exposición a virus y ataques
indeseados.

Pero existen normas que, asociadas a las herramientas de control, son simples de implementar y
solucionan los problemas. Glaxo SmithKline (GSK), por ejemplo, creó un comité de Seguridad de
la Información, integrado por representantes de varias áreas de la compañía. Ese grupo definió la
política de uso de la web. En la práctica, el documento estableció criterios para el uso de e-mails y
los tipos de sitios que pueden ser visitados y los que están prohibidos: pornográficos, racistas y de
carácter informativo dudoso.
La herramienta escogida para efectuar ese control fue un software de Aker, instalado antes del
firewall. El aplicativo bloquea cualquier intento de acceso a contenido no autorizado. En cuanto a
los e-mails, se prohibió bajar aplicativos, por medio de firewalls y personalizaciones internas. Con
esas medidas, el consumo de banda disminuyó un 20%.

Web Services

El mercado dispone de una amplia gama de opciones para todos los tipos de administración,
orientadas a cumplir las necesidades de empresas de diferentes tamaños y sectores de actividad.
Según Gartner, los proveedores de software de administración deberán basar sus aplicativos en
Web Services, en vez de adoptar arquitecturas propietarias, o reestructurar los sistemas
enfocando los modelos primarios de comunicación entre los módulos usando protocolos abiertos.

Concebidos como componentes de software para la integración entre aplicativos corporativos, así
como para la conexión entre empresas, clientes y proveedores, los Web Services reciben cada
vez más atención por parte de los proveedores de soluciones, que los ven como una tecnología
orientada a la interoperabilidad.

7 - Seguridad
No hay ninguna duda de que el talón de Aquiles del sector corporativo es la seguridad. Cuánto
más dependiente de la Tecnología de la Información es una empresa, más vulnerable será.
Spams, virus, worms, invasiones de hackers, accesos a sitios prohibidos, piratería y accesos
remotos no autorizados son sólo algunos de los problemas que deben ser considerados por los
administradores de TI.

Pero la cuestión de la seguridad no se limita sólo a eso. Después del atentado al World Trade
Center, el 11 de septiembre de 2001, en los Estados Unidos, el mundo corporativo se dio cuenta
de la importancia de establecer un plan de emergencia para asegurar la continuidad de las
operaciones, en caso de accidentes e incidentes que comprometan sus instalaciones físicas. Es
necesario, además, asegurar la disponibilidad de los sistemas, más allá de contar con un sistema
de backup eficiente, mantener la documentación de los sistemas actualizada y capacitar a las
personas, entre otras cosas.

El uso de la tecnología web hizo que se modificara el enfoque con respecto a la seguridad. Hasta
hace poco tiempo, la gran preocupación de los administradores de tecnología era perder
informaciones, debido a las invasiones y a los ataques de virus. Las inversiones se concentraban
en la adquisición de soluciones que limpiaran y protegieran los equipos, como antivirus y firewalls.

Actualmente la preocupación se amplió. Las acciones referidas a seguridad deben estar


asociadas a la continuidad de los negocios, no restringiéndose a los aspectos puramente
tecnológicos, sino también a otras áreas como la capacitación de personas para el correcto uso
de la información, el control de acceso a los sistemas y aspectos relacionados con la seguridad
del entorno físico.

El gran desafío del administrador es saber cuantificar el impacto que una falla en la seguridad, en
cualquier nivel, puede tener en la empresa y sus socios de negocios, ya que cualquier
paralización puede interrumpir una cadena productiva mundialmente, resultando en exorbitantes
pérdidas financieras.

Administración de la seguridad

Ante todo, es importante que el administrador de TI sea conciente de que el concepto de


seguridad es mucho más amplio y se inicia antes del puro y simple empleo de herramientas. La
tendencia natural es querer poner candados a todo, hasta donde no es necesario. Así, puede
haber distorsiones, como el excesivo aumento de inversiones, la implementación de soluciones en
áreas que no necesitan tanta protección y la vulnerabilidad de algunas áreas importantes.
Una empresa, por ejemplo, que pone a disposición del público en general una página en Internet
dedicada a recibir currículos, no sufrirá pérdidas ante la invasión de hackers. Claro que se
perjudicará, principalmente en cuanto a su imagen y a la pérdida de información, pero nada que
sea comprometedor. En ese caso, no se aplican soluciones altamente sofisticadas, como las de
biometría, por ejemplo, que también son muy costosas, porque esas informaciones no son
esenciales para la empresa, y la inversión no se justificaría.

Por eso, es fundamental que el primer paso sea la identificación de cuáles son las debilidades de
la empresa y puntualizar las áreas que requieren más protección, haciendo evaluación del riesgo
(risk assessment), para que no se haga una inversión más grande de lo necesario.

Esa planificación debe realizarse bajo la perspectiva del negocio y no de la tecnología. El segundo
paso se refiere a la verificación de los procesos de la empresa y al establecimiento de políticas de
seguridad. Después de esas definiciones, se realiza la elección y el uso de herramientas y
soluciones para prevenir y evitar violaciones a los sistemas.

Finalmente, debe hacerse un trabajo interno de concientización. Todos los empleados deben
recibir capacitación y orientación sobre las medidas de seguridad adoptadas. De nada sirve
disponer de varios mecanismos sofisticados de contraseñas, reconocimiento de usuarios etc., si
después de todas esas precauciones un profesional se descuida y deja sobre su escritorio un
informe confidencial que puede ser visto por personas no autorizadas.

La adopción de las especificaciones ISO 177-99 puede ayudar a los administradores de TI en la


difícil tarea de administrar la seguridad. Esas especificaciones contemplan las 10 áreas de control:

1. Política de seguridad

2. Seguridad organizacional
3. Control y clasificación de activos

4. Seguridad de las personas

5. Seguridad del entorno

6. Administración y control de las operaciones de comunicación

7. Control de acceso a los sistemas


8. Desarrollo de sistemas y mantenimiento

9. Administración de continuidad de los negocios

10. Especificaciones de seguridad

Sólo el 40% de esas especificaciones se relacionan con la Tecnología de la Información. El 60%


restante se refieren a personas, procesos y capacitación. Si una empresa está atenta a todo esto,
tendrá un 80% de sus necesidades de seguridad cubiertas.
En cuanto a los aspectos tecnológicos, hay tres áreas que merecen la atención del administrador.
La primera es el área de defensa de la corporación. Algunas empresas piensan que están
protegidas, al instalar antivirus y firewall, olvidando que existen otras formas de invasión que no
son bloqueadas con esas herramientas, como el spam. Es necesario administrar las
vulnerabilidades derivadas del propio crecimiento del entorno informático.

La área es la de administración de la identidad. Es necesario implementar soluciones que


permitan identificar y reconocer al usuario, para tener la seguridad de que es realmente el
empleado autorizado quien tiene acceso a las informaciones y aplicativos.

El administrador también necesita considerar que el perfil de las personas cambia con el tiempo.
Un director de marketing que tenía acceso a informaciones y sistemas específicos puede asumir
otra función dentro de la empresa. Por ejemplo, pasar a ser director financiero. En general,
termina siendo autorizado al acceso de otras informaciones y sistemas, acumulándolos a los
anteriores, cuando lo correcto sería deshabilitar algunos accesos que él ya no necesita. También
se debe tener cuidado de bloquear los accesos a los sistemas cuando el empleado deja la
empresa.

Y, finalmente, la tercer área se refiere al control de acceso a los sistemas corporativos, tanto con
relación a empleados internos (definir quién puede tener acceso y a qué tipo de información) y a
socios (clientes, proveedores etc.). Es importante que el administrador tenga una visión de afuera
hacia adentro para determinar qué socios tendrán acceso a qué informaciones y sistemas de la
empresa, para poder trazar las normas de permisos y de restricción a los accesos. Finalmente, el
administrador de TI es el encargado de aplicar los conceptos de esas tres áreas en las
arquitecturas de PCs, servidores y redes de la corporación.

Brechas

Una de las principales puertas de entrada a los incidentes de seguridad en el sector corporativo es
Internet. Esto se debe a que la mayoría de las empresas permite que sus empleados, y también
terceros, tengan acceso total, por extranets y e-business, por links dedicados o por la web. A
pesar del uso de conexiones encriptadas y otros cuidados, en la práctica, las puertas pueden no
estar cerradas adecuadamente, facilitando el ataque de hackers y de accesos indebidos a los
sistemas.

En una investigación realizada entre empresas de diversos sectores de actividad, se comprobó


que más del 70% registraron pérdidas financieras por la invasión de sus sistemas, más del 56%
del total no supo cuantificar las pérdidas. Aun conociendo los riesgos y sabiendo que los ataques
van a aumentar, las empresas no suelen tener ningún plan de acción para impedirlos. El mayor
obstáculo no es tecnológico, sino cultural. La falta de conciencia del público interno, sean
ejecutivos o empleados en general, puede echar todo a perder. Para minimizar ese problema, las
empresas deben preocuparse por adoptar una política de seguridad comprensible para todos y
divulgarla ampliamente.

Es importante que la empresa evalúe, en el mapa de la red, todos los puntos que deben ser
cubiertos por procesos seguros. Esto puede hacerse comenzando por la evaluación de la
infraestructura de TI y la utilización del diagrama de la arquitectura de la red para determinar cómo
y dónde los usuarios internos y externos pueden tener acceso al esquema. A continuación, se
recomienda que los sistemas de la corporación sean chequeados contra invasiones, con
herramientas específicas para, de ese modo, visualizar las vulnerabilidades de la red. Disponer de
una lista con todos los servidores y sistemas críticos para la empresa constituye otra buena
iniciativa, complementada por el listado de empleados que instalaron y/o desarrollaron aplicativos.

También es fundamental crear una lista para todos los administradores de red, especificando
quiénes son los encargados de los sistemas, uno por uno. Para los empleados, debe establecerse
una política que explique cómo utilizar en forma adecuada las informaciones corporativas. Por
ejemplo, pueden remunerarse las medidas que deban tomarse cuando surja una sospecha de
invasión o infección en la red o en la PC. Esos profesionales también deben ser instruidos sobre
cómo lidiar con sus contraseñas de acceso a los sistemas y si pueden o no dejar sus estaciones
encendidas al salir, para evitar la exposición de informaciones internas a personas no autorizadas.
Una de las principales brechas para incidentes de seguridad es el sistema de e-mail. A pesar de
que en la mayoría de los casos las empresas cuentan con herramientas para monitoreo de
e-mails, antivirus y firewall, todos los días surgen nuevas plagas virtuales que se transmiten por
mail y pueden infectar los sistemas y causar graves trastornos. En Banespa, por ejemplo, una de
las formas de evitar este problema fue limitar el tamaño de los archivos adjuntos en los mensajes
que reciben los usuarios por mail. Esos archivos no pueden tener más de 500 KB y, en
determinado nivel, más de 3 MB. También se adoptaron medidas que excluyen archivos con
extensiones tales como .exe, .tif, .pdf, y .scr directamente en el servidor, así como la adopción de
firewall y antivirus.

Seguridad en redes inalámbricas

Con la evolución de la tecnología móvil y el aumento de su uso en las empresas, deben tomarse
algunos cuidados con relación a las redes wireless. Todas las herramientas de protección
convencionales usadas en redes cableadas se aplican al ambiente inalámbrico. Pero, además, las
redes wireless exigen cuidados adicionales y específicos.

El estándar de encriptado para redes locales inalámbricas, denominado WEP (Wired Equivalent
Privacy), es bastante seguro, pero todavía presenta algunas limitaciones, por eso se recomienda
que las empresas no se limiten a él. También es fundamental hacer una configuración confiable
de la red wireless, utilizando recursos de seguridad inherentes a los puntos de acceso e
instalación de firewall, y, en los casos más complejos, vale la pena adquirir equipos, software y
servicios especializados.

Para garantizar la seguridad de ese entorno, constantemente se lanzan nuevos estándares. La


Alianza Wi-Fi divulgó el estándar WPA (Wi-Fi Protected Access) para el acceso de PDAs, con
mejoras en la encriptación de los datos y en la autenticación del usuario con relación al WEP. El
consorcio también desarrolló una herramienta, llamada Zone, destinada a encontrar puntos de
acceso Wi-Fi entre los 12 mil hot spots (puntos de acceso públicos) instalados en el mundo.

En junio de 2004, el IEEE ratificó el estándar IEEE 802.11i, que aportó, en forma intrínseca, las
primitivas de seguridad a los protocolos IEEE 802.11b, 80211a y 802.11g de Wireless LAN
(WLAN).

Generalmente, las soluciones compatibles con el estándar 802.11 incluyen mecanismos de


seguridad, pero es necesario que las empresas implementen proyectos de protección de datos. La
mayor debilidad de las redes wireless está en el chipset del punto de acceso. Por eso, es
importante que la comunicación entre él y los demás dispositivos autorizados sea confiable.
El envío de un paquete UDP (User Datagram Protocol) a un determinado puerto, por ejemplo,
hace que el sistema devuelva informaciones, como el nombre de la red (SSID- Service Set
Identifier), la clave de encriptación y hasta la contraseña del administrador del propio access point.
El cuidado inicial, por lo tanto, es evitar que el SSID, que realiza la identificación del nombre de la
red entre los usuarios, sea conocido por un posible intruso. Para eso, es necesario deshabilitar el
envío por broadcast de esa secuencia.

A continuación, es importante que la comunicación entre el access point y los demás dispositivos
autorizados sea confiable. Para eso, es importante que el servidor central sepa exactamente qué
números de serie de las placas de red de cada máquina autorizada pueden compartir el entorno.
Los llamados MAC Address de todas deben estar registrados. Ese trabajo, aun siendo hecho
manualmente, puede evitar que las computadoras se conecten fácilmente a la red, sólo
acercándose a la región de cobertura.

Pero ese cuidado no es suficiente para garantizar la seguridad. Existen varios programas
disponibles en Internet que simulan la dirección de cualquier placa de red, haciéndose pasar por
un dispositivo autorizado en el momento de la conexión. Si una persona con malas intenciones
logra obtener el código de una determinada estación autorizada a usar la red, podrá entrar
fácilmente y usar indebidamente ese acceso.
Una vez cerrada esa primera brecha, es hora de cuidar la inviolabilidad de la información que
transita entre las estaciones y el punto central de la red. Como todas las señales están transitando
en un ambiente público, la única manera de salvaguardar los datos es codificarlos y barajarlos en
forma ordenada, es decir, encriptarlos.

Por otro lado, para liberar la información, es necesario abrirla con una clave encriptada. Las
informaciones están, de esa forma, seguras - es decir, hasta el momento en que un extraño tenga
acceso a la clave encriptada o rompa su código.

Para garantizar la inviolabilidad de los datos, se recomiendan otros recursos, como los de una red
virtual privada. El uso del protocolo IPSec permite la creación de un túnel seguro entre la estación
y el Access Point. Un ejemplo de esto es el VPN-1 Security Client, de Check Point. Para proteger
conexiones wireless de hasta 10 mil usuarios simultáneos, existe la plataforma Cisco VPN3000,
con escalabilidad y facilidad de upgrade.

En caso de querer niveles más elaborados de encriptación, los estándares AES (Advanced
Encryption Standard) y DES (Data Encryption Standart) son opciones interesantes. Las empresas
con operaciones más críticas pueden inclusive implementar aplicativos que usen el 3DES. Sin
embargo, es necesario cierto sentido de medida para evitar gastos innecesarios.
Otro cuidado se relaciona con la encriptación de los datos y el monitoreo en tiempo real, por
medio de herramientas específicas, muchas de ellas distribuidas gratuitamente por Internet.

8 - El futuro de la administración

La Tecnología de la Información evolucionó rápidamente. En menos de 30 años, dejó de ser un


privilegio de las grandes empresas para volverse una herramienta indispensable para grandes,
medianas o pequeñas. Hoy ya no se discute su aplicabilidad para alcanzar las metas de negocios.
El gran cuestionamiento de los analistas de mercado y de los administradores de TI es evaluar
hasta qué punto, en el futuro, valdrá la pena ser pionero en innovación tecnológica, o si la mejor
estrategia será esperar que las soluciones maduren para recién entonces invertir en su
adquisición. ¿El hardware y el software ya se convirtieron en commodities? De hecho, ¿será
posible comprar tecnología a pedido? ¿La tercerización será inevitable?

El futuro de la TI en las empresas se evidenció particularmente en 2003, debido al artículo de


Nicholas Carr, publicado en la revista Harvard Business Review, que causó polémica en todo el
mundo. Escritor, periodista y consultor norteamericano, especializado en la unión entre estrategia
de negocios y Tecnología de la Información, Carr adquirió notoriedad por su artículo titulado “IT
doesn’t matter” (La TI no tiene importancia), en el que invitaba a los ejecutivos a analizar el papel
de la Tecnología de la Información. El tema dio qué hablar en diarios y revistas de negocios y de
TI, como The New York Times, Washington Post, Financial Times, Business Week, USA Today,
Fortune, Computerworld, entre otras.

Aunque vehemente cuestionados, los argumentos presentados por Carr no pudieron ser
ignorados, propiciando buenas reflexiones. Entre los principales puntos abordados, resaltó que,
para tener valor estratégico, la tecnología debe permitir que las compañías la usen en forma
diferenciada. Pero, como la evolución de la TI es muy rápida y en poco tiempo se vuelve accesible
a todos, es cada vez más difícil obtener una ventaja por su solo empleo.
Carr cree que la infraestructura de TI (hardware y software), entendida como un proceso de
almacenamiento y transmisión de datos, se está transformando en commodity, así como los
ferrocarriles se transformaron en parte de la infraestructura de las empresas del siglo XIX,
sucediendo lo mismo con la electricidad, a comienzos del siglo XX.

Él afirma que la TI es esencialmente un mecanismo de transporte, ya que transmite información


digital de la misma forma que los cables eléctricos transportan electricidad. Y es más valiosa
cuando se comparte que cuando se la usa aisladamente. Además, la casi infinita escalabilidad de
muchas tecnologías, combinada con la velocidad de estandarización tecnológica, significa que no
hay ningún beneficio en ser propietario de los aplicativos. Ya nadie desarrolla su propio mail o
procesador de texto.

Y eso está moviéndose rápidamente hacia aplicativos más críticos, como la administración de la
cadena productiva y la administración de las relaciones con el cliente. Los sistemas genéricos son
eficientes, pero no ofrecen ventajas sobre la competencia, pues todos compran los mismos tipos
de sistema. Con Internet, tenemos el canal perfecto para la distribución de aplicativos genéricos. Y
en la medida en que nos movemos hacia los Web Services, a los cuales podemos comprarles
aplicativos, todo nos llevará a una homogenización de la capacidad de la tecnología.

Nicholas Carr reitera la idea de que hoy la tecnología ya no representa un diferencial competitivo
para las empresas. Antiguamente, el panorama era otro. Sólo las grandes empresas tenían poder
para invertir en el desarrollo de tecnología, esperando (y logrando) obtener ventajas sobre sus
competidores.

Actualmente, sin embargo, con la evolución tecnológica dándose en lapsos cada vez más cortos,
esa ventaja desaparece. Ya no vale la pena invertir altas cifras en el desarrollo de sistemas y
soluciones y correr los riesgos de ser pionero, porque se puede obtener una ventaja sobre los
competidores, pero rápidamente deja de ser un diferencial.

Como ejemplo, Carr relata que en 1995, en los Estados Unidos, grandes bancos minoristas
crearon redes propietarias para brindar servicios de home banking a sus clientes e invirtieron
millones de dólares en ello. Percibiendo ese nicho, las empresas de software inmediatamente
pasaron a ofrecer soluciones de ese tipo e Internet banking se convirtió en un commodity,
posibilitando que otros bancos más chicos pudieran ofrecer ese servicio con inversiones y riesgos
infinitamente inferiores a los de las instituciones pioneras.

El gran riesgo de las empresas en la actualidad, según Carr, es gastar excesivamente en TI y


continuar queriendo obtener ventajas sobre la competencia, lo que fatalmente conducirá a un
desperdicio de dinero y a la desilusión. Esas afirmaciones provocaron diferentes reacciones en el
mercado y entre los ejecutivos de TI, mezclando indignaciones acaloradas con discretas
concordancias.

Las principales críticas evidenciaron que las empresas pioneras, que apuestan al desarrollo
tecnológico, tienen éxito porque también cuentan con una estrategia de negocios bien orquestada.
Pero la TI desempeña un papel primordial y contribuye significativamente a la obtención de
buenos resultados. La dinámica del mercado sufre la acción de varios agentes, además de las
presiones de la competencia.

Esto debe ser complementado por un conjunto de procesos, que requieren aplicativos y sistemas
innovadores, además de niveles de servicio para soportar la estrategia de negocios.

Discusiones aparte, el hecho innegable es que actualmente las empresas se muestran más
reticentes a realizar nuevas inversiones en tecnología, inclusive las que dependen altamente de
esos recursos. Muchos factores contribuyen para ello, entre ellos, las oscilaciones en la política y
en la economía mundial y el consecuente achicamiento de la producción de bienes y servicios.
Pero tampoco puede ignorarse el hecho de que gran parte de las empresas que invirtieron en
tecnología de punta, subutiliza el esquema informático del cual dispone y se cuestiona si debe
iniciar nuevas adquisiciones o dedicarse al mejor aprovechamiento de sus activos.
Computación a pedido

Conceptos llamados computación on demand, grid computing, utility computing y adaptive


computing, que en la práctica significan casi lo mismo, han sido presentados como el futuro de la
informática. El movimiento está encabezado por los proveedores líderes de la industria de TI,
como IBM, HP y Sun Microsystems. Cada uno a su manera, defendieron la idea de que el desafío
del sector corporativo no es basarse en escenarios, porque ellos cambian muy rápidamente. Es
decir, las empresas necesitan tener capacidad de respuesta frente a esos cambios, con la misma
agilidad.

Parafraseando a Charles Darwin, las especies que sobreviven no son las más fuertes, sino las
que mejor se adaptan a los cambios. El mismo principio se aplica a las empresas que deben ser
cada vez más hábiles para administrar la IT, reduciendo costos sin comprometer la calidad de los
servicios, defendiendo la máxima de hacer más con menos. Desde ahora, lo que marcará
realmente una diferencia no será el tipo de tecnología utilizada, sino la forma en que la empresa la
utiliza.

Algunas funciones de procesamiento son limitadas por las restricciones de las computadoras. El
concepto de computación a pedido presupone un escenario en el cual será posible obtener una
capacidad extra de procesamiento, en la medida en que sea necesaria, a través de la red, sin que
el usuario deba conocer la complejidad de la infraestructura y pagando sólo por lo que
efectivamente utiliza.

También llamado grid computing, es un concepto de procesamiento distribuido que envuelve el


uso de varias computadoras interconectadas por medio de redes locales o de larga distancia, o
inclusive Internet. Su operación también requiere el empleo de muchos protocolos, estándares y
herramientas de software.

De acuerdo con IBM, on demand no se refiere solamente a la tecnología, sino también a un


cambio en la forma de hacer negocios, por medio del desarrollo de nuevas capacidades para
responder a todo lo que el mercado presenta, haciendo que la empresa sea más eficiente y
obteniendo ventajas sobre los competidores.

On demand tendrá diferentes alcances en diferentes industrias. En la farmacéutica, por ejemplo,


las soluciones on demand podrán ayudar a las empresas a reducir el tiempo de lanzamiento de
nuevos medicamentos, lo que producirá ventajas en relación a los competidores más lentos. En el
sector automotriz, ayudarán a mejorar la administración de la cadena de distribución y de pedidos,
además de optimizar los procesos de fabricación de partes, desarrollo de proyectos, fabricación y
administración de productos por medio de sus ciclos de vida.
IBM brinda servicios para proveer acceso remoto a aplicativos de servidores, cobrados de
acuerdo con el volumen de uso. La estrategia es atender a las empresas que necesitan trabajar
con un gran volumen de servidores, lo que encarece la adquisición, la administración y el
mantenimiento. De ese modo, las compañías utilizan el poder de los servidores de la propia IBM,
que permanecen instalados en los centros de datos del fabricante. El acceso es remoto, y el
usuario paga por la carga utilizada por mes. En el mismo modelo de negocio, IBM ofrece la
administración de los servicios de servidores y red, como conectividad a Internet,
almacenamiento, backup y firewall.

Adaptive Enterprise

En cuanto a los sistemas de información, es interesante observar cómo las diferentes “olas” o
tecnologías de información se suceden unas tras otras en las empresas. Los mainframes, por su
poder centralizador y controlador, orientado a la eficiencia, crearon oportunidades para el modelo
cliente-servidor, utilizando las PCs en forma centralizada, persiguiendo la eficacia y la respuesta
rápida. La utilización de sistemas departamentales, libres de los mainframes, propició, a su vez, la
oportunidad de integración ofrecida por los sistemas ERP, dedicados nuevamente a la eficiencia.

Recientemente, la computación móvil evidenció una vez más la necesidad de poner la información
a disposición del usuario en forma centralizada. Aunque se pueda argumentar que la informática
evoluciona en un ciclo de centralización y descentralización, de eficiencia y eficacia, se verifica
que, en cada “vuelta” de ese ciclo, se logran niveles más altos de alcance empresarial. Según esa
idea, el dilema de la informática en la actualidad, y, por consiguiente, de los proveedores de
sistemas ERP, es la integración externa de la cadena (CRM, SCM, e-business), cumpliendo tanto
requisitos de eficiencia como de eficacia.

Imaginando el siguiente paso, una vez interconectados los sistemas de información de las
empresas, la compañía más fuerte de la cadena centralizaría el procesamiento de las otras. Hoy
sucede eso en algunas industrias, como la automotriz, y en procesos en los que los grandes
minoristas les imponen sus sistemas de EDI a los pequeños proveedores. Nada impedirá que en
el futuro eso suceda, con la finalidad de obtener grandes ganancias en la utilización de sistemas
de información a lo largo de la cadena, evitando la dispersión y aumentando el control.

Otro escenario posible, más democrático y opuesto, es la disolución de las empresas tal como las
conocemos en la actualidad, y el surgimiento de empresas virtuales, que coordinarán sus
actividades por medio de un sistema flexible de informaciones asociado a Internet. La tecnología
está avanzando en dirección a esa posibilidad, por medio de nuevos protocolos abiertos de
intercambio de datos e información.

Outsourcing
Según la opinión de consultores de mercado, la computación a pedido todavía demorará algún
tiempo en madurar. Lo que deberá cobrar cada vez más impulso es el proceso de tercerización de
la TI. El outsourcing, como también se lo conoce, no representa ninguna novedad y hace muchos
años que se adopta, en mayor o menor escala, en las empresas de diferentes sectores de
actividad.

Pero recientemente se comenzó a percibir que las desconfianzas y resistencias de los sectores
usuarios, que eran muy altas hasta hace poco, ya no constituyen un obstáculo para la maduración
de ese modelo. Motivadas por la necesidad de reducir costos y por haber llegado a la conclusión
de que hacer todo en casa, además de muy caro, es poco productivo, las empresas de todos los
tamaños están aumentando gradualmente la transferencia de algunas funciones de TI a terceros.

Sin embargo, es necesario seguir algunos criterios, a fin de alcanzar los objetivos pretendidos.
Tan importante como elegir a la empresa prestadora, es fundamental elaborar el mejor acuerdo de
nivel de servicio (SLA - Service Level Agreement), caracterizado por ser mucho más detallado que
los contratos convencionales en la descripción de los servicios acordados entre las partes. Debe
establecerse una serie de parámetros y métricas a ser alcanzadas (tiempo promedio entre fallas,
disponibilidad de los sistemas, rendimiento etc.), además de cláusulas con multas previstas para
los casos de incumplimiento.
También se espera el crecimiento del Business Process Outsourcing (BPO-Tercerización del
Proceso de Negocios), que no se restringe a una simple tercerización, ya que exige del prestador
del servicio la participación en los riesgos de los negocios del cliente. El BPO presupone la
tercerización de la administración de un proceso de negocio de una empresa, por ejemplo, el área
de recursos humanos, en el que se ofrece toda la infraestructura de hardware, aplicaciones de
software, soporte y mano de obra especializada.

Eso requiere que el prestador tenga un profundo conocimiento del negocio del cliente. Si el
negocio va bien, el proveedor será bien remunerado; si va mal, las pérdidas se dividirán entre las
partes.

En el ámbito general del outsourcing, según IDC, ese mercado continuará creciendo en Brasil a
tasas muy superiores a las de otros segmentos de tecnología. Sin embargo, todavía hay algunos
obstáculos.

Mientras la tercerización de redes de datos y voz y la administración de infraestructura se


consideran servicios consolidados, otras propuestas de outsourcing de infraestructura todavía
necesitan superar algunas barreras.
El CIO del futuro

No se puede afirmar con seguridad cuáles serán los caminos y las tecnologías que prevalecerán
en el futuro, pero el outsourcing, la computación a pedido, la movilidad, la convergencia, la
consolidación de sistemas, la seguridad y software libre son las vertientes más probables.

Frente a un escenario que prevé el aumento de la comoditización de la TI y de su operación por


parte de terceros, ¿cuál será el papel del CIO en el futuro? Hoy, ese profesional todavía es el
mejor integrador de soluciones dentro de las corporaciones. El próximo paso será convertirse en
el mejor administrador de esas necesidades. Además del obvio conocimiento de la tecnología, el
nuevo CIO también necesitará tener una visión estratégica y estar conectado con el directorio de
la compañía, sea para reportarse a él, sea para formar parte de él.

También le corresponderá al CIO decidir lo que deberá o no ser tercerizado, manteniendo el


control sobre la administración de los servicios y contratos, y también diferenciar dónde será
necesaria la innovación tecnológica y dónde se podrá optar por la comoditización.
Los más pesimistas creen que, en un futuro no muy distante, el cargo de CIO dejará de existir,
porque la tecnología será tan simple de usar que no habrá necesidad de un profesional específico
para dirigirla.

Los optimistas, sin embargo, sostienen que el CIO probablemente dejará de ser el gran mentor de
la informática, pero que continuará siendo responsable del mantenimiento de la infraestructura
tecnológica como un todo y de la administración de terceros. En ese sentido, la gobernabilidad de
TI deberá crecer mucho. ¿Cuál de las dos corrientes tiene razón? Sólo el tiempo lo dirá.

Você também pode gostar