Você está na página 1de 19

USMA-GEOMATICA-TEMA 2. ING.

EDWARD GONZALEZ

TEMARIO GEOMATICA 2

TELEDETECCIÓN

La teledetección o detección remota es la adquisición de


información a pequeña o gran escala de un objeto o
fenómeno, ya sea usando instrumentos de grabación o
instrumentos de escaneo en tiempo real inalámbricos o
que no están en contacto directo con el objeto (como por
jemplo aviones, satélites, astronave, boyas o barcos).

En la práctica, la teledetección consiste en recoger


información a través de diferentes dispositivos de un
objeto concreto o un área. Por ejemplo, la observación
terrestre o los satélites meteorológicos, las boyas
oceánicas y atmosféricas, las imágenes por resonancia
magnética (MRI en inglés), la tomografía por emisión de
positrones (PET en inglés), los rayos-X y las sondas
espaciales son todos ejemplos de teledetección.

HAY DOS CLASES DE TELEDETECCIÓN PRINCIPALMENTE:


TELEDETECCIÓN PASIVA Y TELEDETECCIÓN ACTIVA:

Los teledetectores pasivos, detectan radiación natural


emitida o reflejada por el objeto o área circundante que
está siendo observada. La luz solar reflejada es uno de los
tipos de radiación más comunes medidos por esta clase
de teledetección. Algunos ejemplos pueden ser

1
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

la fotografía, los infrarrojos, los sensores CCD (charge-coupled devices, “dispositivo de cargas eléctricas
interconectadas”) y los radiómetros.

Los teledetectores activos, por otra parte, emiten energía para poder escanear objetos y áreas con lo que
el teledetector mide la radiación reflejada del objetivo. Un radar es un ejemplo de teledetector activo, el
cual mide el tiempo que tarda una emisión en ir y volver de un punto, estableciendo así la localización,
altura, velocidad y dirección de un objeto determinado

MATERIAL COMERCIALMENTE DISPONIBLE

INSTRUMENTOS DE TELEDETECCIÓN

AEROFOTOGRAFÍA::

Muchas características que son difíciles o imposibles de ver al estar a pie del terreno se ponen claramente
en evidencia cuando se ven desde el aire. Pero la fotografía en blanco y negro solamente graba
aproximadamente veintidós matices perceptibles del gris en el espectro visible, además las fuentes
ópticas tienen ciertas restricciones, deben operar de día, con el clima despejado y con la mínima neblina
atmosférica.

PELÍCULA DE COLOR INFRARROJA (CIR):

Detecta las longitudes de onda más largas algo más allá del rojo del espectro. Se trabajó con la película
de CIR, inicialmente durante la Segunda Guerra Mundial para diferenciar objetos que habían sido
camuflados artificialmente. La fotografía infrarroja tiene los mismos problemas que la fotografía
convencional, se necesita cielos limpios y claros. Aun así, el Cir es sensible a las muy leves diferencias de
vegetación. Sabemos que algunos yacimientos arqueológicos enterrados pueden afectar al crecimiento
de la vegetación que tienen encima, estas características quedan de manifiesto en la fotografía infrarroja
a color.

ESCÁNER MULTIESPECTRAL DE INFRARROJO TÉRMICO (TIMS):

Los TIMS miden la radiación térmica dada por el suelo, con 0.1 grados centígrados de precisión. El píxel
(elemento de fotografía) es el área cuadrada mínima que se detectada, su tamaño es directamente
proporcional a la altura del sensor. Por ejemplo, los píxeles de satélites Landsat son aproximadamente
30 m por lo que tienen limitaciones en las aplicaciones arqueológicas. Sin embargo, los píxeles en TIMS
poseen precisión suficiente como para ser usados para investigación arqueológica. Los datos de TIMS
fueron usados para detectar los antiguos caminos de en Cañón Chaco, Nuevo México.

RADAR AEROTRANSPORTADO (LIDAR)

Se trata de un dispositivo de rayo láser que realiza "Perfiles" de la superficie terrestre. El haz de rayo láser
palpita al suelo 400 veces por segundo, golpeando la superficie cada nueve centímetros
aproximadamente, y se regresando al origen. De esta forma refleja la información sobre la superficie de
la vegetación y del suelo y comparando diferencias entre ella podemos obtener a veces la altura de los
bosques e incluso de la hierba en los pastos. Cuando el lidar pasa sobre una senda erosionada

2
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

topográficamente, la muesca del sendero es grabada por el haz del rayo láser. Los datos de lidar pueden
ser procesados para revelar tanto la altura de un árbol como las elevaciones montañosas, pendientes,
aspecto y limites de las pistas que encontramos en el terreno, etc. También, ya que en determinadas
condiciones puede atravesar el agua, se usa para medir la morfología del agua costera, notar las formas
de las manchas de aceite y petróleo, la claridad de agua, y los colorantes orgánicos incluyendo clorofila.
En este caso, parte del pulso es reflejado en la superficie de agua, mientras que el resto viaja a la parte
interior del agua reflejando lo que se encuentre a su paso. El tiempo que transcurre entre los impulsos
recibidos nos da una idea de la profundidad de agua y la topografía subterránea.

RADAR DE ABERTURA SINTÉTICO (SAR):

SAR dirige ondas de energía al suelo y graba la energía reflejada. El radar es consciente de las diferencias
de longitud y geométricas en el suelo, particularmente son empleadas cuando las longitudes de onda de
radar presentan diferencias en las combinaciones de datos horizontales y verticales. Con estas diferencias
entre longitudes de onda somos conscientes de las distintas vegetaciones que forman un suelo así como
de multitud de fenómenos que ocurran en él. En tierra seca y porosa, el radar puede traspasar la
superficie. En 1982, el radar del trasbordador espacial traspasó la arena de los desiertos sudaneses
revelando antiguos cauces de agua. Gracias al radar aerotransportado, en Costa Rica, han sido
encontradas las sendas prehistóricas. Actualmente es uno de los instrumentos más usados en
teledetección.

RADAR DE MICROONDAS:

Transmitir los ritmos de radar hacia el suelo y medir el eco es una buena manera de encontrar entes
arqueológicos enterrados en regiones áridas (el agua absorbe las microondas). Los objetos hechos por el
hombre reflejan las microondas, dando una "Imagen" subterránea de lo que tenemos enterrado sin pisar
el sitio.

ANÁLISIS COMPARATIVO ENTRE DISTINTOS SISTEMAS SATELITALES

Se logran distinguir 2 grandes categorías:

• SATÉLITES DE OBSERVACIÓN. Para la recolección,


procesamiento y transmisión de datos de y hacia la
Tierra.
• SATÉLITES DE COMUNICACIÓN. Para la transmisión,
distribución y diseminación de la información desde
diversas ubicaciones en la Tierra a otras distintas
posiciones.

ACTUALMENTE EXISTEN APROXIMADAMENTE 4000


SATÉLITES EN ORBITA.

3
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

CORRECCIONES DEL MATERIAL INICIAL

CORRECCIONES RADIOMÉTRICAS

Las correcciones radiométricas son aquellas que


afectarán directamente a la radiometría de la imagen.
Dichas correcciones se hacen necesarias debido a los
valores (ND) erróneos registrados en la fase de
captura y/o transmisión de la información (caso de ser
imágenes digitales procedentes de satélites
artificiales). En imágenes obtenidas por medios
aerotransportados (satélite o avión) dichos errores en
la captación de los valores ND, pueden ser debidos a
perturbaciones atmosféricas que los modifican
(fenómenos de absorción y dispersión atmosférica) o
a deficiencias en la construcción del sensor. La corrección atmosférica se efectuará según modelos
matemáticos que ligarán el valor registrado de ND con los valores reales existentes del objeto sobre el
terreno (proceso de calibración). Los errores producidos por el sensor se solventarán conociendo los datos
de calibración radiométrica del mismo.

CORRECCIONES GEOMÉTRICAS

Las correcciones geométricas son necesarias realizarlas


básicamente debido a dos motivos:

• A las variaciones espaciales ocurridas en el proceso de


captura de la información e inherentes al movimiento
del sensor (aleteo, cabeceo, variaciones en altura y
velocidad, etc).
• Por necesidad de ajustar, dicha información, a un
sistema de referencia determinado (sistema
geodésico, proyección cartográfica, etc).

Previamente a la propia corrección geométrica se repasan conceptos geométricos de las variaciones


espaciales. Dentro de las transformaciones básicas principales, una de las más importantes serán las
correcciones geométricas (variaciones espaciales). Son correcciones de este tipo: la rotación, el cambio
de escala y la traslación de los diferentes pixeles de la imagen en 3 dimensiones.

LAS PRINCIPALES VARIACIONES ESPACIALES SON DE :

4
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

• ROTACIÓN. La rotación de un punto (XP1,YP1,ZP1) a otro (XG,YG,ZG), de manera arbitraria en el


espacio, requiere de tres transformaciones o giros (ω, ϕ, κ), según los tres ejes (X, Y, Z) de
coordenadas espaciales de referencia, respectivamente.
• TRASLACIÓN. Sería el caso de trasladar un punto con coordenadas (XG,YG,ZG) a una nueva
situación mediante un desplazamiento (X0, Y0, Z0).
• CAMBIO DE ESCALA. Se trata de unas determinadas variaciones (escalares - λ -) a lo largo de los
ejes X,Y,Z.

FIRMAS ESPECTRALES

El emisor de radiación más usual para imágenes


de teledetección es el Sol. El Sol emite
la radiación que incide, en primer lugar, en
la atmósfera. Los gases presentes en la atmósfera,
como el resto de la materia presente en el Universo,
interactúa con la radiación, absorbiéndola,
reflejándola o transmitiéndola. Diferentes tipos de
superficies, como el agua, la tierra desnuda o la
vegetación, reflejan la radiación de manera distinta en
varios canales. La radiación reflejada en función de la
longitud de onda se llama firma espectral de la superficie.

PROCESAMIENTOS BÁSICOS

El principio de base de la teledetección es similar al de la visión. La teledetección es el resultado de la


interacción entre tres elementos fundamentales: una fuente de energía, un objetivo o escena y un
captador o sensor. La fuente de energía es la que "ilumina" el objetivo emitiendo una onda
electromagnética (flujo de fotones). También es posible medir el calor que se desprende de la superficie
del objetivo (infrarrojo térmico). En este caso el propio objetivo es la fuente de energía (aunque se trata
de energía solar almacenada y reemitida).

El objetivo o escena es la porción de la superficie terrestre observada por el satélite. Su dimensión varia,
en función de la resolución del captador, de unos pocos km² a algunos miles de km² . El captador o sensor
de teledetección mide la energía solar (es decir la radiación electromagnética) reflejada por el objetivo. El
captador puede encontrarse en un satélite o en un avión, sobrevolando el objetivo a una altura de pocos
centenares de metros hasta distancias de 36000 kilómetros en el caso de los satélites meteorológicos.

Los captadores embarcados en los satélites miden la radiación electromagnética reflejada y


posteriormente reenvían esta información a la Tierra mediante un emisor. En la Tierra una red de
estaciones de recepción se encarga de recibir y almacenar estos datos. Cuando la fuente de energía es el
Sol, y el captador solo mide la radiación reflejada, se conoce como teledetección pasiva. Esta modalidad

5
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

de teledetección solo es operativa durante las horas diurnas. Por la noche o cuando hay nubes que se
interponen no es posible realizar observaciones. La observación de las regiones tropicales no es fácil con
esta modalidad de teledetección, a causa de la frecuente presencia de densas coberturas de nubes en
estas zonas. Así mismo son difíciles de observar las regiones polares durante los periodos invernales,
debido a la reducida iluminación solar que reciben.

En los casos que el mismo satélite lleva una fuente emisora de energía (radar) que envía hacia el objetivo
y mide el eco producido se le denomina teledetección activa. El radar atraviesa la cobertura de nubes lo
que facilita la obtención de imágenes independientemente de las condiciones meteorológicas, tanto de
día como de noche.

IMAGEN EN FALSO COLOR COMPUESTO Y ANÁLISIS VISUAL

IMAGEN FALSO COLOR COMPUESTO

El análisis de la vegetación la combinación más usada era la que


considera la banda del verde, rojo e infrarrojo cercano con
la asignación de filtros azul, verde y rojo respectivamente, a
esta composición color (simulación de película infrarroja color)
se la denomina Falso Color Compuesto Estándar (FCCS), su
uso universal, sobre estudios de vegetación, se debe a la
sensibilidad de nuestros ojos a las variaciones de tono del color
rojo, siendo este filtro el que se coloca en la banda del infrarrojo
cercano donde la vegetación tiene su máxima respuesta.
Posteriormente con la aparición del Landsat TM y el SPOT
IV, que incorporan la banda del infrarrojo medio, se comenzó a
usar la composición multi banda que se obtiene superponiendo
a las bandas del espectro correspondientes al rango del rojo,
infrarrojo medio e infrarrojo cercano, los filtros color azul,
verde y rojo, respectivamente, a esta combinación se
denomina Falso Color Compuesto (FCC) y también es muy usada para vegetación.

OJO---IMPORTANTE
VEGETACIÓN - ROJO

AGUAS LIBRES DE SEDIMENTOS - AZUL OSCURO NEGRO

AGUAS CON SEDIMENTOS EN SUSPENSIÓN - CELESTE

ÁREAS URBANAS Y SUELOS DESNUDOS - AZUL

NUBES Y NIEVES - BLANCO

ÁREAS URBANAS - CELESTE - AZUL

6
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

ANÁLISIS VISUAL

El análisis visual tiene ventajas sobre el


digital cuando se trata de evaluar áreas de
gran heterogeneidad. El procesamiento
digital basa su análisis, casi
exclusivamente, en los valores digitales
registrados por cada píxel en cada una de
las bandas en que se presenta la
información, mientras que, la
interpretación visual utiliza otros
elementos, además de los datos
espectrales, tales como: asociación, forma,
tamaño, ubicación, textura, etc.

El análisis visual se basa en principios


similares a los de la fotografía aérea; sin
embargo existen algunas pautas que no son comunes con la fotografía, o sea son propias de las
imágenes satelizarías y esto se relaciona con la posibilidad que ofrecen los sistemas espaciales de
obtener información en diferentes bandas del espectro, disponiéndose, de este modo, de datos
multi espectrales con una frecuencia de observaciones determinada, dependiente del sistema de
origen, que permite realizar estudios de tipo multitemporal. Por otra parte, existen algunos principios
que se refieren a la posibilidad de realizar estereoscopia.

CLASIFICACIÓN NO SUPERVISADA

El método consiste en agrupar pixeles con similitud radiométrica por cada banda espectral según
estructuras matemáticas. No se conoce la significación real sobre el terreno de dichas agrupaciones.
Posteriormente, habrá que interpretar y modificar dichas clases a clases reales con ayuda de información
existente (mapas, fotos aéreas, etcétera). Una de las técnicas más empleadas es el método ISODATA
(proceso iterativo de clasificación), cuyas fases más destacables son:

• Definición de clases espectrales a separar.

Estimador matemático discriminante. Normalmente se emplea la distancia euclídea – d – entre pixeles (i,
j), (k, l):

𝒅 = √(∆𝒙𝟐 𝒊,𝒌 + ∆𝒙𝟐 𝒋,𝒍

7
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

• Definición del centro de cada clase en el espacio espectral.

Asignación de cada pixel al centro más próximo según el estimador


matemático definido. Este nos dará una primera clasificación
(cluster). A partir de la clasificación anterior se obtienen nuevos
centros de clase. Si coinciden con los anteriores, el proceso se
termina. Si no coinciden, se hace una nueva iteración.

El proceso puede finalizar si se ha definido un número máximo de


iteraciones o los residuos obtenidos para cada clase (una vez
agrupados todos los pixeles en un rango máximo determinado) son
menores que una cantidad prefijada. Como es lógico, en este
proceso las clases (número de pixeles agrupados y, por tanto, con
una significación superficial sobre el terreno) van variando con cada
iteración. Este método, suele ser previo al de la clasificación supervisada, dado que nos proporciona un
agrupamiento de pixeles objetivo del territorio (imagen) lo que facilitará su identificación más precisa en
el siguiente proceso de clasificación.

CLASIFICACIÓN NO SUPERVISADA IMAGEN LANDSAT TM (6 BANDAS). RESULTADO DE LA


CLASIFICACIÓN.

CLASIFICACIÓN SUPERVISADA

En este método se definen a priori las clases de


información que existen en la imagen (no donde se
encuentran). Para ello, se seleccionarán unas
muestras significativas en la imagen (pixeles
muestrales de clasificación) y en el terreno (u objeto
real) con vistas a la interpretación real de dichas
muestras, etiquetándose posteriormente todos los
pixeles con criterios estadísticos (cálculos de probabilidad), finalmente se agruparán formando las
diversas clases definitivas. Las fases a seguir serían las siguientes:

DEFINICIÓN DE CLASES FINALES A OBTENER.

Selección de muestras significativas en el terreno y su correspondiente identificación en la imagen para


cada clase. Con ello podremos conocer el conjunto de valores espectrales (ND/banda) para cada objeto y,
por tanto, su centro de clase (media).

PRODUCTOS FINALES Y FORMATOS

Aplicaciones de la información recogida por teledetección remota:

8
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

• EL RADAR CONVENCIONAL se ha asociado principalmente al control del tráfico aéreo, y a la recogida


de cierta información meteorológica a gran escala. El radar doppler se usa como apoyo para hacer
cumplir con los límites de velocidad locales y también como refuerzo a la recogida de información
meteorológica como la velocidad del viento y la dirección del mismo. Otros tipos de recogida de
información activa incluye el plasma de la ionosfera. Los radares interferométricos de apertura
sintética (Interferometric synthetic aperture radar ) se usan para producir modelos digitales precisos
de grandes áreas de terreno.
• LOS ALTÍMETROS POR LÁSER Y RADAR EN LOS SATÉLITES proveen una gran cantidad de información.
Midiendo las protuberancias del agua causadas por la gravedad, mapean las características en el
fondo del mar en una resolución de una milla más o menos. Midiendo la altura y la longitud de las
olas en el océano, los altímetros miden la velocidad del viento y la dirección, y las de la superficie del
océano.
• LIDAR (UN ACRÓNIMO DEL INGLÉS LIGHT DETECTION AND RANGING) se conoce en el ámbito de
pruebas de rango de armamento, como en los proyectiles guiados por láser. LIDAR se usa para
detectar y medir la concentración de varios agentes químicos en la atmósfera, mientras que la rama
de paracaidismo LIDAR se usa para medir alturas de objetos y características en la tierra de una
manera mucho más precisa que con cualquier tecnología de radares, con importantes aplicaciones en
el campo de la hidrogeología, geomorfología y arqueología. La teledetección remota de la vegetación
es uno de las aplicaciones más relevantes de LIDAR.
• LOS RADIÓMETROS Y FOTÓMETROS son los instrumentos usados de manera más común, recogiendo
radiación emitida y reflejada en un amplio espectro de frecuencias. (Rango visible, infrarrojos,
microondas, rayos gamma y a veces ultravioleta). También pueden usarse para detectar el espectro
de emisión de varios agentes químicos, proveyendo así de información sobre la concentración de
determinados químicos en la atmósfera.
• LA FOTOGRAFÍA ESTEREOSCÓPICA se ha usado a menudo para hacer mapas topográficos por
analistas de terreno en “traficabilidad” y en departamentos de carreteras para rutas potenciales.
• PLATAFORMAS MULTI-ESPECTRALES SIMULTÁNEAS COMO LANDSAT han estado en uso desde los
años 70. Estos maleadores temáticos toman imágenes en múltiples longitudes de onda del espectro
electromagnético y se encuentra normalmente en satélites de observación terrestre, incluyendo (por
ejemplo) el programa LandSat o el satélite IKONOS. Estos mapas se pueden usar en la prospección de
minerales, detectar o monitorizar el uso de tierras, deforestación, el estado de salud de plantas
indígenas y cultivos, incluyendo zonas enteras de cultivo o bosques.

MEDICIONES SOBRE IMÁGENES Y CÁLCULOS DE ÁREAS

MEDICIONES SOBRE IMÁGENES:

IMÁGENES:

En el análisis de cambios se emplearon dos imágenes de resolución media, adquiridas por el sensor LISS-
III, a bordo de los satélites IRS 1C y 1D, en junio de 1996 y en septiembre de 1999. Además, con objeto de
evaluar y contrastar diversos métodos empleados en este estudio se usaron otras dos imágenes, una
pancromática del satélite IRS-1C, adquirida en septiembre de 1996, y una imagen IKONOS de mayor
resolución espacial tomada el 23 de diciembre del 2000.

9
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

Para la generación de la ortoimagen espacial se utilizaron dos imágenes, una pancromática y otra
multiespectral, adquiridas en febrero de 2004 por el satélite QuickBird, de órbita heliosíncrona situada a
una altitud de unos 450 km. La imagen pancromática tiene una resolución espacial de 0,61 m/píxel (nadir)
y un intervalo espectral entre 450-900 nm., mientras que la resolución de la imagen multiespectral es de
2,44 metros (nadir) y posee 4 bandas espectrales: azul (450-520 nm), verde (520-600 nm), roja (630-690
nm) e infrarroja cercana (760-900 nm). La resolución radiométrica de ambas es de 11 bits por píxel.

FUSIÓN DE IMÁGENES:

El objetivo de la fusión de imágenes es combinar en una misma imagen la resolución espacial de la imagen
pancromática con la información espectral de la imagen multiespectral. Antes del proceso de fusión se
georreferenció la imagen pancromática y se registró la imagen multiespectral con respecto a ella.

Para rectificar y georreferenciar la imagen pancromática se utilizó la cartografía catastral urbana y la


cartografía municipal comentada anteriormente. Se emplearon 274 puntos de control distribuidos
homogéneamente en la zona de trabajo, aplicándose un ajuste polinomial de 2º grado. El error medio
cuadrático total obtenido mediante 36 puntos de evaluación fue de 0,934
píxeles. En el proceso de se emplearon 113 puntos de control y un
procedimiento similar al anterior, obteniéndose un error medio cuadrático
total de 0,494 píxeles, utilizando 18 puntos de evaluación. En el proceso de
fusión se ensayaron cuatro métodos diferentes: multiplicativo, Brovey,
transformación al espacio HSI y transformación de componentes principales.
La evaluación de la calidad espacial se realizó mediante análisis visual,
mientras que la calidad espectral se valoró mediante la diferencia de medias
y el coeficiente de correlación entre las bandas antes y después de la fusión,
obteniendo los mejores resultados con el método basado en la
transformación de componentes principales, por lo que la fusión definitiva se realizó empleando este
método.

SOFTWARE DISPONIBLE

Ha habido un gran cambio a lo largo de los años para construir software de una manera abierta y
colaborativa. Por lo tanto, este software se pone a disposición del público y se le llama de código abierto.

Las imágenes satelitales y de aéreas ayudan a la hora de dar respuestas ante el cambio ambiental, la
previsión meteorológica, la gestión de desastres, la seguridad alimentaria y otras aplicaciones de
teledetección. El software de detección remota procesa imágenes y proporciona soluciones a problemas
locales o globales.

En un entorno de código abierto, pueden utilizarse técnicas de teledetección útiles tales como filtrar
datos, realizar clasificación e incluso descomposición de radar.

SAGA GIS: es ideal para la mayoría de las necesidades de SIG y de


teledetección. Contiene una rica biblioteca de módulos da SAGA

10
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

GIS una gran ventaja. Estos módulos vienen en forma de análisis ráster y manipulación, además su
procesamiento de ráster es rápido y confiable.
Opticks: posee una larga lista de extensiones que puede agregar como plugins para matemáticas ráster,
procesamiento de radar e hiper/multiespectral. Ahora, eso es una gran funcionalidad para el software de detección
remota de código abierto.

GRASS: está lleno de funcionalidades cómo la clasificación de imágenes,


PCA, detección de bordes, correcciones radiométricas, 3D, análisis de
geoestadística y opciones de filtrado.Otra característica clave de GRASS es
el procesamiento y análisis de LiDAR. Puede filtrar puntos LiDAR, crear
contornos y generar DEMs.

PolSARPro puede manejar datos SAR de polarización dual y completa. Los


datos SAR pueden provenir de ENVISAT-ASAR, ALOS-PALSAR, RADARSAT-2
y TerraSAR-X. Existe una amplia gama de herramientas como importación,
conversión, filtrado, descomposición, procesamiento inSAR y
calibración.Por otro lado el software posee un buen marco de
procesamiento de gráficos donde los usuarios pueden automatizar el flujo
de trabajo, esta funcionalidad es similar a ArcGIS model builder y es fácil
de configurar.

ORFEO es una biblioteca de procesamiento de imágenes de teledetección


de alta resolución. ORFEO ofrece una amplia gama de funciones de
teledetección: radiometría, PCA, detección de cambios, afilado de pan,
segmentación de imágenes, clasificación y filtrado. Un aspecto realmente
interesante de este software es la capacidad de hacer análisis de
imágenes basadas en objetos, capacidad difícil de encontrar en los
software de hoy en día.

OSSIM es una aplicación de software de teledetección de código abierto


de alto rendimiento, y tiene una compatibilidad con más de 100 formatos
ráster y vectoriales y más de 4000 proyecciones y datums diferentes y
soporta una larga lista de sensores, pero algunos pueden requerir
complementos adicionales.Si necesita alguna dirección de detección
remota para imágenes de alta resolución espacial, OSSIM podría ser la
respuesta que ha estado buscando.

InterImage se especializa en la interpretación automática de la imagen. La


interpretación automática de imágenes es la clasificación basada en
objetos (OBIA). Esto implica la segmentación, explorando los atributos y la
clasificación supervisada.

E-foto se preocupa por una cosa: la fotogrametría digital. La funcionalidad principal de este software de
teledetección de código abierto es la foto-triangulación, el modelado estereoscópico, la extracción digital del modelo
de elevación y la corrección del terreno. Este software proporciona un conjunto de herramientas de fotogrametría
completamente funcional para usar sin ningún coste. E-foto tiene un montón de tutoriales y ejemplos para que esté
bien en su camino a ser un experto en fotogrametría.

ILWIS tiene una gran compatibilidad con los formatos ráster y vectorial. Esto se ha logrado mediante la plena
integración con la biblioteca GDAL. Los usos prácticos de ILWIS lo convierten en una opción privilegiada para las
actividades de teledetección.

11
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

CONCEPTO Y PROPIEDADES FÍSICAS DE LA ENERGÍA ELECTROMAGNÉTICA.

LA ENERGÍA ELECTROMAGNÉTICA

Es la cantidad de energía almacenada en una región del espacio o tiempo que podemos atribuir a la
presencia de un campo electromagnético, y que se expresará en función de las intensidades del campo
magnético y campo eléctrico.

Se denomina espectro electromagnético a la distribución energética del conjunto de las ondas


electromagnéticas. Referido a un objeto se denomina espectro electromagnético o
simplemente espectro a la radiación electromagnética que emite o absorbe una sustancia, dicha
radiación sirve para identificar la sustancia de manera análoga a digital.

Los espectros se pueden observar mediante espectroscopios que, además de permitir ver el espectro,
permiten realizar medidas sobre el mismo, como son la longitud de onda, la frecuencia y la intensidad
de la radiación.

El espectro electromagnético se extiende


desde la radiación de menor longitud de
onda, como los rayos gamma y los rayos X,
pasando por la radiación ultravioleta, la luz
visible y la radiación infrarroja, hasta las
ondas electromagnéticas de mayor
longitud de onda, como son las ondas de
radio.

TIPOS DE RADIACIÓN

Radiofrecuencia

Las ondas de radio suelen ser utilizadas mediante antenas del tamaño apropiado (según el principio de
resonancia), con longitudes de onda en los límites de cientos de metros a aproximadamente un milímetro.
Se usan para la transmisión de datos, a través de la modulación. La televisión, los teléfonos móviles, las
resonancias magnéticas, o las redes inalámbricas y de radio-aficionados, son algunos usos populares de
las ondas de radio.

Microondas

Las microondas son ondas las suficientemente cortas como para emplear guías de ondas metálicas
tubulares de diámetro razonable. El horno microondas promedio, cuando está activo, está en un rango
cercano y bastante poderoso como para causar interferencia con campos electromagnéticos mal
protegidos, como los que se encuentran en dispositivos médicos móviles y aparatos electrónicos
baratos.

12
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

Rayos T

La radiación de terahertzios o Rayos T es una región del espectro situada entre el infrarrojo lejano y las
microondas. Hasta hace poco, este rango estaba muy poco estudiado, ya que apenas había fuentes para
la energía microondas en el extremo alto de la banda). Sin embargo, están apareciendo aplicaciones para
mostrar imágenes y comunicaciones.

Radiación infrarroja
La parte infrarroja del espectro electromagnético cubre el rango desde aproximadamente los 300 GHz (1
mm) hasta los 400 THz (750 nm). Puede ser dividida en tres partes:

Infrarrojo lejano: desde 300 GHz (1 mm) hasta 30 THz (10 μm). La parte inferior de este rango también
puede llamarse microondas. Esta radiación es absorbida por los llamados modos rotatorios en las
moléculas en fase gaseosa, mediante movimientos moleculares en los líquidos, y mediante fotones en
los sólidos. El agua en la atmósfera de la Tierra absorbe tan fuertemente esta radiación que confiere a la
atmósfera efectividad opaca. Sin embargo, hay ciertos rangos de longitudes de onda ("ventanas")
dentro del rango opacado que permiten la transmisión parcial, y pueden ser usados en astronomía. El
rango de longitud de onda de aproximadamente 200 μm hasta unos pocos mm suele llamarse "radiación
submilimétrica" en astronomía, reservando el infrarrojo lejano para longitudes de onda por debajo de
los 200 μm.

Infrarrojo medio: desde 30 a 120 THz (10 a 2.5 μm). Los objetos calientes (radiadores de cuerpo negro)
pueden irradiar fuertemente en este rango. Se absorbe por vibraciones moleculares, es decir, cuando
los diferentes átomos en una molécula vibran alrededor de sus posiciones de equilibrio. Este rango es
llamado, a veces, región de huella digital, ya que el espectro de absorción del infrarrojo medio de cada
compuesto es muy específico.

Infrarrojo cercano: desde 120 a 400 THz (2500 a 750 nm). Los procesos físicos que son relevantes para
este rango son similares a los de la luz visible.

RADIACIÓN VISIBLE (LUZ)

La frecuencia por encima del infrarrojo es la de la luz visible. Este es el rango en el que el Sol y las estrellas
similares a él emiten la mayor parte de su radiación. No es probablemente una coincidencia que el ojo
humano sea sensible a las longitudes de onda que el sol emite con más fuerza. La luz visible son absorbidas
y emitidas por electrones en las moléculas y átomos que se mueven desde un nivel de energía a otro. La
luz que vemos con nuestros ojos es realmente una parte muy pequeña del espectro electromagnético. Un
arco iris muestra la parte óptica del espectro electromagnético; el infrarrojo estaría localizado justo a
continuación del lado rojo del arco iris, mientras que el ultravioleta estaría tras el violeta.

13
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

LUZ ULTRAVIOLETA

La siguiente frecuencia en el espectro es el ultravioleta (o rayos UV), que es la radiación cuya longitud de
onda es más corta que el extremo violeta del espectro visible.Al ser muy energética, la radiación
ultravioleta puede romper enlaces químicos, haciendo a las moléculas excepcionalmente reactivas o
ionizándolas, lo que cambia su comportamiento. Las quemaduras solares, por ejemplo, están causadas
por los efectos perjudiciales de la radiación UV en las células de la piel, y pueden causar incluso cáncer de
piel si la radiación daña las moléculas de ADN complejas en las células.

RAYOS X

Después del ultravioleta vienen los rayos X. Los rayos X duros tienen longitudes de onda más cortas que
los rayos X suaves. Se usan generalmente para ver a través de algunos objetos, así como para la física de
alta energía y la astronomía. Las estrellas de neutrones y los discos de acreción alrededor de los agujeros
negros emiten rayos X, lo que nos permite estudiarlos.Los rayos X pasan por la mayor parte de sustancias,
y esto los hace útiles en medicina e industria. También son emitidos por las estrellas, y especialmente por
algunos tipos de nebulosas. Un aparato de radiografía funciona disparando un haz de electrones sobre un
"objetivo". Si los electrones se disparan con suficiente energía, se producen rayos X.

RAYOS GAMMA

Después de los rayos X duros vienen los rayos gamma. Son los fotones más energéticos, y no se conoce el
límite más bajo de su longitud de onda. Son útiles a los astrónomos en el estudio de objetos o regiones
de alta energía, y son útiles para los físicos gracias a su capacidad penetrante y su producción de
radioisótopos. La longitud de onda de los rayos gamma puede medirse con gran exactitud por medio de
dispersión Compton. No hay ningún límite exactamente definido entre las bandas del espectro
electromagnético. Algunos tipos de radiación tienen una mezcla de las propiedades de radiaciones que se
encuentran en las dos regiones del espectro. Por ejemplo, la luz roja se parece a la radiación infrarroja en
que puede resonar algunos enlaces químicos.

EMISIÓN, REFLEXIÓN Y ABSORCIÓN.

Emisión de radiación

Todos los cuerpos, a cualquier temperatura, irradian energía. Esto significa que además del sol, las brasas
o el horno encendido, también lo hacen el suelo, las personas, los animales y cualquier objeto del
universo. Es por esto que existe un continuo intercambio de radiación entre un elemento y su entorno.
Por ejemplo: si una persona está de pie en una habitación, recibe radiación de las paredes, el piso, los
muebles o del sol que entra por la ventana. A su vez, la persona también la emite.

14
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

La radiación que llega a un cuerpo puede ser absorbida, reflejada o transmitida.


En la mayoría de los casos, los objetos que absorben más radiación de la que emiten aumentan su
temperatura y los que emiten más de la que absorben, la disminuyen.
Este proceso tiene lugar hasta que en los cuerpos no se producen más variaciones de temperatura:
continúan con el proceso de emisión y absorción, pero se encuentran en equilibrio térmico. Esto se
explica, considerando que se llega a un equilibrio entre la radiación emitida y la absorbida, y en estas
condiciones, la temperatura del cuerpo se mantiene constante.

Los espectros pueden ser de emisión y absorción. A su vez ambos se clasifican en continuos y discontinuos:

Espectros de absorción: Son los espectros resultantes de intercalar una determinada sustancia entre una
fuente de luz y un prisma

• Los espectros de absorción continuos se obtienen al intercalar el sólido entre el foco de radiación
y el prisma. Así, por ejemplo, si intercalamos un vidrio de color azul quedan absorbidas todas las
radiaciones menos el azul.
• Los espectros de absorción discontinuos se producen al intercalar vapor o gas entre la fuente de
radiación y el prisma. Se observan bandas o rayas situadas a la misma longitud de onda que los
espectros de emisión de esos vapores o gases.

LUZ Y COLORES

La luz es una forma de energía que tiene dos


aspectos: un aspecto de onda electromagnética y
un aspecto corpuscular (fotones). La luz emitida por
el sol viaja a una velocidad de aproximadamente
300.000 km/s con una frecuencia de
aproximadamente 600.000 GHz.

El color de la luz depende de la frecuencia, que a su


vez depende de la longitud de onda y la velocidad del frente de onda. La longitud de onda es un fenómeno
oscilatorio que se caracteriza generalmente por la relación: λ = CT, Existen dos tipos de síntesis de color:
la síntesis aditiva y la síntesis sustractiva.

La síntesis aditiva resulta de la adición de componentes de la luz. Los componentes de la luz se agregan
directamente a la emisión; éste es el caso de los monitores o los televisores a color. Cuando se agregan
los tres componentes, rojo, verde, azul (RGB), se obtiene blanco. La ausencia de componentes produce
negro. Los colores secundarios son cian, magenta y amarillo porque verde combinado con azul produce
cian, azul combinado con rojo produce magenta, verde combinado con rojo produce amarillo.

La síntesis sustractiva permite restaurar un color mediante la sustracción, comenzando de una fuente de
luz blanca, con filtros para los colores complementarios: amarillo, magenta y cian. La adición de filtros
para los tres colores produce el negro y su ausencia produce el blanco. Cuando la luz ilumina un objeto,
algunas longitudes de onda se sustraen porque son absorbidas por el objeto. Lo que vemos es la
combinación de las longitudes de onda que son reflejadas o transmitidas. Este proceso se utiliza en

15
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

fotografía y para la impresión de colores. Los colores secundarios son el azul, el rojo y el verde. El magenta
(color primario) combinado con cian (color primario) produce azul. El magenta (color primario) combinado
con amarillo (color primario) produce rojo. El cian (color primario) combinado con amarillo (color
primario) produce verde.

ESPECTRO ÓPTICO Y ESPECTRO VISUAL

Se llama espectro visible a la región del espectro electromagnético que el ojo humano es capaz de
percibir. A la radiación electromagnética en este rango de longitudes de onda se le llama luz visible o
simplemente luz. No hay límites exactos en el espectro visible: el ojo humano típico responderá
a longitudes de onda de 390 a 750 nm, aunque algunas personas pueden ser capaces de percibir
longitudes de onda desde 380 hasta 780 nm. Los arcoíris son un ejemplo de refracción del espectro visible.

Cuando se hace pasar la radiación emitida por un cuerpo caliente a través de un prisma óptico, se
descompone en distintas radiaciones electromagnéticas dependiendo de su distinta longitud de onda (los
distintos colores de la luz visible, radiaciones infrarrojas y ultravioleta) dando lugar a un espectro óptico.
Todas las radiaciones obtenidas impresionan las películas fotográficas y así pueden ser registradas. Cada
cuerpo caliente da origen a un espectro diferente ya que esta depende de la propia naturaleza del foco.

RADIACIÓN PROVENIENTE DE LA TIERRA

LA RADIACIÓN ha sido parte de la historia de nuestro planeta desde que se formó el Sistema Solar, hace
unos cinco mil millones de años. Hoy día, igual que entonces, la Tierra es bombardeada continuamente
por partículas energéticas provenientes del centro de nuestra galaxia y de otras alejadas millones de años
luz. Pero no toda la radiación recibida sobre la Tierra es extraterrestre, ya que en el interior y en la
superficie del planeta existen núcleos radiactivos que, desde que fueron creados al formarse el Sistema
Solar, emiten espontáneamente diferentes formas de radiación. Desde comienzos del siglo xx, a esta
radiación natural, o "de fondo", se le ha sumado la radiación que el ser humano aprendió a producir para
satisfacer sus necesidades y sus intereses. La radiación producida por el ser humano (a veces denominada
radiación "artificial") causa aproximadamente el 20% de la irradiación total promedio en el mundo actual;
el resto es de origen natural.

16
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

RADIACIÓN NATURAL

La cantidad de radiación natural recibida por un ser


humano es relativamente similar en todas partes del
planeta y se estima que no ha variado demasiado en el
transcurso del tiempo. Se pueden distinguir dos
mecanismos principales de irradiación: externa, cuando
la radiación proviene de fuera del cuerpo, e interna,
cuando el elemento radiactivo emisor ha sido ingerido o
inhalado, y por lo tanto se encuentra ubicado adentro
del cuerpo del individuo.

Los responsables principales de la irradiación


externa son los rayos cósmicos de origen extraterrestre
que bañan la Tierra. Esta radiación llega a nuestro
planeta después de viajar por miles de años desde alguna estrella lejana. Durante las diversas etapas de
la evolución de una estrella, ésta emite rayos X, rayos gamma, ondas de radio, neutrones, protones o
núcleos más pesados que viajan por el vacío espacio interestelar a la velocidad de la luz o cerca de ella,
hasta chocar con alguna molécula o átomo. La probabilidad de chocar con la Tierra es pequeñísima, pero
la cantidad de radiación es inmensa. Tan sólo recordemos que cada galaxia contiene unos cien mil millones
de estrellas y se calcula que existen cientos de miles de millones de galaxias en el Universo. Grandes
cantidades de radiación son producidas, por ejemplo, durante la explosión de una supernova, hecho que
le ocurre a unos 100 millones de estrellas durante los 10
mil millones de años que son la vida estimada de una
galaxia.

RADIACIÓN PRODUCIDA POR EL SER HUMANO

La fuente más importante de exposición a radiación


producida por el ser humano, hoy en día, son los
exámenes médicos que utilizan rayos X. Al tomar una
radiografía el paciente puede recibir equivalentes de
dosis entre 1 y 5 000 milirems. Los valores promedio para
una población dependen de la frecuencia con que los
individuos se someten a un examen radiológico. La dosis
individual varía mucho de una persona a otra;
obviamente, es nula para alguien que no se toma
ninguna radiografía y mucho mayor que el promedio
para quien se somete a varios exámenes. Hay una
tendencia mundial a aumentar el empleo de
radiografías, debido a la extensión de los servicios de
salud, tanto en países desarrollados como en los que

17
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

están en vías de desarrollo; simultáneamente, la dosis debida a cada radiografía tiende a disminuir debido
a nuevas técnicas, tanto en el diseño de los tubos de rayos X como en las películas radiográficas, al mejor
entrenamiento del personal a cargo de tomar los exámenes, y a la imposición de reglas de seguridad
radiológica más estrictas. Ambos factores actúan al mismo tiempo, lo que hace suponer que los valores
promedio citados no variarán demasiado en los próximos años.

SISTEMA SENSOR. PLATAFORMA. MECANISMO DE REGISTRO.

Existen dos tipos de sensores según reciban señales reflejadas de la radiación solar, o emitan su propio
haz energético: pasivos y activos. También hay otra clasificación según la forma en que almacenan la
información recibida: fotográficos, óptico electrónicos y de antena. De los sensores activos los más
conocidos son el radar que como ya se vio trabaja con microondas, y el lidar con luz polarizada o láser,
opera en el rango visible o en el infrarrojo cercano. Una de las características más importantes que definen
a un sistema sensor es su resolución, nombre bajo el cual se agrupan distintas propiedades. En general,
significa la capacidad de discernir detalles de la información capturada por el sistema combinado (óptica,
películas, electrónica, plataforma, etc.).

El uso de dicha discriminación y el nivel de detalle dependen del tipo de proyecto que se va a realizar, las
escalas geográficas de trabajo y la complejidad del paisaje. Comúnmente, cuando se habla de resolución
se está refiriendo a cuatro propiedades: espacial, espectral, radiométrica y temporal. Dentro del grupo de
los sensores pasivos, la fotografía sigue siendo el medio de captura gráfico por antonomasia. Suele usarse
película pancromática en las tomas, pero son también
de valor la película en color y la infrarroja (cercano y
color o falso color). Para tomar información en varios
canales, se pueden utilizar varias cámaras y varios
objetivos con diferente filtro y película. El programa
espacial más conocido y más utilizado hoy en día es
Landsat, propiedad de la NASA, que ha tenido varias
etapas siendo la última la 8 lanzada a principios de
2013. De las anteriores quedan activas la 5 y la 7. Tiene
órbita polar, una resolución temporal cercana a los 15
días, espacial de 30 metros (15 en el pancromático),
espectral de 8 bandas y radiométrica de 256 valores.

El ángulo de visión es vertical al terreno con un margen de error permitido de 5°. También dentro del
grupo de sensores pasivos se encuentran los exploradores de barrido (scanners) que tienen tecnología
óptico - electrónica. En este sensor, un espejo oscila en sentido perpendicular al movimiento del satélite
permitiendo explorar una faja de terreno a ambos lados de la trayectoria.

Otra tecnología de captura de información, aún en desarrollo, la constituye los llamados exploradores de
empuje o pushbroom en donde un conjunto de filas de sensores formando una matriz hacen la captura
de la información a medida que avanza el satélite. Así que la información capturada no corresponde a un

18
USMA-GEOMATICA-TEMA 2. ING. EDWARD GONZALEZ

pixel sino a una línea completa de imagen. Los tubos de vidicon similares a las cámaras de televisión, son
muy usados en la exploración de recursos naturales.

La imagen se concentra en un fotoconductor que construye una réplica electrónica de la imagen original
hasta que se efectúa un nuevo barrido. El sensor más famoso de este tipo fue el RBV (Return Beam
Vidicon) utilizado en las primeras misiones Landsat. Otras más lo han incluido como TIROS, Nimbus,
Bhaskara 1 y 2.

19

Você também pode gostar