Escolar Documentos
Profissional Documentos
Cultura Documentos
= )
u
z
k C k
. . ..
cin 2
y k
u
son las constantes elsticas de los
resortes y C
s
es el coeficiente de viscosidad del amortiguador. Estos valores del modelo se
Ecua
u
u
s
s
z C z k z C z k
u
z
. . ..
2 2
+ + =
Donde h
ps
es la elevacin del perfil real y constituye la principal variable de entrada. Las
principales variables desconocidas son las velocidades y aceleraciones verticales de las
masas. Otros parmetros constantes que se refieren al modelo son m
s
y m
u
que son las
masas del vehculo y del eje respectivamente, k
s
presentan en la Tabla 1 :
Tabla 1. Parmetros del modelo cuarto de carro.
Parmetro m
u
(kg) K
u
(N/m) m
s
(kg) K
s
(N/m) C
s
(N.s/m)
Valor 37.5 163250 250 15825 1500
El sistema de ecuacion
numricamente e integra
es diferenciales presentado en la Ecuacin 2, debe ser resuelto
do antes de calcular el IRI de la Ecuacin 1, con ayuda de un
La norma E 1926-98 de la ASTM Standard practice for computing
of road from longitudinal profile measurements presenta el
do para calcular el IRI.
3.1 ctan la rugosidad de los pavimentos.
Konh (2002) presenta una investigacin detallada en la cual analiza los factores que afectan
pre dos en su relacin con el IRI fueron los siguientes:
Espesores del pavimento
programa adecuado.
internacional roughnes index
programa que debe ser usa
.4 Factores que afe
la rugosidad de los pavimentos con el fin de poder desarrollar modelos que permitan su
diccin. Los parmetros estudia
Edad del pavimento.
Niveles de trfico.
El nmero estructural.
42
Propiedades del concreto asfltico tales como: vacos con aire, gravedad especfica, y
contenido de asfalto.
Parmetros ambientales como das de lluvia, temperatura media, das con temperatura
superior a 32C, ndice de congelamiento.
Propiedades de la base granular como el contenido de humedad y el porcentaje de
os resultados mostraron que para pavimentos asflticos sobre bases granulares, condicin
que pasa la malla 200 en el material de base, y el ndice
rablemente la rugosidad. Los factores que
contribuyen al incremento en el IRI para vas repavimentadas fueron: valores altos del IRI
ce de plasticidad
res del nmero
structural y la gravedad especfica del concreto asfltico.
arpeta y la base granular y das con temperaturas mayores a 32
rados resultaron con bajos valores del IRI, mientras que altos valores de los otros
material que pasa la malla 200.
Propiedades de la subrasante como el ndice de plasticidad, contenido de humedad,
contenido de limos y arcillas, y porcentaje de material que pasa la malla 200.
Extensin y severidad de las fallas en el pavimento.
L
general en Medelln, el porcentaje
de plasticidad en la subrasante tienen una fuerte incidencia en el IRI; altos valores de estos
parmetros resultan en grandes valores de la rugosidad. En zonas muy calientes y secas los
das con temperatura superior a 32C, el IP, el contenido de humedad y de finos en la
subrasante tienen la mayor incidencia.
Para pavimentos asflticos repavimentados con carpeta asfltica se encontr que capas
delgadas de repavimentacin reducen conside
antes de la repavimentacin, altos valores del contenido de humedad e ndi
de la subrasante as como tambin el contenido de finos, y bajos valo
e
En trminos generales los 10 factores que fueron identificados que tienen mayor influencia
en el desarrollo de la rugosidad de los pavimentos son: El trfico, la viscosidad del asfalto,
das con temperatura superior a 32C, espesor de la carpeta asfltica, espesor de la base
granular, el ndice de congelamiento, material de la subrasante menor a 0.075 mm, vacos
con aire en la carpeta asfltica, la compactacin de la base y la precipitacin anual. Altos
valores del espesor de la c
g
parmetros resultaron en altos valores del IRI.
43
3.1.5 Beneficios de los pavimentos sin irregularidades superficiales.
Los usuarios de las vas juzgan la calidad de los pavimentos por su comodidad al transitar
entidades pblicas, encargadas de las
arreteras, realicen un esfuerzo importante en lograr pavimentos sin irregularidades
La rugosidad tiende a aumentar ms con el tiempo.
La vida de servicio disminuye.
Se presenta un aumento en el consumo de combustible y los costos de mantenimiento
del vehculo y del pavimento.
3.1.5.1 Cargas dinmicas en los pavimentos.
Las cargas dinmicas que los vehculos transmiten al pavimento causan ondulaciones
e cargas estticas y
dinmicas. Los estudios han mostrado que la magnitud de las cargas dinmicas inducidas
a los pavimentos sin irregularidades es menor que las inducidas a pavimentos rugosos o
es
pavimentos y el desarrollo de irregularidades superficiales tal como lo muestra la Figura 4.
(ausencia de rugosidad), lo que lleva a que las
c
superficiales tanto en proyectos nuevos como en los de rehabilitacin. Investigaciones
recientes como la publicada por Perera & Kohn (2001), han mostrado que cuando se
comparan pavimentos con rugosidades considerables con vas regulares se presentan las
siguientes caractersticas:
Incremento en las cargas dinmicas en los pavimentos.
m
i
c
a
44
3.1.5.2 Efecto de la rugosidad inicial en la rugosidad futura y en la vida de servicio
de los pavimentos.
La rugosidad inicial de los pavimentos es un indicador de la calidad de construccin de las
vas. Si el pavimento es construido sin regularidades superficiales se espera que la vida del
pavimento sea mayor que otro que tenga mayores deformaciones considerando los otros
factores iguales.
Aunque la las irregularidades futuras de los pavimentos,
xisten otros parmetros a tener en cuenta que pueden influenciar el rendimiento de los
ustible y los costos de
mantenimiento de los vehculos.
n seguimiento a los camiones que viajaban por carreteras que presentaban
ondiciones de rugosidad alta con fallas por fatiga y por vas en excelentes condiciones.
rugosidad de los pavimentos. Es
las condiciones llas viales para el uso e de administracin de
rugosidad inicial tiene un efecto en
e
mismos desde su construccin: la variabilidad de los materiales de construccin, los
asentamiento en la subrasante, variaciones en la topografa, presencia de puentes, cmaras
de inspeccin de alcantarillado y otras estructuras presentes en las vas.
Un anlisis realizado por la ASSHTO indic que en las secciones con menores
irregularidades superficiales el incremento en el IRI era menor en el tiempo que para vas
con rugosidades iniciales altas.
3.1.5.3 Efecto de la rugosidad en el consumo de comb
Perera y Kohn (2001) reportan que investigaciones realizadas en Nevada, Estados Unidos,
muestran que pavimentos con bajas rugosidades mejoran la eficiencia del combustible y
reducen los costos de mantenimiento de los vehculos. Para llevar a cabo este estudio se
realiz u
c
Esto mostr que las vas con irregularidades superficiales incrementaron los daos en los
vehculos y sus componentes.
3.1.6 Equipos para la medicin de la rugosidad superficial.
Una variedad de equipos han sido desarrollados a travs de los aos para la medicin de la
tas mediciones en las vas son realizadas para monitorear
de las ma n sistemas
45
pavimentos o para evaluar la calidad de los viajes en proyectos nuevos o de rehabilitacin
de vas.
Existen diferentes equipos para determinar la regularidad superficial de los pavim
o evolucionando en el tiempo, variando unos de otro
btencin de los resultados. En la Tabla 2 se presen
det d super os pa
quipos para la medicin de los perfiles de los pavimentos (Modificad
entos, los
cuales han venid
rapidez para la o
equipos desarrollad
Tabla 2. E
s en la precisin y
tan algunos de los
vimentos:
o de FHWA, 2006).
os para erminar la regularida ficial de l
EQUIPO
GRADO DE
PRECISIN
IMPLEMENTACIN
COMPLEJIDAD
DEL EQUIPO
OBSERVACIONES
Perfilgrafos
(Profilographs)
Media
bras
Simple
edes viales
Control de calidad y
recepcin de o
Estos equipos no son
prcticos para evaluar la
condicin de r
Tipo Respuesta
dir la
regularidad de
las carreteras
(Response-Type
Road Roughness
Media Monitoreos de red vial Compleja
es, ya que
para me
Measuring
Systems,
RTRRMS)
Los resultados obtenidos
entre estos equipo no son
comparabl
dependen de la dinmica
particular del
movimiento del vehculo
y no son estables en el
tiempo
Nivel y Estadia Muy alta
Mediciones de perfil del
pavimento y
calibraciones
Simple
s
son elevados
El uso de estos equipos
para proyectos largos es
imprctico y los costo
Dipstick Muy alta pavimento y
calibraciones
Muy simple
para
rfil de
pavimentos en longitudes
pequeas
Mediciones de perfil del
Se utiliza
mediciones del pe
P
in
erfilmetro
ercial (Inertial Muy alta
Monitoreos y recepcin
Muy compleja
Equipos con alta
precisin, permiten la
comparacin de
resultados y son estables
r
s
profilometer)
de proyectos viales en el tiempo. Pueden se
utilizados para la
calibracin de lo
equipos tipo respuesta.
La descripcin de los equipos mostrados en la tabla anterior se presenta a continuacin.
46
3.1.6.1 Perfilgrafos (Profilographs).
Numerosos modelos de perfilgrafos han sido usados desde 1900 y han existido en una
variedad de formas, configuraciones, y marcas. Debido a su diseo stos no son prcticos.
Un perfilgrafo consiste en una viga o cercha (marco) con un sistema de soporte de ruedas
l principio y al final, y una rueda en el centro, que sirve para medir las desviaciones.
os perfilgrafos tienen una rueda sensible, montada al centro del marco para mantener el
movimiento vertical libre tal como se muestra en la Figura 5 y la Figura 6. La desviacin de
el marco del perfilgrafo, se registra
utomticamente en algunos modelos) en papel segn el movimiento de la rueda sensible.
Los perfilgrafos pueden calcular desviaciones muy ligeras de la superficie y ondulaciones
en aproximadamente 6.0 m (20 pies) en longitud.
a
En la actualidad es utilizado el Perfilgrafo de California, en el cual su uso ms comn es
para la inspeccin de construcciones de pavimentos rgidos, control de calidad, y
aceptacin de proyectos. Existen diferencias entre perfilgrafos, los cuales estn
relacionados con la configuracin de las ruedas, el funcionamiento y procedimientos de
medida de los dispositivos.
L
un plano de la referencia, establecido por
(a
Figura 5. Perfilmetro de California (FHWA, 2006).
47
Figura 6. Vista lateral del perfilgrafo de California (FHWA, 2006).
gularidad, tambin es realizada a travs de equipos Tipo
espuesta (Response Type Road Roughness Meters, RTRRM), comnmente llamados
de
ma
Lo
eje marco del vehculo. Los medidores se instalan en los
cu
pe lo. La
STM en la norma E 1082 Standard test method for measurement of vehicule response to
aveled surface roughness especifica los procedimientos para la medicin de la
e les con el tiempo. Las medidas realizadas
r comparadas con aquellas mediciones
realizadas en aos anteriores.
3.1.6.2 Equipos tipo respuesta (RTRRM).
La recoleccin de datos de re
R
Medidores de camino. Los sistemas RTRRM son adecuados para el monitoreo rutinario
una red pavimentada y para proporcionar una visin global de la condicin y el
ntenimiento necesario.
s equipos RTRRM miden los movimientos verticales del eje trasero de un automvil o el
de un remolque relativo al
vehculos con un transductor de desplazamiento localizado entre la mitad del eje y el
erpo del automvil o remolque como se muestra en la Figura 7. El transductor detecta
queos incrementos del movimiento relativos entre el eje y el cuerpo del vehcu
A
tr
rugosidad con equipo tipo respuesta.
La desventaja de un RTRRM es que el movimiento del eje del vehculo vs tiempo depende
de la dinmica de un vehculo particular, lo que produce efectos no deseados (Sayers &
Karamihas, 1998) tales como:
Las m didas de regularidad no son estab
recientemente con un RTRRM, no pueden se
48
Las medidas de regularidad no son transportables. Las mediciones realizadas por un
RTRRM que utiliza un determinado sistema son raramente reproducibles por otro an si
el vehculo es estandarizado.
La velocidad del viaje afecta las mediciones. La velocidad de viaje del vehculo afecta
la respuesta del sistema. Si en la misma seccin se toman medidas de rugosidad con el
mismo equipo y diferentes velocidades, los resultados obtenidos sern diferentes.
Transductor
Figura 7. M
Aunque existen problemas como los descritos anteriormente acerca de la reproducibilidad
y transportabilidad de los datos tomados con estos equipos, ellos han sido muy populares
ya que proveen una forma econmica de obtener datos de rugosidad en las vas.
rfilmetro manual y es quizs el mtodo ms preciso para obtener las
levaciones reales de la superficie del pavimento, es considerado de bajo rendimiento
Eje
Medidor
odelo equipo tipo respuesta (Sayers & Karamihas, 1998).
3.1.6.3 Nivel y Estadia (Rod and Level).
Es conocido como pe
e
debido a que el proceso de recoleccin de datos es relativamente lento en comparacin con
otros equipos. Se considera que para la evaluacin de la regularidad de la superficie de
rodadura de proyectos de gran magnitud es imprctico y de alto costo. Sin embargo, este
tipo de equipo tiene una gran precisin y puede obtener una medida exacta del perfil del
pavimento (Sayers et al. 1986b). La Figura 8 muestra un esquema del perfilmetro manual.
La especificacin E1364 de la ASTM Test method for measuring road roughness by static
level method presenta una gua para la medicin el perfil de las vas con este equipo. El
parmetro ms importante para la toma de datos por este mtodo es que la resolucin del
nivel cumpla con los requerimientos dados por la ASTM.
49
Figura 8. Nivel y Estadia (Sayers & Karamihas, 1998).
ntidad relativamente pequea de
edidas del perfil de pavimento. El Dipstick mostrado en la Figura 9 consiste en un
3.1.6.4 Dipstick.
Los equipos Dipstick pueden usarse para obtener una ca
m
inclinmetro soportado en dos apoyos separados por 305 mm (12), los cuales registran la
elevacin de un apoyo relativo a la elevacin del otro. El operador conduce el Dipstick
sobre una seccin de pavimento premarcada, rotando el instrumento alternadamente sobre
cada apoyo (ver Figura 9). Se registran las lecturas secuencialmente mientras el operador
recorre la seccin. El dispositivo registra 10 a 15 lecturas por minuto. El software de
anlisis es capaz de proporcionar un perfil exacto a 0.127 mm ( 0.005). El Dipstick
comnmente es usado para medir un perfil para la calibracin de instrumentos ms
complejos, tal como el RTRRM, as mismo para la verificacin de resultados obtenidos con
los Perfilmetros Inerciales.
Figura 9. Equipo Dipstick y su operacin (FHWA, 2006).
50
3.1.6.5 Perfilmetro inercial (Inertial profilometer).
Los equipos de referencia inercial son equipos que producen medidas automticas y de alta
calidad del perfil de la carretera. Estos equipos producen medidas continuas del perfil
longitudinal a altas velocidades a travs de una creacin de una referencia inercial integrada
por acelermetros colocados en un vehculo para obtener el movimiento vertical del mismo
(aceleracin vertical) y sensores que no son de contacto, tipo lser, que miden el
desplazamiento relativo entre el vehculo y la superficie del pavimento como se muestra en
lmente son llamados perfilmetros de alto
rendimiento ya que son muy precisos y generan el perfil longitudinal de la va en tiempo
didor
e distancia, y un computador con su respectivo software para el cmputo del perfil de la
la Figura 10 y en la Figura 11. Genera
real. Sus principales componentes son: Sensores de altura, acelermetros, sistema me
d
calzada. Algunos de estos sistemas estn equipados con cmaras de video que pueden
grabar diferentes perspectivas de la va y pueden ser usados para determinar otras
condiciones como el nivel de daos, seales de piso y otros elementos que componen su
infraestructura.
Figura 10. Modelo de los perfilmetros inerciales (Sayers & Karamihas, 1998).
Figura 11. Perfilmetro inercial (FHWA, 2006).
51
3.1.7 Clasificaci in de la
Los equipos utilizados para la la regularidad clas de
acuerdo con e resolucin de la medida. Esta
clasificacin e
for ting et a
norma ASTM E-950-98. Una comparacin de estas clasificaciones se muestra en la Tabla
3.
Tab asif inale
1986b y ASTM
n de los equipos para la medic rugosidad superficial.
medicin de de las vas son ificados
l intervalo de almacenamiento de datos y la
s presentada por Banco Mundial en su docum
and calibrating road roughness measureme
ento tcnico N 4
nts (Sayers
6 Guidelines
l, 1986b) y la conduc
la 3. Cl icacin de los equipos para la medicin de los pe
E-950-98).
rfiles longitud s (Sayers et al.,
Clasificacin segn ASTM E-950-98
Clasificacin
del equipo
Clasificacin segn el Banco Mundial
Intervalos de
o
Resolucin de Documento tcnico N 46
(Sayers et al., 1986)
las medidas
verticales
almacenamient
Perfilmetros de precisin
Clase 1
sobrepasar los 0.25 m y la precisin de medici
. Requiere que el perfil
longitudinal sea medido como una serie de puntos
de elevacin equidistantes a travs de la huella de la
va para calcular el IRI. Esta medida no debe
n de
la elevacin debe ser superior 0.5 mm para
pavimentos con IRI entre 1 y 3 m/km y de 3 mm
Menor o igual a 25
mm
Menor o igual a
0.1 mm
para valores del IRI entre 10 y 20 m/km
Clase 2
Otros mtodos. Requieren una frecuencia de puntos
del perfil no superior a 0.5 m y una precisin en la
medida de elevacin de 1 mm para IRI entre 1 y 3
m/km y 6 mm para valores de IRI entre 10 y 20
m/km
Mayor que 150 mm
hasta 300 mm
Mayor que 0.1
mm hasta 0.2
mm
IRI estimado mediante ecuaciones de correlacin.
Clase 3
mediante equipo tipo respuesta (RTRRM), los
cuales han sido previamente calibrados con
perfilmetros de precisin mediante ecuaciones de
correlacin
Mayor que 25 mm
hasta 150 mm
mm hasta 0.5
mm
La obtencin del perfil longitudinal se hace
Mayor que 0.2
Clase 4
Estimaciones subjetivas y mediciones no calibradas.
Incluyen mediciones realizadas con equipos no
calibrados, estimaciones subjetivas con base en la
experiencia en la calidad del viaje o inspecciones
Mayor que 300
Mayor que 0.5
mm
visuales a las vas
52
3.1.8 Factores que afectan la medicin del IRI.
Un elemento esencial en los sistemas de administracin de pavimentos es el monitoreo
ermanente de la rugosidad, las fallas y otras propiedades. Muchas entidades municipales a
ripcin de las variables que afectan las mediciones
ividindolas en cinco categoras: diseo del equipo, la forma del pavimento, el medio
ura de los
ensores, los tipos de acelermetros y las distancias de medidas del sistema. Un factor
ara la forma del pavimento se tiene que las medidas de los perfiles usualmente se realizan
d de los pavimentos y en
evolucin y progresin de la misma.
p
nivel mundial tienen equipos para la medicin de los perfiles longitudinales de las vas
cuyos datos son manipulados matemticamente para ser reducidos en un slo ndice, el IRI
es el ms usado alrededor del mundo, sin embargo la informacin de este ndice es buena
siempre y cuando las mediciones del perfil sean de sobresaliente calidad.
Los equipos de medicin de las regularidades superficiales del pavimento han evolucionado
considerablemente pero an falta desarrollo. Errores y discrepancias en las medidas del
perfil se presentan debido a las variaciones de los equipos, procedimientos de operacin
inadecuados, y aspectos de la superficie del pavimento y el ambiente circundante. Por
ejemplo, los operadores de los equipos de medicin no pueden tomar siempre la misma
posicin o seguir la misma lnea, lo que afecta la medida as se utilicen excelentes equipos.
Perera & Kohn (2002) presentan la desc
d
ambiente, la operacin del equipo y la habilidad del operador.
Los aspectos del diseo del equipo que afectan la calidad de los datos son la alt
s
importante que contribuye a obtener perfiles precisos es la manera como se toman los
datos. Menores distancias son requeridas para clculos precisos del IRI.
P
a travs de dos lneas de la superficie del pavimento en una longitud dada. La posicin
lateral de las medidas tiene una fuerte influencia en el perfil ya que la forma y superficie
del pavimento cambian a lo largo de la longitud; el tiempo y fecha de medicin de los datos
puede influenciar los resultados en mucho casos por los cambios cclicos en la rugosidad
debidos a factores ambientales. Tambin es importante tener en cuenta las fallas en los
pavimentos las cuales tienen un efecto considerable en la rugosida
la
53
La mayora de los tipos de fallas que son capturadas en las medidas de un perfil aparecen
como caractersticas severas que incrementan el valor del IRI. Para pavimentos con daos,
el intervalo de toma de mediciones tiene un impacto importante en los resultados
ed mbiente en el que se realizan
s mediciones. Algunos aspectos a tener en cuenta son los altos contenidos de humedad en
La operacin de los equipos influencia fuertemente la repetibilidad de las medidas sobre
ue el equipo toma sobre una seccin tiene una alta
fluencia en las medidas de rugosidad por las variaciones transversales en el perfil. Dos
orrecta.
3.1.9 Valores del IRI y especificaciones internacionales.
A continuacin se presentan las diferentes escalas y especificaciones adoptadas en
diferentes pases para el ndice de rugosidad internacional.
3.1.9.1 Escala del Banco Mundial.
A partir del estudio realizado por el Banco Mundial en 1982 (Sayers et al. 1986a) se
propuso la escala presentada en la Figura 12 para la medicin del ndice de rugosidad
internacional en diferentes tipos vas. Otras escalas son presentadas por la especificacin
roughness index of roads
en la Figura 13, y por el Banco Mundial en el
ento tcnico N 46 Road roughness measurements en la Figura 14, las cuales son
adaptadas y mostradas a continuacin.
Las m iciones de los perfiles pueden verse afectadas por el a
la
periodos lluviosos y las superficies contaminadas.
todo en la posicin lateral. El camino q
in
medidas que siguen diferentes lneas pueden producir resultados igualmente vlidos pero
diferentes. Conducir el vehculo con velocidades fuera de las especificadas por el equipo
puede producir resultados inadecuados (Perera & Kohn, 2001).
El conductor y el operador del equipo pueden tener una tremenda influencia en la calidad
de los datos del perfil ya que ellos son los que controlan la velocidad, la posicin lateral del
vehculo y la permanencia en la lnea c
ASTM E 1926 Standard practice for computing international
from longitudinal profile measurements
docum
54
Figura 12. Escala de rugosidad IRI (adaptado de Sayers et al., 1986a).
0
3
6
9
11
3n 50 m) o frecuente
Manejo confortable entre 50-60 km/h, frecuentes movimientos puntuales u
oscilaciones. Asociados con severos defectos: frecuentes depresiones profundas y
varibles o parches (por ejemplo 20-40 mm/3m o 40-80mm/5m con frecuencia de 5-3
Necesario reducir velocidad por debajo de 50 km/h. Muchas depresiones profundas,
baches y desintegracin severa (por ejemplo 40-80mm de profundidad con
IRI (m/km)
Manejo confortable arriba de 120 km/h. Ondulacin levemente perceptible a 80 km/h
en rango entre 1.3 y 1.8. Depresiones, baches o corrugaciones no son fcilmente
visibles; depresiones <2mm/3m. Tpicamente en asfltos de alta calidad entre 1.4 y
2.3. Tra
Manejo confortable entre 100 y 120 km/h. A 80 km/h, movimientos moderadamente
perceptibles o largas ondulaciones pueden ser percibidas. Superficie defectuosa:
depresiones ocasionales, parches o baches (por ejemplo 5-15 mm/3 m o 10-
20mm/5m con frecuencia
Manejo confortable entre 70 y 90 km/h, grandes movimientos perceptibles y
oscilaciones. Usualmente asociados con defectos: frecuentes depresiones
moderadas y variables o parches (por ejemplo 15-20mm/3m o 20-40mm/5m con
frecuencia 5-3 en 50 m) o baches o
frecuencia entre 8-16 en 50 m).
igura 13. Escala de rugosidad de vas pavimentadas con concreto asfltico. Especificacin ASTM
E 1926.
F
55
0
2
4
Vas recientemente pavimentadas con perfiles longitudianal y
transversal excelentes. Usualmente encontrado en pequeos
tramos
Manejo confortable entre 80 y 100 km/h. Depresiones no
perceptibles (<5 mm/3m), sin huecos.
IRI (m/km)
0-3
3-6
6
12
14
22
confortable entre 30 y 40 km/h. Depresiones transversales
as y frecuentes (40-80mm/1-5mcon frecuencia de 5-
Man
causaran disconfort y posibles daos al vehculo. Depresiones
profu s (4 1-5m con frecuencia de 10-15 por
50m lment iones muy profundas (80mm/0.6-
2m).
Manejo confortable a 50 km/h ( o 40-70 km/h en ciertos tramos).
Depresiones transversales moderadas y frecuentes (20-40mm/3-5m
con frecuencia de 10-20 por 50m), o depresiones profundas
ncia menor a 5 por
19-24
8
10
Manejo confortable entre 70 y 80 km/h. Movimientos perceptibles.
Depresiones frecuentes y moderadas y pequeos huecos (< 6-
30mm/3m con frecuencia de 5-10 por 50m) Corrugaciones
moderadas (6-20 mm/0.7-1.5m).
6-10
ocasionales o huecos (40-80 mm/3mcon frecue
50m).
10-14
16
18
Manejo
profund
50m)
meno
14-19
20
24
10 por
uencia , o depresiones muy profundas (80 mm/1.5mcon frec
r a 5 por 50m) con otras depresiones menores.
ejo confortable a 20-30 km/h. Velocidades mayores a 40 km/h
ndas frecuente
), y ocasiona
0-80mm/
e depres
F scala de rugosidad de v mentadas n concreto asfltico. Banco Mundial en el
documento tcnico N 46 (Sayers et al. 1986b).
3.1.9.2 Va nstituciones pblicas.
La determinacin del IRI es de vital im trol, recepcin y la definicin
tegias de las obras de infraestructura vial, por lo
igura 14. E as pavi co
lores del IRI adoptados por diferentes i
portancia para el con
de estra de mantenimiento y rehabilitacin
56
qu necesario establece acin del IRI por
par s entid amentales ntervalos tudes c , se
ocultan niveles altos de la rugosidad superficial de los pavimentos, obteniendo de m nera
inadecuada valores de IRI satisfactorio, mientras que en la utilizacin de longitudes muy
ortas se detectan niveles altos de rugosidad.
e se hace
te de la
r intervalos de longitud para la determin
ades gubern . Para i con longi onsiderables
a
c
A continuacin en la Tabla 4, se presentan algunas especificaciones del ndice de rugosidad
internacional en diferentes pases del mundo de acuerdo con el tipo de pavimento. Estas
especificaciones estn dadas por las instituciones pblicas encargadas del mantenimiento
vial.
Tabla 4. Especificaciones internacionales por instituciones pblicas.
Requerimientos del IRI mento segn el tipo de pavi
Institucin
Pblica
Procedimiento
general
Asfltico Hidrulico
Tratamientos
superficiales
Ministerio de
Obras
Pblicas de
ile
IRI obtenido en
tramos consecutivos
de 200m de secciones
homogneas
Promedio de 5 tramos 2 Promedio
individual 2.8 m /km
Promedio de 5 tramos
3 m/km Promedio
individual 4 m /km
5
m/km
Ch
Ministerio de
IRI obtenido en
IRI < 1.5 m/km en el 50
Fomento de
Espaa
tramos de 100 m
% de los tramos del proyecto
IRI < 2 m/km en el 80% de los tramos del proyecto
IRI < 2.5 m/km en el 100% s tramos del proyecto de lo
IRI m/km Aos
< 1.1
0
< 1.17 1
< 1.29 2
< 1.33 3
< 1.37 4
Estados
Unidos
(Estado de
Wisconsin)
IRI obtenid en
tramos de 160 ( 1
milla)
< 1.45 5
--------- -------------
o
0 m
Canad
IRI obtenido en
tramos de 100 m
IRI 1.2 m / km para
el 70% de los tramos
IRI 1.4 m / km para
---------- ----------
el 100% de los tramos
---
IRI en tramos de 20 m IRI 1.4 m/km -------------
Suecia
IRI en tramos de 200
m IRI 2.4 m/km
-------------
57
A nivel de Colombia el Instituto Nacional de Vas INVIAS ha sido la entidad que ha
establecido especificaciones para el IRI. Su determinacin se realiza con un equipo de
medida de precisin o por medio de un sistema de referencia inercial, en tramos de un
ectmetro (1 hm), es decir, 100 m. Los requisitos por cumplir, son los indicados en la
abla 5 y la Tabla 6.
h
T
Tabla 5. Valores de IRI por cumplir en pavimentos de nueva construccin.
PORCENTAJE DE
HECTMETROS
IRI
(m/km) o (dm/hm)
50 < 1.5
80 < 2.0
100 < 2.5
Tabla 6. Valores de IRI por cumplir en pavimentos rehabilitados.
IRI
(m/km) o (dm/hm)
Espesor del refuerzo
PORCENTAJE DE
HECTMETROS
> 10 (cm) 10 (cm)
50 < 1.5 < 2.0
80 < 2.0 < 2.5
100 < 2.5 < 3.0
Se
so
La
es
de
entos de 100 m,
referiblemente mediante el sistema de medidas mviles, con el fin de delimitar sectores de
observa que las especificaciones presentadas por el INVIAS y mostradas en las Tabla 5
n similares a las del Ministerio de Fomento de Espaa para pavimentos nuevos.
aplicacin de datos de IRI en estudios de mantenimiento y rehabilitacin de pavimentos,
recomendado por el INVIAS que las mediciones se realicen por cada carril por la huellas
circulacin de los vehculos y los resultados convertidos a unidades de IRI mediante
deben procesar en increm alguna ecuacin apropiada de correlacin y se
p
similar comportamiento.
58
3.2
La
ma seres vivos. Su principal
aracterstica est en la capacidad de aprender y memorizar.
Un
ce
po
La
m s incluyen:
ara resolver un problema, debido a que las redes pueden generar su propia
distribucin de los pesos de los enlaces mediante el aprendizaje. Durante este proceso,
los enlaces ponderados de las neuronas se ajustan de manera que se obtengan unos
Autoorganizacin. Las redes neuronales usan su capacidad de aprendizaje adaptativo
rendizaje y/o la operacin.
La autoorganizacin consiste en la modificacin de la red neuronal completa para llevar
uto-organizan la informacin usada; esta
autoorganizacin provoca la generalizacin, la cual se define como la facultad de las
ASPECTOS GENERALES DE LAS REDES NEURONALES
s Redes Neuronales Artificiales (RNA) son dispositivos o software programados de
nera tal que funcionen como las neuronas biolgicas de los
c
a red neuronal busca representar de una manera artificial el proceso de aprendizaje del
rebro humano. El trmino artificial hace referencia a la necesidad de usar algoritmos para
der manejar la gran cantidad de clculos necesarios durante el proceso de aprendizaje.
s redes neuronales ofrecen numerosas ventajas, por lo cual se aplican cada vez ms en
ltiples reas. Segn Hilera & Martnez (2000), estas ventaja
Aprendizaje adaptativo. La capacidad de aprendizaje adaptativo es una de las
caractersticas ms atractivas de las redes neuronales, ya que aprenden a llevar a cabo
ciertas tareas mediante un entrenamiento con ejemplos ilustrativos, y no necesitan un
algoritmo p
resultados especficos. Las redes neuronales son sistemas dinmicos autoadaptativos;
son adaptables debido a la capacidad de autoajustarse de los elementos procesales
(neuronas) que componen el sistema. Son dinmicos, pues son capaces de estar
constantemente cambiando para adaptarse a las nuevas condiciones.
para auto-organizar la informacin que reciben durante el ap
a cabo un objetivo especfico. Cuando las redes neuronales se usan para reconocer
ciertas clases de patrones, ellas a
redes neuronales de responder apropiadamente cuando se les presentan datos o
situaciones a los que no haban sido expuestas anteriormente.
59
ia a os. onal rimero omp n
la c ad inherente cia a fallos. La razn por la que las redes neuronales
son tolerantes a l las conexiones
ur ex .
Hay dos aspectos distintos respecto a la tolerancia ero, las redes pueden
r a n
ia a fallos los da undo, p i
(con cierta degrad
Fcil insercin de a tecnolo una red neuronal puede
ser rpidamente e
c
istentes.
las desven as RNA r que entrenarlas
a mlt ar la
adecuad cantida mpo com ertido en la fase de
entrenamiento y el a esos de la red,
e
3.3 TIPOS DE REDES NEURONALES ARTIFIC
enta en la T ume uronales ms conocidos
incluyendo las aplicaciones y limitaciones.
Tabla 7. Caracterstic artnez,
2000).
Toleranc
apacid
fall Las redes neur
de toleran
es son los p s mtodos c utacionales co
os fallos es que t
istiendo cierto gra
ienen su informa
do de redundanc
cin distribuida en
ia en este tipo de alm
a fallos: prim
entre ne onas, acenamiento
aprende
toleranc
reco ocer patrones con
respecto a
ruido, distorsion
tos; y seg
ados o incomple
ueden seguir real
tos, sta es una
zando su funcin
acin) aunque se d
ntro de l
estruya parte de l
ga existente. De
a red.
bido a que
ntrenada, comprob
il insertar redes n
ada y trasladada a
euronales para tar
una implementacin hardware de
eas especficas de bajo costo
ex
, es f
ntro de sistemas
Dentro de
para cada problem
arquitectura
tajas de l
, la obligacin
a, la gran
se debe menciona
de realizar
d de tie
r el hecho de tene
iples pruebas para de
putacional inv
termin
lto requerimiento
neral stas se comp
de datos para la
ortan como mode
calibracin de los p
los de Caja negr adems de que en g a.
IALES
redes ne Se pres abla 7 un res n de los tipos de
as de los tipos de redes neuronales ms importantes (Hilera & M
Nombre de
la red
Ao
Aplicaciones ms
importantes
Comentarios Limitaciones Desarrollada por
Avalancha
No es fcil alterar
el
.
erg 1967
Reconocimiento de
habla continua.
Control de brazos
robot
Ninguna red
sencilla puede
hacer esto
la velocidad o
interpolar
movimiento
Stephen Grossb
Teora
(radar,
ter,
erg.
resonancia
adaptativa
1986
Reconocimiento de
patrones
sonar, etc.).
Sofisticada, poco
utilizada.
Sensible a la
translacin,
distorsin y escala.
Gail Carpen
Stephen Grossb
60
Nombre de
la red
Ao
Aplicaciones ms
importantes
Comentarios Limitaciones Desarrollada por
Adaline 1960
Filtrado de seales.
Ecualizador
adaptativo.
Modems
Rpida, fcil de
implementar con
circuitos
analgicos o VLSI.
sible
clasificar espacios
linealmente
Bernard Widrow.
Slo es po
separados.
Backpropagat
ion
1974-
1985
texto.
bots. con
xito. Facilidad de
mucho
ra el
aprendizaje y
uchos ejemplos.
Paul Werbos,David
Rumelhart y David
Parker
Sntesis de voz
desde
Control de ro
Prediccin.
Reconocimiento de
patrones
Red ms popular.
Numerosas
aplicaciones
aprendizaje.
Potente.
m
Necesita
tiempo pa
Memoria
asociativa
bidireccional
1985
ia
a de
acceso por
contenido.
arquitectura
simples
de
almacenamiento.
Los datos deben
ser codificados.
Bart Kosko.
Memor
heteroasociativ
Aprendizaje y
Baja capacidad
M
Bo
quinas de
ltzman y
1985-
1986
patrones
(imgenes, sonar y
Capacidad de
representacin
Boltmann necesita
un tiempo muy
Jeffrey Hinton,
Terry Sejnowski,
Reconocimiento de Redes simples. La mquina de
Cauchy radar).
Optimizacin.
ptima de
patrones.
largo de
aprendizaje.
Harold Szu.
Brain state in
Extraccin de
Posiblemente
mejor realizacin
Realizacin y
potenciales
box
1977 conocimiento de
bases de datos.
que las redes de
Hopfield.
aplicaciones no
estudiadas
totalmente.
James Anderson
ellatron 1969
Control del
movimiento de los
Semejante a
Avalancha.
complicadas
entradas de
David Marr, James
Albus, Andres
Requiere
Cereb
brazos de un robot.
control.
Pellionez
Counter
propagation
1986
Comprensin de
imgenes.
Combinacin de
Perceptrn y TPM.
Numerosas
neuronas y
conexiones.
Robert Hecht-
Nielsen
Hopfield 1982
Reconstruccin de
patrones y
optimizacin.
Puede
implementarse en
VLSI. Fcil de
conceptualizar.
Capacidad y
estabilidad.
John Hopfield
Neocognitron
1978-
1984
Reconocimiento de
caracteres
manuscritos
Insensibles a la
traslacin, rotacin
y escala.
Requiere muchos
elementos de
proceso, niveles y
conexiones.
K. Fukushima
Perceptron 1957 caracteres
impresos
antigua. Construida
en HW.
caracteres
complejos.
Frank Rosenblatt
Reconocimiento de La red ms
No puede
reconocer
61
Nombre de
la red
Ao
Aplicaciones ms
importantes
Comentarios Limitaciones Desarrollada por
Self
Reconocimiento de
patrone
Or
Map
ganizing
(SOM)
1980
s,
codificacin de
datos,
Realiza mapas de
caractersticas
comunes de los
Requiere mucho
entrenamiento.
Teuvo Kohonen
optimizacin.
datos aprendidos.
3.4 CARACTERSTICAS DE UNA RED NEURONAL ARTIFICIAL
El
y e
a litud con una neurona biolgica.
modelo de una neurona artificial es una imitacin del proceso de una neurona biolgica,
s conocida como nodo, neuronodo, celda, unidad o elemento de procesamiento (PE); En
Figura 15 se observa un PE en forma general y su simi l
ura 15. Neurona Biolgica-Neurona Artificial (Modificado de Haykin, 2001).
como la estructura, el funcionamiento de una neurona artificial es similar a la clula
uronal. Una neurona artificial procesa un vector x (x
Fig
As
ne
res a nica. Este proceso se ejecuta en tres pasos. En primer lugar, evala y
ondera las seales de entrada (x
1
, x
2
,...x
n
) a las cuales est asociado un peso relativo (w
i,j
)
q a conectada con esa neurona, esto se logra
multiplicand respectivo factor de peso. En segundo lugar
calcula un total que equivale a la suma ponderada de la combinacin de las seales de
e te valor pasa a travs de una funcin de activacin, la cual
determina la seal de salida de la neurona, es decir, el resultado final es comparado con un
valor de referencia por la funcin de activacin de la neurona. Si la entrada excede el valor
de referencia, la neurona va a ser activada, de lo contrario va a ser inhibida.
1
, x
2
,....x
n
) de entrada y produce una
puesta o salid
p
ue modifica la fuerza de cada entrad
o cada seal de entrada por su
ntrada. Finalmente, es
62
Dependiendo del tipo de problema la forma de los datos de entrada y salida se pueden ser
binarias {0,1}, bivalentes {-1,1}, continuos [0,1], o nmeros discretos en un intervalo
definido (Martnez, 2006).
Las funciones de activacin ms comunes se presentan a continuacin (Demuth, et al.,
2006):
Funcin escaln - limitador fuerte (hardlim(s)). Esta funcin de transferencia se asocia a
les cuando la suma de las entradas es mayor o igual que el
umbral de la neurona, la activacin es 1, si es menor, la activacin es 0 ( 1). La
neuronas binarias, en las cua
Ecuacin 3 presenta una expresin para esta funcin.
<
=
0 , 0
0 , 1
n si
n si
Ecuacin 3
a
a a
1 1
n
-1 -1
a=hardlim(n) a=hardlims(n)
Figura 16. Funcin lim ador fuerte.
Funcin de transferencia lineal y mixta (purelin). La funcin lineal o identidad se
as neuronas con funcin mixta, si la suma de las seales de
entrada es menor que un lmite inferior, la activacin se define como 0 ( 1). Si la suma
n se
define como una funcin lineal de la suma de las seales de entrada de acuerdo con la
Ecuacin 4.
it
expresa como f(x)=x. En l
es mayor o igual que el lmite superior, entonces la activacin es 1. Si la suma de entrada
est comprendida entre ambos lmites, superior e inferior, entonces la activaci
63
-1, si x < -1
x -1 a= x, si 1
1, si x > 1
Ecuacin 4
a a
1 1
n -1
-1 -1
Lineal a tramos a=purelin(n)
1
Figura 17. Funcin lineal y mixta.
Funcin continua sigmoidal (logsig). Es una funcin que est definida en un intervalo de
posibles valores de entrada, con un incremento monotnico, presentando ambos lmites,
superior e inferior; como son la funcin sigmoidal o arcotangente. La importancia de la
diferenciable en todo el intervalo, y se pueden utilizar los
s se usan derivadas. Esta funcin toma los valores de
entrada, los cuales pueden oscilar entre ms y menos infinito, y restringe la salida a
funcin sigmoidal es que es
mtodos de aprendizaje en los cuale
valores entre cero y uno, de acuerdo a la expresin:
n
e
a
+
=
1
1
Ecuacin 5
Otra funcin de este tipo es la tangente hiperblica (tansig) cuya expresin es:
n n
n n
e e
e e
n
= ) tanh(
Ecuacin 6
64
a a
1 1
a=tansig(n)
n
-1 -1
a=logsig(n)
Figura 18. Funciones sigmoides
Funcin gaussiana. Esta es la funcin clsica de Gauss y su expresin es la siguiente:
Ecuacin 7
2
n
e a
=
a
1
n
Funcin de Gauss
2
n
e a
=
Figura 19. Funcin gaussiana.
En trminos matemticos una neurona puede ser descrita por las siguientes ecuaciones
artnez, 2006): (M
=
=
m
j
j kj k
x w u
1
Ecuacin 8
) (
k k k
b u y + =
Ecuacin 9
65
Donde:
x
1
, x
2
,.,x
n
son las seales de entrada.
w
k1
, w
k2
,.,w
kj
son los pesos sinpticos de la neurona k.
u es el combinador lineal de las seales de entr
k
ada.
es el bias o limitador (positivo o negativo) que tiene el efecto de aumentar o disminuir el
En una RNA las neuronas se agrupan por capas (capas de neuronas) y usualmente cada
d todas las neuronas de las capas que la anteceden y
ue la siguen a excepcin de la entrada y salida de la red. La informacin entregada a una
stn estructuralmente definidas por capas: una capa de entrada, capas
ocultas y una capa de salida, tal como se puede apreciar en la Figura 20. Adicionalmente, a
ctu edes neuronales est asociado un sesgo o bias que est
ocultas, dependiendo de la estructura de la
d neuronal.
o desempeo en la solucin de los problemas,
e incrementa considerablemente.
b
k
valor de la combinacin lineal de las entradas en la funcin de activacin.
() es la funcin de activacin
y
k
es la seal de salida de la neurona.
3.5 CARACTERSTICAS DE LAS REDES NEURONALES
neurona e una capa est conectada a
q
RNA es propagada capa por capa desde la entrada hasta la salida y pueden o no existir
capas ocultas que transporten dicha informacin dentro de la RNA. As mismo,
dependiendo del algoritmo de aprendizaje, es posible que la informacin se propague en
sentido contrario a travs de la red (Carmona & Alfaro, 2004).
Las redes neuronales e
la estru ra bsica de las r
conectado con cada neurona de la capa o capas
re
Cada neurona de la red ejecuta las tres funciones o pasos explicados, y tiene una capacidad
muy limitada como dispositivo para solucionar problemas. Sin embargo cuando existen
conexiones con otras neuronas artificiales, que a la vez forman una red compleja, su
habilidad para encontrar y alcanzar un ptim
s
66
Datos de entrada
Matriz de pesos
Capa de neuronas de salid
Capas de neuronas oculta
a
Datos de salida
Capa de neuronas de entrada
Matriz de pesos
e dos capas de neuronas se denomina matriz de pesos y en
da RNA existe por lo menos una de stas. Dentro de las caractersticas ms importantes
o aspectos importantes con los cuales se puede caracterizar una red neuronal:
u topologa, el mecanismo de aprendizaje, tipo de asociacin realizada entre la
ste en la disposicin de las
euronas en la red, formando capas o agrupacin de neuronas. La topologa de la red est
Figura 20. RNA de tres capas de neuronas.
Se obs rva que la conexin entre
to
propias de las redes neuronales se tienen: No linealidad, de ah la importancia de poder
usarlas en problemas donde la relacin entre las variables es no lineal; la red aprende con
ejemplos, tiene procesos de aprendizaje que se dan durante su entrenamiento; su memoria
est distribuida y tiene tolerancia a fallas.
Existen cuatr
s
informacin de entrada y de salida, y la forma de representacin de esta informacin. Hilera
& Martnez (2000), presentan una descripcin de estos aspectos.
3.5.1 Topologa de las redes neuronales.
La topologa o arquitectura de las redes neuronales consi
n
definida por el nmero de neuronas por capa, el nmero de capas, el grado de conectividad
y el tipo de conexin entre neuronas.
El nmero de neuronas y capas de la red est asociado a la complejidad del modelo. Este
no debe ser tan pequeo que la red no alcance a almacenar suficientemente la informacin,
67
y no puede ser demasiado grande ya que puede perjudicar la capacidad de generalizacin de
.5.1.1 Redes monocapa (1 capa).
En
la
sal ocapa pertenece la red
opfield y la red brainstateinabox. Las redes de una sola capa se usan principalmente
tip
3.5
en varios niveles o capas. Las
ult tipos de conexiones, las redes con conexiones hacia
delante o redes feedforward y las redes que disponen de conexiones tanto hacia adelante
opagation.
Conexin hacia atrs (feedback): Este tipo de conexiones llevan los datos de las
neuronas de una capa superior a neuronas de la capa inferior, lo que origina una
la red generando el problema conocido como ajuste excesivo.
Se distinguen dos clases de redes neuronales segn su arquitectura, redes con una sola capa
y redes con mltiples capas.
3
este tipo de redes se establecen conexiones laterales entre las neuronas que constituyen
nica capa de la red. Tambin pueden existir conexiones autorrecurrentes, es decir, la
ida de una neurona conectada a su propia entrada. A las redes mon
H
en tareas relacionadas con la autoasociacin. La Figura 21a presenta una ejemplo de este
o de arquitecturas.
.1.2 Redes multicapa.
Este tipo de redes presenta conjuntos de neuronas agrupadas
redes m icapa permiten distinguir dos
a
como hacia atrs o redes feedforward/feedback (Daza, 2007). En la Figura 21 b,c,d se
muestran ejemplos de las redes multicapa.
Conexin hacia delante (feedforward): Los datos de las neuronas de una capa inferior
son propagados hacia las neuronas de la capa superior. Esta transmisin se conoce como
alimentacin hacia delante tal como se presenta en la Figura 21 a,b,c. En este tipo de
redes no existen conexiones hacia atrs y normalmente tampoco presentan conexiones
autorrecurrentes ni laterales. Las redes feedforward ms conocidas son: perceptrn,
adaline, madaline, linear adaptive memory (LAM), drive-reinforcement,
backpr
68
retroalimentacin de la informacin procesada y tambin reciben el nombre de red
recurrente. Este tipo de conexin es mostrada en la Figura 21d.
X
1
X
2
X
3
X
1
X
3
X
2
X
4
X
5
X
6
X
5
X
4
X
3
X
2
X
1
X
1
3
X
4
X
X
2
X
5
X
6
(a) (b)
(c) (d)
X
1
2
X
3
X
X
1
X
3
X
2
X
4
X
5
X
6
X
5
X
4
X
3
X
2
X
1
X
1
3
X
4
X
X
2
X
5
X
6
(a) (b)
(c) (d)
z, 2006)
.5.2 Aprendizaje de la red.
os algoritmos que permiten refinar los pesos de la red, se basan por lo general en rutinas
Una vez introducidos todos los ejemplos se comprueba si se ha cumplido con el criterio de
de n de error escogida y de no ser as, se repite el
roceso y todos los ejemplos del conjunto vuelven a ser introducidos. La modificacin de
Figura 21. Redes monocapa y multicapa (Martne
3
El aprendizaje en una RNA consiste en la determinacin de los valores precisos de los
pesos para todas sus conexiones; con los pesos ajustados la red podr modelar de forma
acertada y eficiente un problema especfico. El proceso general de aprendizaje consiste en
ir introduciendo paulatinamente todos los ejemplos del conjunto de aprendizaje, y
modificar los pesos de las conexiones siguiendo un determinado esquema o algoritmo de
aprendizaje.
L
de gradientes que intentan recorrer un espacio de solucin de la forma ms eficiente para
alcanzar el mnimo global de la superficie de la funcin de error, y por lo tanto definir los
pesos ptimos de la red. Dentro de estos mtodos son conocidos los algoritmos de
retropropagacin (backpropagation), retropropagacin con momentum y los de bsqueda
aleatoria (que no son basados en gradientes) (Haykin, 2001).
bondad ajuste con respecto a la funci
p
69
los pesos puede hacerse despus de la introduccin de cada ejemplo del conjunto, o una vez
introducidos todos ellos. El algoritmo de aprendizaje de una RNA es lo que determina el
tipo de problemas que sta ser capaz de resolver (Flood & Kartam, 1994).
La gran utilidad de las RNA se debe a que son sistemas de aprendizaje basados en
ejemplos. La capacidad de una red para resolver un problema est ligada de forma
fundamental al tipo de ejemplos de que dispone en el proceso de aprendizaje. Desde el
punto de vista de los ejemplos, el conjunto de aprendizaje debe poseer las siguientes tres
aractersticas:
ero suficiente de ejemplos. Si el conjunto de
aprendizaje es reducido, la red no ser capaz de adaptar sus pesos de forma eficaz. El
ivo de ejemplos es muy relativo ya que para cada
problema habr un nmero significativo de ejemplos diferente.
3.5.2.1 Aprendizaje supervisado.
n este tipo de esquemas, los datos del conjunto de aprendizaje tienen dos tipos de
odificarn mucho
s pesos; si son parecidos la modificacin ser menor. Para este tipo de aprendizaje, se
, y de
odificando apropiadamente los valores de los pesos (Delgado,
c
Ser significativo. Debe haber un nm
que haya o no un nmero significat
Ser representativo. Los componentes del conjunto de aprendizaje debern ser diversos.
Si un conjunto de aprendizaje tiene muchos ms ejemplos de un tipo que del resto, la red
se especializar en dicho subconjunto de datos y no ser de aplicacin general. Es
importante que todas las regiones significativas del espacio de respuesta estn
suficientemente representadas en el conjunto de aprendizaje.
E
atributos: los datos de entrada y cierta informacin relativa a la solucin del problema.
Cada vez que un ejemplo es introducido se procesa para obtener una salida; luego sta se
compara con la salida que debera haber producido. La diferencia entre ambas influir en
cmo se modificarn los pesos. Si los dos datos son muy diferentes, se m
lo
dice que hay un profesor externo encargado de determinar si la red se est comportando
de forma adecuada, mediante la comparacin entre la salida producida y la esperada
actuar en consecuencia m
1998) .
70
El aprendizaje por correccin de error altera los pesos de la neurona despus de la
Siendo:
w
ji
: Variacin en el peso de la conexin entre las neuronas i y j
endizaje del perceptrn,
gla delta o regla del mnimo error cuadrado (LMS Error: Least-Mean-Squared Error),
hacia adelante (feedforward) con capas o niveles ocultos de neuronas que no
enen relacin con el exterior (Hilera & Martnez, 2000).
durante el mismo se debe explorar el espacio de posibles
formas de utilizacin de las neuronas de las capas ocultas. Existe tambin una versin
usado en redes multicapa que presentan
opsito de que estas redes aprendan la naturaleza temporal
presentacin de un patrn para corregir el error de salida. Un algoritmo de aprendizaje por
correccin de error es:
w
ji
= y
i
(d
j
-y
j
) Ecuacin 10
(w
ji
= w
ji
actual - w
ji
anterior).
y
i
: Valor de salida de la neurona i.
d
j
: Valor de salida deseado para la neurona j.
y
j
: Valor de salida obtenido en la neurona j.
: Factor de aprendizaje (0 < 1) que regula la velocidad del aprendizaje.
Ejemplos de este tipo de algoritmo lo constituyen la regla de apr
re
conocida tambin como regla de Widrow-Hoff, aplicada a las redes Adaline y Madaline.
Otro algoritmo de aprendizaje por correccin de error es la regla delta generalizada o
algoritmo de retropropagacin del error (error backpropagation), conocido tambin como
regla LMS multicapa; la cual es una generalizacin de la regla delta aplicable a redes con
conexiones
ti
Las redes multicapa se pueden usar en otras aplicaciones, pero su proceso de aprendizaje es
mucho ms lento, debido a que
recurrente del algoritmo backpropagation
conexiones recurrentes con el pr
de algunos datos.
71
3.5.2.2 Aprendizaje no supervisado.
En este aprendizaje los datos del conjunto de aprendizaje slo tienen informacin de los
jemplos, y no hay nada que permita guiar en el proceso de aprendizaje. En este caso, no
dependiendo nicamente de
s valores recibidos como entrada (Hilera & Martnez, 2000).
Los algoritmos de aprendizaje no supervisado suelen considerar el aprendizaje hebbiano y
el aprendizaje competitivo y cooperativo.
3.5.2.3 Aprendizaje por refuerzo.
El instructor o maestro exterior slo indica cuando la salida es correcta o no, pero no indica
en cuanto se diferencia de la salida buscada. Si se compara este paradigma con el
supervisado, se observa que si bien el supervisado proporciona una informacin relativa a
n el
aso de un aprendizaje por refuerzo no se tiene informacin acerca de la direccin'' del
neuronales son sistemas que almacenan cierta informacin aprendida; esta se
gistra de forma distribuida en los pesos asociados a las conexiones entre neuronas. Hay
xisten dos formas primarias de realizar esta asociacin entrada-salida y que generan dos
e
existe profesor externo que determine el aprendizaje. La red modificar los valores de los
pesos a partir de informacin interna. Cuando se utiliza aprendizaje no supervisado, la red
trata de determinar caractersticas de los datos del conjunto de entrenamiento: rasgos
significativos, regularidades o redundancias. A este tipo de modelos se los conoce tambin
como sistemas autoorganizados, debido a que la red se ajusta
lo
la direccin en la que se deben realizar los cambios en el sistema (ajuste de los pesos), e
c
cambio, lo cual hace que su mbito de aplicacin sea mucho ms reducido comparado con
el modo supervisado.
3.5.3 Tipo de asociacin entre los datos de entrada y salida.
Las redes
re
que establecer cierta relacin o asociacin entre la informacin presentada a la red y la
salida ofrecida por esta. Es lo que se conoce como memoria asociativa.
E
tipos de redes: las heteroasociativas y las autoasociativas (Hilera & Martnez, 2000).
72
3.5.3.1 Redes Heteroasociativas.
Se considera aquellas redes que computan cierta funcin, que no podrn ser expresadas
analticamente en la mayora de los casos, entre un conjunto de entradas y un conjunto de
salidas, correspondiendo a cada posible entrada una determinada salida. Estas redes
precisan al menos de dos capas, una para captar y retener la informacin de entrada y otra
ara mantener la salida, y su conexin puede ser hacia adelante (feedforward), hacia atrs
y terminar representando la
formacin autoasociada. En cuanto a la conectividad en este tipo de redes existen
as redes neuronales pueden representar las informaciones de entrada y las respuestas o
datos de salida de forma analgica, es decir, son valores reales continuos; normalmente
absoluto ser menor que la unidad; en este caso
s funciones de activacin de las neuronas sern tambin continuas, del tipo lineal y
.6 EL PERCEPTRN
p
(feedforward/feedback) o lateral.
3.5.3.2 Redes Autoasociativas.
Reconstruyen una determinada informacin de entrada que se presenta de forma incompleta
o distorsionada. Este tipo de redes puede implementarse con una sola capa de neuronas, la
cual retiene la informacin inicial presentada a la entrada,
in
conexiones laterales entre neuronas y, en algunos casos, conexiones autorrecurrentes.
3.5.4 Representacin de la informacin de entrada y salida.
L
estos datos estarn normalizados y su valor
la
sigmoidal.
De otra forma, otras redes slo admiten valores discretos o binarios a su entrada, generando
tambin respuestas de tipo binario. Para estas redes las funciones de activacin de las
neuronas sern de tipo escaln.
3
Se trata de una estructura monocapa, en la que hay un conjunto de neuronas de entrada,
tantas como sea necesario, segn los trminos del problema; y una o varias neuronas de
73
salida. Cada una de las neuronas de entrada tiene conexiones con todas las de salida, y son
estas conexiones las que determinan las superficies de discriminacin del sistema (Haykin,
2001).
En la Figura 22 se representa una neurona "artificial", que intenta modelar el
comportamiento de la neurona biolgica. Aqu el cuerpo de la neurona se representa como
un sumador lineal u
k
de los estmulos externos, seguida de una funcin no lineal y
k
= (u
k
).
a funcin (u
k
) es llamada la funcin de activacin, y es la funcin que utiliza la suma de L
estmulos para determinar la actividad de salida de la neurona.
Figura 22. Modelo del Perceptrn McCullogh-Pitts. (Modificado de Carmona & Alfaro, 2004).
Este modelo se conoce como perceptrn de McCulloch-Pitts, y es la base de la mayor parte
de las arquitecturas de las RNA que se interconectan entre s. Las neuronas emplean
funciones de activacin diferentes segn la aplicacin, algunas veces son funciones
lineales, otras funciones sigmoidales, y otras funciones de umbral de disparo. La eficiencia
sinptica se representa por factores de peso de interconexin w
ij
, desde la neurona i, hasta la
neurona j.
En un perceptrn, cada entrada es multiplicada por el peso w correspondiente, y los
resultados son sumados, siendo evaluados contra el valor de umbral, si el resultado es
mayor al mismo, el perceptrn se activa.
El entrenamiento de un perceptrn es por medio de la regla de aprendizaje delta de acuerdo
con la Ecuacin 10.
74
3.7 PERCEPTRN MULTICAPA
eferente al problema de la no linealidad.
a Figura 23 presenta un esquema del perceptrn de mltiples capas.
ya que cualquier funcin
ontinua puede simularse con stas (como los polinomios o las funciones trigonomtricas)
Tambin conocido como red multicapa con conexiones hacia adelante. El perceptrn
multicapa es una generalizacin del perceptrn simple, y surgi como consecuencia de las
limitaciones de la arquitectura de este ltimo en lo r
L
Normalmente los perceptrones multicapa pueden ser usados para clasificacin o como
estimadores no lineales. Normalmente el nmero de nodos en cada capa y el nmero de
capas (la arquitectura de la red) son determinados a partir de ensayo y error. Algunos
autores recomiendan escoger el nmero de neuronas en la capa oculta de modo tal que
permitan formar una regin lo suficientemente compleja para la resolucin del problema,
pero sin llegar a ser tan grande que la estimacin de los pesos no sea fiable para el conjunto
de patrones de entrada disponible (Hilera & Martnez, 2000).
El perceptrn multicapa es considerado un aproximador universal
c
y puede ser utilizado para aproximar o interpolar relaciones no lineales entre datos de
entrada y salida (Morales, 2004).
- - - - - - - -
X1 Y1
X2 - - - - - - - -
Xn Ync
- - - - - - - -
N1 N2 N3 Nc-1 Nc
Seal de entrada Capas ocultas Seal de salida
Figura 23. Esquema del perceptrn multicapa.
Aunque el perceptrn multicapa es una de las redes ms conocidas y utilizadas, no implica
que sea una de las ms potentes y con mejores resultados en las diferentes reas de
aplicacin. De hecho, el perceptrn multicapa posee tambin una serie de limitaciones,
75
como el largo proceso de aprendizaje para problemas complejos dependientes de un gran
nmero de variables; la dificultad en ocasiones de codificar problemas reales mediante
valores numricos; la dificultad para realizar un anlisis terico de la red debido a la
presencia de componentes no lineales y a la alta conectividad.
Las neuronas de la capa de entrada no actan como neuronas propiamente dichas, sino que
se encargan nicamente de recibir las seales o patrones que proceden del exterior y
propagar dichas seales a todas las neuronas de la siguiente capa. La ltima capa acta
como salida de la red, proporcionando al exterior la respuesta de la red para cada uno de los
patrones de entrada. Las neuronas de las capas ocultas realizan un procesamiento no lineal
de los patrones recibidos.
Uno de los primeros pasos, cuando se aborda un problema en el que se utiliza el perceptrn
multicapa, es el diseo de la arquitectura de la red. Este diseo implica la determinacin de
la funcin de activacin a emplear, el nmero de neuronas y el nmero de capas en la red.
En lo que respecta al nmero de neuronas y de capas deben ser elegidos por el diseador,
excepto en las de entrada y salida, ya que stas normalmente vienen dadas por las variables
que definen el problema. En algunas aplicaciones prcticas, se dispone de un gran nmero
de variables, algunas de las cuales podran no aportar informacin relevante a la red, y su
utilizacin puede complicar el aprendizaje, pues esto implica arquitecturas de gran tamao
y con alta conectividad. En estas situaciones, recomienda la literatura, conviene realizar un
anlisis previo de las variables de entrada ms relevantes al problema y descartar aquellas
que no aportan informacin a la red.
Para la determinacin del nmero de capas ocultas y el nmero de neuronas en estas capas,
hasta ahora no se conoce un mtodo o regla que determine el nmero ptimo de neuronas
s,
estos parmetros se determinan por prueba y error.
s de tener en cuenta que una capa oculta, operando con funciones de activacin tipo
ocultas para resolver un problema dado. En la mayor parte de las aplicaciones prctica
E
sigmoide, es suficiente para modelar cualquier superficie de solucin de inters prctico, no
en tanto, pueden existir superficies extremadamente difciles para ser modeladas con una
76
sola capa, lo que hace necesario el uso de dos capas ocultas de forma que garantice la
flexibilidad necesaria para modelar superficies de solucin complejas.
ac or el hecho de que en las
onocapas las neuronas tienden a interferir entre si globalmente lo que torna difcil mejorar
xisten dos excepciones para las cuales no tiene sentido adoptar dos capas ocultas en una
do del conjunto de entrenamiento. El
prendizaje significa un cambio en los valores de los pesos sinpticos, y en el caso en que
La utiliz in de una red neuronal con dos capas se justifica p
m
la aproximacin, mientras que con dos capas intermedias el proceso se torna ms
gerenciable pues las caractersticas locales son extradas de la primera capa y las
caractersticas globales de la segunda, en la cual cada neurona combina las salidas de las
neuronas de la primera capa operando en una regin particular del espacio (Haykin, 2001).
E
red tipo perceptrn: la primera consiste en modelos con una sola neurona de entrada, y la
segunda en problemas en los cuales la informacin de entrada asume valores
exclusivamente binarios (Flood & Kartam, 1994).
En relacin con el nmero de neuronas por capa, puede decirse que no existe una regla
general que permita determinar la manera precisa del tamao de las capas intermedias,
tornndose el problema ms complejo a medida que aumenta el nmero de esas capas.
Intuitivamente podra decirse que un incremento en el nmero de neuronas aumenta la
capacidad del modelo para encontrar la solucin del problema planteado, pero un nmero
exagerado podra conducir a la prdida de capacidad de generalizacin del modelo,
mientras que un modelo con pocas neuronas podra no ser capaz de modelar
adecuadamente todos los detalles de la superficie de solucin (Martnez, 2006).
3.7.1 Algoritmo para el entrenamiento de los perceptrones.
Un algoritmo generalizado para el entrenamiento del perceptrn de mltiples capas se
presenta en la Figura 24, del cual se puede concluir que un perceptrn slo aprende cuando
se equivoca clasificando un vector de entrada, toma
a
el perceptrn consiga clasificar adecuadamente el vector presentado, los pesos permanecen
iguales.
77
Figura 24. Resumen del algoritmo de entrenamiento de un PMC (Modificado de Martnez, 2006).
3.7.2 Algoritmo de retropropagacin de errores (backpropagation).
Los perceptrones multicapa han sido aplicados con xito para resolver diversos problemas
difciles, mediante su entrenamiento de forma supervisada con un algoritmo muy popular
78
basado en la regla de aprendizaje por correccin de error, conocido como el algoritmo de
retropropagacin de error, (Haykin, 2001), el cual es presentado a continuacin.
3.7.2.1 Generalidades del algoritmo de retropropagacin.
a regla delta. Retro-
ropagacin es una tcnica de minimizacin del error que aplica el concepto de gradiente
tica importante de la red backpropagation es la capacidad de generalizacin,
ntendida como la facilidad de dar salidas satisfactorias a entradas que el sistema no ha
visto nunca en su fase de entrenamiento (Hilera & Martnez, 2000).
El funcionamiento de una red backpropagation consiste en un aprendizaje de un conjunto
predefinido de pares de entradas-salidas dados como ejemplo, empleando un ciclo
propagacin-adaptacin de dos fases, inicialmente aplicando un patrn de entrada como
estmulo para la primera capa de neuronas de la red, se va propagando a travs de todas las
capas superiores hasta generar una salida, se compara el resultado obtenido en las neuronas
de salida con la salida que se desea obtener y se calcula un valor del error para cada
neurona de salida. Luego, los errores se transmiten hacia atrs, despus hacia todas las
neuronas de la capa intermedia que contribuyan directamente a la salida, recibiendo el
El proceso se repite en cada capa, hasta que todas las neuronas de la red hayan
cibido un error que describa su aporte relativo al error total. Basndose en el valor de
siguiente modo (Haykin, 2001):
El algoritmo de retropropagacin es un algoritmo de aprendizaje supervisado con una base
matemtica fuerte; puede verse como una generalizacin de l
p
descendente. Su objetivo es minimizar la funcin del error promedio al cuadrado que hay
entre la salida real y la salida deseada de la red (Martnez, 2006).
Una caracters
e
porcentaje de error aproximado a la participacin de la neurona intermedia en la salida
original.
re
error recibido se reajustan los pesos de conexin de cada neurona, de manera que en la
siguiente ocasin que se presente el mismo patrn la salida est ms cercana a la deseada,
es decir, el error disminuya (Londoo et al., 2001).
Puesto que el objetivo es que la salida de la red sea lo ms prxima posible a la salida
deseada, el aprendizaje de la red se formula como un problema de minimizacin del
79
Min
w
E
Ecuacin 11
funcin error se define como:
Donde W es el conjunto de parmetros de la red -pesos y umbrales- y E una funcin error
que evala la diferencia entre las salidas de la red y las salidas deseadas. En la mayor parte
de los casos, la
=
E
Donde N es el nmero de patrones o muestras y e(n) es el error cometido por la red para el
atrn n, dado por:
=
N
j
n e
N
1
) (
1
Ecuacin 12
p
=
e
Do
de
De este modo, si W* es un mnimo de la funcin error E, en dicho punto el error es
a alida deseada, y se
eta de la regla de aprendizaje.
para su resolucin. El mtodo ms comn de
ptimizacin (minimizacin) es conocido como descenso por el gradiente. Esta tcnica
busca la adaptacin de los parmetros siguiendo la direccin de bsqueda ms comnmente
usada, la direccin negativa del gradiente de la funcin de error E (Haykin, 2
=
C
j
j j
n y n d n
1
2
)) ( ) ( (
2
1
) (
Ecuacin 13
nde d
j
(n) es el valor deseado a la salida de la neurona j y, y
j
(n) representa la estimacin
la red en la iteracin n. El conjunto C incluye todas las neuronas de la capa de salida.
prximo cero, lo cual implica que la salida de la red es prxima a la s
alcanza as la m
Por tanto, el aprendizaje del perceptrn multicapa es equivalente a encontrar un mnimo de
la funcin error. La presencia de funciones de activacin no lineales hace que la respuesta
de la red sea no lineal respecto a los parmetros ajustables, por lo que el problema de
minimizacin es un problema no lineal, y, como consecuencia, tienen que utilizarse
tcnicas de optimizacin no lineales
o
001).
80
Aunque, estrictamente hablando, el aprendizaje de la red debe realizarse para minimizar el
error total, el procedimiento ms utilizado est basado en mtodos que consisten en una
sucesiva minimizacin de los errores para cada patrn, e(n), en lugar de minim
total E. Por tanto, cada parmetro w de la red se modifica para cada patrn de entrada n de
cuerdo con la siguiente ley de aprendizaje:
izar el error
a
w
n e
n w n w
=
) (
) 1 ( ) (
Ecuacin 14
Donde e(n) es el error para el patrn n y aprendizaje, e
influye en la magnitud del desplazamiento en la superficie del error.
omo se ha comentado antes, el objetivo del aprendizaje o entrenamiento del perceptrn
es ajustar los parmetros de la red con el fin de que las entradas produzcan las
sa in de minimizar la funcin error E presentada en la
Ecuacin 12.
es la razn o tasa de parmetro qu
C
multicapa
lidas deseadas, es decir, con el f
W2
E(W)
W1
E(W)
W(0)
w
E(W)
igura 25. Superficie de error E(w) en el espacio de pesos w, y descenso por el gradiente hacia el
n (mximo
F
mnimo.
En la Figura 25 se muestra esquemticamente el mtodo de optimizacin ms
habitualmente empleado descenso por gradiente en donde la funcin de error esta
representada por E(w). Para encontrar la configuracin de pesos ptima, se parte en n=0 de
una cierta configuracin w(0), y se calcula el sentido de la mxima variaci
81
gradiente). A continuacin se modifican los parmetros W (w1 y w2 en este caso)
A pesar del xito del algoritmo de retropropagacin para entrenar el perceptrn multicapa,
erie de deficiencias, las cuales son presentadas a
ontinuacin.
n,
2001).
. Por tanto, cuando ocurre el fenmeno de
parlisis en un perceptrn multicapa, los parmetros de la red permanecen invariables y,
.7.2.3 Valoracin del desempeo del modelo Funcin objetivo.
la lgoritmos como el de retropropagacin de errores
u optimizacin generalmente se realiza minimizando el error global. Para medir este error
siguiendo el sentido contrario al indicado por el gradiente de la funcin de error.
3.7.2.2 Deficiencias del algoritmo de retropropagacin.
este algoritmo posee tambin una s
c
Mnimos locales: La superficie que define el error E en funcin de los parmetros de la
red es compleja y llena de valles y colinas. Debido a la utilizacin del mtodo del
gradiente para encontrar un mnimo de esta funcin error, se corre el riesgo de que el
proceso de minimizacin finalice en un mnimo local y no en el mnimo global (Hayki
Parlisis: El fenmeno de la parlisis, tambin conocido como saturacin, se produce
cuando la entrada total a una neurona de la red toma valores muy altos, tanto positivos
como negativos. Debido a que las funciones de activacin poseen dos asntotas
horizontales si la entrada a una neurona alcanza un valor alto, sta se satura, y alcanza
un valor de activacin mximo o mnimo
como consecuencia, la suma de los errores locales permanece constante por un perodo
largo de tiempo (Hilera & Martnez, 2000).
3
Cuando s RNA son entrenadas usando a
s
las formulas ms comnmente utilizadas son: El Error cuadrtico medio (MSE), El error
relativo medio Cuadrado (MSRE), el coeficiente de eficiencia (CE), y el coeficiente de
determinacin correlacin (R
2
). Para el problema planteado en esta investigacin las
frmulas seran (Demuth, et al., 2006):
82
n
IRI IRI
MSE
n
i
i i
=
=
1
2
) (
Ecuacin 15
n
IRI
IRI IRI
MSRE
n
i
i
i i
=
1
2
2
) (
Ecuacin 16
=
=
n
n
i
i
i
i i
IRI IRI
IRI IRI
1
2
1
2
) (
) (
Ecuacin 17
= CE
n
IRI IRI IRI IRI
~
) )( (
= =
n
i
n
i
i
i
IRI IRI IRI IRI
1 1
2
~
2
) ( ) (
Ecuacin 18
=
=
i
i
i
R
1 2
:
son los n parmetros modelados.
Donde
IRI i
i
IRI son los n parmetros observados.
____
IRI es la media de los n parmetros observados.
~
IRI es la media de los n parmetros modelados.
CE y R
2
, proveen una buena correlacin de la bondad del ajuste de los datos modelados
con los datos medidos. En esta investigacin se trabaj con el coeficiente R
2
para comparar
los IRI medidos y los IRI simulados a travs de las redes neuronales.
83
3.7.3 Entrenamiento.
Como se explic anteriormente, este proceso consiste en una adaptacin progresiva de los
esos de acuerdo con el entorno en el que se encuentra sumergida la red recibe el
ombre de regla de aprendizaje, y su trascripcin en forma de procedimiento se denomina
rctica del algoritmo de retropropagacin, el aprendizaje resulta de
resentar muchas veces un conjunto de ejemplos de entrenamiento al perceptrn multicapa.
in de los pesos se realiza despus de la
presentacin de cada ejemplo de entrenamiento. El modo por lote en el aprendizaje por
retropropagacin el ajuste de los pesos es realizado despus de presentar todos los ejemplos
de entrenamiento que constituyen una poca.
Desde el punto de vista operacional, el modo secuencial es preferible en relacin al modo
por lote ya que requiere menos capacidad de almacenamiento local para cada conexin
sinptica (Haykin, 2001).
valores de las conexiones sinpticas, los pesos W y el "bias", para permitir a la red neuronal
el aprendizaje de un comportamiento deseado. Existen muchos tipos de aprendizaje segn
el modo en que es realizado el ajuste de los pesos. En un principio, los pesos pueden ser
considerados parmetros libres, aunque es posible, si se conoce informacin acerca de la
naturaleza del problema que se va a tratar, fijar restricciones a los valores iniciales de los
pesos, o a los valores que puedan tomar a lo largo del proceso de aprendizaje.
Un conjunto de reglas bien definidas que describen el mtodo de adaptacin o modificacin
de los p
n
algoritmo de aprendizaje (Delgado, 1998).
3.7.3.1 Modos de entrenamiento
En una aplicacin p
p
La presentacin completa del conjunto de entrenamiento es llamada una poca. El proceso
de aprendizaje es llevado de poca en poca hasta que los pesos de entrenamiento y los bias
son establecidos y el error cuadrtico medio converja a un valor mnimo (Haykin, 2001).
Dependiendo de la forma como el conjunto de entrenamiento es presentado a la red se
pueden identificar dos formas de entrenamiento: secuencial y por lote. El modo secuencial
tambin es llamado estocstico y la actualizac
84
3.7.3.2 Conjunto de entrenamiento.
l nmero de ejemplos del conjunto de entrenamiento es uno de los factores ms
s mnimos locales de la
uperficie de solucin. En consecuencia no hay garanta alguna que aumentando el nmero
a distribucin de los ejemplos en el espacio-dominio del problema es muy importante en
Cuando se habla de la arquitectura de la red se habla del nmero y tipo de variables de
entrada y salida, el nmero de capas ocultas y nmero de neuronas por capa, as como
i
efinir la arquitectura ptima para un problema especfico requiere de pruebas de ensayo y
to de entrenamiento, al presentar nuevos
atos, esta produce la mejor salida de acuerdo con los ejemplos usados.
E
importantes en el proceso de aprendizaje de la red. Aumentando el nmero de ejemplos de
entrenamiento se consigue una mejor informacin de la superficie de solucin. En algunos
casos, un nmero muy grande de ejemplos de entrenamiento puede saturar el algoritmo de
entrenamiento generando un estancamiento prematuro en lo
s
de ejemplos para entrenar el perceptrn, la red mejore el desempeo (Martnez, 2006). Es
de tener en cuenta que el aumento del nmero de ejemplos aumenta considerablemente el
tiempo de entrenamiento pudiendo volver inestable el proceso de aprendizaje.
L
el aprendizaje y en la generalizacin del modelo. Dado que las redes neuronales son muy
limitadas para extrapolar, los ejemplos de entrenamiento deben contener los extremos del
espacio-dominio y deben estar homogneamente distribuidos en esta regin. De no
presentarse de esta manera la red tendr una tendencia a concentrarse en las regiones donde
los ejemplos estn densamente localizados (Flood & Kartam, 1994).
3.7.3.3 Arquitectura de la red.
tamb n de las funciones de activacin a utilizar.
D
error con diferentes arquitecturas hasta obtener las mejores caractersticas en trminos de
aprendizaje, facilidad de implementacin y capacidad de generalizacin.
3.7.4 Capacidad de generalizacin.
El objetivo fundamental es que la red neuronal aprenda a generalizar, es decir, si ha
aprendido a clasificar correctamente el conjun
d
85
De esta manera, a la hora de evaluar el desempeo de una RNA, y en particular del
erceptrn multicapa, no slo es importante saber si la red ha aprendido con xito los
co
de
en
du muestras, para
ente a patrones diferentes. Esto se conoce como la capacidad
e la red para generalizar las caractersticas presentes en el conjunto de muestras o
Por tanto, cuando se realiza el proceso de aprendizaje de la red es muy importante, e
imprescindible, evaluar la capacidad de generalizacin. Para ello, es necesario
isponer de dos conjuntos de muestras o patrones; uno para entrenar la red y modificar sus
onjuntos lo
s representativos posible, tanto de entrenamiento como de validacin (Flood & Kartam,
1994).
veces, y dependiendo de las caractersticas de los conjuntos de entrenamiento y
El sobreaprendizaje en un perceptrn multicapa ocurre cuando la red ha aproximado
nder adecuadamente
nte los patrones de validacin. Sin embargo, no es la nica causa de sobreaprendizaje. En
e
eneralizacin de la red. En estos casos, la red tiende a ajustar con mucha exactitud los
patrones de entrenamiento, lo cual evita que la red extraiga la tendencia o las caractersticas
del conjunto de entrenamiento (Haykin, 2001).
p
patrones utilizados durante el entrenamiento, sino que es imprescindible, conocer el
mportamiento de la red ante patrones que no se han utilizado durante este proceso. Es
cir, de nada sirve disponer de una red que haya aprendido correctamente los patrones de
trenamiento y que no responda adecuadamente ante patrones nuevos. Es necesario que
rante el proceso de aprendizaje, la red extraiga las caractersticas de las
poder as responder correctam
d
capacidad de generalizacin de la red.
incluso
d
pesos y umbrales -conjunto de entrenamiento-, y otro para medir la capacidad de la red para
responder correctamente ante patrones que no han sido utilizados durante el entrenamiento
- conjunto de validacin-. Estos conjuntos se obtienen de las muestras disponibles sobre el
problema y es conveniente que la separacin sea aleatoria, con el fin de tener c
m
A
validacin, un entrenamiento extenso podra anular la capacidad de generalizacin de la
red. Por tanto, en ocasiones puede ser conveniente exigir un menor aprendizaje de la red
sobre los patrones de entrenamiento, con el objetivo de obtener mejores propiedades de
generalizacin.
correctamente los patrones de aprendizaje, pero no es capaz de respo
a
ocasiones, es producido por la utilizacin de demasiadas neuronas ocultas en la red. Un
nmero excesivo de neuronas ocultas puede conducir a una escasa capacidad d
g
86
4. MODELOS NEURONALES
na de las formas no tradicionales para modelar el comportamiento de sistemas
geotcnicos, incluyendo sistemas de pavimento son las redes neuronales artificiales cuyos
fundamentos tericos fueron presentados en el captulo anterior.
En este captulo se presentan de manera secuencial los resultados de los modelos
neuronales creados para resolver el problema planteado. Para la implementacin de cada
una de las redes se sigui la metodologa mostrada en secciones anteriores utilizando la
base de datos del Sistema de Administracin Vial SAV de la ciudad de Medelln.
cin de la base de datos del SAV y de los parmetros
za una primera etapa de modelacin con el objeto de prever la
ajo en la bsqueda de la solucin del problema, encontrando las variables que
de entrada y salida).
(n
alg as
modificaciones a los modelos neuronales en cuanto a las variables de entrada, buscando
ormas de entrenamiento.
on el fin de conocer el estado de la malla vial, tomar medidas para la rehabilitacin y el
pa
20 NM para realizar el inventario y el diagnstico de
s vas y su infraestructura asociada. El inventario consisti en un levantamiento fsico y
a, el estado de
condicin superficial y estructural de los pavimentos, elementos de espacio pblico y
puentes vehiculares y peatonales.
U
Inicialmente se realiza una descrip
utilizados ella. Luego se reali
lnea de trab
tienen una mayor relacin con el IRI (nmero y tipo de variables
Posteriormente, en la etapa dos de modelacin se busca determinar la mejor arquitectura
mero de capas ocultas y nmero de neuronas por capa, funciones de activacin y el
oritmo de entrenamiento). En las etapas de modelacin tres y cuatro se realizan algun
mejorar el desempeo de los mismos y analizando otras f
4.1 SISTEMA DE ADMINISTRACIN VIAL SAV DE MEDELLN Y BASE
DE DATOS
C
mantenimiento de las vas, y tener un sistema de administracin para la gestin de los
vimentos de la ciudad, la Secretara de Obras Pblicas contrat en el ao 2005 (OOPPM,
07) un estudio con la firma bogotana T
la
geomtrico de los elementos que componen la infraestructura administrad
87
Este inventario se dividi en dos fases:
Fase 1: Desde agosto de 2005 hasta febrero de 2006. En esta fase se realiz el
inventario de campo de las principales caractersticas tanto funcionales como
estructurales de los pavimentos en las autopistas, vas arterias, colectoras y algunas vas
na de las vas. En total se realizaron
mediciones en 800 km de calzada con un valor de 900 millones de pesos.
tal se inventari 700 km de calzada aproximadamente con un valor de
1400 millones de pesos.
de servicio, y en la infraestructura asociada a cada u
Fase 2: Desde mayo de 2006 hasta enero de 2007. Se contino con el levantamiento del
inventario en campo en el resto de las vas de servicio de la ciudad y las rurales del
municipio. En to
La informacin recolectada en estas dos fases fue ingresada a una base de datos bajo una
estructura en Oracle a travs de herramientas como Access y Excel. La visualizacin de la
informacin georeferenciada tomada en campo y procesada, se realiza a travs de un
Sistema de Informacin Geogrfica SIG, tal como se muestra en la Figura 26.
Figura 26. Visualizacin grfica de la informacin (OOPPM, 2007).
En general el sistema de gestin permite consultar, administrar y gestionar la malla vial y
su infraestructura asociada, facilitando el anlisis de datos y apoyando el proceso de toma
de decisiones para la priorizacin de los recursos en la ciudad de Medelln por parte de la
dministracin municipal de turno. Adems posibilita realizar consultas en la web, hacer
reportes grficos, alfanumricos y estadsticos, y ploteos de la informacin.
a
88
4.1.1 Descripcin de conceptos importantes del SAV.
Para la medicin de cada uno los parmetros en las vas fue necesario definir, por parte de
la firma contratista TNM, algunos conceptos bsicos que son presentados a continuacin:
Segmento vial: Porcin de va entre dos (2) intersecciones, compuesto por un nodo
inicial, un nodo final, una direccin y sentidos definidos, segn el orden creciente de la
nomenclatura de la ciudad (de oriente a occidente y de sur a norte). A este segmento es
al que se le realizan todas las mediciones y es mostrado en la Figura 27.
Figura 27. Segmentos viales y nodos.
Nodo: Interseccin de mnimo dos (2) ejes de segmentos de vas.
Orden del elemento: Nmero que define el elemento de la seccin transversal que se
y teniendo en cuenta el sentido en que aumenta la nomenclatura.
de bordes, abultami
E
es presentado en la Tabla 8, discriminado por tipo de va y tipo de pavimento:
Tabla 8. Nmero de datos por tipo de pavimento.
Tipo de pavimento Tipo de va N de datos Total Datos
Flexible autopista 177
Flexible arterial 2740
Flexible colectora 4353
Fle
8895 Flexible
xible servicio 1625
Rgido arteria 116
Rgido colectora 31
Rgido servicio 1
Adoqun Adoqun 19
148 Rgido
19
97
4.2 ETAPA 1 DE MODELACIN
En esta seccin se presenta el procedimiento realizado para simular las redes neuronales
tipo perceptrn multicapa entrenadas con el conjunto de datos de las vas de servicio en
avimentos flexibles. De acuerdo con la bibliografa consultada para este tipo de
investigaciones, los perceptrones multicapa son las mejores redes para la prediccin de
parmetros. Los perceptrones han sido usados con xito para resolver diversos problemas
complejos, por ejemplo cuando se presentan relaciones no lineales entre variables, a travs
del entrenamiento en forma supervisada con el algoritmo de retropropagacin de error
(Haykin, 2001).
Con el fin de acotar el problema del IRI, se determin trabajar slo con los pavimentos
flexibles como fue planteado en el objetivo de este trabajo, ya que el noventa y cinco por
ciento (95%) de las vas de la ciudad tienen este tipo de rodadura.
redes con diferentes
rquitecturas. Ms que buscar la mejor arquitectura, es prever la lnea de trabajo para la
a planteado en esta investigacin, es decir, encontrar las variables que
enen mayor relacin e incidencia en la prediccin del IRI.
4.2.1 Base de datos.
De todo el conjunto de la base de datos se eligieron los de las vas de servicio en pavimento
flexible con el fin de acotar el problema, ya que es el tipo de va ms comn en la ciudad.
No obstante ms adelante se tratar la modelacin en colectoras y arterias. Las vas de
servicio, o calzadas de servicio son calles que tienen carcter secundario y normalmente
pasan por las zonas internas de los barrios y normalmente estn localizadas por las zonas
residenciales. Este tipo de vas han tenido una menor intervencin por parte de las
Secretaras de Obras Pblicas presentando muchas de ellas un deterioro considerable,
mientras que las vas de mayor jerarqua, que tienen un trfico superior, presentan mejores
condiciones funcionales y estructurales debido a los mantenimientos correctivos peridicos
que se realizan. Por lo anterior, definir estrategias de priorizacin y mantenimiento a travs
del IRI es de vital importancia para el mantenimiento de la malla vial.
p
En esta primera etapa de modelacin se crean y se entrenan varias
a
solucin del problem
ti
98
Dado que el ndice de Rugosidad Internacional es una medida de las deformaciones
verticales del pavimento, se tiene que la estructura del pavimento, la subrasante y las fallas
tienen una fuerte incidencia en el desarrollo de irregularidades superficiales, es decir, el IRI
refleja completamente la condicin de daos del pavimento (Lin, et al. 2003). Por lo
anterior, las variables de la base de datos que pertenecen a estos tres grupos, y que
serviran como nodos entradas a las redes se presentan a continuacin:
De la estructura (3):
1. E1: Espesor de la carpeta asfltica (m)
2. E2: Espesor de la base granular (m)
3. SN: El nmero estructural (adimensional)
De los daos del pavimento (16): Las fallas de los pavimentos son el porcentaje de
afectacin de cada una respecto al rea total de un segmento vial (% del rea fallada).
4. Grietas longitudinales y transversales (%)
5. Agrietamiento en bloque (%)
6. Piel de cocodrilo (%)
8. Ahuellamiento (%)
9. Hundimientos (%)
10. Grietas en media luna (%)
11. Desintegracin de bordes (%)
12. Abultamientos (%)
13. Corrugaciones (%)
14. Exudacin (%)
15. Descascaramiento (%)
16. Peladuras (%)
17. Fisuras por reflexin (%)
18. Parcheo (%)
19. Brechas de servicios pblicos (%)
7. Baches (%)
99
De la subrasante (1):
20. CBR (adimensional)
Los datos generados en grandes cantidades pueden ser tiles al estudiar el comportamiento
de la distribucin (Walpole & Myers , 1987). Con el objeto de conocer la distribucin de
los datos, la concentracin de puntos, su dispersin o variabilidad, el rango, el valor ms
representativo entre otros, se presentan en la Figura 31 y la Tabla 9 los histogramas de
frecuencia de cada una de estas variables utilizadas en esta primera etapa de modelacin y
los resultados estadsticos. Para determinar el nmero de clases se ut iz la ley de Storge
de acuerdo con la Ecuacin 19.
il
2 log
) log(
1
n
h + =
Ecuacin 19
Donde h es el nmero de clases ptimo y n nmero total de observaciones.
timo es
11. Por efectos prcticos se trabaj con 10 clases.
Para las vas de servicio se tienen 1625 observaciones, luego el nmero de clase p
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
0
50
100
150
200
250
300
IRI (m/km)
F
R
E
C
U
E
N
C
I
A
0.05 0.07 0.09 0.11 0.13 0.15 0.17 0.19 0.21 0.23 0.25
0
50
100
150
200
250
300
350
400
450
500
ESPESOR CARPETA ASFLTICA (m)
F
R
E
C
U
E
N
C
I
A
Figura 31. Histogramas de frecuencia para los datos de las vas de servicio.
100
0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5 0.55 0.6
0
50
100
150
200
250
300
350
400
450
ESPESOR BASE GRANUALAR (m)
F
R
E
C
U
E
N
C
I
A
1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 6 6.5
0
50
100
150
200
250
300
350
400
450
NMERO ESTRUCTURAL SN
F
R
E
C
U
E
N
C
I
A
0 5 10 15 20 25 30 35 40 45 50 55 60
0
100
200
300
400
500
600
700
CBR
F
R
E
C
U
E
N
C
I
A
0 5 10 15 20 25 30 35 40 45 50
0
200
400
600
800
1000
1200
1400
GRIETAS LONGITUDINALES (%)
0 10 20 30 40 50 60 70 80 90 100
0
200
400
600
800
1000
1200
1400
1600
0 10 20 30 40 50 60
AGRIETAM B )
F
R
E
C
U
E
N
C
I
A
IENTO EN LOQUE (%
70 80
0
500
1000
1500
PIEL D
C
I
A
as de frecuencia para los datos de las vas de servicio.
E COCODRILO (%)
F
R
E
C
U
E
N
Figura 31. (Continuacin) Histogram
101
0 2 4 6 8 10 12 14 16 18 20 22 24 25
0
200
400
600
800
1000
1200
1400
1600
1800
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30
BACHES (%)
F
R
E
C
U
E
N
C
I
A
400
600
800
1000
0
200
1200
1400
1600
1800
AHUE TO LLAMIEN (%)
F
R
E
C
U
E
N
C
I
A
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32
0
200
400
600
800
1000
1200
1400
1600
0
HUNDI TOS
C
U
E
0.04 0.06 0.08 0.1 0.12 0.14 0.16
MIEN (%)
F
R
E
N
C
I
A
0.02 0.18
0
200
400
600
800
1000
1200
1400
1600
1800
GRIETAS EN A L
C
U
A
MEDI UNA (%)
F
R
E
N
C
I
A
0 2 4 6 8 10 12 14 16 18
0
200
400
600
800
1000
1200
1400
1600
1800
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
0
200
1000
1200
1400
1600
DESINTEGRACIN DE BORDES (%)
F
R
E
C
U
E
N
C
I
A
400
600
800
ABULTAMIENTOS (%)
ura 31. (Continuacin) Histogramas de frecuencia para los datos de las vas de servicio.
F
R
E
C
U
E
N
C
I
A
Fig
102
0 4 8 12 16 20 24 28 32 36 40
0
200
400
600
800
1000
1200
1400
1600
1800
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
0
200
400
600
800
1000
1200
1400
1600
1800
A
EXUDACIN (%)
F
R
E
C
U
E
N
C
I
A
CORRUGACIONES (%)
F
R
E
C
U
A
N
C
I
0 10 20 30 40 50 60
0
200
1600
400
600
800
1000
1200
1400
DESCASCARAMIENTO (%)
F
R
E
C
U
E
N
C
I
A
0 20 40 60 80 100 120 140 160 180 200
0
1500
500
1000
F
R
E
C
U
E
N
C
I
A
PELADURAS (%)
1500
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160
0
0 5 10 15 20 25 30 35 40 45 50 55 60 65 70
0
500
1000
PARCHEO (%)
1000
1200
200
400
600
800
F
R
E
C
U
E
N
C
I
A
PARCHEO DE BRECHAS DE SERVICIOS PBLICOS (%)
Figura 31. (Continuacin) Histogramas de frecuencia para los datos de las vas de servicio.
F
R
E
C
U
E
N
C
I
A
103
Tabla 9. Medidas de tendencia central y de dispersin para los datos de la etapa 1 de modelacin.
Variables
M
e
d
i
a
M
e
d
i
a
n
a
M
o
d
a
D
e
s
S
t
d
V
a
r
i
a
n
z
a
C
u
r
t
o
s
i
s
C
o
e
f
i
c
i
e
n
t
a
s
i
m
e
t
r
a
R
a
n
g
o
M
n
M
x
IRI (m/km) 8.54 8.38 15.0 3.21 10.27 -0.52 0.13 13.93 1.07 15.0
Carpeta asfltica (m) 0.12 0.11 0.10 0.03 0.00 0.20 0.69 0.19 0.06 0.25
Base granular (m) 0.31 0.30 0.30 0.08 0.01 0.14 0.52 0.50 0.10 0.60
SN 2.43 2.33 2.52 0.73 0.53 1.95 1.01 4.95 1.09 6.05
CBR (%) 12.98 11.37 11.3 5.75 33.10 3.89 1.70 47.96 4.48 52.45
Grie long y trans (%) 2.42 0.67 0.00 4.62 21.35 22.38 3.99 48.97 0.00 48.97
Agriet. en bloque (%) 1.51 0.00 0.00 5.97 35.68 88.72 8.15 92.83 0.00 92.83
Piel cocodrilo (%) 2.30 0.00 0.00 6.17 38.07 28.02 4.65 72.29 0.00 72.29
Baches (%) 0.07 0.00 0.00 0.60 0.36 1103.5 31.01 22.09 0.00 22.09
Ahuellamiento (%) 0.12 0.00 0.00 1.05 1.10 530.6 20.91 30.00 0.00 30.00
Hundimientos (%) 0.37 0.00 0.00 1.96 3.84 15 15 11.29 31.93 0.00 31.93 0.
Grietas media luna (%) 0.00 0.00 0.00 0.01 0.00 403.6 19.87 0.18 0.00 0.18
Desinte. Bordes (%) 0.03 0.00 0.00 0.47 0.22 10 .3 30.47 17.06 0.00 17.06 76
Abultamientos (%) 0.07 0.00 0.00 0.35 0.12 7 9 7.67 4.76 0.00 4.76 3.1
Corrugaciones (%) 0.17 0.00 0.00 1.84 3.39 2 .4 15.05 37.50 0.00 37.50 55
Exudacin (%) 0.00 0.00 0.00 0.06 0.00 690.37 25.27 1.92 0.00 1.92
Descascaramiento (%) 0.62 0.00 0.00 2.77 7.65 18 98 11.67 59.53 0.00 59.53 3.
Peladuras (%) 6.30 0.03 0.00 17.5 306.4 28.65 4.72 198.4 0.00 198.4
Fisuras reflexin (%) 0.02 0.00 0.00 0.22 0.05 16 4 12.32 3.81 0.00 3.81 8.
Parcheo (%) 3.12 1.07 0.00 5.50 30.28 2 8 4.08 69.20 0.00 69.20 5.7
Brechas servicios (%) 11.54 9.38 0.00 11.5 132.2 16 5 2.39 151.0 0.00 151.0 .2
en la Figura 31 y del anlisis estadstico de
bservar lo siguiente:
De los histogramas de frecuencia presentados
los datos resumidos en la Tabla 9 se puede o
El IRI presenta una distribucin normal alrededor de la media cuyo valor es de 8.54 con
una dispersin moderada respecto a la media. Presenta una leve asimetra a la derecha.
104
La curtosis caracteriza la elevacin o el achatamiento relativos de una distribucin,
comparada con la distribucin normal. Una curtosis positiva indica una distribucin
relativamente elevada, mientras que una curtosis negativa indica una distribucin
relativamente plana (Walpole & Myers, 1987). Para la variable analizada se observa que
los datos se presentan aplanados respecto a una distribucin normal.
lo que podra indicar, en general, una buena
capacidades de soporte de las subrasantes analizadas, pero los datos presentan una gran
y 15. Los datos estn dispersos respecto a la media y la distribucin es
muy elevada respecto a la normal. De igual manera el parcheo de brechas de servicio
in normal, como lo son el IRI, el CBR y los
espesores, fueron medidas directamente en campo representando propiedades de todo el
Los datos de los espesores de la carpeta asfltica y la base granular tienen una
distribucin ms o menos normal sesgada a la derecha, concentrados alrededor de la
media. Se observa una distribucin elevada respecto a la normal. En este tipo de casos la
media tiende a situarse respecto a la moda al mismo lado de la prolongacin ms larga.
Los datos de CBR tiene una media de 12.98
dispersin y variabilidad respecto a la media. Para el CBR los datos tienen un grado de
asimetra alto respecto a su media con tendencia a la derecha (asimetra 1.7). La
asimetra positiva indica una distribucin unilateral que se extiende hacia valores ms
positivos. La asimetra negativa indica una distribucin unilateral que se extiende hacia
valores ms negativos (Walpole & Myers, 1987).
El parcheo tiene una distribucin asimtrica a la izquierda, con una alta concertacin de
puntos entre 0
pblico tiene una distribucin sesgada a la derecha con una concentracin de los datos
entre 0 y 30. Esta variable tambin tiene una dispersin grande indicando que el
promedio no es representativo.
Las dems variables de fallas tienen concentraciones de puntos cercanos a cero. La
distribucin que presentan es asimtrica totalmente a la izquierda tal como lo indican los
coeficientes de asimetra. Estas variables tienen una distribucin muy alta respecto a la
distribucin normal (valores altos de la curtosis) mostrando curvas puntiagudas. Lo
anterior nos indica que la variabilidad de los datos es poca y las medidas de tendencia
central son representativas.
De todo lo anterior es importante observar que las variables que tienen una dispersin de
puntos ms cercana a una distribuc
segmento vial; mientras que las variables de daos fueron estimadas cualitativa y
cuantitativamente a partir de un levantamiento directo y presentan distribuciones
asimtricas a la derecha, representando la suma de las fallas puntuales en el segmento
vial.
105
4.2.2 Modelacin 1.
Para la modelacin 1 se crearon y entrenaron diferentes redes tipo PMC. A partir de los
resultados de una red creada se realizaron modificaciones a las variables de entrada y a las
arquitecturas de la siguiente. La Tabla 10 muestra las variables de entrada utilizadas en
ada una de las redes de esta modelacin. Cuando el conocimiento de las caractersticas del
eo del modelo. Luego se fueron eliminando entradas teniendo en cuenta su
cidencia en el fenmeno fsico estudiado, es decir, descartando las que menos
abla 10. Variables de entrada utilizadas para entrenar las redes de la modelacin 1 de la etapa 1.
c
problema es escaso puede suceder que un nmero exagerado de variables de entrada sea
usado en las primeras fases de proyecto, lo que aumenta la probabilidad de que algunas
variables estn correlacionadas entre s dificultando el proceso de aprendizaje (Martnez,
2006).
Inicialmente se tomaron todas las variables anteriormente descritas con el fin de analizar el
desemp
in
deformaciones verticales producen en el pavimento.
T
1. E1: Espesor de la carpeta asfltica X X X X
2. E2: Espesor de la base granular X X X X
3. SN: El n
X X X
X X
mero estructural X X X
4.
5.
Gritas (%) X
Agr X
Pie
longitudinales y tranversales
ietamiento en bloque (%)
X
X
6. l de cocodrilo (%) X X
7. Baches (%) X X X
8. Ahuellamiento (%) X X X X
9. Hundimientos (%) X X X X X
Gr 10. ietas en media luna (%) X
11. Desintegracin de bordes (%) X
12. Abultamientos (%) X X X
13. Corrugaciones (%) X X X X
14. Exudacin (%) X
15. Descascaramiento (%) X
16. Peladuras (%) X X X X X X
17. Fisuras por reflexin (%) X
18. Parcheo (%) X X X X X X X
19. Brech blicos (%) X X X
t
as de servicios p X X X X
Subrasan e (1): 20. CBR X X X X
9
X
14 11 7
tructu
tolog
Variables os para v
mpone
Redes
9 y 10
Redes
11,12 y 13
Redes
14,15 y 16
en ca
Redes
2 y 3
Redes
4 y 5
Redes
6,7 y 8
s por mod 20 elo 4 6
Es ra (3):
Pa a (16):
de la base de dat
de servicio
as
Co nte Variables a utilizar da red
Red 1
Total varible
106
4.2.2.1 Arquitectura y entrenamiento.
Para predecir el IRI se crearon redes tipo perceptrn con una, dos o tres capas intermedias
de neuronas. La prime de a trada y l a a la de salida (IRI),
las dems ultas. La ronas ocult e vital im ncia e
e los perceptrones multicapas con algoritmo de aprendizaje por retropropagacin de error,
La tasa de aprendizaje Lr en este algoritmo determina el tamao de los cambios que sern
a del gradiente. Si este valor es
uy grande el algoritmo se torna inestable, en caso contrario el algoritmo tendr mucho
d. Adems la tasa de aprendizaje ya no es mantenida constante a
largo del proceso como en el primer caso. sta cambia durante el proceso de
ntrenamiento, asumiendo el mayor valor posible para acelerar la convergencia de la red y
artnez, 2006). La inclusin del momento es
una manera simple de introducir informacin de segundo orden a la superficie de error lo
que agiliza el proceso de convergencia.
ra capa correspon
s neu
la de en a ltim
son las oc as son d porta n el desempeo
d
porque detectan y descubren las caractersticas de los datos de entrenamiento (Haykin,
2001).
Algunas de las redes fueron entrenadas usando el algoritmo de gradiente descendente
simple implementado en el programa Matlab (traingd) que actualiza pesos y ganancias
varindolos en la direccin negativa del gradiente de la funcin del error, y que para este
caso se utiliz el error cuadrtico medio (MSE). ste es una variacin del algoritmo bsico
de retropropagacin de error (Haykin, 2001).
producidos en los pesos de la red en la direccin negativ
m
tiempo para converger. Una caracterstica importante de este algoritmo es que su
desempeo en busca del mnimo de la superficie de error, depende exclusivamente del
valor del gradiente local, siendo fcil por tanto que la red quede presa en un mnimo local
(Haykin, 2001).
Con el fin de evitar el problema anterior, tambin se us el algoritmo de gradiente simple
con momento (traingdx) y tasa de aprendizaje variable para entrenar las otras redes. Este
algoritmo a diferencia del anterior incorpora un parmetro llamado momento mc que
tiene en cuenta la tendencia de la superficie de error, de tal manera que la red pueda ignorar
pequeas irregularidades en la superficie siendo capaz entonces de escapar de mnimos
locales de poca profundida
lo
e
controlando al mismo tiempo la estabilidad (M
107
Para la mode n, la b ebe a con el fin de entrenar la red. Los
datos fueron divididos aleatoriam nte en dos ero
contiene el 7 218) d s y fu el miento de los modelos
neuronales, y gundo 6) res lida modelo entrenado. La
distribucin de los ejemp spaci rob muy tante en el
aprendizaje y en la gene del m ue s ne s son muy
limitadas para extrapolar, los ejemplos d de tene tremos del
espacio-dom deben mog bui esta regin (Flood &
Kartam, 199
Los datos deben ser norm reviam valo en pendiendo
del problem zado y la iones d tiliz o qu toma slo
valores positivos los datos sern normal 0 y 1 a partir de los
valores mxim nimos de cada de variab alizados alimentarn la
d produciendo de igual manera salidas en forma normalizada por lo que deben ser
laci ase de datos d ser preprocesad
e conjuntos independientes entre s. El prim
5% (1 e los dato e utilizado para entrena
el se el 25% (40 tante para la va cin del
los en el e o-dominio del p lema es impor
ralizacin odelo. Dado q las rede uronale
e entrenamiento ben con r los ex
inio y estar ho neamente distri dos en
4).
alizados p ente en el inte [-1,1] o [0,1] de
a anali s func e activacin a u ar. Dad e la IRI
izados en el intervalo entre
os y m le. Los datos norm
re
transformadas a su dominio original para su anlisis e interpretacin (Flood & Kartam,
1994).
La Tabla 11 muestra para cada una de las redes entrenadas, la arquitectura, las funciones de
activacin, el algoritmo y las pocas de entrenamiento utilizadas para la modelacin.
Tabla 11. Arquitecturas de la modelacin 1 de la etapa 1.
Red
Neuronas x
Capa
Funciones de
activacin
Algoritmo
pocas de
entrenamiento.
Observaciones
Red1 20-10-1 tansig-purelin traingd 5000 Lr=0.01
Red2 16-40-1 tansig-tansig traingd 10000 Lr=0.01
Red3 16-40-20-1 tansig-tansig-tansig traingdx 10000 Lr=0.01; mc=0.4
Red4 16-40-20-1 tansig-tansig-tansig traingdx 10000 Lr=0.01; mc=0.9
Red5 16-30-20-1 tansig-tansig-tansig traingdx 10000 Lr=0.01; mc=0.7
Red6 9-40-20-1 tansig-tansig-tansig traingdx 10000 Lr=0.02; mc=0.8
Red7 9-30-20-1 tansig-tansig-tansig traingdx 10000 Lr=0.01; mc=0.7
Red8 9-40-1 tansig-tansig traingdx 10000 Lr=0.02; mc=0.9
Red9 7-50-30-1 tansig-tansig-tansig raingdx 10000 Lr=0.01; mc=0.8 t
Red10 7-40-1 tansig-tansig traingdx 10000 Lr=0.02; mc=0.9
108
Red
Neuronas x
Capa
Funciones de
activacin
Algoritmo
pocas de
entrenamiento.
Observaciones
Red11 4-5-1 tansig-tansig traingdx 15000 Lr=0.02; mc=0.8
Red12 4-10-5-1 tansig-tansig-tansig traingdx 15000 Lr=0.02; mc=0.8
Red13 4-10-5-2-1
tansig-tansig-tansig-
tansig
traingdx 15000 Lr=0.02; mc=0.8
Red14 6-5-1 tansig-tansig traingdx 15000 Lr=0.02; mc=0.8
Red15 6-10-5-1 tansig-tansig-tansig traingdx 15000 Lr=0.02; mc=0.8
Red16 6-10-5-2-1
tansig-tansig-tansig-
tansig
traingdx 15000 Lr=0.02; mc=0.8
Cada una de las redes fue inicializada 3 veces con el fin de cambiar los valores iniciales de
los pesos sinpticos aleatoriamente antes de comenzar el entrenamiento. Estos valores
definidos indican el punto inicial sobre la superficie de error sobre la cual el algoritmo de
aprendizaje empezar a desplazarse en busca del mnimo global (Hilera & Martnez, 2000).
el algoritmo de retropropagacin se mueve en partes planas de la superficie error
ificultando la bsqueda de los mnimos. Por esta razn los valores grandes o pequeos
Si los pesos iniciales son grandes la velocidad de convergencia disminuye, mientras que si
pequeos,
d
para la inicializacin deben ser evitados (Haykin, 2001). De las tres (3) redes se tom la
que arroj mejores resultados en trminos
4.2.2.2 RESULTADOS DE LA MODELACIN 1
Despus de entrenar las redes se evalu su capacidad de generalizacin entregndole un
conjunto de datos que no haba sido presentado en la etapa de entrenamiento. Los
resultados de estas modelaciones son presentados en la Tabla 12. El coeficiente de
correlacin R
2
es una de las formas de comparar los resultados de la red con los deseados,
ya que muestra el grado de intensidad de la relacin mutua entre dos variables. Expresa la
proporcin de la variacin total en los valores de la variable estimada (IRI estimado), que
puede ser considerada o explicada por una relacin lineal con los valores de la variable
aleatoria (IRI real) (Walpole & Myers, 1987). Lo ideal es que la red prediga con exactitud
el IRI, es decir, que los valores calculados sean iguales a los valores deseados. De esta
manera un valor 1 para el R
2
significa un ajuste perfecto cuando se analiza una tendencia
lineal como en este caso.
109
Tabla 12. Resultados de la modelacin 1 etapa 1.
Red Arquitectura Observaciones MSE R
2
Red1 20-10-1 Lr=0.01 0.0478 0.0432
Red2 16-40-1 Lr=0.01
0.0461 0.1351
Red3 16-40-20-1 Lr=0.01; mc=0.4 0.0393 0.1815
Red4 11-40-20-1 Lr=0.01; mc=0.9 0.03582 0.124
Red5 11-30-20-1 Lr=0.01; mc=0.7 0.03639 0.1151
Red6 9-40-20-1 Lr=0.02; mc=0.8 0.03889 0.1465
Red7 9-30-20-1 Lr=0.01; mc=0.7 0.03804 0.1292
Red8 9-40-1 Lr=0.02; mc=0.9 0.0424 0.1806
Red9 7-50-30-1 Lr=0.01; mc=0.8 0.03508 0.1101
Red10 7-40-1 Lr=0.02; mc=0.9 0.04153 0.176
Red11 4-5-1 Lr=0.02; mc=0.8 0.04632 0.1507
Red12 4-10-5-1 Lr=0.02; mc=0.8 0.04642 0.1554
Red13 4-10-5-2-1 Lr=0.02; mc=0.8 0.04456 0.1333
Red14 6-5-1 Lr=0.02; mc=0.8 0.04147 0.01097
Red15 6-10-5-1 Lr=0.02; mc=0.8 0.03922 0.1128
Red16 6-10-5-2-1 Lr=0.02; mc=0.8 0.03681 0.1115
Como puede observarse los resultados no son satisfactorios para ninguno de los casos
analizados. Los mejores resultados se presentaron para la red 3 con un error cuadrtico
medio (SME) de
2
0.0393 en 10.000 pocas de entrenamiento, el R obtenido fue de 0.1815,
que indica una pobre correlacin entre las variables. El R
2
obtenido al simular la red 3
iento es de 0.2475 indicando un aprendizaje deficiente.
ara el caso de la mejor correlacin obtenida, se muestra a continuacin la Figura 32 en
ME durante el proceso de entrenamiento, y en la Figura
3 la correlacin entre la respuesta de la red y los valores esperados.
Los resultados obtenidos en la Figura 33 no presentan un tendencia ajustada a la recta y=x,
ue stante dispersos mostrando que el proceso de aprendizaje de la red
os ejemplos a las redes las predicciones no
on satisfactorias.
lo
con los datos de entrenam
P
donde se presenta la evolucin de S
3
Como puede observarse en la Figura 32, la red no est aprendiendo lo suficiente para
producir resultados satisfactorios, mostrando que la evolucin del error se vuelve asinttica
despus de unas mil iteraciones.
sino q se presentan ba
no fue adecuado, por lo que al presentar nuev
s
110
0 500 1000 1500 2000 2500 3000
10
-4
10
-3
10
-2
10
-1
10
0
10
1
POCAS DE ENTRENAMIENTO
E
R
R
O
R
C
U
A
D
R
T
I
C
O
M
E
D
I
O
SME=0.0393358, OBJ ETIVO=0.0001
Figura 32. Evolucin del error para la modelacin 1 de la etapa 1 (Red 8).
y =0.2148x +6.5748
R
2
=0.1815
0.0
2.0
14.0
4.0
6.0
8.0
10.0
I
R
I
c
a
l
c
u
l
a
d
o
p
o
r
l
a
r
e
d
12.0
10.0 12.0 14.0 16.0 18.0
IRI esperado
Figura 33. Correlacin entre la respuesta de la red y los valores esperados de la modelacin 1 etapa
1 (Red 8).
De la red 1 a la 16 se fueron realizando modificaciones en cuanto a las variables de entrada
y las arquitecturas de entrenamiento. Dado que el IRI debe reflejar las condiciones de falla
de los pavimentos, en la primera red se consideraron el total de las fallas del inventario vial.
Lo anterior mostr que la red se estaba confundiendo con todas las variables de entrada
presentadas, debido a que no todas eran linealmente independientes. Por ejemplo, el
nmero estructural depende de los espesores de las capas del pavimento y la subrasante
(CBR).
0.0 2.0 4.0 6.0 8.0
111
Progresivamente se fueron eliminando variables que no tienen mucha incidencia a las
deformaciones verticales del pavimento, y por ende en el IRI, con el fin de obtener una
mejor respuesta de la red; entre estas variables se tiene: La exudacin, fisuras por reflexin,
piel de cocodrilo, grietas longitudinales y transversales, desintegracin de bordes, las
peladuras y el descascaramiento. Estas variables tienen relacin directa entre s debido a
que muchas de ellas evolucionan en otras fallas. Por ejemplo, la evolucin de las grietas
longitudinales y transversales puede ser la piel de cocodrilo o el agrietamiento en bloque,
que poca relacin tienen con el IRI. Con ninguno de los cambios realizados se obtuvo una
mejora considerable en el desempeo de la red.
Lo anterior puede tambin explicarse por la distribucin de los datos de las variables antes
mencionadas. Como se mostr en la Figura 31, histogramas de frecuencia, los datos se
encuentran concentrados en valores cercanos a cero con distribuciones sesgadas a la
derecha, lo que podra tambin indicar que estos datos no son representativos para la
prediccin del IRI.
e la red ya que en todos los casos el proceso
e aprendizaje se vuelve asinttico aproximadamente a partir de las 3000 pocas. Este
a generalizacin como el efecto de una buena interpolacin no
neal entre las variables. Sin importar el tamao del conjunto de entrenamiento siempre
lla
20
en , dado que los modelos no aprendieron, ni memorizaron los datos de
En en el desempeo al utilizar
el algoritmo del gradiente descendente simple con tasa de aprendizaje variable.
La habilidad de las neuronas ocultas es extraer progresivamente las caractersticas ms
significativas de los patrones de entrada y las relaciones de cualquier orden entre las
variables para realizar tareas complejas (Haykin, 2001). De las modelaciones se puede
observar que el aumento del nmero de capas ocultas en la arquitectura de la red no mejora
su desempeo. Lo mismo puede decirse del nmero de neuronas por capa donde no hay una
tendencia marcada de una arquitectura ptima. El incremento en las pocas de
entrenamiento tampoco mejora la respuesta d
d
proceso de aprendizaje puede ser considerado como un problema de ajuste de curva lo
que permite considerar l
li
existe la posibilidad de que la red memorice los ejemplos incurriendo en un fenmeno
mado overfitting o sobre ajuste perdiendo su capacidad de generalizacin (Haykin,
01). Este fenmeno no se present a pesar de la cantidad de iteraciones en el
trenamiento
entrenamiento.
cuanto al algoritmo de entrenamiento s se nota una mejora
112
capacidad de generalizacin de las redes neuronales est inf La luenciada por tres factores:
pla
en
en
pro
Se
Ru
da
uti
rel
co
po tas con pendientes positivas. Un valor de -1 o 1 ocurrir cuando todos los
untos de la muestra caen sobre una lnea recta (Walpole & Myers , 1987). Los resultados
para este anlisis se incluyeron dos
variables nuevas: La primera es la suma de toda las fallas, y la segunda la suma de los
daos que generan defor aciones verticales (Baches, ahuellamientos, hundim ,
abultamientos, corrugaciones, parcheo y parcheo por brechas de servicios pblicos).
Com gura 34 y Figura 35 se presenta una relacin negativa entre el
IRI, el espesor y el nmero estructural, es decir, a medida que los espesores y el SN
aum las otras variables como las deformaciones
enen una relacin positiva lo que indica que el aumento de cualquiera de ella debe generar
(1) el tamao del conjunto de entrenamiento y cuan representativo es del problema
nteado, (2) la arquitectura de la red neuronal y (3) de la complejidad fsica del problema
cuestin, del cual no se tiene control. Por lo que se debe trabajar en las dos primeras para
contrar una lnea de trabajo que genere respuestas ms adecuadas. Por lo anterior, se
pone realizar algunos cambios que sern explicados en la seccin siguiente.
4.2.3 Modelacin 2
realiz un anlisis estadstico de correlacin entre las variables de entrada y el ndice de
gosidad Internacional con el fin de medir su grado de relacin. La teora asume que los
tos se distribuyen normalmente con una media y una desviacin estndar. Para ello se
liz el coeficiente de correlacin o momento de pearson que sirve para determinar la
acin o asociacin lineal entre dos variables. Este coeficiente vara entre -1 y 1,
rrespondiendo los valores negativos a rectas con pendientes negativas y los valores
sitivos a rec
p
de este anlisis se presentan en la Figura 34 para relaciones positivas y la Figura 35 para
relaciones negativas.
Adems de las variables nombradas anteriormente,
m ientos
o es de esperarse, en la Fi
entan el IRI disminuye. Por el contrario,
ti
un incremento en el IRI.
113
0.30
F
i
s
u
r
a
s
r
e
f
l
e
x
i
n
,
0
.
0
0
5
2
C
o
r
r
u
g
a
c
i
o
n
e
s
,
0
.
0
2
1
8
G
r
i
e
t
H
u
n
d
a
s
m
e
d
i
m
.
,
i
a
l
u
n
a
,
6
0
.
0
4
5
3
A
h
u
e
l
l
a
m
.
,
0
.
0
3
8
2
B
,
G
r
i
e
t
a
s
l
o
n
g
s
,
0
.
0
4
1
1
B
a
s
e
g
r
a
n
P
i
e
l
c
o
c
o
d
r
i
l
o
,
0
.
0
8
5
0
A
b
u
l
t
a
m
i
e
n
.
,
0
.
0
5
3
1
P
e
l
a
d
u
r
a
s
,
0
.
1
0
4
5
P
a
r
c
h
e
o
,
0
.
2
0
4
1
D
e
f
o
r
m
a
c
i
o
n
e
s
,
0
.
2
8
1
8
S
u
m
a
p
a
t
o
l
o
g
a
,
0
.
2
5
6
8
0.00
0.05
0.15
0.20
0.25
0
.
0
4
6
a
c
h
e
s
0
.
0
4
0
0
t
r
a
n
u
l
a
r
,
0
.
0
5
4
5
0.10
D
e
s
c
a
s
c
a
r
.
,
0
.
0
6
5
2
B
r
e
c
h
a
s
s
e
r
v
i
c
i
o
s
p
b
l
i
c
o
s
,
0
.
2
2
0
8
VARIABLES DE ENTRADA
C
O
E
F
E
L
A
C
I
N
Figura 34. Relacin de variables con el IRI positivas.
I
C
I
E
N
T
E
D
E
C
O
R
R
E
x
u
d
a
c
i
n
,
-
0
.
0
0
0
5
D
e
s
i
n
t
e
g
.
b
o
r
d
e
s
,
-
0
.
0
1
5
9
A
g
r
i
e
t
a
m
.
b
l
o
q
u
e
,
-
0
.
0
0
1
7
S
N
,
-
0
.
2
6
8
9
C
a
r
p
e
t
a
a
s
f
l
t
i
c
a
,
-
0
.
1
7
5
4
C
B
R
,
-
0
.
0
0
0
5
-0.30
-0.25
-0.20
-0.15
-0.10
-0.05
0.00
VARIABLES DE ENTRADA
C
O
E
F
I
C
I
E
N
T
E
D
E
C
O
R
R
E
L
A
C
I
N
Figura 35. Relacin de variables con el IRI negativas.
114
El espesor de la base granular presenta un relacin negativa no siendo acorde con la
ejore la estructura del
CBR parece, segn la
structura de los datos, no tener ninguna relacin en la prediccin del IRI ya que presenta
nmeno fsico. Lo anterior, muestra
dicios que la base de datos no es confiable.
De
ca
ales, entre ellas se tiene: Baches, ahuellamientos,
nte.
lacin anterior, y con el fin de mejorar el
desempeo de las redes, se decide acotar el problema de acuerdo con el anlisis de los
e frecuencias presentados anteriormente, se
definieron los siguientes rangos para las variables en donde se encontraba una mayor
.
El total de datos para esta nueva condicin es de 1572.
bles, se ocultan niveles altos de
la rugosidad superficial de los pavimentos, dando como resultado valores inadecuados
IRI ( a lo e s). Por el contrario, cuando las longitudes de
ici uy niveles altos de rugosidad no siendo
sent entonces d ones sup s del p nto.
bse la vari segm l tiene incidencia fuerte en las
ici I, r e etro nos
neuronales.
realidad, ya que es de esperarse que un aumento en el espesor m
pavimento, y por ende se d un menor IRI. De igual manera, el
e
una correlacin de cero, lo que no se adecua al fe
in
acuerdo con lo anterior y para las redes siguientes se decidi realizar los siguientes
mbios a la base datos:
En las fallas de los pavimentos slo sern tenidas en cuenta las que producen
directamente deformaciones vertic
hundimientos, abultamientos, corrugaciones, parcheo y parcheo por brechas de servicios
pblicos.
Se define entonces una nueva variable que se denomin Deformaciones la cual
consiste en la suma de las reas afectadas por las fallas del pavimento que generan las
deformaciones verticales, tal como se expuso anteriorme
En cuanto a los espesores de las capas del pavimento, se trabaj con el espesor total del
pavimento, lo que incluye el espesor de la carpeta asfltica y el espesor de la base
granular. En ninguno de los casos se tena subbase granular.
Al no obtener resultados adecuados en la mode
datos y a partir de los histogramas d
distribucin de los datos: Parcheo (%), [0,30]; Brechas de servicios pblicos (%), [0,40];
Espesor total (m), [0.23,0.74]; SN, [1.09,6.05]; IRI (m/km), [1.07,15]
13.
Redes 21 a 40: Estas redes, a diferencia de
datos, mientras que las redes 26 a 30 slo tuvieron en cuenta los datos con longitudes
entre 0 y 40 m, las redes 31 a 35 los datos con longitudes entre 40 y 80 m, y las redes 36
a 40 las longitudes mayores a 80 m.
realiz un filtro por longitudes, es decir, las redes 41 a 45 fueron modeladas incluyendo
slo los datos con longitudes entre 0 y 40 m, las redes 46 a 50 los datos con longitudes
entre 40 y 80 m, y las redes 51 a 55 las longitudes mayores a 80 m.
120
Tabla 16. Inclusin de la longitud en las redes de la modelacin 2.
REDES LONGITUD
Redes 17 a 25 Todos los datos
Redes 26 a 30 Entre 0 y 40 m
Redes 31 a 35 Entre 40 y 80 m
Redes 36 a 40 Mayores de 80 m
Redes 41 a 45 Entre 0 y 40 m
Redes 46 a 50 Entre 40 y 80 m
Redes 51 a 55 Mayores de 80 m
4.2.3.2 Resultados de la modelacin 2.
Los resultados obtenidos con los modelos neuronales creados y entrenados tampoco son
atisfactorios. Se obtuvo coeficientes de correlacin muy bajos, los cuales se presentan, a s
manera de resumen, en la Tabla 17.
Tabla 17. Resultados de la modelacin 2 etapa 1.
RED
Incluye
longitud
Datos de acuerdo con
la longitud
MSE R
2
Red 17 No Todos los datos 0.1849 0.1306
Red 18 No Todos los datos 0.1676 0.0744
Red 19 No Todos los datos 0.1621 0.118
Red 20 No Todos los datos 0.1622 0.1281
Red 21 Si Todos los datos 0.1726 0.15
Red 22 Si Todos los datos 0.1704 0.108
Red 23 Si Todos los datos 0.1585 0.1186
Red 24 Si Todos los datos ----- 0.01
Red 25 Si Todos los datos ----- -----
Red 26 Si Entre 0 y 40 m 0.0328 0.0762
Red 27 Si Entre 0 y 40 m 0.0733 0.0162
Red 28 Si Entre 0 y 40 m 0.01184 0.2714
Red 29 Si Entre 0 y 40 m 0.1718 0.0506
Red 30 Si Entre 0 y 40 m ----- -----
Red 31 Si Entre 40 y 80 m 0.1462 0.2052
Red 32 Si Entre 40 y 80 m 0.0704 0.0042
Red 33 Si Entre 40 y 80 m 0.0282 0.0134
Red 34 Si Entre 40 y 80 m 0.0575 0.0721
Red 35 Si Entre 40 y 80 m 0.0844 0.0356
Red 36 Si Mayores de 80 m 0.1243 0.082
Red 37 Si Mayores de 80 m 0.1303 0.1266
121
RED
Incluye
longitud
Datos de acuerdo con
la longitud
MSE R
2
Red 38 Si Mayores de 80 m 0.1247 0.1478
Red 39 Si Mayores de 80 m 0.1305 0.179
Red 40 Si Mayores de 80 m 0.1566 0.0631
Red 41 No Entre 0 y 40 m 0.0847 0.134
Red 42 No Entre 0 y 40 m 0.1927 0.198
Red 43 No Entre 0 y 40 m 0.0276 0.062
Red 44 No Entre 0 y 40 m 0.1143 0.0321
Red 45 No Entre 0 y 40 m 0.0389 0.0581
Red 46 No Entre 40 y 80 m 0.1635 0.1055
Red 47 No Entre 40 y 80 m 0.1916 0.0991
Red 48 No Entre 40 y 80 m 0.1573 0.1073
Red 49 No Entre 40 y 80 m 0.2011 0.059
Red 50 No Entre 40 y 80 m 0.1464 0.1119
Red 51 No Mayores de 80 m 0.1285 0.0376
Red 52 No Mayores de 80 m 0.125 0.0819
Red 53 No Mayores de 80 m 0.1181 0.0783
Red 54 No Mayores de 80 m 0.1198 0.0714
Red 55 No Mayores de 80 m 0.1228 0.002
Los mejores resultados de esta modelacin se obtuvieron con las redes 28 y 31, las cuales
incluyen la longitud como ent u v ina s e 0 m e
40 y 80 m s coeficientes de correlaci fueron 0.2 4 y 0.20 ara
Estos resultados siguen siendo bastante malos para el objetivo
esta mo lacin se esenta un leve mejora respecto a la
De los resultados se observa que la inclusin de la variable longitud y la divisin por
categoras como se explic anteriormente, mejoran los resultados respecto a las redes que
sultados de la red 31 se presentan en la Figura
7 y Figura 38:
ulado por la red 31 con los valores
eseados. Los resultados muestran que el modelo no tiene capacidad de generalizacin
arrojando un coeficiente de correlacin bajo de 0.21.
rada y a s ez discrim n los dato
n
ntre 0 y 4
71
, y entr
52 p respectivamente. Lo
las redes mencionadas.
pretendido, aunque en de pr a
modelacin 1.
no incluan la longitud como entrada. Los re
3
Como puede observarse en la Figura 37 la red tampoco est aprendiendo lo suficiente para
producir resultados satisfactorios como en los casos anteriores, mostrando que la evolucin
del error se vuelve asinttica en muy pocas iteraciones de entrenamiento. De igual manera
la Figura 38 presenta la comparacin del IRI sim
d
122
0 250 500 750 1,000 1,250 1,500 1,750 2,000
10
-6
10
-5
10
-4
10
-2
10
-1
10
0
10
-3
POCAS DE ENTREN
C
O
M
E
7 error con las pocas de entren para l 1 de 2
AMIENTO
E
R
R
O
R
C
U
A
D
R
T
D
I
O
SME=0.146213, OBJ ETIVO=1e-005
I
Figura 3 . Evolucin del amiento a red 3 la modelacin
etapa 1.
y =0.3132x +6.4965
0.2052 R
2
=
0
0 0 12.0 16.
IRI esperad
r
e
Figura 38. Correlacin entre la r y los valores esperados para la m
red 31.
era e ob y T , que ejores resultados se
cuan razn de ap s pequea y la arquitectura es de 10 neuronas en
ra c a y 5 en
El hecho de dividir la base de datos por tramos de longitud (entre 0 y 40 m
, y mayores de 80 m) no genera una tendencia clara y observable en los resultados de las
0.0
0.
2.0
4.0
I
R
6.0
I
c
a
l
c
u
8.
l
a
d
o
p
10.0
o
r
l
a
12.0
d
14.0
16.0
2.0 4.0 6.0 8. 10.0 14.0 0
o
odelacin de la espuesta de la red
De man general s serva en la Tabla 15 abla 17 los m
obtienen do la rendizaje e
la prime apa ocult la segunda.
, entre 40 y 80
m
123
simulaciones. De igual manera al considerar todos los datos y slo por tramos no se ve
tendencia alguna en los resultados en cuanto a los desempeos de las redes creadas y
entrenadas.
ara esta modelacin, si se observa la Tabla 17 en la cual se presentan los resultados
l segmento, presentan resultados
e simulacin mejores que cuando no se tiene en cuenta, mostrando que este parmetro
una incidencia marcada en la determinacin de la rugosidad superficial. Por ejemplo,
conjunto de datos de longitudes entre 40 y 80
m, la primera incluy la vari ongitu o par ro de entrada mientras que la
segunda no. Los resultados m que ra la r fue de 0.21 mientras que para
la red 46 fue de 0.11 lo que indica una me l 90% desempeo de la red al incluir
la longitud.
Aunque los modelos mejoraron su desem specto a las modelaciones anteriores, se
propone ahora realizar otra acin ase s, con el fin de mejorar el
aprendizaje de las redes. Al las acion
medido ya que la lnea sobre l e cal IRI no sariamente atraviesa las fallas
que producen las deformacio perfi Esta cacin ser explicada en la
modelacin 3.
4.2.4 Modelacin 3.
La base datos utilizada en l laci ior f e buscar
mejores resultados. Para ello t po ar u is estadstico de correlacin
entre variables y la creacin e in d , tale la longitud y la suma de las
fallas que generan deformacio perfic n el p to. Los resultados obtenidos
no mejoraron lo suficiente pa r a u elo n l robusto, por lo que en esta
modelacin se opt por norm los d un tra racterstico de 70 m, ya que
en cuenta las caractersticas de la ciudad, una cuadra tpica tendra en promedio
d.
P
discriminados por longitud y por tramos, se puede observar claramente que en los modelos
en los cuales se incluy la variable de entrada longitud de
d
tiene
las redes 31 y 46 fueron entrenadas con el sub
able l d com met
uestran el R
2
pa ed 31
jora de en el
peo re
modific a la b de dato
parecer deform es no son representativas del tramo
a cual s cula el nece
nes su ciales. modifi
a mode n anter ue procesada con el fin d
se op r realiz n anlis
inclus e otras s como
nes su iales e avimen
ra llega n mod eurona
alizar atos a mo ca
teniendo
esta longitu
124
La normalizacin de los datos se realiz a las medidas de deformaciones y al ndice de
las deformaciones en un tramo
aracterstico tpico de los segmentos viales, y valores de IRI escalados a una longitud
promedio tpica. Como anteriormente se expuso la longitud del segmento sobre el cual se
toman medidas para el clculo del IRI tiene incidencia en su determinacin por lo que debe
ser tenida en cuenta. De igual manera que para el IRI, las mediciones de las fallas, y para
nuestro caso de las deformaciones verticales del pavimento, estn relacionadas con la
longitud del tramo en el que se miden ya que estas mediciones se hacen respecto al rea
total del segmento, lo que significa que una longitud muy grande podra arrojar un
porcentaje pequeo de afectacin por deformaciones verticales del pavimento y de manera
contraria, longitudes pequeas podran mostrar pavimentos con deformaciones
considerables. De acuerdo con lo anterior, las variables de entrada a la red para la
modelacin 3 se presentan en la Tabla 18.
Tabla 18. Variables de entrada para las redes de la modelacin 3 etapa 1.
Rugosidad Internacional debido a la influencia que la longitud tiene sobre la medicin de
estos parmetros. Para llevar a cabo este procedimiento se dividi cada parmetro por la
longitud correspondiente al segmento vial y se multiplic por 70.
Con esto se logra tener datos representativos de
c
Variables a utilizar en cada red
Variables para vas de servicio
Redes 56 a
60
Redes 61 a
65
Redes 66 a
70
Redes 71 a
75
Redes 76
a 80
Espesor total del pavimento X
SN: El nmero estructural X X X X
Deformaciones X X X
Longitud del segmento vial X X X
Parcheo +Brechas de servicios X
4.2.4.1 Arquitectura y entrenamiento.
ron para esta modelacin 25 redes tipo perceptrn multicapa con diferentes
arquitecturas y parmetros de entrenamiento. En todos los casos fue utilizado el algoritmo
el gradiente descendente simple con momento y tasa de aprendizaje variable por las
ventajas que l tiene en cuanto que la red puede escapar de los mnimos locales de la
superficie de error y no quedarse atrapada en ellos.
Se crea
d
125
Dentro de las funciones de transferencia se utilizaron las funciones sigmoides tales como la
logsig y tansig del programa matlab, adems de la funcin lineal purelin entre la ltima
capa oculta y la de salida. Las topologas de estas redes se muestran en la Tabla 19:
Tabla 19. Arquitecturas de las redes de la modelacin 3 etapa 1.
Red Arquitectura Funciones de activacin Algoritmo
pocas de
entrenami.
Observaciones
Red 56 3-10-5-2-1 tansig-tansig-tansig-tansig traingdx 15000 Lr=0.005; mc=0.8
Red 57 3-5-1 tansig-tansig traingdx 10000 Lr=0.02; mc=0.8
Red 58 3-20-10-1 tansig-tansig-tansig traingdx 10000 Lr=0.005; mc=0.7
Red 59 3-10-2-1 logsig-logsig-tansig traingdx 10000 Lr=0.01; mc=0.8
Red 60 3-18-12-8-4-2-1
tansig-logsig-tansig-logsig-
tansig-purelin
traingdx 10000 Lr=0.1; mc=0.8
Red 61 3-10-5-2-1 tansig-tansig-tansig-tansig traingdx 15000 Lr=0.005; mc=0.8
Red 62 3-5-1 tansig-tansig traingdx 10000 Lr=0.02; mc=0.8
Red 63 3-20-10-1 tansig-tansig-tansig traingdx 10000 Lr=0.005; mc=0.7
Red 64 3-10-2-1 logsig-logsig-tansig traingdx 10000 Lr=0.01; mc=0.8
Red 65 3-18-12-8-4-2-1
tansig-logsig-tansig-logsig-
tansig-purelin
traingdx 10000 Lr=0.1; mc=0.8
Red 66 2-10-5-2-1 tansig-tansig-tansig-tansig traingdx 15000 Lr=0.005; mc=0.8
Red 67 2-5-1 tansig-tansig traingdx 10000 Lr=0.02; mc=0.8
Red 68 2-20-10-1 tansig-tansig-tansig traingdx 10000 Lr=0.005; mc=0.7
Red 69 2-10-2-1 logsig-logsig-tansig traingdx 10000 Lr=0.01; mc=0.8
Red 70 2-18-12-8-4-2-1
tansig-logsig-tansig-logsig-
tansig-purelin
traingdx 10000 Lr=0.1; mc=0.8
Red 71 2-10-5-2-1 tansig-tansig-tansig-tansig traingdx 15000 Lr=0.005; mc=0.8
Red 72 2-5-1 tansig-tansig traingdx 10000 Lr=0.02; mc=0.8
Red 73 2-20-10-1 tansig-tansig-tansig traingdx 10000 Lr=0.005; mc=0.7
Red 74 2-10-2-1 logsig-logsig-tansig traingdx 10000 Lr=0.01; mc=0.8
Red 75 2-18-12-8-4-2-1
tansig-logsig-tansig-logsig-
tansig-purelin
traingdx 10000 Lr=0.1; mc=0.8
Red 76 2-10-5-2-1 tansig-tansig-tansig-tansig traingdx 15000 Lr=0.005; mc=0.8
Red 77 2-5-1 tansig-tansig traingdx 10000 Lr=0.02; mc=0.8
Red 78 2-20-10-1 tansig-tansig-tansig traingdx 10000 Lr=0.005; mc=0.7
Red 79 2-10-2-1 logsig-logsig-tansig traingdx 10000 Lr=0.01; mc=0.8
Red 80 2-18-12-8-4-2-1
tansig-logsig-tansig-logsig-
tansig-purelin
traingdx 10000 Lr=0.1; mc=0.8
126
Co
va
El teriormente descritas arroj los resultados mostrados en la
mo puede observarse se entrenaron las redes a partir de cinco arquitecturas bsicas
riando slo los parmetros de entradas de la red tal como lo muestra la Tabla 18.
4.2.4.2 Resultados de la modelacin 3.
entrenamiento de las redes an
Tabla 20 al comparar los IRI simulados con los deseados:
Tabla 20. Resultados de la modelacin 3 etapa 1.
RED MSE R
2
Red 56
0.0667
0.278
Red 57
0.0688
0.277
Red 58
0.0672
0.2663
Red 59
0.0686
0.2708
Red 60
0.0674
0.2834
Red 61
0.0335
0.5852
Red 62
0.0332
0.5821
Red 63
0.0323
0.5921
Red 64
0.0351
0.5735
Red 65
0.0315
0.579
Red 66
0.0366
0.5689
Red 67
0.0370
0.5879
Red 68
0.0354
0.5657
Red 69
0.0376
0.573
Red 70
0.0362
0.5708
Red 71
0.0812
0.0123
Red 72
0.0819
0.0122
Red 73
0.0804
0.0120
Red 74
0.0817
0.0125
Red 75
0.0810
0.0120
Red 76
0.0382
0.5519
Red 77
0.0388
0.5681
Red 78
0.0337
0.5023
Red 79
0.0395
0.5462
Red 80
0.0361
0.548
127
De manera general, se observa en la Tabla 20 que los resultados obtenidos en esta
modelacin son mejores que los presentados en las dos modelaciones anteriores indicando
ue la estrategia propuesta mejora el entrenamiento y la respuesta de la red. q
Los mejores resultados fueron presentados para las redes 63 y 67 con coeficientes de
correlacin cercanos al 60%. Estos valores fueron de 0.5921 y 0.5879 respectivamente.
Los grficos donde se muestra la relacin entre el IRI calculado por la red y el esperado,
son presentados en la Figura 39 y Figura 40, y la Figura 41 y Figura 42 se presentan la
evolucin del error en el entrenamiento de los modelos:
y =0.6396x +3.6711
R
2
=0.5921
0.0
5.0
10.0 I
R
15.0
30.0
35.0
.0 10.0 15.0 20.0 2 40.0 45.0
I
c
a
l
c
u
igura 39. Correlacin entre la respuesta de la red y los valores esperados para la modelacin de la
20.0
25.0
l
a
d
o
p
o
r
l
a
r
e
d
0.0 5 5.0 30.0 35.0
IRI esperado
F
red 63.
Como puede observarse en la Figura 39 y la Figura 40, la dispersin de puntos mejor
notablemente frente a los resultados presentados por las redes de las modelaciones 1 y 2.
Los datos se ajustan mejor a una lnea recta con una tendencia creciente y cercanos a una
relacin uno a uno.
128
y =0.5751x +4.1818
R
2
=0.5879
0.0
5.0
10.0
15.0
20.0
25.0
30.0
0.0 5.0 10.0 15.0 20.0 25.0 30.0 35.0
IRI esperado
I
R
I
c
a
l
c
u
l
a
d
o
p
o
r
l
a
r
e
d
Figura 40. Correlacin entre la respuesta de la red y los valores esperados para la modelacin de la
red 67.
0 200 400 600 800 1000 1200 1400 1600 1800 2000
10
-4
10
-1
10
0
10
-3
10
-2
POCAS DE ENTRENAMIENTO
E
R
R
O
R
C
U
A
SME: 0.0323316, OBJ ETIVO:0.0001
igura 41. Evolucin del error con las pocas de entrenamiento para la red 63 de la modelacin 3
D
R
T
I
C
O
M
E
D
I
O
F
etapa 1.
129
0 250 500 750 1,000 1,250 1,500 1,750 2,000
10
-4
10
-1
10
0
10
-3
10
-2
POCAS DE ENTRENAMIENTO
ura 42. Evolucin del error con las pocas de entrenamiento para la red 67 de la modelacin 3
pa 1.
E
R
R
O
M
E
Fig
eta
Analizando todos los resultados obtenidos, se puede decir lo siguiente:
.2714 mientras que el de la modelacin 3 fue de 0.5921 lo que
representa un incremento notable del 118%.
trada fueron la longitud,
el nmero estructural y las deformaciones. El promedio del coeficiente de correlacin
Los resultados obtenidos con los redes 66 a 70 cuyas variables de entrada fueron la
a 80 con entradas longitud y nmero
estructural, fueron similares entre s con promedios del R
2
de 0.57 y 0.55
R
C
U
A
D
R
T
I
C
O
D
I
O
SME: 0.0370644, OBJ ETIVO:0.001
La normalizacin de los datos (IRI y deformaciones) a un tramo caracterstico mejora
notablemente los resultados de la red. El mejor resultado obtenido anteriormente en la
modelacin dos fue de 0
Los mejores resultados se presentaron cuando las variables de en
de las redes entrenadas con estas variables fue de 0.58, similares al mejor resultado.
Las redes 56 a 60 que incluyeron el espesor total, el nmero estructural y las
deformaciones producto del parcheo y brechas de servicios pblicos, tuvieron un
desempeo similar a las de la modelacin 2 con un promedio del R
2
de 0.27, mostrando
la influencia que tiene la longitud en el problema.
longitud y las deformaciones, y con las redes 76
respectivamente. Estos resultados muestran que tanto el nmero estructural como las
deformaciones del pavimento influyen directamente en la prediccin del IRI, teniendo
130
una influencia mayor las deformaciones que el nmero estructural. La combinacin de
ados.
Para las redes 71 os ob l considerar el IRI
una funcin slo del nme tural defo iones do c o la mayor
influenc en el I la tiene l ongitu gm ial a e da ados en
vas de servicio de la ciudad.
En todos los casos los mejor resulta dieron cuando se incluy la longitud y se
normalizaron los s tal com e exp i .
En los resultados no se obser una te cl cuant asa d dizaje y
el mom o usad n el alg mo de am Los os p mejorar
cuando se utilizan razones de aprendizaje pequeas del orden de 0.02.
Para los errores cuadrticos ios (S o s ntra cin directa con los
coefici de correlacin R Comp to resu e las laciones
realizadas, un valor pequeo del SME no necesariamente produce valores altos del
coefici
Los resultados obtenidos en es model ej nota e co trategia
tilizada, la cual consisti en normalizar los datos del ndice de Rugosidad Internacional y
egmentos viales en vas de servicio. A partir de estos resultados se
ncuentra un camino para la consecucin de los objetivos de esta investigacin, es decir, se
e
para el problem
La lnea de trabajo para la solucin del
n
la
estos dos parmetros junto con la longitud ha arrojado los mejores result
a 75 los resultad tenidos fueron bastante malos a
ro estruc y las rmac , mostran m
ia RI a l d del se ento v partir d tos tom
es dos se
dato o s lic anter ormente
va ndencia ara en o a la t e apren
ent os e orit entren iento. resultad arecen
med ME) n e encue una rela
entes
2
. arando dos los ltados d mode
ente de correlacin.
ta acin m oraron blement n la es
u
las deformaciones a un tramo caracterstico de 70 m, que puede ser un buen promedio de
las longitudes para los s
e
encontr la lnea de trabajo a travs de la determinacin de las variables adecuadas para la
pr diccin del IRI, por lo que la etapa siguiente consiste en hallar una arquitectura ptima
a planteado.
4.3 ETAPA 2 DE MODELACIN
etapa 1 de modelacin tena como objetivo prever la
problema a resolver, ms que buscar la mejor arquitectura. En esta etapa se determin el
mero y tipo de variables de entrada y salida. La etapa 2 de modelacin busca determinar
topologa ms adecuada para que el modelo neuronal logre aprender a partir de los
ejemplos presentados y sea capaz de generalizar para datos no propuestos en la etapa de
entrenamiento.
131
Es
ne
de
me aprendizaje, facilidad de implementacin y
mo
.3.1 Arquitecturas y entrenamiento.
mundo de posibilidades de arquitecturas a entrenar tal
omo se presenta en la Tabla 21.
Tabla 21. Matriz de posibilidades para la creacin de las redes.
pecficamente, esta etapa busca determinar el nmero de capas ocultas y nmero de
uronas por capa, as como tambin de las funciones de activacin a utilizar y el algoritmo
entrenamiento ptimo. Definir la arquitectura ptima para un problema especfico
requiere de pruebas de ensayo y error ensayando diferentes arquitecturas hasta obtener las
jores caractersticas en trminos de
capacidad de generalizacin (Martnez, 2006). La base de datos utilizada fue la misma de la
delacin 3 de la etapa 1.
4
Con el fin de encontrar la arquitectura ptima, y basados en las modelaciones anteriores, se
realiz una matriz mostrando el
c
N de capas ocultas 1 2
N de neuronas x capas
0 / 5 / 10 / 15 / 20 / 25 0 / 5 / 10 / 15 / 20 / 25
Funciones de activacin
Logsig-tansig-purelin
Algoritmos de entrenamiento
Gradiente simple (1), Gradiente con momento (1) y Gradiente
conjugado (2)
La combinacin de los parmetros nmero de capas ocultas, nmero de neuronas por capa,
funciones de activacin y algoritmos de entrenamiento generan las posibilidades de
arquitecturas a entrenar. Se defini trabajar con mximo dos capas ocultas ya que al tener la
red una sola salida, sta debe estar en capacidad de aprender las condiciones del problema y
la relacin entre variables (Haykin, 2001). Se tuvo en cuenta adems, que en las
ncin de activacin lineal purelin fue utilizada entre la
ltima capa oculta y la salida, y las funciones sigmoides tansig y logsig entre la capa de
entrada y la primera oculta y entre las dos ocultas si es del caso. La siguiente figura
modelaciones realizadas el aumento del nmero de capas ocultas no mejoraba el
desempeo de la red. La fu
e
a
la 1
and
a r
esul
ren
satis
a y
acto
imu
os.
e SN, las d for aciones longitud
C n el fin de bu car una ejo resp esta los modelos, se crearo
de entrada las deformaciones, la longitud y se incluy tanto el trn como el nmer
s eva e tructural. El v lor promedio del c efic te de correlacin R
2
par
en la etapa de generalizacin fue de 0.7
Figura 54, y se present
ajuste del 0.73 lo que repres nta n in
(R
2
=0.57), n 1 % respe to a modelo 1 e esta etapa (R
2
=0.63), y
modelacin 2 de esta mis a e apa ( =0 67).
mucho mejores que los obtenidos en las tres etapas de modelacin anteriormente
explicadas. La comparacin de los resultados calculados por la red y los reales para la
etapa de generalizacin se muestran en la Figura 54. En ella se muestra que los
resultados se ajustan moderad
156
datos presentados en este rango hacen que el proceso de aprendizaje no sea el mejor en
.
Hasta ahora, el mejor modelo neuronal obtenido en esta investigacin se presenta para
una red tipo perceptrn multicapa, la cual consta de una capa de entrada con cuatro
variables entre las cuales se tienen las deformaciones, el trfico, el nmero estructural y
la longitud, incluyendo en las deformaciones a su vez los baches o huecos, el
amiento, los hundimiento, los abultamientos, las corrugaciones, el parcheo y las
ios pblicos; adems cuenta con una capa oculta con quince neuronas y
la capa de salida que es el ndice de Rugosidad Internacional. Las funciones de
activacin ms adecuadas fueron la funcin tangente hiperblica tansig entre la capa
de entrada y la oculta
El algoritmo de aprendizaje utilizado es el de retropropagacin de error. El ptimo
encontrado fue el de gradiente conjugado escalado cuya funcin en matlab es llamada
trainscg. Este algoritmo es mucho ms poderoso que el de gradiente simple y el
gradiente con momento, aunque el tiempo de aprendizaje es un poco mayor ya que la
idad de convergencia es ms lenta, no siendo esto significativo en la solucin del
Si se observa la gran div
pendiente, y los diferen
relacin entre las variabl plejidad.
Es razonable, en tanto, pensar en el uso de otra tcnica de entrenamiento para que el
modelo neuronal pueda aprender de manera generalizada la relacin de variables con el IRI.
y con el fin de facilitar el proceso de aprendizaje divide la base de datos de
to en tres fracciones consecutivas, donde cada una incorpora los datos de la
anterior y unos nuevos. La red neuronal es entrenada entonces con diferentes subconjuntos
de la base de datos de manera sucesiva y usando el modo por lotes, alternando
peridicamente procesos de entrenamiento y valid cin. Este mtodo de subdivisin
permite a la red potenc
cuando es obligada a asimilar directamente la totalidad de la base de datos (Pernot &
Lamarque, 1999).
este subespacio del dominio
ahuell
brechas de servic
, y la lineal purelin entre la oculta y la salida.
veloc
problema.
ersidad de vas, la variedad de cargas (trnsito), la topografa y la
tes tipos de materiales de los pavimentos estudiados, as como la
es, el problema puede ser calificado como de alta com
Para ello, , se
entrenamien
a
ializar mejor su capacidad de aprendizaje, cosa que no sucede
157
Se to el mejor modelo neuronal n de esta tcnica de
entrenamiento, y para ello se dividi la base de datos utilizada en la modelacin 4 de la
etapa 4 de acuerdo con los siguientes criterios:
Primer conjunto de entrenamiento: contiene los datos que son difciles de aprender para
elo neuronal.
junto de entrenamiento: contiene los datos del primer conjunto y los
ejemplos que tienen complejidad media para ser aprendidos.
Tercer conjunto de entrenamiento: contiene los ejemplos del conjunto anterior y los
datos que son fciles
De esta manera siempre son presentados al modelo neuronal los ejemplos que son ms
difciles de aprender potencializando su capacidad de aprendizaje. Para dividir la base de
datos se simul el mejor modelo con el conjunto de entrenamiento, obteniendo un
coeficiente de correlacin de 0.638 tal como se muestra en la Figura 55, y en la cual se
n tres zonas a partir del mejor ajuste lineal. La primera zona, comprendida entre
, corresponde a los ejemplos fciles de aprender y tienen una desviacin de
una unidad hacia arriba y hacia abajo, respecto al m jor ajuste lineal. La segunda zona,
comprendida entre las l
dificultad media para se
dos. La tercera zona comprende los datos que estn por fuera de las zonas anteriores e
involucra los ejemplos difciles de aprender, es decir, los que presentan una desviacin
mayor que tres respecto a la recta del mejor ajuste.
o total de ejemplos para el conjunto de entrenamiento es de 2191 y despus de la
acin respecto a las zonas mostradas en la Figura 55, se tiene que 762 datos son
fciles de aprender correspondiendo al 35%, 620 tienen una complejidad media con el 28%
de los ejemplos, y 809 datos son clasificados como
37% del total.
Se procedi a entrenar otra vez la red 3 con la arquitectura descrita en las modelaciones
anteriores y su posterior validacin. Los resultados obtenidos utilizando esta tcnica de
entrenamiento no mejoraron respecto a la tcnica convencional en donde se presenta todo el
m entonces obtenido para la aplicaci
el mod
Segundo con
de aprender para la red neuronal.
definiero
las lneas verdes
e
neas rojas y verdes, corresponde a los datos que presentan una
r aprendidos y tienen una desviacin mayor que uno y menor que
El nmer
caracteriz
difciles de aprender relacionando el
158
conjunto de datos en el entrenamiento. El c R
2
) obtenido fue de
0.68 siendo este menor a 0.73 que corresponde a la mejor modelacin obtenida.
oeficiente de correlacin (
Simulacin con el conjunto de entrenamiento
y =0.6461x +2.8191
R
2
=0.638
0.0
0.0
5.0
10.0
15.0
20.0
30.0
5.0 10.0 15.0 20.0 25.0 30.0
I
R
I
s
i
m
u
l
a
d
o
p
o
r
l
a
r
e
d
25.0
IRI deseado
Zona 3. Ejemplos difciles de aprender
Zona 2. Ejemplos con dificultad media de aprender
Zona 1. Ejemplos fciles de aprender
zonas para el entrenamiento por lotes. Simulacin con los datos de
de la modelacin 4 etapa 4.
Figura 55. Definicin de
entrenamiento para la red 3
Los resultados alcanzados no son satisfactorios con los modelos neuronales creados y
entrenados con las tcnicas descritas anteriormente, por lo que se us otro tipo de redes
neuronales llamadas redes de base radial. Este tipo de redes se caracteriza por tener un
aprendizaje o entrenamiento hbrido. La arquitectura de es s redes se caracteriza por la
res capas: una de entrada, una nica capa oculta y una capa de salida.
Las funciones de base radial tienen todas ellas un carcter local pues son funciones que
alcanzan un nivel cercan
prximo al centro de la
funcin va tendiendo al
redes de neuronas de base radial son, por tanto, una combinacin lineal de gaussianas, cada
una de las cuales se activa para una determinada porcin del espacio definido por los
patrones de entrada.
ta
presencia de t
o al mximo de su recorrido cuando el patrn de entrada X(n) est
neurona. A medida que el patrn se aleja del centro, el valor de la
valor mnimo de su recorrido (Haykin, 2001). Las salidas de las
159
Figura 56. Aproximacin d
Se cre y entren una
anteriormente para la e utilizar este tipo de redes
mpoco mejoraron el desempeo de los modelos consiguiendo un coeficiente de
tulo siguiente.
e una funcin bidimensional mediante funciones gaussianas.
red de funcin de base radial con los mismos ejemplos descritos
tapa 4. Los resultados obtenidos al
ta
correlacin (R
2
) de 0.59, el cual es inferior a los obtenidos con redes tipo perceptron de
mltiples capas con algoritmo de entrenamiento de retropropagacin de error.
Dado que las estrategias utilizadas no han mejorado el desempeo de los modelos
neuronales se procede a realizar una etapa de validacin de la base de datos en el campo, la
cual ser explicada en el cap
160
5. VERIFICACIN
p
diferentes modelos neuronales s. Para ello se tuvo en
uenta diferentes estrategias de entrenamiento, diversas arquitecturas, anlisis de
.1 VERIFICACIN DE CAMPO
Al e fue utilizada en la etapa 4 de
anterior y para la cual se obtuvo el mejor resultado en la etapa de
va cias las cuales se fundamentan en:
s confunde el aprendizaje de los modelos neuronales al introducir informacin
contradictoria. Este caso podra realmente darse, si se hubiera tenido en cuenta el
s de lo anterior, es de tener en cuenta que la medicin del nivel de daos tomada
por el SAV fue realizada mediante levantamiento directo en camp. Estas mediciones
El ca tulo anterior mostr todo el proceso utilizado para la creacin y el entrenamiento de
obteniendo resultados aceptable
c
alternativas en cuanto a las variables de entrada y dos tipos de redes neuronales. Al no
encontrar resultados adecuados se procede a realizar una etapa de verificacin de campo de
la base de datos en campo, con el fin de corroborar la confiabilidad de la informacin y la
cual es presentada a continuacin.
5
analizar la base de datos para las vas arterias qu
modelacin del captulo
lidacin, se pudo encontrar dos tipos de inconsisten
Valores de IRI altos con daos bajos o casi nulos, lo cual es contradictorio ya que el
fenmeno fsico indica que cuando el ndice de Rugosidad Internacional es alto, es
porque se tienen deformaciones verticales considerables en el pavimento. Este tipo de
ejemplo
levantamiento, en la zona de medicin del IRI, de los elementos de las redes de
servicios pblicos tales como las cmaras de inspeccin de alcantarillado (MH), las
cmaras de telfonos y las vlvulas de acueducto, los cuales generan incomodidad en los
pasajeros y son causa de irregularidades en los pavimentos de las vas de la ciudad.
Adem
tiene un factor de subjetividad alto.
161
Valores de IRI bajo con nivel daos alto. Este caso tambin presenta informacin
contradictoria a los modelos neuronales ya que las deformaciones en el pavimento
necesariamente conlleva a tener medidas altas del IRI.
De acuerdo se esc riamente 20 s
cum lieran estas condiciones para acin. La Tabla 39 presenta las
ca rs slo 10 vas que fueron validadas en el terreno de acuerdo con la
informacin del SAV.
Tabla 39. Caractersticas de las vas verificadas en campo.
con lo explicado, ogieron aleato
realizar la valid
egmentos viales que
p
racte ticas de
N
o
.
I
D
_
O
P
L
O
N
G
.
N
S
N
D
E
F
I
R
I
DIRECCIN OBSERVACIN
1 2000346 23 1971397 3.0 0.30 8.9 CR 52 X CL 12 SUR Y 13 SUR
2 2001349 29 462579 2.7 0.24 9.5 CR 83 X CL 91AA Y 91B
3 3000035 61 461915 3.6 5.69 8.8 CR 66B X CL 35A Y 36
4 2000375 28 2699170 4.4 2.99 9.9 CR 65 X CL 103EE Y 103F
5 2000412 30 539696 5.0 0.00 9.8 CR 78 X CL 100B Y 100C
6 3000192 107 779399 6.4 1.04 15.0 CR 29 X CL 6 Y 7
7 2000349 60 1971397 3.4 1.82 7.3
CR 52 X CL 10 SUR Y 10B
SUR
8 2001593 80 269876 4.7 0.00 13.1 CL 104 X CR 72A Y CR 74
IRI ALTO-DEF
BAJA
9 2001191 127 974221 2.1 36.4 3.5 CL 12 SUR X CR 11 Y 11+200
10 2000018 69 1089038 3.8 89.1 5.4 CR 48 X CL 24 Y 25
IRI BAJO- DEF
ALTA
Estas caractersticas fueron verificadas en campo a travs de una inspeccin visual,
prestando especial inters en el rea afectada por fallas en el pavimento y el tipo de dao
presente. La Tabla 40 muestra un resumen de lo encontrado en el terreno para los
segmentos viales de la Tabla 39.
162
Tabla 40. Validacin de campo.
DIRECCIN VALIDACIN DE CAMPO
CR 52 X
CL 12 SUR Y 13 SUR
Observaciones: A diferencia de lo presentado por el SAV esta va muestra
irregularidades considerables en su longitud producto de hundimientos y
parcheos; es una va plana y de alto trfico vehicular.
CR 83 X
CL 91AA Y 91B
Observaciones: Esta va presenta una alta pendiente, es ruta de buses y presenta
fallas en la mayor parte de su rea, la cual est dada por hundimiento en la red
de alcantarillado, grietas transversales, abultamientos y parcheos. Estas reas
suman ms del 0.24% del rea que es lo que presenta el SAV.
CR 66B X
CL 35A Y 36
Observaciones: La va es plana con fallas localizadas; presenta parcheos y
brechas que generan irregularidades en el pavimento.
163
DIRECCIN VALIDACIN DE CAMPO
CR 65 X
CL 103EE Y 103F
Observaciones: Es una va con una pendiente muy baja y de corta longitud; es
ruta de buses y presenta una afectacin considerable en ms del 30% del rea
por brechas de servicios pblicos generando deformaciones en el pavimento. Se
encuentran hundimientos en parches y apiques, y las brechas estn falladas.
CR 78 X
CL 100B Y 100C
Observaciones: La va se encuentra en excelentes condiciones tanto funcionales
como estructurales; no se observan daos, slo un resalto y una cmara de
telfono.
CR 29 X
CL 6 Y 7
Observaciones: Tiene una pendiente considerable; la va est en buen estado y
no presenta parcheos de ningn tipo. Se observan algunos MHs y cajas de
vlvulas.
164
DIRECCIN VALIDACIN DE CAMPO
CR 52 X
CL 10 SUR Y 10B SUR
Observaciones: Esta va es plana y de alto trfico vehicular; presenta
irregularidades en los cruces con la presencia de brechas, MHs, cmaras de
telfono y parcheos, generando irregularidades en el pavimento.
CL 104 X
CR 72A Y CR 74
Observaciones: Es una va con pendiente media, en la cual se tienen dos
resaltos; las fallas son considerables y se observan grietas longitudinales y
transversales en toda su longitud, agrietamiento en bloque localizados; no se
observan irregularidades pronunciadas.
CL 12 SUR X
CR 11 Y 11+200
Observaciones: Es una va con pendiente alta y tiene una brecha de acueducto
en buen estado; presenta unos reductores de velocidad que a pesar de no ser
fallas del pavimento, s generan incomodidad y deformaciones verticales en
ste.
165
DIRECCIN VALIDACIN DE CAMPO
CR 48 X
CL 24 Y 25
Observaciones: El SAV la muestra como una va en pavimento flexible, pero la
realidad es que es pavimento rgido en ambos costados; se observan algunos
parcheos elaborados en pavimento flexible y las juntas entre placas estn
selladas; se nota que la va en algn momento tuvo un slurry (arena asfalto) pero
actualmente ste se encuentra descascarado.
La Tabla 40 muestra claramente que los datos suministrados por el Sistema de
Administracin Vial para los segmentos visitados, no coinciden con lo observado en
campo. En los primeros casos se observa que el pavimento presenta un nivel de daos
mucho ms alto que lo mostrado en la base de datos. En cuanto al IRI se observa que las
vas si exhiben irregularidades considerables producto de las deformaciones superficiales
presentes en el pavimento.
Otro tipo de inconsistencias fueron encontradas durante las inspecciones de campo. Por
ejemplo la ltima direccin era clasificada como pavimento flexible siendo esta realmente
rgido, adems se observ que este segmento vial no tiene un rea tan alta afectada por
fallas (89%) como lo muestra el SAV, siendo la afectacin real menor al 25% del rea.
Adems de lo anterior, podra decirse que el IRI puede ser mucho mayor debido a las
irregularidades que se producen en las juntas de las placas al existir escalonamiento.
Es importante resaltar de lo observado en campo que algunos elementos no fueron tenidos
en cuenta en el inventario de las vas. Entre estos tenemos las cmaras de inspeccin para
telecomunicaciones y alcantarillado, las cajas de vlvulas para el acueducto, los resaltos y
los reductores de velocidad, los cuales evidentemente causan incomodidad en los viajes
debido a las deformaciones producidas al intervenir la malla vial.
166
Por lo anterior, se realizar una depuracin de la base de datos con el fin de eliminar el
ruido presente y poder optimizar el aprendizaje de la red a travs de informacin coherente.
5.2 BASE DE DATOS, ENTRENAMIENTO Y VALIDACIN DE UN NUEVO
MODELO NEURONAL
El Instituto Nacional de Vas INVIAS (2004) define los siguientes rangos para el ndice
de Rugosidad Internacional: IRI alto para valores mayores a 5 m/km, valores medios entre
3 y 5 m/km, e IRI bajos para valores menores a 3 m/km. De acuerdo con esta clasificacin
se pueden definir dos combinaciones que generan ruido a los ejemplos de aprendizaje por
ser informacin contradictoria, para lo cual se tiene:
IRI alto: 6-15 m/km.
Nivel de daos bajo: menor al 10% del rea de la va.
IRI bajo: 0-3 m/km.
Nivel de daos alto: rea afectada mayor al 20%.
Estas posibles combinaciones de parmetros podran ser la causa del pobre aprendizaje de
los modelos neuronales creados y entrenados en el captulo anterior, por lo que se procede a
la eliminacin de estos ejemplos de la base de datos con el fin de evaluar otro modelo
neuronal.
La base de datos utilizada es la de las vas arterias con la que se obtuvo los mejores
resultados en el captulo de modelacin. El nmero de datos iniciales es de 2680 y despus
de la depuracin la base queda en 1840. La mayora de los datos depurados estn en la
categora de IRI alto y nivel de daos bajo. Para el entrenamiento de los modelos se tom
el 75% de los datos (1380) y el 25% (460) para analizar la capacidad de generalizacin de
las red.
En esta seccin slo se analizar el desempeo de los dos mejores modelos neuronales
encontrados en la etapa 4 de modelacin. Las arquitecturas de estas redes son presentadas
en la Tabla 41. Las variables utilizadas son el trfico, las deformaciones, la longitud y el
167
nmero estructural. El IRI y las deformaciones fueron normalizados a un tramo de 70 m
como se explic anteriormente.
Tabla 41. Arquitecturas para los modelos neuronales. Captulo validacin de campo.
ARQUITECTURA
FUNCIONES DE
TRANSFERENCIA
OBSERVACIONES
RED CAPA 1 CAPA 2 0 a 1 1 a 2 2 a salida Algoritmo Parmetros
1 5 0 Logsig ------ Purelin trainscg ------
3 15 0 Tansig ------ Purelin trainscg ------
Despus de entrenar y simular los dos modelos neuronales con el conjunto de datos de
generalizacin, los resultados obtenidos son bastante satisfactorios al presentar coeficientes
de correlacin (R
2
) de 0.8402 y 0.8193 para las redes 1 y 3 respectivamente, tal como se
presenta en la Figura 57 y la Figura 58.
y =0.8706x +0.5849
R
2
=0.8402
0.0
5.0
10.0
15.0
20.0
25.0
30.0
0.0 5.0 10.0 15.0 20.0 25.0
IRI deseado
I
R
I
C
a
l
c
u
l
a
d
o
p
o
r
l
a
r
e
d
Figura 57. Correlacin entre la respuesta de la red y valores esperados para la modelacin de la Red
1 en la etapa de validacin.
Los resultados obtenidos tambin fueron clasificados de acuerdo con la escala 2 explicada
en la Tabla 32 de la etapa 3 de modelacin, y en la cual se muestran 4 categoras del IRI de
168
acuerdo con la velocidad de circulacin de los vehculos como se explic en esa seccin. El
resumen de esta categorizacin es mostrada en la Tabla 42.
y =0.8724x +0.5958
R
2
=0.8193
0.0
5.0
10.0
15.0
20.0
25.0
30.0
0.0 5.0 10.0 15.0 20.0 25.0
IRI esperado
I
R
I
c
a
l
c
u
l
a
d
o
p
o
r
l
a
r
e
d
Figura 58. Correlacin entre la respuesta de la red y valores esperados para la modelacin de la Red
3 en la etapa de validacin.
Tabla 42. Resultados de la categorizacin de la simulacin en la etapa de validacin.
CATEGORAS 1 2 3 4
I RI 0-6 6-9 9-12 >12
TOTAL
# DATOS 352 71 28 9 460
# DATOS ACERTADOS 328 27 10 7 372
RED 1
% ACIERTOS 93% 38% 36% 78% 81%
# DATOS ACERTADOS 328 25 6 5 364
RED 3
% ACIERTOS 93% 36% 21% 56% 79%
De los resultados obtenidos por los dos modelos neuronales creados y entrenados en la
etapa de validacin, lo cuales son presentados grficamente en la Figura 57 y la Figura
58, se puede observar que los datos se ajustan adecuadamente a una lnea recta
alcanzando altos coeficientes de correlacin (R
2
= 0.84 y 0.82 respectivamente), lo que
indica que los modelos tienen una capacidad de prediccin adecuada. En trminos
169
generales se puede decir que los errores de simulacin son menores a los de los modelos
anteriores.
Respecto al mejor modelo del captulo anterior (R
2
=0.73) se observa una evolucin
importante en las redes ya que se presenta un incremento del 15% y del 12% en los
coeficientes de correlacin de las redes 1 y 3 respectivamente.
La Tabla 42 muestra que los resultados de la categorizacin son buenos dando aciertos
en el 81% de los casos para la red 1 y el 79% para la red 3 mostrando que los modelos
son robustos para la prediccin del ndice de Rugosidad Internacional.
Los resultados muestran que el mejor modelo neuronal (red 1) obtenido en esta
investigacin se presenta para una red tipo perceptrn multicapa con una capa de
entrada, una oculta y una de salida. Las variables de entrada presentadas al modelo en su
respectivo orden fueron la longitud, el trfico, el nmero estructural y las deformaciones
incluyendo estas ltimas a su vez los baches o huecos, el ahuellamiento, los
hundimiento, los abultamientos, las corrugaciones, el parcheo y las brechas de servicios
pblicos. Este modelo se denominar Modelo Neuronal 1 y su topologa es mostrada en
la Figura 59.
Figura 59. Arquitectura del Modelo Neuronal 1 (red 1).
De la Tabla 43 a la Tabla 46 se presentan los valores de los parmetros libres del Modelo
Neuronal 1 (red 1) agrupados en dos matrices de pesos y dos vectores de bias. Una primera
matriz de 4 x 5 elementos que conecta las entradas de la red con la capa oculta, una matriz
de 5 x 1 que conecta la capa oculta con la capa de salida. Un primer vector de bias de 5
elementos y el segundo de 1.
170
Tabla 43. Matriz de pesos 1 de la red 1.
4 x 5 1 2 3 4 5
1 -1.43800 -16.28070 -16.19780 7.94070 30.38560
2 -0.12218 0.59882 0.61315 11.82950 -0.95019
3 6.32290 0.45411 0.39846 2.23460 0.55047
4 -6.40330 -12.86060 -10.92470 -6.74310 -1.38070
Tabla 44. Matriz de pesos 2 de la red 1.
5 x 1 1
1
3.18120
2
-1.92090
3
1.96980
4
-0.11328
5
-4.23520
Tabla 45. Vector de bias 1 de la red 1.
1 x 5 1 2 3 4 5
1
7.21290 2.39480 2.42200 -0.61972 2.31670
Tabla 46. Vector de bias 2 de la red 1.
1 x 1 1
1 1.18450
La Figura 60 presenta la correlacin de cada una de las variables del Modelo Neuronal 1
con el IRI mostrando que tanto el nmero estructural, como la longitud y el trfico tienen
una relacin negativa con la regularidad, y las deformaciones una relacin positiva. Lo
anterior se encuentra acorde con el fenmeno fsico menos lo que sucede con la variable
trfico, ya que se espera que cuando aumente el trfico, el IRI tambin lo haga. Esto puede
indicar que para la configuracin de la base de datos analizada, esta variable introduce
ruido al modelo ya que est mostrando una relacin contraria a la esperada y adems es la
que presenta una menor correlacin con el IRI. Este fenmeno podra indicar que cuando
las vas presentan un mayor trfico, stas tienen mejores mantenimientos y especificaciones
por parte de las entidades competentes por ser, en general, rutas de buses.
171
-0.5712
0.5891
-0.0466
-0.1433
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
L N SN DEF
VARIABLES DE ENTRADA
C
O
E
F
I
C
I
E
N
T
E
C
O
R
R
E
L
A
C
I
N
Figura 60. Correlacin entre las variables de entrada del Modelo Neuronal 1 y el IRI.
Con el fin de analizar la incidencia del trfico en el desempeo del modelo anterior se
realiza el entrenamiento de la misma red neuronal incluyendo slo como variables de
entrada la longitud, el nmero estructural y las deformaciones. Los datos de entrenamiento
y validacin fueron los ya depurados tal como se explic anteriormente.
La Figura 61 presenta los resultados de esta nueva modelacin obteniendo como coeficiente
de correlacin (R
2
) 0.81, siendo este valor un poco inferior al obtenido con la inclusin del
trfico. Estos resultados son adecuados para la prediccin del IRI por lo que este modelo
tambin ser tenido en cuenta como resultado de esta investigacin y es denominado
Modelo Neuronal 2.
A diferencia del Modelo Neuronal 1, este modelo no incluye como variable de entrada el
trfico hacindolo mucho ms simple y prctico al tener que realizar menos mediciones.
Adems se debe de tener en cuenta que, de acuerdo con lo explicado anteriormente, el
trfico no es muy representativo en los resultados finales y tiene una incidencia contraria en
el IRI segn lo observado en el fenmeno fsico.
172
y =0.877x +0.602
R =0.813
0
2
4
6
8
10
12
14
16
18
20
0 2 4 6 8 10 12 14 16 18 20
I
R
I
c
a
l
u
l
a
d
o
p
o
r
l
a
r
e
d
IRI esperado
Figura 61. Correlacin entre la respuesta de la red y valores esperados para la modelacin de la Red
1 en la etapa de validacin, sin incluir la variable trfico.
De acuerdo con lo anterior, se presenta el Modelo Neuronal 2 como el ms prctico y
adecuado para la estimacin del IRI en vas arteras con pavimentos flexibles de la ciudad
de Medelln. Este modelo es un perceptrn multicapa que consta de una capa de entrada
con tres variables, una capa oculta con cinco neuronas y una salida que es el IRI. La
longitud, el nmero estructural y las deformaciones que incluyen las fallas que forman las
deformaciones verticales, son dichas variables de entrada, y el algoritmo de entrenamiento
adecuado es el gradiente conjugado. Las matrices de pesos y los bias del Modelo Neuronal
2 son presentados en las siguientes tablas.
Tabla 47. Matriz de pesos 1 del Modelo Neuronal 2.
4 x 5 1 2 3 4 5
1 -1.1238 -42.241 5.0349 0.82983 2.1441
2 -8.6427 -1.9014 0.35238 -0.07725 6.0921
3 -3.0933 0.72206 -8.4371 14.684 -11.203
Tabla 48. Matriz de pesos 2 del Modelo Neuronal 2.
5 x 1 1
1 -0.41874
2 8.3393
3 -1.905
4 -1.4064
5 1.6679
173
Tabla 49. Vector de bias 1 del Modelo Neuronal 2.
1 x 5 1 2 3 4 5
1 11.9072 -2.4165 2.4231 -4.8788 10.5356
Tabla 50. Vector de bias 2 del Modelo Neuronal 2.
1 x 1 1
1 0.67021
Debido a que las redes neuronales tienen buena capacidad para interpolar mas no para
extrapolar (Haykin, 2001), se definen a continuacin los rangos restrictivos para las
variables de entrada de los modelos:
Longitud (m): [10.40-530.8]
Nmero Estructural SN: [1.3-10.3]
Deformaciones (% rea afectacin): [0-100]
Trfico N dependiendo del modelo- (N ejes equivalentes) : [47294-3949981]
De acuerdo con la Figura 60 y Figura 61 se observa que los dos modelos neuronales
creados y entrenados presentan buenos ajustes para valores del IRI entre 1 y 12 m/km, por
lo que se propone este rango para su uso.
Con el objeto de conseguir una fcil aplicacin de los modelos finales, se desarrolla una
herramienta en Excel anexa a este trabajo, la cual permite estimar el ndice de Rugosidad
Internacional en pavimentos flexibles para las vas arterias de Medelln a partir de las
variables de entrada ya mencionadas. Es de anotar que los modelos presentan algunas
limitaciones debido a las inconsistencias encontradas en las bases datos presentadas por el
SAV.
174
6. CONCLUSIONES
En esta tesis fueron mostrados de manera detallada, cada uno de los pasos seguidos en el
proceso de creacin, entrenamiento y validacin de un modelo neuronal capaz de
realizar satisfactoriamente la prediccin del IRI en pavimentos flexibles de las vas
urbanas de Medelln, a partir de datos de la estructura del pavimento, las fallas y la
longitud. El modelo escogido fue un perceptrn multicapa cuyo proceso de
entrenamiento fue realizado con el algoritmo del gradiente conjugado. La depuracin de
la base de datos, el anlisis de las variables y la validacin de campo fueron factores
claves en la obtencin de los resultados, mostrando que un perceptrn adecuadamente
entrenado puede realizar tareas complejas como el reconocimiento de patrones en un
conjunto de datos.
Las variables de entrenamiento ms adecuadas para la prediccin del IRI por medio de
RNA fueron: el nmero estructural (funcin de la estructura del pavimento); las fallas
del pavimento en especial las que producen deformaciones verticales tales como los
abultamientos, los ahuellamientos, las corrugaciones, los baches o huecos y el parcheo
de fallos y de redes de servicios pblicos; la longitud del segmento evaluado; y las
cargas aplicadas (el trnsito) para el modelo alterno, mostrando que estos resultados
estn acordes con la literatura revisada.
Con el fin de encontrar una arquitectura ptima para la solucin del problema planteado,
se entrenaron una gran cantidad de redes neuronales variando el nmero de neuronas por
capa, el nmero de capas ocultas, las funciones de transferencia y los algoritmos de
entrenamiento. La base de datos fue la recolectada para las vas arterias de la ciudad con
un total de 1840 registros. Con esto y con la depuracin de las variables y la base de
datos a travs de un proceso de verificacin de campo, el desempeo de los modelos
neuronales mejoraron notablemente presentando simulaciones con resultados
satisfactorios para la estimacin del IRI en pavimentos flexibles con el objeto de
priorizar el mantenimiento de las vas. La arquitectura de la red y el algoritmo de
entrenamiento ptimo, en general, son difciles de establecer requiriendo de un proceso
largo de ensayo y error.
El CBR parece, segn la estructura de los datos, no tener ninguna relacin en la
prediccin del IRI ya que presenta una correlacin de cero, lo que no se adecua al
fenmeno fsico, mostrando indicios de que la base de datos no es confiable.
175
El trfico en las vas arterias, a diferencia de las vas de servicio y las colectoras,
presenta una distribucin de puntos alrededor de 1 milln de ejes equivalentes, con alta
concentracin de puntos para trfico medio y bajo. Esto indica para este tipo de vas, se
tiene una mejor distribucin de los datos del trnsito variando desde trfico bajo hasta
trfico alto.
Los modelos neuronales creados, a pesar de tener una buena capacidad de prediccin,
presentan limitaciones en su uso debido a las mltiples inconsistencias e imprecisiones
encontradas en las bases de datos del Sistema de Administracin Vial en cuanto a los
parmetros medidos en campo tales como los daos en la estructura del pavimento, la
subrasante (CBR), el trfico y el IRI.
La estimacin del IRI a partir de las redes neuronales artificiales es un problema
bastante complejo por la cantidad de variables que intervienen y por la relacin existente
entre ellas. El espacio multidimensional generado por estas variables y el IRI est por
fuera de nuestra comprensin y visualizacin, pero las RNA son capaces de extraer estas
caractersticas para predecir aceptablemente la rugosidad de los pavimentos. La
capacidad de generalizacin de los modelos presentados son aceptables. El mejor
resultado encontrado en cuanto al coeficiente de correlacin fue de 0.84, mostrando que
las redes neuronales funcionan bien para el problema planteado con datos
completamente diferentes e independientes a los presentados en la etapa de
entrenamiento.
El xito de la implementacin de un modelo neuronal depende no slo de la calidad de
los datos usados en el entrenamiento del modelo sino tambin del tipo de topologa de la
red neuronal escogida, el algoritmo de entrenamiento utilizado y la manera como los
datos entrada y salida son analizados y procesados. La base de datos debe ser extensa y
apropiada de tal forma que sea representativa de las condiciones estructurales y
funcionales del pavimento.
La medicin del IRI para redes viales urbanas requiere del uso de equipos de alta
tecnologa los cuales son de alto costo y de poca disponibilidad en el medio. En el Valle
de Aburr actualmente no se cuenta con ninguno de ellos en las entidades oficiales y en
el momento no se tienen estrategias para la medicin peridica de los factores que
influyen en el deterioro de los pavimentos, por lo que el uso de herramientas alternativas
como las redes neuronales permite la prediccin del IRI de forma sencilla y rpida a
partir de ensayos y datos convencionales tomados en campo.
Se visualiza el potencial de emplear las redes neuronales artificiales para la prediccin
del IRI en pavimentos flexibles. Esta nueva aplicacin de las RNA debe seguir siendo
176
estudiada y debe ser evaluada con un seguimiento detallado a la toma de datos en
campo.
Es difcil establecer el nmero mnimo de ejemplos con los cuales se pueden obtener
buenos resultados en el entrenamiento de las RNA con las que se pretenda predecir el
IRI en pavimentos flexibles. A mayor nmero de ejemplos presentados a la red se tiene
una mejor capacidad de generalizacin de sta, siempre y cuando los datos sean lo
suficientemente representativos de las condiciones de campo.
Se pudo comprobar que el IRI refleja de manera general la capacidad estructural de los
pavimentos flexibles y sobre todo su condicin de servicio bajo las condiciones
ambientales de la ciudad y para el modelo analizado. Niveles de trfico alto exhiben
valores del IRI altos, mientras que valores altos del nmero estructural se refleja en
valores del IRI bajos.
El IRI muestra el estado de fallos de los pavimentos y viceversa. En general, las fallas
que afectan en mayor media al IRI son las que producen deformaciones verticales del
pavimento. Entre ellas se tiene el parcheo de huecos y parcheo por la extensin y
reposicin de redes de servicios pblicos, as como el ahuellamiento, los baches y los
hundimientos.
Se pudo observar que no existe una relacin lineal entre las variables de entrada
utilizadas y el IRI. Por el contrario existe relaciones no lineales que las redes pudieron
capturar a partir del entrenamiento.
La longitud de los segmentos para la medicin del IRI tiene una fuerte incidencia.
Segmentos muy largos pueden ocultar valores altos del IRI, mientras que valores muy
cortos pueden mostrar grandes deformaciones localizadas. La normalizacin de los
resultados a tramos caractersticos de 70 m fue la clave para obtener resultados
aceptables.
La base de datos no siempre fue lo suficientemente representativa de las condiciones
reales en campo por diversas razones, lo que llev a que muchos de los modelos
neuronales no tuvieran el mejor desempeo. Entre las razones se tiene:
Las mediciones del IRI se realizan por dos lneas de un carril no necesariamente pasando
por las deformaciones producidas por las fallas del pavimento, dando resultados no
representativos en algunos casos.
Por otro lado se tiene que mediciones del trfico no fueron realizadas para todas las vas
analizadas sino que fueron tomadas en segmentos especficos y extrapolados a vas con
supuestas condiciones similares, lo que muestra que es muy difcil desarrollar un
177
modelo neuronal que logre predecir el IRI en cualquier tipo de va de la ciudad debido a
la variabilidad de cada uno de los parmetros en los distintos tipos de vas.
Adicional a lo anterior se pudo observar que parte de las inconsistencias fueron debidas
a la falta del levantamiento en campo de los elementos de las redes de servicios pblicos
tales como las cmaras de inspeccin de alcantarillado y telecomunicaciones, y las
vlvulas de acueducto que evidentemente generan deformaciones e irregularidades
superficiales en los pavimentos.
Esta investigacin mostr el uso de las RNA en la prediccin del IRI, modelando
relaciones no lineales y complejas entre este ndice y diversos parmetros del pavimento
tales como las fallas que producen deformaciones verticales, el trfico, la longitud y la
estructura. Las redes neuronales artificiales han tenido recientemente una especial
atencin por parte de la comunidad geotcnica y han tenido una amplia cantidad de
aplicaciones en ingeniera civil como tambin en otros campos. Estos modelos han
mostrado ser una herramienta eficaz en la simulacin de relaciones complejas entre
variables inmersas en fenmenos fsicos y son usadas en lugar de modelos basados en
ecuaciones.
En el campo de la ingeniera de pavimentos, los temas de la gestin y el mantenimiento
deben ser considerados seriamente en la seleccin de tratamientos econmicos para la
rehabilitacin de las vas en la ciudad. Las tcnicas de rehabilitacin y mantenimiento
deben ser elegidas cuidadosamente a partir de datos reales de campo y de ndices tales
como el IRI en conjunto con otros indicadores. El juicio de los ingenieros y la
experiencia de los mismos tienen importancia significativa en la seleccin de las
alternativas para el mantenimiento, por lo que es vital conocer las condiciones de los
pavimentos, llevando a que los modelos neuronales en la prediccin de la condicin de
las vas cobre una mayor relevancia como herramienta de ayuda en la toma de
decisiones. El modelo propuesto en esta tesis provee informacin valiosa a los
ingenieros administradores de la malla vial para las futuras intervenciones en las vas.
Las RNA ofrecen diferentes ventajas sobre los mtodos computacionales tradicionales.
La ms frecuentemente citada es la capacidad de aprender una solucin general de un
problema dado, a partir de un conjunto de ejemplos y continuarse adaptando a las
variaciones de las caractersticas del problema mediante la presentacin de nuevos
ejemplos. Esto hace que las RNA sean herramientas muy poderosas para la modelacin
de problemas en los cuales las relaciones entre las variables dependientes e
independientes son poco conocidas, sujetas a incertidumbre o presentan variacin con el
178
179
tiempo, tal como se presenta en diversos problemas de la geotecnia y como se mostr en
esta investigacin.
Futuras investigaciones deben estar encaminadas hacia la mejora de la base de datos
mediante la incorporacin de mayor informacin y el desarrollo y comprensin de los
equipos para la medicin del IRI, ya que las mediciones no son estables en el tiempo,
transportables y dependen de la velocidad y la trayectoria sobre la cual se realizan las
medidas.
Se recomienda que el SAV tenga en cuenta para futuras etapas de medicin y para el
desarrollo de modelos neuronales como el presentado en esta investigacin, incluir
mediciones como la edad del pavimento; realizar una mejor caracterizacin geotcnica
de los suelos de la subrasante con mayor nmero de ensayos de campo y laboratorio,
evitando que la zonificacin sea realizada por el contratista; realizar una mejor
caracterizacin del trfico a travs de un mayor nmero de conteos; realizar el
levantamiento de manholes, vlvulas y cmaras de telecomunicaciones; en cuanto a la
medicin del IRI se recomienda realizar mnimo dos mediciones por calzada siguiendo
trayectorias diferentes. El valor del IRI asignado sera el promedio de las medidas.
Se recomienda realizar una etapa de validacin en campo, en la cual se midan los
parmetros simultneamente con el objetivo de analizar la consistencia de los datos.
Se concluye que el ndice de Rugosidad Internacional es un parmetro para la
evaluacin de las condiciones superficiales y de servicio de los pavimentos. Su uso y
aplicacin en sistemas viales urbanos de ciudad an no ha sido del todo estudiado y
presenta dificultades en cuanto a la interpretacin, medicin, especificaciones y relacin
con otras variables.
180
7. REFERENCIAS
AASHTO (1993). Guide for Design of Pavement Structures.
Adeli, H. (2001). Neural Networks in Civil Engineering: 1989-2000, Computer-Aided in
Civil and Infrastructure engineering, 16, 126-142.
Adeli, H. & Karin, A. (1997). Scheduling/cost optimization and neural dynamics models
for construction. Journal of construction management and engineering, ASCE, 126.
ASTM E 867 Standard Terminology Relation to Traveled Surface Characteristics,
1996.
ASTM E 1082 Standard test method for measurement of vehicule response to traveled
surface roughness, 2002.
ASTM E 1364 Test method for measuring road roughness by static level method,
2005.
ASTM E 950-98 Standard test method for measuring the longitudinal profiles of
traveled surfaces with accelerometer established inertial profiling, 2004.
ASTM E 1926-98 Standard practice for computing international roughness index of
road from longitudinal l profile measurements, 2003.
Bayrak, M.B.; Teomete, E. & Agarwall, M. (2004). Use of artificial neural networks for
predicting rigid pavement roughness. Fall student conference, Iowa.
Becerra, J.D. (2003). Utilizacin de redes neuronales para la determinacin de las
propiedades dinmicas de los suelos del valle de aburr. Tesis de grado. Universidad
Nacional de Colombia, Medelln.
Bravo, P.E. (1998). Diseo de carreteras. Tcnicas y anlisis del proyecto. Bogot,
Colombia. 397p. 6ta edicin.
Carmona, A., & Alfaro, C. (2004). Red neuronal artificial en el retroclculo de mdulos
en capas de pavimento flexible. Tesis de Maestra en ingeniera Civil, Universidad de los
Andes.
Casadiego, F. (2001). Evaluacin de Superficies de Pavimentos con la ayuda de
Procesamiento de Imgenes y Redes Neuronales. Tesis de Maestra en ingeniera Civil,
Universidad de los Andes.
Daza, S. Redes neuronales. [Sitio en Internet] Monografas. Disponible en
http://www.monografias.com/trabajos12/redneur/redneur.shtml Acceso enero 2007.
181
Delgado, A. (1998) Inteligencia artificial y minirobots. Segunda edicin. Bogot: Ecoe
Ediciones, Universidad Nacional de Colombia. 309p.
Demuth, H., Beale, M., & Hagan, M. (2006). Neural network Toolbox for Use with
Matlab. Version 5.
FHWA. Roughness Data Collection Equipment. [Sitio en Internet] Federal Hihgway
Administration. US Department of Transportation. Disponible en
http://www.fhwa.dot.gov. Acceso diciembre de 2006.
Flood, I. & Kartam, N. (1994). Neural networks in civil engineering I: principles and
understanding. ASCE Journal of Computing in Civil Engineering, 2(8), 131-148.
Gangopadhyay, S., Gautam, T., & Gupta, A. (1999). Subsurface Characterization Using
Artificial Neural Network and Gis. Journal of computing in civil engineering, ASCE,
pp.153-161.
Goktepe, A.B.; Agar, E, & Lav, A.H. (2006). Role of Learning Algorithm in Neural
Network-Based Backcalculation of Flexible Pavements. Journal of Computing in Civil
Engineering, Vol. 20, No. 5, , pp. 370-373.
Gupta, R., Kewalramani, M.A., & Goel, A. (2006). Prediction of Concrete Strength
using Neural-Expert System. Journal of Materials in Civil Engineering, Vol. 18, No. 3,
pp. 462-466.
Haykin, S. (2001). Redes Neurais: A comprehensive foundation. Prentice-Hall, 2da
Edicin.
Hilera, J. R. & Martnez, V. J. (2000). Redes neuronales artificiales: Fundamentos,
modelos y aplicaciones. Madrid, Espaa: Alfaomega. 385 p. ISBN 970-15-0571-9.
INVIAS (2004). Matriz de Categorizacin e Intervencin. Corredores de
Mantenimiento Integral. Secretara General Tcnica.
Janoff, M. S. & Nick, J. B. (1985). Pavement Roughness and Rideability, NCHRP
Report 275, TRB, 1985.
Jeng, D., Daeho, C., & Blumensteinc M. (2004). Neural network model for the
prediction of wave-induced liquefaction potential. Electronical journal of geotechnical
engineering.
Juang, C. H., & Jiang, T. (2001). Three-dimensional site characterisation: neural
network approach. Gotechnique, Vol 51,9.
Juang, C. H., & Chen, C. (2002). Predicting geotechnical parameters of sands from CPT
measurements using neural networks, Computer-Aided in Civil and Infrastructure
engineering, 17, 31-42.
182
Karamihas, S.M., Perera, R.W., Kohn, S.D. & Gillespie, T. (1999). Guidelines for
longitudinal pavement profile measurement. NCHRP report 434, Transportation
Research Borrad, Washington.
Kim, Y., & Kim R. Y. (1998). Prediction of Layer Moduli from Falling Weight
Deflectometer and Surface Wave Measurements Using Artificial Neural Network,
Transportation Research Record 1639, National Research Council, pp. 5361.
Kohn, S.D. (2002). LTPP data anlisis: Factor affecting pavement smoothness.
TRB/NRC Transportation Research Borrad/Nacional Research Council. NCHRP
Project 20-50 (08/13).
Kurup, P.U., & Griffin, E.P. (2006). Prediction of Soil Composition from CPT Data
using General Regression Neural Network. Journal of Computing in Civil Engineering,
Vol. 20, No. 4, pp. 281-289.
Lin, J.D.; Yau, J.T.; & Hsiao, L.H. (2003). Correlation analysis between international
roughness index (IRI) and pavement distress by neural network. 82th annual meeting of
Transportation Research Board, Washington.
Londoo, J .M., Meza, M .A., Hurtado J. (2001). Redes Neuronales Artificiales
Aplicadas a la Simulacin de la Filtracin de Ondas Ssmicas a travs del Suelo.
Inteligencia Computacional, Soluciones Modernas para Aplicaciones Reales. Primera
Edicin. Universidad Nacional de Colombia. Medelln, pp. 121 127.
Loizos, A. & Karlaftis, A. (2006) Investigating Pavement Cracking: An Evolutionary
Modular Neural Network Approach. TRB, Annual meeting of Transportation Research
Board, Washington.
Manevitz, L., Yousef, M. & Givoli, D. (1997). Finite element mesh generation using
self-organizing neural networks. Computer-Aided civil and infrastructure engineering,
Vol 12.
Martnez, H.E. (2006). Modelacin constitutiva de arenas usando redes neuronales
artificiales (en portugus). Tesis de Doctorado, Universidad de Brasilia.
Meier, R. W., Alexander, D. R., & Freeman, R. B. (1997). Using Artificial Neural
Networks As A Forward Approach to Backcalculation, Transportation Research Record
1570, National Research Council, Washington, D.C., pp. 126133.
Montejo, A. (2002). Ingeniera de pavimentos para carreteras. Universidad Catlica de
Colombia. 2da edicin. Bogot D.C, 733 p.
183
Morales, J.F. (2004). Trnsito de crecientes en sistemas de alcantarillado utilizando
redes neuronales artificiales (RNA). Tesis de Maestra en ingeniera Civil, Universidad
de los Andes.
Najjar, Y.M. (1996). On the identification of compactation characteristics by neuronets.
Computers and geotechnics, 18 (3).
Nouri, Y. (2004). Soil Profile Prediction Using Artificial Neural Networks. Electronical
journal of geotechnical engineering.
OOPPM (2007). Sistema de Administracin Vial (SAV) de la ciudad de Medelln.
(2007). Secretara de Obras Pblicas de Medelln.
Pavia, G.L. Informe sobre redes neuronales. [Sitio en Internet] Ilustrados. Disponible en
http://www.ilustrados.com/publicaciones/EpVAluykaYDRcZt.php. Acceso enero
2007.
Perera, R.W. & Kohn, S.D. (2001). Pavement smoothness measurement and analysis:
state of the knowledge. TRB/NRC Transportation Research Borrad/Nacional Research
Council.
Perera, R.W. & Kohn, S.D. (2002). Issues in pavement smoothenes: a summary report.
TRB- NCHRP document 42 (Project 20-51).
Pernot, S. & Lamarque, C. H. (1999). Application of Neural Networks to the Modelling
of Some Constitutive Laws. Neural Networks, 12, 371-392.
Saka, H & Ural, D.N. (2002). Liquefaction Assessment by Artificial Neural Networks.
Electronical journal of geotechnical engineering.
Saltan, M., Tigdemir, M. & Karasahin, M. (2002). Artificial Neural Network Aplication
for Flexible Pavement Thickness Modelling. Turkish J. Eng. Env. Sci. 26, Turkey.
Saltan, M. & Terzi, S. (2004). Backcalculation of pavement layer parameters using
artificial networks. Indian Journal of Engineering & Material Sciences, vol 11.
Sayers, M.W.,Gillespie, T.D. & Queiroz, C. (1986a). The Internacional road roughness
experiment to establish correlations and standards calibration methods for roughness
measurements. World bank, Technical paper number 45, Washington.
Sayers, M.W.,Gillespie, T.D. & Paterson, W. (1986b). Guide lines for conducting and
calibrating road roughness measurements. World bank, Technical paper number 46,
Washington.
Sayers, M.W. & Karamihas, S.M. (1996). Interpretation of road profiles data, University
of Michigan.
184
Sayers, M.W. & Karamihas, S.M. (1998). The little book of profiling: Basic information
about measuring and interpreting road profiles, University of Michigan.
Souza, R.O. (2002). Influencia de la irregularidad longitudinal en la evaluacin de
pavimentos. Disertacin de Maestra, Universidad de Brasilia.
Soria, E. & Blanco, A. Redes neuronales artificiales. [Sitio en Internet] Autores
cientfico-tcnicos y acadmicos ACTA. Disponible en http://www.acta.es/
articulos_mf/ 9023.PDF. Acceso enero 2007.
Su, K.Y. & Tak, K.B. (2006). Use of Artificial Neural Networks in the Prediction of
Liquefaction Resistance of Sands. Journal of Geotechnical and Geoenvironmental
Engineering, Vol. 132, No. 11, pp. 1502-1504.
Talaat, H. M (2004) Application of Artificial Neural Network technique in Pavement
Design: Testing and Validation. Universidad del Cairo.
Toll, D.G. (1995). Artificial intelligence aplications in geotechnical engineering.
Electronical journal of geotechnical engineering.
Toll, D.G. (1996). Artificial intelligence systems for geotechnical engineering with
especific referente to ground improvement. 10th european young geotechnical
engineers.
TRB/NRC Transportation Research Borrad/Nacional Research Council. (1999). Use of
articifial networks in geomechanical and pavement systems. Circular number E-C012.
Vargas, C. A., Monsalve, H., Bermudez, M. L. & Cuenca J. C. (2001). Utilizacin de
redes neuronales para la determinacin de respuestas de sitio a partir de ondas coda:
Aplicacin para Armenia-Colombia. En: Rev. Geofsica Colombiana, Universidad
Nacional de Colombia, Bogot. No. 5; p. 27-31.
Walpole, R.E, & Myers, R.H. (1987). Probabilidad y estadstica para ingenieros.
Mxico. Nueva editorial interamericana. 731p. ISNB 968-25-1113-5.
Waszczyszyn, Z., & Ziemianski, L. (2001). Neural networks in mechanics of structures
and materials new results and prospects of applications. Computers and structures.