Escolar Documentos
Profissional Documentos
Cultura Documentos
2.1. ANTECEDENTES
Los antecedentes de esta investigación se pueden dividir en trabajos relacionados
con:
Los autores afirman que el diseño basado en modelos sustitutos hace referencia a
la idea de construir un modelo alternativo de rápida ejecución (sustituto) a partir de data de
simulación numérica y luego usarlo con propósitos de optimización y análisis. Un método
sistemático rápido para determinar soluciones óptimas permitirá la obtención de mejores
diseños, mejorará el desempeño de sistemas y reducirá la dependencia a prototipos y
ensayos, lo que acortará el ciclo de diseño y reducirá los costos de desarrollo.
Análisis de Algoritmo de
Autor/Afiliación Año Estructura Dimensión F. Obj Restricción (Pf) Metamodelos
Confiabilidad optimización
PMA
Atenuador de impacto
Choi K.K y Youn B.D 2002 9 Masa Fluencia(0.0013) RS AMA GA
lateral de un Vehículo
MCS
Youn B. y Col. 2005 Modelo de vehículo 11 Masa Fluencia(0.09) RS PMA GBO
Atenuador de impacto
Du L. y Col. 2006 10 Masa Fluencia(0.02275) PMA GA
lateral de un Vehículo
RS
RBF
Barra/Brazo de control GP
Solanki K. y Col. 2007 42 Masa Fluencia(Beta 8) AMV+ GA
de suspensión Kriging
NN
SVR
MSR
Nguyen T. y Col. 2009 Entramado de 6 barras 6 Masa Fluencia (0.001) GBO
Monte Carlo
Valdebenito M. y Estructura de Max. SS
2009 2 Volumen GBO
Schueller G. Entramado Desplazamiento(1x105) Monte Carlo
Atenuador de impacto
Deb K. y Col. 2009 10 Masa Fluencia(0.00125) PMA GBO
lateral de un Vehículo
Estructura de soporte Max. Desplazamiento
Zhang y Ohsaki 2009 1 Masa Kriging Monte Carlo SA
tipo arco para gimnasios (0,0228)
Costo efectivo para la Costo de Op.
Acar y Col. 2010 3 Fluencia (10-7) RS Monte Carlo GBO
estructura de un avión Directo
RIA
Aoues Y. y
2010 Entramado de 5 barras 3 Masa Pandeo(0.0001) PMA GBO
Chateauneuf A.
SORA
Algoritmo
Análisis de
Autor/Afiliación Año Estructura Dimensión F. Obj Restricción (Pf) Metamodelos de
Confiabilidad
optimización
Fluencia (0.0001078) SORA
Celorrio L. y Col. 2010 Estructura articulada de 10 barras 7 Masa PMA GBO
Pandeo(0.0001078)
RIA
FORM
Max.
Bezzazi M. y Col. 2010 Columna Simple 4 Rigidez SORM GBO
Desplazamiento(0.05)
ISM
Fluencia (0.01) PR
Ruichen J. y Col. 2010 Estructura de 2 barras 2 Volumen RBF N/A GBO
Pandeo(0.01)
Kriging
Fatiga alto Monte Carlo
Lee I. y Col. 2010 Barra de torsión 8 Costo D-Kriging GBO
ciclaje(0.02275) FORM
Columna en Voladizo 6 Costo Pandeo(Beta 3) Kriging FORM
Kriging SORA
Dubourg V. 2011 Estructura de soporte 8 Masa Pandeo(Beta 2) GBO
N-FORM
Max. Desplazamiento(
Entramado 23 barras como puente 10 Volumen Kriging N-FORM
Beta 3)
ISM
Multi-FORM
Dubourg V. y Col. 2011 Techo - Concha Acústica 93 Rigidez Pandeo(2,06x104) Kriging GBO
SS
Monte Carlo
Gu L. y Yang J. 2011 Vehículo para prueba de impacto 2 Masa Fluencia(0.1) RS Monte Carlo GBO
Zhao y Col. 2013 Tubo en voladizo 8 Volumen Fluencia(0.02275) D-Kriging N/A GBO
Yoo D. y Lee I. 2014 Tubo en voladizo 9 Rigidez Fluencia(0.02275) Monte Carlo GBO
Kusano I. 2015 Puente colgante 43 Volumen Fluencia (2,86x10-26) FORM GBO
2.1.2. Celorrio y Col. (2010)
Este aporte de investigación se basa en la premisa de que un método de diseño
realista tiene que considerar las incertidumbres en las variables de diseño y en los
parámetros de la estructura. Donde en un mercado tan competitivo y globalizado como el
actual exige que los diseñadores utilicen métodos adecuadas para obtener diseños que
sean óptimos y que, además, sean fiables. Estos métodos son tratados en el campo de la
Optimización de Diseño Basada en Fiabilidad (RBDO). Este trabajo estudia la eficiencia de
estos métodos aplicados a problemas estructurales caracterizados por variables aleatorias
dependientes y, en general, no normales. Generalmente, la función de distribución conjunta
de este vector aleatorio no es conocida. En este artículo se aplican diferentes métodos
RBDO al diseño de una estructura. Se comprueba la eficiencia y convergencia de estos
métodos.
Los resultados obtenidos indican que para varios casos de estudios, los métodos
aproximados FORM y SORM producen resultados similares en términos de índice de
fiabilidad y probabilidad del colapso que lo producidos por el método ISM más exacto. Esto
permitió la evaluación de la validez del método rápido y aproximado FORM para estudiar el
análisis de fiabilidad en el caso del diseño elástico de los pórticos. La influencia sobre la
fiabilidad de las distintas distribuciones de probabilidades, dependiendo de exactamente
dos parámetros estadísticos introducidos para modelar incertidumbres como variables
aleatorias continuas, esta examinada.
Fig. (3) Estructura a estudiar aplicando métodos de RBDO (Pórtico con carga Lateral).
Fuente: Bezzazi, El Ghoudbzouri y Khamlichi (2010)
Los resultados obtenidos ayudan a observar los métodos considerados SORM con
sus tres variantes e ISM dando resultados muy cercanos en términos de índice de la
fiabilidad y de la probabilidad de fallo. El método FORM da resultados que están cercanos
pero no estrictamente idénticos al método más exacto anterior. FORM sobrestima el índice
de la fiabilidad y subestima así la probabilidad de fallo. El método ISM requiere mucho
tiempo, algo previsto, en comparación con los métodos aproximados FORM y SORM con
sus tres variantes. Se ha mostrado que el método aproximado FORM no predice los mismos
resultados que los métodos aproximados más exactos de análisis de fiabilidad ISM y
SORM. La diferencia relativa máxima entre FORM y los dos otros métodos ha alcanzado el
18% en el caso de los estudios que se han considerado en este trabajo. El método ISM es
siempre más largo que las aproximaciones FORM o SORM. Sin embargo, estas
conclusiones realizadas por los autores no se pueden generalizar ya que para ello se
necesitaría realizar investigaciones futuras más exhaustivas.
2.1.4. Choi y Youn (2002)
En este estudio los autores buscan concentrar todos los esfuerzos por desarrollar
los problemas de Diseño Optimo Basado en Fiabilidad (RBDO) en una investigación que
compare varios métodos en este caso AMA (Approximate Moment Approach), RIA
(Reliability Index Approach) y PMA (Performance Measure Approach) para encontrar el
acercamiento probabilístico más efectivo. En donde se busca mostrar a fondo las ventajas
en términos de precisión numérica, simplicidad y estabilidad que obtiene presenta cada
método con ejemplos numéricos. Considerando que la literatura y otras investigaciones
apuntan que el método PMA es más eficiente y estable que el método RIA, este no fue
considerado en la investigación.
AMA PMA
En este trabajo se demuestra de forma notoria bajo con algunos ejemplos numéricos
que el método de PMA es sustancialmente atractivo en comparación con otros métodos de
aproximación probabilísticos en RBDO.
También se estudió y analizó el pedal de Formula SAE 2010 para verificar que el
máximo esfuerzo generado en la estructura no supere la resistencia a la fluencia del mismo,
concluyendo que el diseño 2010 del pedal presentaba fallas ya que los esfuerzos máximos
generados (1297 MPa) superaban la resistencia a la fluencia del material (Acero ASTM
A36) que en este caso era de 250 MPa.
Fig. (5) Factor de seguridad del pedal de freno 2010 FSAE LUZ.
Fuente: Martínez y Clara (2012)
Se aprecia en la Fig. (5) que las áreas sombreadas en rojo representan un factor de
seguridad menos a la unidad indicando las zonas en donde este falla.
Datos del diseño geométrico fueron fundamentales para generar la base geométrica
del pedal a estudiar.
CARACTERISTICAS
Material Aluminio 6061
Sy 145 MPa
Masa 220,62 g.
Von Mises 91,21 MPa
Factor de seguridad 1,59
Volumen 8,14xe+4 mm3
Estos últimos valores fueron vitales para tener un patrón de comparación del nuevo
diseño a estudiar de manera que presente un comportamiento más óptimo de la estructura.
2.1.8. Abreu y Fuenmayor (2015)
El objetivo principal de esta investigación fue rediseñar y construir una pedalera para
el vehículo Fórmula SAE de la Universidad del Zulia que presenta mejoras en comparación
al sistema diseñado y construido por Clara y Martínez en el año 2012, debido a que en una
prueba realizada a la pedalera, el pedal y eje de freno sufrieron una deformación con la
aplicación de una fuerza menor a la requerida por las normas de SAE. El diseño de la
pedalera se realizó meticulosamente considerando en todo momento el reglamento
establecido por la Fórmula SAE 2015, además de considerar los materiales más
económicos y disponibles en el mercado.
Este estudio se realizó con la intención de reflejar las ventajas que aporta la
metodología Taguchi sobre el método de iteración, ya que es una metodología muy fácil de
aplicar y bastante eficiente cuando se habla de calidad. En este tipo de estudio demuestra
los beneficios que aporta el método Taguchi al momento de llevar a cabo cualquier tipo de
experimentos. Los autores concluyeron que el enfoque de Taguchi es un método idóneo
para ser utilizado en diseños con pocas variables, para más de 12 variables se vuelve
impráctico debido al número de experimentos a realizar. Este aporte se presenta como
punto de comparación para las diferentes metodologías aplicadas en el diseño de pedales
tipo FSAE.
Este artículo aporta bases teóricas que involucran la optimización del diseño de un
pedal tipo FSAE aplicando metodologías de gran utilidad para la presente investigación
como la realización de diseños de experimentos, construcción y diseño de modelos
sustitutos (Kriging) considerando un tiempo computacional razonable.
Una diferencia importante entre los modelos para variables continuas y los modelos
para variables discretas es que la mayoría de éstos últimos se desarrollan para fenómenos
aleatorios donde se cumplen unas condiciones específicas, por lo cual, su aplicación no
puede hacerse simplemente siguiendo el proceso de ajuste de una muestra de datos a una
distribución de probabilidad, como si es el caso, de los modelos para variables continuas.
Por esta razón, en algunas aplicaciones, la muestra de datos de una variable aleatoria
discreta se ajusta a un modelo para variable aleatoria continua.
Parámetro de Localización
Parámetro de Escala
Parámetro de Forma
Parámetro de Desplazamiento
2.2.1.3.1.1. Parámetro de Localización
Haciendo referencia a los autores Haldar y Mahadehan (2000) se desea que las
variables aleatorias sean representadas en esta tesis con letras Mayúsculas (E.g X) y la
realización de la variable sea denotada en minúscula. En la Fig. (9) se muestra una curva
llamada función de densidad de probabilidad, que en sus siglas anglosajonas PDF
(Probability Density Function) y es representada como 𝑓𝑋 (𝑥). La misma no provee la
información de la probabilidad pero si indica la naturaleza de la incertidumbre. Para calcular
la probabilidad de X teniendo una variable entre x1 y x2, el área bajo la curva de PDF entre
esos dos limites debe ser calculada. Esta se expresa de la siguiente forma:
Ec. (1)
Para calcular P(X≤x), que se denota específicamente como 𝐹𝑋 (𝑥) y se conoce como
la función de la distribución acumulativa, CDF (cumulative distribution function), o
simplemente puede ser nombrada como la función de distribución. El área debajo de PDF
se debe integrar para todos los valores posibles de X menores o iguales que x; en otras
palabas, la integración debe ser llevada a cabo teóricamente desde -∞ hasta x, y puede ser
expresada como:
Ec. (2)
La Ec. (1) puede ser expresada también en términos de CDF de la siguiente forma:
Ec. (3)
Ec. (4)
Ahora bien, la relación entre PDF y CDF se muestra de forma conceptual en la Fig.
(10) para una variable aleatoria continua, de la cual podemos tomar las siguientes
observaciones:
La PDF debe ser una función positiva; puede ser cero y su rango teórico
posee los límites entre -∞ y +∞.
La CDF debe ser 0 en -∞ y 1.0 en +∞, esto es que, FX(-∞)=0, y FX(+∞)=1.
CDF siempre será mayor o igual a cero, esto es, FX(x)≥0.0, y es una función
no decreciente de una variable aleatoria.
Fig. (10) PDF y CDF de una Variable aleatoria continúa.
Fuente: Haldar y Mahadehan (2000)
1 1 𝑥 − 𝜇𝑥 2
𝑓𝑥 (𝑥) = 𝑒𝑥𝑝 [− ( ) ] , −∞ < 𝑥 < +∞ Ec. (5)
𝜎𝑥 √2𝜋 2 𝜎𝑥
𝑥
1 1 𝑥 − 𝜇𝑥 2
𝐹𝑥 (𝑥) = ∫ 𝑒𝑥𝑝 [− ( ) ] 𝑑𝑥. Ec. (6)
−∞ 𝜎𝑥 √2𝜋 2 𝜎𝑥
𝑋 − 𝜇𝑥
𝑆= Ec. (7)
𝜎𝑥
Haciendo una transformación de cambio de variable la ecuación de PDF original
queda de la siguiente forma:
1 1
𝑓𝑆 (𝑠) = 𝑒𝑥𝑝 [− 𝑠 2 ] , −∞ < 𝑠 < +∞ Ec. (8)
√2𝜋 2
𝑠
1 1
𝐹𝑆 (𝑠) = ∫ 𝑒𝑥𝑝 [− 𝑠 2 ] 𝑑𝑠. Ec. (9)
−∞ 𝜎𝑥 √2𝜋 2
probabilidad de encontrar individuos con características que estén por fuera de ±3σ.
1 1 ln 𝑥 − 𝜆𝑥 2
𝑓𝑥 (𝑥) = 𝑒𝑥𝑝 [− ( ) ] , 0 ≤ 𝑥 < +∞ Ec. (10)
√2𝜋𝜁𝑥 𝑥 2 𝜁𝑥
1
𝜆𝑋 = 𝐸(ln 𝑥) = ln 𝜇𝑋 − 𝜁 2 𝑋 Ec. (11)
2
𝜎𝑋 2
𝜁𝑋 2 = 𝑉𝑎𝑟(ln 𝑋) = ln [1 + ( ) ] = ln(1 + 𝛿 2𝑋 ) Ec. (12)
𝜇𝑋
Fig. (12) PDF para las distribuciones Normales y LogNormal con una media de 100 y desviación
estándar de 10.
Fuente: Haldar y Mahadehan (2000)
ln 𝑋 − 𝜆𝑋
𝑆= Ec. (13)
𝜁𝑋
Ec. (14)
Ec. (15)
Ec. (16)
Ec. (17)
Para calcular dicha función tenemos la siguiente expresión:
Ec. (18)
Ec. (19)
La Ec. (19) es conocida como la distribución estándar beta. Un gráfico de PDF para
varios valores de q y r son mostrados en la Fig. (13). Cuando q y r son iguales a 1, la
distribución beta se transforma en una distribución uniforme.
Las cópulas fueron presentadas originalmente por Sklar (1959), quien resolvió
algunos problemas formulados por M. Fréchet sobre la relación entre una función de
distribución de probabilidad multidimensional y sus marginales de menor dimensión.
Así mismo, los autores definen en carácter estadístico las copulas de la siguiente
manera:
Es decir, una cópula es una función C: I2 →I que satisface las siguientes condiciones:
a. De acotamiento
𝑀𝑎𝑥{𝐹1 (𝑦1 ) + 𝐹2 (𝑦2 ) − 1,0} ≤ 𝐹(𝑦1 , 𝑦2 ) ≤ 𝑚í𝑛{𝐹1 (𝑦1 ), 𝐹2 (𝑦2 )} Ec. (23)
La cual se conoce como desigualdad de las cotas de Fréchet e indica que cualquier
cópula C representa un modelo de dependencia que se encuentra entre los extremos W y
M. Las funciones W y M son conocidas como las cotas inferior y superior, respectivamente;
de hecho, Fréchet (1951) demuestra que W y M son también cópulas.
Para alguna función convexa decreciente z definida en (0,1] que satisface 𝒛−𝟏 (𝟏) =
𝟎; por convención 𝒛−𝟏 (𝒗) = 𝟎 cuando 𝒗 ≥ 𝒛(𝟎).
respecto a 𝑣1 ,
𝜕𝐶
𝑧 ′ (𝐶) = 𝑧′(𝑣1 ) Ec. (27)
𝜕𝑣1
𝜕𝐶 𝜕𝐶 𝜕2𝐶
𝑧 ′′ (𝐶) + 𝑧 ′ (𝐶) = 0 Ec. (28)
𝜕𝑣1 𝜕𝑣2 𝜕𝑣1 𝜕𝑣2
Por tanto:
Dado (Y1 , Y2) un par de variables aleatorias variables aleatorias con distribución F
definida en el axioma, se puede demostrar que la τ de Kendall correspondiente tiene la
siguiente:
1
𝑧(𝑡)
𝜏 = 4∫ 𝑑𝑡 + 1 Ec. (30)
0 𝑧′(𝑡)
De esta forma, el valor de τ está relacionado en forma lineal con el área bajo la curva
𝑧(𝑡)
de 𝑧(𝑡)/𝑧 ′ (𝑡)entre 0 y 1. Note que la cota inferior de Fréchet correspondiente 𝑧 ′ (𝑡)
=𝑡−
1; cuando 𝑧(𝑡)/𝑧 ′ (𝑡) tiende a cero, se obtiene la cota superior de Fréchet. De hecho, Genest
y Rivest (1993) notan que la convergencia de una sucesión de distribuciones bivariadas
construidas con cópulas arquimedianas puede determinarse al observar la gráfica de
𝑧(𝑡)/𝑧 ′ (𝑡) de la sucesión.
El autor, destaca que dentro de los métodos probabilísticos, están los métodos de
muestreo clásicos: factorial o factorial fraccionado, diseño central compuesto (CCD), Box-
Behnken, óptimo alfabético y diseños Plackett-Burman Estos métodos tienden a distribuir
los puntos de muestreo alrededor de los límites del espacio de diseño y dejar algunos en el
centro. Otros métodos de muestreo probabilísticos son los denominados space filling
(intentan cubrir el espacio uniformemente): matriz ortogonal, Hipercubo Latino, secuencias
de Hammersley (Kalagnanam y Diwekar, 1997), y diseños uniformes.
Para el diseño de experimentos computacionales, la selección de la muestra es
clave para obtener un modelo eficiente. Un buen método de muestreo debe satisfacer: que
sea óptimo según el modelo estadístico, que puedan utilizarse varios puntos y variables de
entrada en la muestra, y que pueda ser generado fácilmente con un tiempo computacional
razonable.
Con cada vector de valores de entrada, el modelo numérico es ejecutado una vez.
Es decir, el método requiere correr el modelo tantas veces como intervalos se hayan
supuesto en la división de las distribuciones de probabilidad, independientemente del
número de variables muestreadas. Normalmente esta técnica permite reducir en uno o más
órdenes de magnitud la cantidad de corridas necesarias para obtener una determinada
representatividad, en comparación con un modelo Monte Carlo clásico (Barón y Núñez
1999).
Fundamentos
Para generar un diseño o muestra 𝑆𝑛 = {𝑆1 , … , 𝑆𝑛 } de tamaño n y m variables
(LHS(n, m)), se genera una matriz de tamaño 𝑛𝑥𝑚, donde cada columna es una
permutación aleatoria de:
𝜋𝑗 (1), 𝜋𝑗 (2), … , 𝜋𝑗 (𝑛) ; 𝑗 = 1, … , 𝑚 Ec. (31)
𝑗
𝑈𝑘 (𝑛, 𝑚) ; 𝑘 = 1, … , 𝑛 Ec. (32)
Dentro del intervalo de valores que pueden adoptar cada variable, por simplicidad
𝑗
[0,1]. Cada punto de la muestra (𝑆𝑘 ) contiene un valor por cada variable (𝑆𝑘 ), siendo:
𝑗
𝑗 𝜋𝑗 (𝑘) − 𝑈𝑘 Ec. (33)
𝑆𝑘 = ; 𝑘 = 1, … , 𝑛 ; 𝑗 = 1, … , 𝑚
𝑛
De esta forma, LHS garantiza que cada una de las variables de entrada está
representada en todo su rango (Sacks et al., 1989a). En la Fig. (16 a) se representa una
muestra con 𝑛 = 8y 𝑚 = 2, a partir de Ec. (31), sobre una rejilla que cuenta con 𝑛𝑚 =
(82 = 64) celdas. Como se puede observar, para cada fila y columna se tiene un único
punto.
𝑗
Otra forma más sencilla de generar 𝑆𝑘 es utilizar la Ec. (34). De esta forma, los
puntos de la muestra se encuentran en el centro de cada celda Fig. (16 b).
𝑗 𝜋𝑗 (𝑘) − 0,5
𝑆𝑘 = ; 𝑘 = 1, … , 𝑛 Ec. (34)
𝑛
Fig. (17) Criterios de optimalidad para el diseño óptimo con LHS: (a) IMSE; (b) entropy; (c) maximin.
Fuente: Kai-Tai et al.(2006)
2.2.2.2. Metamodelos
Actualmente, los modelos que se desarrollan paralelamente con la aplicación de las
técnicas CAE (Computer Aided Engineering) requieren de una enorme cantidad de tiempo,
tanto en el modelado como en el análisis. Por este motivo, muchos diseñadores se
encuentran con verdaderas dificultades a la hora de aplicar estas técnicas, sobre todo, en
las primeras fases del proceso de diseño. Una solución para estos problemas, recae en los
denominados metamodelos o modelos sustitutos. Estos modelos conllevan un menor coste
computacional, lo que permite a los diseñadores su utilización aún en las etapas iníciales
del diseño (Kleijnen y Sargent, 1997).
De acuerdo con los autores Zerpa y Queipo (2004), una alternativa ante la ausencia
de un modelo físico o matemático, es construir un modelo del proceso a partir de un
conjunto finito de datos (patrones) de entrada-salida del mismo (enfoque black box). La Fig.
(18) ilustra este enfoque donde ante una entrada arbitraria se sabe qué salida se produce
pero no cómo se genera dicha salida.
Fig. (18) Diagrama de un proceso modelado con el enfoque del tipo caja negra.
Fuente: Zerpa y Queipo (2004)
Predicción
Comprender mejor un proceso
Identificar variables significativas
Visualizar la naturaleza de la relación entre variables de entrada y salida
Determinar el impacto individual de las variables de entrada en la respuesta:
análisis de sensibilidad
Optimización
Cuantificar compromisos entre múltiples objetivos
i. Origen de la data:
Data histórica (existente) sin posibilidad de generar nuevas observaciones
Data que puede ser generada (simulada) mediante el diseño de
experimentos
ii. Tipo de Respuesta:
Determinística
Aleatoria
iii. Propósito del modelado:
Estimación global: modelo adecuado para todo el dominio (robustez)
Optimización: donde se hace énfasis en el ajuste del modelo en las zonas
subóptimas.
Esta técnica calcula los pesos que se darán a cada punto de referencia usado en la
valoración. Esta técnica de interpolación se basa en la premisa de que la variación espacial
continúa con el mismo patrón. Fue desarrollada inicialmente por Danie G. Krige a partir del
análisis de regresión entre muestras y bloques de mena, las cuales fijaron la base de la
geoestadística lineal.
Fundamentos de la Técnica
Sacks et al. (1989b) propusieron un modelo Kriging para aproximar la respuesta
computacional determinista 𝒚(𝑿) como:
𝑦̂(𝑋) = 𝑓 𝑇 (𝑋)𝛽 + 𝑍(𝑋) Ec. (35)
𝑇 𝑇
Con 𝑓(𝑋) = [𝑓1 (𝑋), … , 𝑓𝑝 ] y 𝛽 = [𝛽1 , … , 𝛽𝑝 ] donde 𝑝 indica el número de funciones
básicas en el modelo de regresión, 𝑦̂(𝑋) es la función de interés desconocida, 𝑓(𝑋) es la
función conocida de 𝑋, 𝛽 es el vector de coeficientes de regresión, y 𝑍(𝑋) es una función
aleatoria (proceso estocástico) con la media cero y covarianza.
𝑗
𝑿 = [𝑿1 , 𝑿2 , … , 𝑿𝑛 ]𝑇 𝑥𝑖 ∈ 𝑅 𝑚 ; 𝑖 = 1, … 𝑛 ; 𝑗 = 1, … , 𝑚 Ec. (37)
𝑗
𝑿 = [𝑿1 , 𝑿2 , … , 𝑿𝑛 ]𝑇 𝑥𝑖 ∈ 𝑅 𝑚 ; 𝑖 = 1, … 𝑛 ; 𝑗 = 1, … , 𝑚 Ec. 2.20
1
𝜎2 = (𝑌 − 𝐹𝛽)𝑇 𝑅−1 (𝑌 − 𝐹𝛽) Ec. (40)
𝑛
Donde F es el vector que incluye los valores de f(x) evaluados en cada punto
experimental, y R es la matriz de correlación, la cual está compuesta de una función de
correlación evaluada para cada combinación posible de los puntos contenidos en la muestra
X.
𝑅(𝜃, 𝑋1 , 𝑋1 ) ⋯ 𝑅(𝜃, 𝑋1 , 𝑋𝑛 )
𝑅(𝜃, 𝑋𝑖 , 𝑋𝑖 ) = [ … ⋰ … ] Ec. (41)
𝑅(𝜃, 𝑋𝑛 , 𝑋1 ) … 𝑅(𝜃, 𝑋𝑛 , 𝑋𝑛 )
1
(𝑛 ∙ 𝑙𝑛𝜎 2 + 𝑙𝑛|𝑹|) Ec. (42)
2
1
Ec. (43)
𝜑 = (𝜃) = |𝑹(𝜃)|𝑛 𝜎(𝜃)2
Constante (𝑝 = 1):
𝑓1 (𝑿) = 1 Ec. (47)
Lineal (𝑝 = 𝑚 + 1)
𝑓1 (𝑿) = 1, 𝑓2 (𝑿) = 𝑥1 , … , 𝑓𝑝+1 (𝑿) = 𝑥𝑚 Ec. (48)
1
Cuadrático(𝑝 = (𝑚 + 1)(𝑚 + 2))
2
𝑓1 (𝑿) = 1
2
… … 𝑓𝑝 (𝑿) = 𝑥𝑚
Funciones de correlación
La parte del proceso estocástico del modelo dado para la estimación de 𝒚(𝑿) incluye
una función de correlación, la cual afecta a la suavidad del modelo (Martin et al., 2003).
Sacks etal. (1989b) utilizan, generalmente, una función de correlación cuya forma es dada
por:
𝑛 𝑛
y = β0 + β1 x1 + β2 x2 + ⋯ + βk xk + ε Ec. (53)
En casi todos los problemas PR se usa uno de estos modelos, o ambos. Desde
luego, es probable que un modelo polinomial sea una aproximación razonable de la
verdadera relación funcional en el espacio completo de las variables independientes, pero
para una región relativamente pequeña suelen funcionar bastante bien.
𝑁𝑅𝐵𝐹
𝑖=1
Una Función de Base Radial típica es la Gaussiana que en el caso de una entrada
escalar es expresada como:
𝑓 = 𝐻𝑤 Ec. (57)
𝑓 𝑇 𝑃2 𝑓
𝜎2 = Ec. (61)
𝑡𝑟(𝑃)
ℎ1 (𝑥)
ℎ2 (𝑥) Ec. (64)
ℎ=
⋮
{ℎ𝑁𝑅𝐵𝐹 (𝑥)}
La idea básica de la Función de Base Radial puede ser generalizada por considerar
las funciones de pérdida alternativa y funciones base, en un esquema conocido como
“Kernel-Based Regression”. Se puede mostrar independiente de la forma de la función
pérdida L, la solución del problema variacional tiene la forma:
𝑁𝑠
𝑘
1 (−1) 2
𝐺𝑀𝑆𝐸 = ∑(𝑓𝑖 − 𝑓̂𝑖 ) Ec. (68)
𝑘
𝑖=1
(−1)
Donde 𝑓̂𝑖 representa la predicción a 𝑥 (𝑖) usando el sustituto construido usando
todos los puntos de muestra excepto 𝑥 (𝑖) 𝑓𝑖 . Expresiones analíticas están disponibles para
que casos de los GMSE sin llegar a realizar la construcción de los sustitutos repetidas veces
tanto para el polinomio regresión y Kriging.
2.2.2.3.3. Bootstrapping
Según Queipo y Col (2005) este enfoque ha sido demostrado que funciona mejor
que la validación cruzada en muchos casos. En su forma más simple, en lugar de dividir los
datos en subconjuntos, sub-muestras de datos son consideradas. Cada sub-muestra
aleatoria es una muestra con reemplazo de la muestra completa, es decir, trata los datos
establecidos como una población de la que las muestras pueden ser dibujadas. Existen
diferentes variantes de este enfoque que puede ser utilizado no sólo para la identificación
del modelo, sino también para la identificación de los intervalos de confianza para los
resultados del modelo sustituto. Esto puede venir, aunque a expensas de considerar varias
decenas o incluso cientos de sub-muestras. Por ejemplo, en el caso de regresión
polinómica (dado un modelo) los parámetros de regresión pueden estimarse para cada una
de las sub-muestras y una distribución de probabilidad (y luego intervalos de confianza)
para que los parámetros puedan ser identificados. Una vez que se calculan parámetros de
las distribuciones, los intervalos de confianza de las respuestas del modelo también pueden
ser obtenido (por ejemplo, la media). Este modelo de Bootstrapping ha demostrado ser
eficaz en el contexto de la modelización de redes neuronales.
2.2.3. ANALISIS DE SENSIBILIDAD (SOBOL’)
El método de Sobol’ es un modelo global e independiente dentro de los métodos de
análisis de sensibilidad que se basa en la descomposición de la varianza. Puede manejar
funciones y modelos no lineales y no monotonicas.
𝑝 𝑝 𝑝
1 1
𝑉𝑖1,…, 𝑖𝑠 = ∫ … ∫ 𝑓𝑖 21…𝑖 (𝑋𝑖 1 , … , 𝑋𝑖𝑠 )𝑑𝑋𝑖 1 … 𝑑𝑋𝑖 𝑠 Ec. (72)
𝑠
0 0
Donde 1 ≤ 𝑖1 ≤ ⋯ ≤ 𝑖𝑠 ≤ 𝑝 y s=1,…,p. Con la suposición que los parámetros son
mutuamente ortogonales, este es el resultado en la Ec. (73) por la descomposición de la
varianza.
𝑝 𝑝−1 𝑝
𝑉𝑖
Primer orden SI 𝑆𝑖 = Ec. (74)
𝑉
𝑉𝑖𝑗
Segundo orden SI 𝑆𝑖𝑗 = Ec. (75)
𝑉
El cálculo de 𝑆𝑇𝑖 puede ser usado en la varianza 𝑉~𝑖 que resulta de la variación de
todos los parámetros, excepto 𝑋𝑖
Para calcular las varianzas para poder obtener las medidas de sensibilidad, Sobol’
propuso un atajo en los cálculos, basados en la suposición de sumandos mutuamente
ortogonales en la descomposición. El atajo es alcanzado transformando el doble-lazo de la
integral de la Ec. (72) en una integral del producto de 𝑓 (𝑋𝑗 , … , 𝑋𝑗 𝑋 , … , 𝑋𝑖 𝑠 ) y
1 𝑘−𝑠′ 𝑖 1
En su forma normalizada,
𝑅(𝑥)
𝐺(𝑥) − 1 Ec. (80)
𝑆(𝑥)
Utilizando la Ec. (78), se encuentra que la falla ocurre cuando Z<0, por lo tanto la
probabilidad de falla, pf, viene dada por la siguiente integral.
𝑝𝑓 = ∫ … ∫ 𝑓𝑥 (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) 𝑑𝑥1 𝑑𝑥2 … 𝑑𝑛 Ec. (81)
𝑔( )<0
𝜇𝐺 = 𝜇𝑅 − 𝜇𝑆 Ec. (83)
1 1 𝐺 − 𝜇𝐺 2 Ec. (85)
𝑓𝐺 (𝐺) = exp [− ( ) ]
𝜎𝐺 √2𝜋 2 𝜎𝐺
0
𝑃𝑓 = ∫ 𝑓𝐺 (𝐺) 𝑑𝐺
−∞
Ec. (86)
0
1 1 𝐺 − 𝜇𝐺 2
=∫ exp [− ( ) ] 𝑑𝐺
−∞ 𝜎𝐺 √2𝜋 2 𝜎𝐺
𝐺−𝜇𝐺
Haciendo un cambio de variable como: 𝑢 = 𝜎𝐺
𝜇
− 𝐺
𝜎𝐺 1 1
𝑃𝑓 = ∫ exp [− 𝑢2 ] 𝑑𝑢
−∞ √2𝜋 2
𝜇
− 𝐺 Ec. (87)
𝜎𝐺
=∫ 𝜑(𝑢)𝑑𝑢
−∞
𝜇𝐺
= Φ(−
𝜎𝐺
𝜇𝐺
𝛽= Ec. (88)
𝜎𝐺
Los métodos de momentos pueden ser agrupados en dos tipos, first-order reliability
methods (FORM) y second-order reliability methods (SORM), como método de muestreo
tenemos la simulación de Monte Carlo (MCS).
Con respecto a los métodos de momentos, el estado límite de interés puede ser una
función lineal o no lineal de las variables básicas, en donde el FORM puede ser utilizado
para evaluar la integral cuando la función del estado límite es una función linear de variables
normales no correlacionadas o puede ser también utilizado cuando la función no lineal del
estado límite está representada por una aproximación de primer orden (lineal) con variables
normales equivalentes. SORM estima la probabilidad de falla mediante la aproximación de
la función del estado límite no lineal (incluyendo una función del estado limite lineal con
variables correlacionadas no normales) utilizando una representación de segundo orden.
𝑛 2
𝛿𝐺(𝜇𝑥 ) Ec. (93)
𝜎𝐺̅ = √∑ ( ) 𝜎𝑥𝑖 2
𝛿𝑥𝑖
𝑖=1
𝜇𝐺̅
𝛽= Ec. (94)
𝜎𝐺̅
La Ec. (94) es la misma que la Ec. (88) cuando la función del estado límite es linear.
Aunque el método es simple y computacionalmente eficiente, tiene muchas desventajas, ya
que linealiza la función del estado limite aplicando el primer orden de la serie de Taylor y
trunca los términos altos, donde largos errores pueden aparecer cuando se trabajan como
funciones del estado limite altamente no-lineales. Además el índice de fiabilidad no es
invariante con las ecuaciones del estado límite matemáticamente equivalentes, por ejemplo,
ecuaciones normalizadas y ecuaciones no normalizadas puede dar diferentes índices de
fiabilidad.
El primer paso para utilizar el FORM es transformar las variables aleatorias básicas
en variables que tengan una forma normalizada para que mismas tengan un valor de cero
en la media y un valor unitario en la desviación estándar. Esta transformación es común en
estadística la cual es llamada la transformación de Rosenblatt que es descrita como:
𝑥𝑖 − 𝜇𝑥𝑖
𝑢𝑖 = Ec. (95)
𝜎𝑥𝑖
La superficie de falla de función del estado limite puede ser reescrita en el espacio-
u como G(u)=0, entonces el índice de fiabilidad 𝛽 puede ser simplemente interpretado como
la distancia más corta desde el origen del espacio-u hasta la superficie de falla. Este
problema es interpretado como un problema de optimización.
𝛽 = 𝑚𝑖𝑛√∑ 𝑢𝑖 2 𝑖 = 1…𝑛
Ec. (96)
𝑖=1
𝛿𝐿 𝑢𝑖 𝛿𝐺
= + 𝜆 = 0 Ec. (98)
𝛿𝑢𝑖 √∑𝑛𝑖=1 𝑢𝑖 2 𝛿𝑢𝑖
𝛿𝐿
= 𝐺(𝒖) = 0 Ec. (99)
𝛿𝑢𝑖
𝑛
∗)
𝛿𝐺(𝒖∗ )
𝐺(𝒖) ≈ 𝐺(𝒖 +∑ (𝑢𝑖 − 𝑢𝑖 ∗ ) Ec. (100)
𝛿𝑢𝑖
𝑖=1
𝛿𝐺(𝒖∗ ) 𝑢𝑖
=− Ec. (101)
𝛿𝑢𝑖 𝜆√∑𝑛𝑖=1 𝑢𝑖 2
1
𝜆=
∗ 2 Ec. (102)
√∑𝑛𝑖=1 (𝛿𝐺(𝒖 ))
𝛿𝑢𝑖
Combinando la Ec. (99) y Ec. (100)
𝑛 𝑛
∗)
𝛿𝐺(𝒖∗ ) 𝛿𝐺(𝒖∗ ) ∗
𝐺(𝒖 +∑ . 𝑢𝑖 − ∑ . 𝑢𝑖 = 0 Ec. (103)
𝛿𝑢𝑖 𝛿𝑢𝑖
𝑖=1 𝑖=1
𝑛
∗) √∑𝑛𝑖=1 𝑢𝑖 2 𝛿𝐺(𝒖∗ ) ∗
𝐺(𝒖 − −∑ . 𝑢𝑖 = 0 Ec. (104)
𝜆 𝛿𝑢𝑖
𝑖=1
𝛿𝐺(𝒖∗ ) ∗
𝑛 𝐺(𝒖∗ ) − ∑𝑛𝑖=1 . 𝑢𝑖
𝛿𝑢𝑖
𝛽 = √∑ 𝑢𝑖 2 = Ec. (105)
∗ 2
√∑𝑛𝑖=1 (𝛿𝐺(𝒖 ))
𝑖=1
𝛿𝑢𝑖
Los cosenos directores del vector normal unitario en el espacio-u se escribe como:
𝛿𝐺(𝒖∗ )
𝛿𝑢𝑖
𝛼(𝒖) = − Ec. (106)
∗ 2
√∑𝑛𝑖=1 (𝛿𝐺(𝒖 ))
𝛿𝑢𝑖
𝛿𝐺(𝒙∗ )
𝜎𝑥𝑖
𝛿𝑥𝑖
𝛼(𝒙) = − Ec. (107)
∗ 2
√∑𝑛𝑖=1 (𝛿𝐺(𝒙 ) 𝜎𝑥 )
𝛿𝑥𝑖 𝑖
El punto más probable de falla, MPP, en el espacio-u puede ser escrita también
como:
𝒖∗ = 𝛼(𝒖)𝛽 Ec. (108)
Y en el espacio-x
𝑥𝑖 ∗ = 𝜇𝑥𝑖 + 𝛼𝜎𝑥𝑖 𝛽
Ec. (109)
(i=1,2, …n)
1
𝑔𝑄 (𝑼) = 𝑔(𝒖 ∗) + ∇𝑔𝑇 (𝑼 − 𝒖 ∗) + (𝑼 − 𝒖 ∗)𝑇 𝑯(𝑼 − 𝒖 ∗) Ec. (110)
2
𝒖∗ ∇𝑔
= = 𝜶 Ec. (111)
𝛽 ‖∇𝑔‖
Usando la Ec. (111), la aproximación de segundo orden puede ser reescrita como:
𝑔𝑄 (𝑼) 𝛽2 𝑯 𝑯 1 𝑯
= (−𝛽 + 𝛼 𝑇 𝛼) − (−𝛼 𝑇 + 𝛽𝛼 𝑇 ) 𝑼 + 𝑼𝑇 𝑼 Ec. (112)
‖∇𝑔‖ 2 ‖∇𝑔‖ ‖∇𝑔‖ 2 ‖∇𝑔‖
La Ec. (112) puede ser transformada más allá hasta el espacio-V estándar normal
rotado usando una transformación ortogonal u = Rv donde 𝑅 es una matriz rotación
ortogonal N x N cuya Na columna es 𝜶. 𝑅 puede ser obtenida usando la ortogonalización
Gram-Schmidt tal que 𝑅 es escrito como 𝑅 = [𝑅1 |∝] donde ∝𝑇 𝑅1 = 0. Entonces, MPP en
espacio-V puede ser expresado como 𝑣 ∗= {0, … ,0, 𝛽}𝑇 , y la Ec. (112) puede ser reescrita
como:
𝑔̃𝑄 (𝑽) 𝛽2 𝑯 𝑯
= (−𝛽 + 𝛼 𝑇 𝛼) − (−𝑉𝑁 + 𝛽𝛼 𝑇 𝑹𝑽) + 𝑽𝑻 𝑨𝑽 Ec. (113)
‖∇𝑔‖ 2 ‖∇𝑔‖ ‖∇𝑔‖
𝑹𝑻 𝑯𝑹 ̃
𝑨 𝐴1𝑁 Ec. (114)
𝑨= =[ ]
2‖∇𝑔‖ 𝐴𝑁1 𝐴𝑁𝑁
𝑔̃𝑄 (𝑽) ̃𝑻 𝑨 𝛽2 𝑯 𝑯
= 𝑉𝑁 − 𝛽 + 𝑽 ̃𝑽̃+ 𝛼 𝛼 − 𝛽𝛼 𝑇 ̃ + 𝐴𝑁𝑁 𝑉𝑁 2
𝑹𝑽 + 2𝑉𝑁 𝑨𝑁1 𝑽 Ec. (115)
‖∇𝑔‖ 2 ‖∇𝑔‖ ‖∇𝑔‖
̃ = {𝑉1 , 𝑉𝟐 , … , 𝑉𝑁−1 }𝑇 .
Donde, 𝑽
𝑔̃𝑄 (𝑽) ̃𝑻 𝑨
= 𝑉𝑁 − 𝛽 + 𝑽 ̃𝑽̃ Ec. (116)
‖∇𝑔‖
Para obtener la probabilidad de fallo de la Ec. (116), Honhenbicher y Rackwitz
propusieron la formula como:
1
−
𝜙(𝛽) 2 Ec. (117)
𝑃𝑓 𝑆𝑂𝑅𝑀 ≅ 𝜙(−𝛽) ‖𝐼𝑁−1 − 2 𝐴̃‖
𝜙(−𝛽)
𝜙(𝛽)
Usando la aproximación asintótica de 𝜙(−𝛽)
, la probabilidad de fallo en la Ec. (117)
1
− Ec. (118)
𝑃𝑓 𝑆𝑂𝑅𝑀 ≅ 𝜙(−𝛽)‖𝐼𝑁−1 − 2𝛽𝐴̃‖ 2
Bajo la suposición que el punto del MPP es precisamente buscado y ningún otro
punto existente del MPP, los errores debido a las aproximaciones son categorizados en
métodos convencionales SORM como se muestran a continuación:
En otras palabras, según el autor Song (2013), la probabilidad de fallo puede ser
calculada usando este método, el cual usa una aproximación cuadrática de la función de
desempeño en el espacio-U y la transformación rotacional desde el espacio-U normal
estándar hasta el espacio-V normal estándar rotado.
Fig. (27) MPP (Most Probable Point) y el índice de confiabilidad β en el espacio-U.
Fuente: Song H. (2013)
𝑁𝑓 Ec. (119)
𝑃𝑓 =
𝑁
Optimización de Lipschitz
Recordemos la definición de la continuidad Lipschitz en ℝ’.
Las líneas que corresponden a estas dos desigualdades forman una forma de V por
debajo de 𝑓, como muestra la Fig. (28). El punto de intersección de las dos líneas es fácil
de calcular, y proporciona la estimación del primer mínimo de 𝑓. El algoritmo sigue
realizando la misma operación en las regiones [𝑎, 𝑥1 ] y [𝑥1, 𝑏] Fig. (29 a), siguiente divide al
lado con el menor valor de la función Fig. (29 b).
Existen varios problemas con la utilización de este tipo de algoritmo. Dado que la
idea de los extremos no se traduce tan bien para grandes dimensiones, el algoritmo no tiene
una interfaz intuitiva generalizada para 𝑁 > 1. En segundo lugar, la constante de Lipschitz
con frecuencia no se puede determinar o estimar de una forma razonable. Muchas
simulaciones con aplicaciones industriales pueden incluso no ser constante Lipschitz
continua a través de sus dominios. Incluso si la constante de Lipschitz se puede estimar,
una mala elección puede llevar a malos resultados.
La aparición del algoritmo DIRECT fue motivada por estas dos principales
desventajas de la optimización Lipschitziana. DIRECT hace muestras directas en los puntos
medios de los espacios de búsqueda, eliminando así cualquier confusión de las
dimensiones superiores. DIRECT no requiere ningún conocimiento de la constante Lipschitz
para la función objetivo. En su lugar, utiliza todos los valores posibles para determinar si
una región del dominio debe ser dividida en sub-regiones durante la iteración actual
(Perttunen, 1993).
Fig. (29) Muestra el proceso durante un par de iteraciones.
Fuente: Fuertes (2011)
Inicialización a DIRECT
DIRECT comienza la optimización mediante la transformación del dominio del
problema en la unidad hipercubo. Es decir:
Ω = {𝑥 ∈ ℝ𝑛 : 0 ≤ 𝑥𝑖 ≤ 1} Ec. (123)
El algoritmo funciona en este espacio normalizado, y hace referencia al espacio
original sólo cuando hacemos referencia (llamadas) a la función. El centro de este espacio
es 𝑐1 , y comenzamos hallando 𝑓(𝑐1 ) .
El algoritmo DIRECT opta por dejar los mejores valores de la función en el espacio
más grande; por lo tanto, define:
𝑤𝑖 = 𝑚𝑖𝑛(𝑓(𝑐1 + 𝛿𝑒1 ), 𝑓(𝑐1 − 𝛿𝑒𝑖 )), 1 ≤ 𝑖 ≤ 𝑁 Ec. (124)
La dimensión con el menor 𝑤𝑖 se divide en tres partes, de modo que 𝑐 ± 𝛿𝑒𝑖 son los
centros del nuevo hiperrectángulo. Este patrón se repite para todas las dimensiones centro
hiperrectángulo, eligiendo la nueva dimensión mediante la determinación de 𝑤𝑖
inmediatamente inferior. La Fig. (30) muestra este proceso realizado en la función GP
(problema Goldstein Price).
El parámetro 𝜀 se utiliza para que 𝑓(𝑐𝑗 ) sea superior a nuestra mejor solución actual
por una cantidad no trivial. Los datos experimentales han demostrado que la condición de
1 𝑥 10−2 ≤ 𝜀 ≤ 1 𝑥 10−7 tiene un insignificante efecto en los cálculos. Un buen valor de 𝜀 es
1 𝑥 10−4. Este parámetro es uno de los argumentos opcionales que controla el proceso de
optimización o también llamado factor Jones.
Observaciones de la Definición 2:
La Fig. (31) muestra varias iteraciones del algoritmo DIRECT. Cada fila representa
una nueva iteración. La transición de la primera columna a la segunda representa el proceso
de identificación del hiperrectángulo potencialmente óptimo. Los rectángulos sombreados
en la columna 2 son hiperrectángulos potencialmente óptimos identificados por DIRECT.
La tercera columna muestra el dominio después de que estos rectángulos potencialmente
óptimos se han dividido.
Fig. (32) Espacio del dominio de la función GP después de 191 iteraciones para llegar al mínimo.
Fuente: Fuertes (2011)
𝑟: el peso de la penalización.
𝑚: el número de restricciones.
𝒅𝑇 ∇𝑓 ≤ 0 Ec. (128)
La idea básica de la SQP fue desarrollada por Wilson (1963). Han (1977) desarrolló
un algoritmo que fue implementado por Powell (1978) con algunas modificaciones.
Independientemente, Pshenichny (1970) publicó otro algoritmo SQP en el que incluyó una
estrategia de conjunto activo de restricciones.
En la actualidad los métodos SQP tienen una gran aceptación debido a dos
características de los mismos:
Para ello se emplea un método iterativo que permita encontrar un nuevo punto de
diseño 𝑿𝑘+1 que mejore el punto actual 𝑿𝑘 . La expresión que proporciona el nuevo punto
de diseño es:
Minimizar 𝑓(𝑿𝒌 + 𝒅𝑘 )
Ec. (132)
Sujeto a 𝑔𝑗 (𝑿𝒌 + 𝒅𝑘 ) ≥ 0 𝑗 = 1,2, … , 𝑚
La idea básica de todos los métodos SQP para calcular 𝒅𝑘 consiste en convertir el
problema en un subproblema cuadrático que se resuelve por las técnicas conocidas para
dicho tipo de problemas. Hay diferentes aproximaciones para hacer la conversión del
problema, pero todas ellas se basan en sustituir las funciones 𝑓 y 𝑔𝑗 por sus desarrollos en
serie alrededor del punto de diseño 𝑿𝒌 .
∇𝐿(𝑿, 𝒖) = 0
𝑔𝑗 (𝑿) ≥ 0 𝑗 = 1,2, … , 𝑚
Ec. (134)
𝑢𝑗 ≥ 0 𝑗 = 1,2, … , 𝑚
𝑔𝑗 (𝑿)𝑢𝑗 = 0 𝑗 = 1,2, …,
1⁄ 𝒅𝑇 𝑾 𝒅 ≤ 𝑒 2 Ec. (136)
2 𝑘 𝑘 𝑘
Donde 𝑾𝑘 es una matriz que debe ser definida positiva; por tanto, basta tomar la
matriz identidad. No obstante, Belegundu (1982) muestra cómo incluyendo en dicha matriz
información de curvatura de las funciones se aumenta la relación de convergencia.
El problema así formulado consiste en encontrar una dirección 𝒅𝑘 tal que conduzca
a la región válida (ninguna restricción violada) con el menor valor posible para la función
objetivo y a una distancia no superior a 𝑒. No obstante, si 𝑒 es lo suficientemente pequeño,
o el k-ésimo punto de diseño está suficientemente lejos de la región válida, será imposible
encontrar una solución que cumpla Ec. (135) y Ec. (136) al mismo tiempo.
Las condiciones de optimalidad del punto elegido quedan más patentes planteando
las condiciones de Kuhn-Tucker:
𝑢𝑗′ ≥ 0
𝜇′ ≥ 0
Ec. (138)
𝑢𝑗 ′ (∇𝑔𝑗 (𝑿𝑘 )𝑇 𝒅𝑘 + 𝑔𝑗 (𝑿𝑘 )) = 0; 𝑗 = 1,2, … , 𝑚
𝑢𝑗 ′ ≥ 0
𝑢𝑗 ′ 1
𝑢𝑗 = 𝜇= ′ Ec. (139)
𝜇 𝑢
Se puede reescribir la Ec. (138) como:
Ec. (140)
𝑢𝑗 (∇𝑔𝑗 (𝑿𝑘 )𝑇 𝒅𝑘 + 𝑔𝑗 (𝑿𝑘 )) = 0 𝑗 = 1,2, … , 𝑚
𝑢𝑗 ≥ 0𝑗 = 1,2, … , 𝑚
Minimizar 1⁄ 𝒅𝑇 𝑾 𝒅 + 𝜇𝑓(𝑿 )𝑇 𝒅
2 𝑘 𝑘 𝑘 𝑘 𝑘
Ec. (141)
Sujeto a )𝑇
𝑔𝑗 (𝑋𝑘 𝒅𝑘 + 𝑔𝑗 (𝑿𝑘 ) ≥ 0 𝑗 = 1,2, … , 𝑚
Se observa que las condiciones de Kuhn-Tucker para este problema son las mismas
de la Ec. (140) sin más que tomar:
𝜇 = 1 ; 𝜇′ = 1 Ec. (143)
De todo lo anterior se deduce que se puede resolver el problema de Ec. (141) para
encontrar el valor 𝒅𝑘 buscado en Ec. (132). No obstante, es difícil encontrar la solución
debido a que:
𝑚
2 2 )𝑇
∇ 𝐿(𝑿𝑘 , 𝒖) = ∇ 𝑓(𝑿𝑘 − ∑ 𝑢𝑗 ∇2 𝑔𝑗 (𝑿𝑘 )𝑇 Ec. (145)
𝑗=1
𝑚
2 2 )𝑇
∇ 𝐿(𝑿𝑘 , 𝒖) = ∇ 𝑓(𝑿𝑘 − ∑ 𝑢𝑘𝑗 ∇2 𝑔𝑗 (𝑿𝑘 )𝑇 Ec. (146)
𝑗=1
Siendo
Formulación Estándar
Ante todo, el diseño basado en confiabilidad consiste en minimizar una función de
costo satisfaciendo las restricciones de confiabilidad, las restricciones de confiabilidad están
basadas en la probabilidad de falla correspondiente a cada modo de falla o un solo modo
de falla describiendo las fallas del sistemas, la estimación de las probabilidad de fallas son
usualmente calculadas mediante los análisis de confiabilidad propuestos en secciones
anteriores (FORM, SORM, Montecarlo).
𝑔𝑗 (𝒅) ≤ 0 𝑗 = 𝑚 + 1, … , 𝑀
σ(𝑡𝑒𝑛𝑠𝑖𝑜𝑛)
𝐸 = 𝜀 (𝑑𝑒𝑓𝑜𝑟𝑚𝑎𝑐𝑖𝑜𝑛) (unidades en Pa o Psi) Ec. (150)
2.2.7.6. Tensión
Por definición, la tensión sobre una barra de caso cilíndrica, de longitud l0 y área de
la sección transversal A0 sujeta a una fuerza de tracción uniaxial F, es considerada igual a
la fuerza media de fracción F sobre la barra dividida por el área de su sección transversal
A0. Por tanto,
𝜀(𝑙𝑎𝑡𝑒𝑟𝑎𝑙) 𝜀𝑥 𝜀𝑦
𝑉=− = − =− Ec. (152)
𝜀(𝑙𝑜𝑛𝑔𝑖𝑡𝑢𝑑𝑖𝑛𝑎𝑙) 𝜀𝑧 𝜀𝑧
Se denomina coeficiente Poisson. Para materiales ideales, v = 0.5. No obstante, en
materiales reales el coeficiente de Poisson oscila entre 0.25 y 0.4, con un valor medio
alrededor de 0.3.
Según la ASTM (American Society for Testing Materials) se define como: “Progreso
de cambio estructural progresivo y localizado que ocurre en un material sometido a
condiciones que producen esfuerzos y deformaciones fluctuantes en algún punto o puntos
y el cual puede culminar en grietas o fractura completa después de un número suficiente
de fluctuaciones”.
De acuerdo con los autores Budynas y Keith (2008), afirma que cuando las partes
de máquinas o estructuras fallan estáticamente, por lo general desarrollan una deflexión
muy grande, puesto que el esfuerzo sobrepasó el límite elástico; por ello, la parte se
reemplaza antes de que en realidad suceda la fractura. De esta manera la falla estática
proporciona una advertencia visible. Pero una falla por fatiga no proporciona una
advertencia. Es repentina y total y, por ende, peligrosa. Es relativamente simple diseñar
contra la falla estática porque el conocimiento que se tiene acerca de este tipo de falla es
muy completo.
Las causas de la fatiga vienen dadas principalmente por los siguientes factores, si
alguna de estos no se presenta, no se produciría el inicio y la propagación de la grieta por
fatiga.
Además existen otras variables las cuales tienden a alterar las condiciones para la
fatiga, entre las cuales se pueden mencionar los concentradores de esfuerzos, la corrosión,
la temperatura, la estructura metalúrgica, los esfuerzos residuales y las cargas combinadas.
1. Ciclo de inversión completa o alterna del esfuerzo (Fig. (36 a)): donde el
esfuerzo de tracción se considera positivo y el de compresión negativo. El
esfuerzo máximo (σmáx. ó Smáx.) se considera igual al esfuerzo mínimo (σmin ó
Smin) pero de signos contrario y el esfuerzo medio es igual a cero (σ m ó Sm =
0).
2. Ciclos de esfuerzos de tensión repetidos (Fig. (36 b)): Donde Smáx. y Smin. Son
diferentes, ambas pueden estar en la región de tracción o pueden tener σ
opuestos.
3. Ciclo complejo de esfuerzos irregulares o aleatorios (Fig. (36 c)): Donde los
esfuerzos no siguen ningún patrón de aplicación.
La relación R puede variar desde –1 hasta +1. Por ejemplo, si el esfuerzo se invierte
por completo, es decir, si Smín = Smáx, entonces R = -1. A medida que el valor de R se
aproxima a +1, el intervalo de esfuerzos Sr tiende a cero y la carga se convierte en monótona
(constante) (Gedler y Paredes, 2003).
Fig. (37) Curvas típica de fatiga (curvas de Whöler) para metales férreos y no férreos.
Fuente: Gedler y Paredes (2003).
La curva S-N también suele ser representada en escala doble logarítmica para
mayor comodidad, colocando el logaritmo decimal de los esfuerzos alternantes (log S) en
el eje de las abscisas, contra el logaritmo decimal del número de ciclos a falla (log N),
transformando de esta manera la curva en una línea recta Fig. (38), la cual es expresada
mediante la ecuación sugerida por Basquin.
Fig. (38) Curva S-N. (Esfuerzo Vs Numero de ciclos)
Fuente: Gedler y Paredes (2003).
Hay dos o tres zonas que pueden identificarse en cada superficie fracturada:
Zona 2: En algunos casos puede distinguirse una segunda zona menos lisa en la
que la grieta se ha propagado más rápidamente, quizás en varios lugares a la vez, de modo
que la superficie de fractura es irregular.
Cada una de estas etapas genera una textura diferente en la superficie de la grieta
como se observa en la Fig. (40); en esta figura se pueden observar dos zonas bien
diferenciadas: A, área de fatiga, que es relativamente lisa; y B, área de fractura final, que
posee una textura más rugosa e irregular. Esta área de fractura final, es evidencia de la
deformación plástica que ocurre antes de la separación final. El área de fatiga contiene el
origen o los orígenes O y otras características que indican la dirección y velocidad de
crecimiento de grieta en cualquier etapa de su propagación. Las marcas radiales D y las
marcas concoidales E, son marcas residuales dejadas por el avance de la grieta y ambas
pueden ser utilizadas para ubicar el origen de la misma (Gedler y Paredes, 2003).
Fig. (40) Diferentes texturas generadas en la superficie de fractura por el avance de la grieta.
Fuente: Gedler y Paredes (2003).
2.2.7.8.6.1. Esfuerzo-Vida
Las teorías de falla por fatiga están fuertemente relacionadas con el número de
ciclos (ni/Ni,f), donde ni y Ni,f son respectivamente, el número de ciclos de esfuerzos
aplicados y la vida a la fatiga en combinación con la amplitud de esfuerzo y los niveles de
esfuerzo. El enfoque de este tipo de análisis se basa en determinar la vida a la fatiga en
función del daño causado por el esfuerzo aplicado a través de métodos demostrados a
partir de la ingeniería.
Por lo general, los ensayos de fatiga (S-N) son realizados utilizando cargas
completamente invertidas. Una carga totalmente invertida indica que la carga es alterna
sobre un esfuerzo medio igual a cero. El esfuerzo medio (Sm) está definido por la Ec. (162)
𝑆𝑚𝑖𝑛
𝑅= Ec. (163)
𝑆𝑚𝑎𝑥
𝑆𝑎 1 − 𝑅
𝐴= = Ec. (164)
𝑆𝑚 1 + 𝑅
2.2.7.8.6.2. Deformación-Vida
El método deformación-vida local se basa en el estudio de la duración (vida) de una
material cuando este es sometido a un esfuerzo y en él se produce la formación y
crecimiento de la grieta, este estudio se realiza haciendo una aproximación de la muestra
de un laboratorio bajo las mismas condiciones de deformación cíclica en el sitio de iniciación
de la grieta. Esto se ilustra en la Fig. (42). Mediante el uso de este concepto es posible
determinar la vida a la fatiga en un punto de un componente cargado cíclicamente si se
conoce la relación entre la deformación localizada de la muestra y la vida en fatiga de la
misma. Esta relación deformación-vida se representa típicamente como una curva de
deformación versus vida a la fatiga y se genera mediante la realización de ensayos de fatiga
axial con deformación controlada en muestras lisas y pulidas del material a estudiar.
Las pruebas de deformación controlada con fatiga axial son recomendadas debido
a que el material cuando está sometido a concentraciones de esfuerzo y posee alguna
discontinuidad en su superficie puede estar bajo deformación plástica cíclica, incluso aun,
cuando la mayor parte del componente se comporte elásticamente durante la carga cíclica.
Actividades Procesos
Definición de Variables y parámetros
geométricos o propiedades mecánicas y físicas
Definición de Cargas y condiciones de borde
Definir modelo numérico
Definición de Suposiciones de la simulación
Selección de la malla F.E.M (utilizar diseño
inicial)
Conducir simulaciones
Para reducir las incertidumbres, como lo podría representar una falta de data, la
información referente a las propiedades mecánicas fueron tomadas por el trabajo de
investigación de Barroso (2015); donde el modelo estocástico desarrollado por el autor
ayudó a caracterizar el material de acuerdo a sus propiedades mecánicas. A continuación
se presenta una tabla resumen donde se muestran el valor de las medias de las
propiedades mecánicas involucradas en el diseño del pedal de freno.
Tabla 9 Resumen de propiedades mecánicas de aluminio utilizado
Deformación
Plástica Esfuerzo (MPa)
Aluminio 6063 T3 (mm/mm)
0 209,69
Relación de Poisson 0,003 215,3201145
0,33 0,006 218,8718843
Módulo de Young (MPa) 0,009 221,9132412
66,2227 0,015 227,217849
Esfuerzo de Fluencia (MPa) 0,0425 246,2395142
209,69 0,07 261,6653217
Densidad (g/cm3) 0,0975 275,3561273
2,7 0,125 287,9396233
La malla por defecto (Default) generada por el programa ANSYS ofrece un alto error
en el cálculo del Smáx comparado con otras configuraciones propuestas, es por ello que se
decidió realizar el estudio para la selección de la malla que se adapte mejor a las
condiciones de la investigación.
(𝒅 + 𝟏)(𝒅 + 𝟐)
= 𝒏ú𝒎𝒆𝒓𝒐 𝒅𝒆 𝒄𝒐𝒆𝒇𝒊𝒄𝒊𝒆𝒏𝒕𝒆𝒔 𝒎í𝒏𝒊𝒎𝒐 Ec. (168)
𝟐
𝑆 𝑑𝑒 𝑃𝑎𝑟á𝑚𝑒𝑡𝑟𝑜
𝑥100 = 𝐺𝑆𝐼 (𝐼𝑛𝑑𝑖𝑐𝑒 𝑑𝑒 𝑠𝑒𝑛𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑆𝑜𝑏𝑜𝑙′) Ec. (169)
∑𝑆
Para evaluar los conjuntos se tomó como prioridad los factores como gasto
computacional, tiempo computacional y error de las respuestas arrojadas por cada
conjunto.
Fig. (55) Código para la generación de muestras implementando hipercubolatino mediante MATLAB
∑𝑛 (𝑦𝑖 − 𝑦̂𝑖 )2
𝑅𝑀𝑆𝐸 = √ 𝑖=1 Ec. (171)
𝑛
R2 – Coeficiente de determinación
∑𝑛𝑖=1(𝑦𝑖 − 𝑦̂𝑖 )2
𝑅2 = 1 − Ec. (172)
∑𝑛𝑖=1(𝑦𝑖 − 𝑦̅)2
yi − ŷi
εrri = Ec. (173)
ŷi
𝒀𝒔𝒖𝒓𝒓
𝑌= Ec. (174)
(1 − 𝑓(𝜀))
Un sistema, diseño, proceso o servicio por lo general puede tener múltiples modos
de fallo o causas y efectos. En esta situación, cada modo de falla o causa necesita ser
evaluado y priorizado en función de sus riesgos de manera que los modos de fallo de riesgo
alto (o más peligroso) pueden ser corregidos con la máxima prioridad.
Así mismo mediante esta metodología se tiene una tabla en la cual detalla la
severidad de probabilidad de fallo en la cual se ordena de la más severa a la menor.
Fig. (57) Calificación de severidad de probabilidad de fallo.
Fuente: Wang y col. (2009)
Obtenidas las dos figuras por el método FMEA, el autor Goh (2009) pudo elaborar
una figura resumen en la cual se puede comparar la probabilidad de fallo y la severidad del
diseño. En esta tabla se pueden obtener resultados que destaquen un diseño aceptable,
conservador o sobre diseñado.
Fig. (58) Resumen FMEA para probabilidad de fallo en diseño de estructuras.
Fuente: Goh (2009).
Por lo tanto, la selección de la probabilidad para el diseño óptimo del pedal de freno
fue basada en la tabla anterior para considerar un buen diseño, que en este caso, un diseño
con severidad moderada.
3.1.6. Selección métodos de análisis de confiabilidad (FORM, SORM,
MCS)
Para la selección de los métodos de análisis de confiabilidad se estudiaron tres
métodos First Order Reliability Method (FORM), Second Order Reliability Method (SORM),
simulación de Monte Carlo (MCS). Estos métodos fueron seleccionados debido a su
eficiencia y bajo error que presentan al arrojar las respuestas de un modelo en específico.
Para ello se consideró el gasto y tiempo computacional. Los códigos de programación de
cada método de confiabilidad se pueden consultar en la sección de apéndices. Estos
métodos de confiabilidad fueron aplicados al pedal de freno con unos parámetros
geométricos estándares, es decir, el modelo presentado sin variar algún parámetro o
variable de diseño. Esto para conocer el comportamiento de cada uno de los métodos de
confiabilidad y estudiar su eficiencia en el modelo.
Existen una gran variedad de métodos de RBDO, sin embargo no todos son
eficientes y comúnmente utilizados a nivel global. Para esto se tomó como referencia la
tabla en la sección de apéndices, en la cual detalla los trabajos e investigaciones de
diferentes autores al analizar diferentes estructuras con una gama de métodos de análisis
de confiabilidad. En la tabla elaborada se denota que uno de los métodos más utilizados y
efectivos fue el de Monter Carlo (MCS).
Citando de nuevo a Lian y Kim (2006) como recordatorio importante del concepto
del MCS tenemos que la precisión de la simulación de Monte Carlo depende altamente del
número de simulaciones, donde su aceptación como método de confiabilidad depende
principalmente de su eficiencia y precisión, en general, la estimación de la precisión de
falla depende de la probabilidad de falla determinada y del número de simulaciones.
Función Objetivo
𝑚𝑖𝑛
𝑍 = 𝑚(𝜇𝑥 , 𝜇𝑝 )
𝜇𝑠
Sujeto a (Restricción):
𝑃[𝐺1 (𝒙, 𝒑) ≤ 0] ≤ 𝑃𝑓
𝑃[𝐺2 (𝒙, 𝒑) ≤ 0] ≤ 𝑃𝑓
Limites
xL ≤ x ≤ xU
Donde:
𝝁𝒙 : es el vector de medias de 𝒙
𝐺1 : Función de desempeño
𝑃𝑓 : Probabilidad de falla
(46 + 1)(46 + 2)
= 1128
2
Por último se divide el valor obtenido entre 0,9 ya que se escogió como método de
validación de metamodelos la validación cruzada.
1354
= 1504,44 ≈ 1510
0,9
KRG_L1 2,3816 0,5254 0,9995 3104,11 39,3316 8,6537 0,9592 3069,335 22,1382 4,6785 0,9967 2617,267
Analizando las varianzas y sus respectivos GSI arrojados por Matlab del análisis de
sensibilidad Sobol’ y considerando la premisa que se tomaran las variables y parámetros
con GSI mayor a 0,5%, se obtuvieron un total de 9 variables y parámetros sensibles al
cambio de masa, esfuerzo y pandeo del pedal.
Revisando los planos acotados del pedal de freno, se trató de predecir en primera
instancia cuales parámetros y variables generan un cambio significativo en las variables de
salidas. Una vez culminado el análisis de sensibilidad propuesto por Sobol’ se puede
reafirmar que los resultados del análisis de sensibilidad son acordes con lo supuesto. Sin
embargo, se había asumido que Sy, K y n entrarían como variables sensibles por su
influencia directa en variables de Smax y fbuck. Con estas observaciones se puede confirmar
la importancia de la implementación de un análisis de sensibilidad para una definición
confiable de las variables y parámetros de entrada de un modelo.
(9 + 1)(9 + 2)
= 55
2
55 + (55 ∗ 0.2) = 66
Por último se divide el valor obtenido entre 0,9 con objeto de conducir la validación
cruzada
66
= 73,33 ≈ 200
0,9
Regresión
Esfuerzo Cuadrática 1000 25.6356 6.3018 0.9768 -0.0015 0.0657 0.825
Polinomial
Regresión
Pandeo Cuadrática 1000 10,931 2,966 0,998 0,9970 0,0010 0,1257
Polinomial
b)
c)
Fig. (60) Función de distribución probabilística
a) Masa
b) Esfuerzo
c) Pandeo
Realizando una comparación entre las tres funciones graficadas para las variables
de estudio se aprecia que las funciones muestran una buena tendencia sobre el parámetro
de medición.
Este resultado difiere generalmente con lo que indica el autor Kusano (2015), que
indica que el método FORM es el computacionalmente más eficiente. Esto es debido a que,
en nuestro caso, el metamodelo de regresión Polinomial cuadrática seleccionado para los
tres metamodelos presenta una gran eficiencia en cuanto al tiempo computacional
consumido. Es por ello que los tres métodos de análisis de confiabilidad seleccionados
presentan casi el mismo rendimiento en cuanto a tiempo se refiere.
%RBDO.m
%Utilización de fmincon para optimizar de manera global
clc
clear all
load datosD
load tolerancia
lb=VD(:,1)';
ub=VD(:,2)';
tic
ii=0;
A=lhsdesign(NN,7,'criterion','maximin','criterion','correlation');
for i=1:NN
i
ii=ii+1;
xoa=A(i,:);
x0=xoa.*(ub-lb)+lb
[xx,fval,exitflag]=fmincon(@fObj,x0,[],[],[],[],lb,ub,@MCS,options);
if exitflag==-2 || exitflag==0
ii=ii-1;
else
xi(ii,:)=xx;
fvali(ii)=fval;
end
end
tf=toc
nmin=find(fvali==min(fvali));
%% Resultados
fmin=fvali(nmin)
xmin=xi(nmin,:)
x=variable_f(xmin);
load Masa1000_RQ
masa=preregress(x,B)
load Esfuerzo1000_RQ
Esfuerzo=preregress(x,B)
load Pandeo1000_RQ
FPandeo=preregress(x,B)
[Mediam,Desvm]=Masa2(xmin)
PF=Probabilidad(xmin)
figure(3)
plot(fvali)
Fig. (61) Parte de la programación de RBDO
RBDO
Monte Carlo con algoritmo de optimización basado en Gradiente
105 106
Masa (gr) 145,846886 Masa (gr) 145,462562
d1 27,9600189 d1 27,8992966
d2 79,5281476 d2 80
d3 70,3733526 d3 70
d5 2,47856874 d5 2,0523317
d11 8,88156403 d11 8,01323701
d12 95,9733631 d12 110,1592
d18 2,62716324 d18 2,90030714
Tiempo 8124,502 Tiempo 92039,309
Esfuerzo 166,98775 Esfuerzo 173,777648
Fpandeo 2,18508324 Fpandeo 2,22887486
Mediam 140,523918 Mediam 141,118666
Media Error 0,0010321 Media Error 0,0010321
Desvm 4,197867 Desvm 4,0133483
Desv Error 0,12565934 Desv Error 0,12565934
Pf1 0,00011 Pf1 0,00077
Pf2 0,00123 Pf2 0,00102
Para la probabilidad de falla por fatiga se obtuvo un valor 0,00077, resultando una
confiabilidad de la geometría del pedal por fatiga de un 99,923% y para la probabilidad de
falla por pandeo se tuvo un 0,00102, rectificando que para un número total de simulaciones
mayor 105 se tiene un alrededor de un 20% de error en la precisión del análisis en la
confiabilidad, este error también se debe a la desviación que se arrastraba en el
metamodelo seleccionado.
Así mismo, se comprobó con la tabla anterior que en el método de Monte Carlo
(MCS) mientras se incrementa el número de muestras o simulaciones el resultado será más
óptimo y preciso. Se puede observar al analizar los valores de desviación en donde mejora
sin duda alguna en las simulaciones desarrolladas para 106 muestras, que a su vez este
modelo resulto más ligero que el del grupo de 105.
Fig. (64) Solape de curvas (PDF) del modelo y el material del pedal de freno.
Fig. (65)
Comparando los pedales existentes, el pedal realizado por Martínez y Clara (2012)
tuvo una masa de 220,62g, logrando así reducir un 34,06% de la masa del pedal diseñado
por los autores citados anteriormente.