Você está na página 1de 6

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA DEFENSA


UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA
DE LA FUERZA ARMADA NÚCLEO PUERTO CABELLO
DIVISIÒN DE ASUNTOS SOCIALES

PROCESOS ESTOCÁSTICOS

Docente: Ing. Yelmin Perez Alumno:


Carlos Noguera 24.497.411

PUERTO CABELLO, JUNIO DE 2018


Fundamentos de Procesos Estocásticos

Un proceso estocástico es un conjunto de variables aleatorias que depende


de un parámetro o de un argumento. En el análisis de series temporales, ese
parámetro es el tiempo. Formalmente, se define como una familia de variables
aleatorias Y indiciadas por el tiempo, t. Tales que para cada valor de t, Y tiene
una distribución de probabilidad dada.

En términos mucho más sencillos, un proceso estocástico es aquel que no se


puede predecir. Se mueve al azar. Aunque, como veremos más tarde, existen
distintos tipos de procesos estocásticos. Uno de los ejemplos más clásicos
para hacer referencia a un proceso estocástico es la bolsa de valores.

A pesar de esto, existen estrategias que han demostrado sobradamente que la


bolsa no es un proceso estrictamente estocástico. Sin embargo, en este caso,
nos estamos refiriendo a la bolsa de valores segundo a segundo. Ni el mejor
modelo predictivo del mundo sería capaz de predecir si la bolsa subirá o bajará
cada segundo.

Teoría de la Probabilidad

El concepto de probabilidad nace con el deseo del hombre de conocer con


certeza los eventos futuros. Es por ello que el estudio de probabilidades surge
como una herramienta utilizada por los nobles para ganar en los juegos y
pasatiempos de la época. El desarrollo de estas herramientas fue asignado a
los matemáticos de la corte.

Con el tiempo estas técnicas matemáticas se perfeccionaron y encontraron


otros usos muy diferentes para la que fueron creadas. Actualmente se continuó
con el estudio de nuevas metodologías que permitan maximizar el uso de la
computación en el estudio de las probabilidades disminuyendo, de este modo,
los márgenes de error en los cálculos.

A través de la historia se han desarrollado tres enfoques conceptuales


diferentes para definir la probabilidad y determinar los valores de probabilidad

Experimento Aleatorio
Es aquel que bajo el mismo conjunto aparente de condiciones iniciales,
puede presentar resultados diferentes, es decir, no se puede predecir o
reproducir el resultado exacto de cada experiencia particular. (Ej.: Lanzamiento
de un dado).
Espacio Muestral
En la teoría de probabilidades, el espacio muestral (denotado E, S, Ω o U) consiste
en el conjunto de todos los posibles resultados de un experimento aleatorio, junto con
una estructura sobre el mismo
Probabilidad
La probabilidad es una medida de la certidumbre asociada a un suceso o evento
futuro y suele expresarse como un número entre 0 y 1 (o entre 0 % y 100 %).

Distribución de probabilidad
Es una función que asigna a cada suceso definido sobre la variable la probabilidad de
que dicho suceso ocurra. La distribución de probabilidad está definida sobre el
conjunto de todos los sucesos y cada uno de los sucesos es el rango de valores de la
variable aleatoria.

Función de Densidad de Probabilidad


Describe la probabilidad relativa según la cual dicha variable aleatoria tomará
determinado valor. La probabilidad de que la variable aleatoria caiga en una región
específica del espacio de posibilidades estará dada por la integral de la densidad de
esta variable entre uno y otro limite de dicha región.
La función de densidad de probabilidad es positiva a lo largo de todo su dominio y su
integral sobre todo el espacio es de valor unitario.

Esperanza Matemática

Es el número o que formaliza la idea de valor medio de un fenómeno


aleatorio.

Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la


probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho
suceso. Por lo tanto, representa la cantidad media que se "espera" como
resultado de un experimento aleatorio cuando la probabilidad de cada suceso
se mantiene constante y el experimento se repite un elevado número de veces.
Cabe decir que el valor que toma la esperanza matemática en algunos casos
puede no ser "esperado" en el sentido más general de la palabra (el valor de la
esperanza puede ser improbable o incluso imposible).
Varianza

Es una medida de dispersión definida como la esperanza del cuadrado de la


desviación de dicha variable respecto a su media.

Su unidad de medida corresponde al cuadrado de la unidad de medida de la


variable: por ejemplo, si la variable mide una distancia en metros, la varianza
se expresa en metros al cuadrado. La varianza tiene como valor mínimo 0. La
desviación estándar (raíz cuadrada de la varianza) es una medida de
dispersión alternativa, expresada en las mismas unidades que los datos de la
variable objeto de estudio.

Distribución Bidimensional

Las distribuciones bidimensionales son aquellas en las que se estudian al


mismo tiempo dos variables de cada elemento de la población: por ejemplo:
peso y altura de un grupo de estudiantes; superficie y precio de las viviendas
de una ciudad; potencia y velocidad de una gama de coches deportivos.

Funciones Generadoras de Probabilidad

La función generadora de momentos o función generatriz de probabilidad de


una variable aleatoria X es

La función generadora de momentos se llama así porque, si existe en un


entorno de t = 0, permite generar los momentos de la distribución de
probabilidad:

Función Característica
Es una función de variable real que toma valores complejos, que permite la
aplicación de métodos analíticos (es decir, de análisis funcional) en el estudio
de la probabilidad.
Distribución Binomial
Es una distribución de probabilidad discreta que cuenta el número de éxitos en una
secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija
p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se
caracteriza por ser dicotómico, esto es, solo dos resultados son posibles. A uno de
estos se denomina «éxito» y tiene una probabilidad de ocurrencia p y al otro,
«fracaso», con una probabilidad q = 1 - p. En la distribución binomial el anterior
experimento se repite n veces, de forma independiente, y se trata de calcular la
probabilidad de un determinado número de éxitos. Para n = 1

Distribución de Poisson
En teoría de probabilidad y estadística, la distribución de Poisson es una
distribución de probabilidad discreta que expresa, a partir de una frecuencia de
ocurrencia media, la probabilidad de que ocurra un determinado número de eventos
durante cierto período de tiempo. Concretamente, se especializa en la probabilidad de
ocurrencia de sucesos con probabilidades muy pequeñas, o sucesos "raros".

Distribución Normal

Se llama distribución normal, a una de las distribuciones de probabilidad de


variable continua que con más frecuencia aparece en estadística y en la teoría
de probabilidades.1

La gráfica de su función de densidad tiene una forma acampanada y es


simétrica respecto de un determinado parámetro estadístico. Esta curva se
conoce como campana de Gauss y es el gráfico de una función gaussiana

La importancia de esta distribución radica en que permite modelar numerosos


fenómenos naturales, sociales y psicológicos. 3Mientras que los mecanismos
que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la
enorme cantidad de variables incontrolables que en ellos intervienen, el uso del
modelo normal puede justificarse asumiendo que cada observación se obtiene
como la suma de unas pocas causas independientes.
Una variable aleatoria continua, X, sigue una distribución normal de media μ y
desviación típica σ, y se designa por N(μ, σ), si se cumplen las siguientes condiciones:

1. La variable puede tomar cualquier valor: (-∞, +∞)

2. La función de densidad, es la expresión en términos de ecuación matemática de la


curva de Gauss:

Distribución Gamma

Es una distribución de probabilidad continua con dos parámetros y cuya


función de densidad para valores es

Distribución de Beta
En estadística la distribución beta es una distribución de probabilidad continua con dos
parámetros cuya función de densidad para valores es 0 <= x <= 1 es:

El valor esperado y la varianza de una variable aleatoria X con distribución beta son:

Você também pode gostar