Você está na página 1de 4

Historia de la Probabilidad y Estadística

Edad Antigua
Desde los comienzos de la civilización han existido formas sencillas de estadística, pues ya se utilizaban representaciones
gráficas y otros símbolos en pieles, rocas, palos de madera y paredes de cuevas para contar el número de personas,
animales o ciertas cosas.
Hacia el año 3000 a.C. los babilonios usaban ya pequeñas tablillas de arcilla para recopilar datos en tablas sobre la
producción agrícola y de los géneros vendidos o cambiados mediante trueque.
Los egipcios analizaban los datos de la población y la renta del país se encontraron interesantes documentos antiguos en
los cuales se demuestran la sabia organización y la gran administración de este pueblo; en donde ellos llevaban cuenta
de los movimientos poblacionales, además de continuamente hacer censos, mucho antes de construir las pirámides en
el siglo XXXI a.C.
En China En China existían registros numéricos similares con anterioridad al año 2000 a.C. El emperador yao ordena un
censo agrícola, comercial e industrial en 2238 A.C.
En la isla de Cerdeña (sudoeste de Italia) existen lingotes de cobre y monumentos prehistóricos que datan del 1800 A.C.
Pertenecientes a los Nuragas, en cuyas paredes se encontraron grabados que se interpretan con mucha verosimilitud
como muescas que representan estadísticas de la población, el ganado y la caza.
Los libros bíblicos de Números y Crónicas incluyen, en algunas partes, trabajos de estadística. El primero contiene dos
censos de la población de Israel y el segundo describe el bienestar material de las diversas tribus judías. 1450 a C Salida
del pueblo de Israel de Egipto.
721 a C, Fue Sargón II, rey de Asiria, quien fundó una biblioteca en Nívine que luego fue ampliada y organizada bajo el
reinado de Assurbanipal; los "textos" que allí se guardaban eran tablillas de ladrillo de arcilla cocida de 25 por 16 cm.,
teniendo sólo en una de sus caras inscripciones cuneiformes. Lo interesante de todo esto es que en esta biblioteca no se
guardaban poemas u obras literarias; sino simplemente era una recopilación de hechos históricos, religiosos,
importantes datos estadísticos sobre producción, cuentas; así como también datos de medicina, astronomía, etc.
594 a C, Grecia también tuvo importantes observaciones estadísticas en lo que refiere a distribución de terreno, servicio
militar, etc. También cabe citar entre los griegos principalmente a Sócrates, Herodoto y Aristóteles, quienes a través de
sus escritos incentivaron la estadística por su importancia para el Estado.
27 a C, El Imperio Romano fue el primer gobierno que recopiló una gran cantidad de datos sobre la población, superficie
y renta de todos los territorios bajo su control. Durante la época de César Augusto, se decretó que todos los súbditos
tenían que tributar y por tanto exigió a todas las personas que se presentaran al estadístico más cercano que era
entonces el recaudador de impuestos. Los censos se realizaban cada cinco años, y los funcionarios.
Durante la Edad Media (aproximadamente 476-1453) la estadística no experimento grandes avances cabe destacar el
trabajo de Isidro de Sevilla llevo a cabo una tarea de recopilar y clasificación de datos de diversa naturaleza cuyos
resultado público en la obra Originum sive Etymologiarum. También podemos citar el censo de Carlomagno en el año
762 para conocer las extensiones de tierra pertenecientes a la iglesia.
En el año 1066, el rey Guillermo I de Inglaterra encargó un censo. La información obtenida con este censo, llevado a
cabo en 1086, se recoge en el Domesday Book, de datos sobre la población, superficie y renta de todos los territorios
bajo su control. En Francia se realizaron algunos censos parciales de siervos durante el siglo IX.
Edad moderna: (aproximadamente 1454 d.c. – 1789 d.c) El cálculo de las probabilidades se inició como solución a
problemas relativos a los juegos de azar. El problema más importante era el conocido como “problema del reparto de
apuestas” que distribuía las ganancias entre jugadores cuando la partida se interrumpía antes de finalizar. Este problema
fue abordado por
Luca Pacioli en 1487, por Niccolo Tartaglia en 1556, y por Girolamo Cardano en 1565. En ninguno de los casos la solución
fue satisfactoria, pero contribuyó al desarrollo de la probabilidad. Durante un brote de peste que apareció a finales del
año 1500 el gobierno inglés comenzó a publicar la estadística semanal de muertes por orden de LORD TOMAS
CROMWELL. Esta costumbre continuo por muchos años. Unos de los primeros trabajos de estadística en el sentido de
descripción del estado apareció en Venecia en el año 1562, su título era “Del Governo et Amministratione di diversi
Regni, cuyo autor fue Francesco Sansovino et Republiche”en este libro se describe el estado ideal de Tomas Moro
“Utopía”. En España se realizó uno de los primeros censos de población en el siglo XVI. En la Republica Dominicana se
guardan estadísticas con información sobre el reparto de indios en 1514, así como el censo Osorio de 1606 que contiene
un recuento de la población, esclavos, ingenieros, estancias de jengibres y puertos en la costa.
En Europa continental también se realizó trabajos de estadística de la población, por el año 1540 el alemán Sebastián
Muster realizó una recopilación estadística de los recursos nacionales que comprendía datos sobre organización política,
instituciones sociales, comercio y fuerzas militares. En el siglo XIX, con la generalización del método científico para
estudiar todos los fenómenos de las ciencias naturales y sociales, los investigadores aceptaron la necesidad de reducir la
información a valores numéricos para evitar la ambigüedad de las descripciones verbales. A pesar de que era un
concepto conocido por los griegos, la media aritmética no fue generalizada a más de dos valores hasta el siglo XVI. La
invención del sistema decimal por Simon Stevin en 1585 parece haber facilitado estos cálculos. Este método fue
adoptado por primera vez en astronomía por Tycho Brahe el que intentaba reducir errores en sus estimados de las
localizaciones de varios cuerpos celestiales. En sus memorias – Un intento por mostrar la emergente ventaja de tomar la
media de un número de observaciones en astronomía práctica- preparada por Thomas Simpson en 1755 (impreso en
1756) aplicaba por primera vez la teoría a la discusión de errores en observaciones. La reimpresión (1757) de sus
memorias sostiene el axioma que errores positivos y negativos son igualmente probables. En 1815 un astrónomo
alemán FREDERIK WILHELM BESSEL introduce el término error probable (der wahrscheinliche Fehler) – la desviación
media La idea de la mediana (valor que separa los datos a la mitad) se originó en el libro de navegación de Edward
Wright (Certaine Errors in Navigation) en 1599 en una sección concerniente a la determinación de una localización con
un compás. Wright sintió que este valor era el que más probablemente estuviera correcto en una serie de
observaciones. ANTOINE AUGUSTIN COURNOT en 1843 fue el primero en usar el término mediana (valeur médiane)
para el valor que divide la distribución de probabilidad en dos mitades iguales.

Uno de los primeros usos de datos estadísticos con fines distintos a la política se dio en 1691 por Gaspar Neumann, un
profesor alemán que vivía en Breslau. Este investigador se propuso demostrar que la creencia popular de que en los
años terminados en siete morían más gentes que en los restantes, y para lograrlo reviso cuidadosamente los archivos
parroquiales de la ciudad. Con dichos datos pudo comprobar que en tales años no fallecían más personas que en los
demás. El Astrónomo ingles Edmond Halley (1656-1742), quien descubrió el cometa que lleva su nombre, conoce los
procedimientos de Neumann y los aplica al estudio de la vida humana. Recopilo las tablas de mortalidad de la ciudad de
Breslau y con ello fundo la matemática de los seguros y dio un gran impulso a los trabajadores de demografía
estadística. Sus cálculos sirvieron de base para las tablas de mortalidad que hoy utilizan las compañías de seguros. Los
Estados Unidos de América fueron el primer país que realizó censo de su población desde su fundación: ya en 1790
cuando fue elegido George Washington como primer presidente se realizó el primero de los censos en los cuales se
encontraron casi cuatro millones de habitantes en los 17 estados. El primer estudio sistemático de un juego de azar lo
realizaron en Francia Pascal y Fermat en el siglo XVII .Aunque en esa época el juego estaba prohibido en casi toda
Europa, había mucha práctica. El caballero de Meré era un asiduo jugador muy amigo de Pascal y tenía la intuición que
las reglas de reparto de las apuesta de los juegos de lanzamiento de dados no era adecuado, por ejemplo en el
lanzamiento de dos dados, ciertas suman salían con más frecuencia que otras. Este problema intrigo a Pascal y junto a
Fermat confirmo la intuición de Meré y desarrollo un método para calcular las probabilidades de las apuestas en los
juegos de azar. Así pues se puede afirmar que que la teoría de la probabilidad nació a mediados del siglo XVII y se le
atribuye a Pascal y Fermat estudiaron los fenómenos aleatorios (aquellos que pueden tener varios resultados y en los
que la aparición de un resultado particular no puede predecirse, por ejemplo el lanzamiento de un dado).
cuando Pierre Fermat » y Blaise Pascal » tratan de resolver algunos problemas relacionados con los juegos de azar.
Aunque algunos marcan sus inicios cuando Cardano (jugador donde los haya) escribió sobre 1520 El Libro de los Juegos
de Azar (aunque no fué publicado hasta más de un siglo después, sobre 1660) no es hasta dicha fecha que comienza a
elaborarse una teoría aceptable sobre los juegos.

Christian Huygens conoció la correspondencia entre Blaise Pascal y Pierre Fermat suscitada por el caballero De Méré, se
planteó el debate de determinar la probabilidad de ganar una partida, y publicó (en 1657) el primer libro sobre
probabilidad: De Ratiociniis in Ludo Aleae, (Calculating in Games of Chance), un tratado sobre juegos de azar.Se
aceptaba como intuitivo el concepto de equiprobabilidad, se admitía que la probabilidad de conseguir un
acontecimiento fuese igual al cociente entre
Durante el siglo XVIII, debido muy particularmente a la popularidad de los juegos de azar, el cálculo de probabilidades
tuvo un notable desarrollo sobre la base de la anterior definición de probabilidad. Destacan en 1713 el teorema de
Bernoulli y la distribución binomial, y en 1738 el primer caso particular estudiado por De Moivre » , del teorema central
del límite. En 1809 Gauss » inició el estudio de la teoría de errores y en 1810 Laplace, que había considerado
anteriormente el tema, completó el desarrollo de esta teoría. En 1812 Pierre Laplace » publicó Théorie analytique des
probabilités en el que expone un análisis matemático sobre los juegos de azar.
A mediados del siglo XIX, un fraile agustino austríaco, Gregor Mendel, inició el estudio de la herencia, la genética, con
sus interesantes experimentos sobre el cruce de plantas de diferentes características. Su obra, La matemática de la
Herencia, fue una de las primeras aplicaciones importantes de la teoría de probabilidad a las ciencias naturales
Desde los orígenes la principal dificultad para poder considerar la probabilidad como una rama de la matemática fue la
elaboración de una teoría suficientemente precisa como para que fuese aceptada como una forma de matemática. A
principios del siglo XX el matemático ruso Andrei Kolmogorov » la definió de forma axiomática y estableció las bases
para la moderna teoría de la probabilidad que en la actualidad es parte de una teoría más amplia como es la teoría de la
medida.
Definiciones
La Probabilidad y la Estadística se encargan del estudio del azar desde el punto de vista de las matemáticas:
La Probabilidad propone modelos para los fenómenos aleatorios, es decir, los que se pueden predecir con certeza, y
estudia sus consecuencias lógicas.
La Estadística ofrece métodos y técnicas que permiten entender los datos a partir de modelos.
De esta manera, el Cálculo de las Probabilidades es una teoría matemática y la Estadística es una ciencia aplicada donde
hay que dar un contenido concreto a la noción de probabilidad.
Probabilidad
En este sentido, el cálculo científico de probabilidades puede ayudarnos a comprender lo que en ocasiones la intuición
nos indica de manera errónea. Un ejemplo típico es la denominada "paradoja de los cumpleaños". Supongamos que
estamos en un grupo de 23 personas. Los cálculos nos dicen que la probabilidad de que dos personas celebren el mismo
día su cumpleaños es del 50%, algo que a simple vista parece increíble (Paradoja del Cumpleaños »). No es de extrañar
por tanto que la Teoría de Probabilidad se utilice en campos tan diversos como la demografía, la medicina, las
comunicaciones, la informática, la economía y las finanzas.
Estadística
Cuando hablamos de estadística, se suele pensar en un conjunto de datos numéricos presentada de forma ordenada y
sistemática. Esta idea es debida a la influencia de nuestro entorno, ya que hoy día es casi imposible que cualquier medio
de communicación, periódico, radio, televisión, etc, no nos aborde diariamente con cualquier tipo de información
estadística.
Sólo cuando nos adentramos en un mundo más específico como es el campo de la investigación de las Ciencias Sociales:
Medicina, Biología, Psicología, ... empezamos a percibir que la Estadística no sólo es algo más, sino que se convierte en la
única herramienta que, hoy por hoy, permite dar luz y obtener resultados, y por tanto beneficios, en cualquier tipo de
estudio, cuyos movimientos y relaciones, por su variabilidad intrínseca, no puedan ser abordadas desde la perspectiva
de las leyes determistas.
La Estadística se ocupa de los métodos y procedimientos para recoger, clasificar, resumir, hallar regularidades y analizar
los datos (Estadística Descriptiva), siempre y cuando la variabilidad e incertidumbre sea una causa intrínseca de los
mismos; así como de realizar inferencias a partir de ellos, con la finalidad de ayudar a la toma de decisiones y en su caso
formular predicciones ( Estadística Inferencial).
Sucesos y tipos de sucesos
En el contexto probabilístico, denominamos suceso a cualquier subconjunto de un espacio muestral; esto es, a cualquier
posible resultado de un experimento aleatorio.
Suceso elemental
Un suceso se dice que es un suceso elemental si está formado por un único elemento del espacio muestral. Por
ejemplo, al tirar un dado el suceso consistente en obtener un cinco.
Suceso compuesto
Un suceso se dice que es un suceso compuesto si está formado por más de un elemento del espacio muestral. En el
mismo ejemplo anterior obtener un número par, es decir, que salga un 2 o un 4 o un 6.
Entre los diferentes sucesos destacaremos los siguientes:
Suceso seguro
El suceso seguro es aquél que está formado por todos los resultados posibles del espacio muestral (E), es decir aquél
que se cumple siempre. Por ejemplo al tirar un dado cúbico obtener un número del uno al seis.
Suceso imposible
El suceso imposible es aquél que no ocurre nunca. Se expresa con el símbolo Ø. Por ejemplo, obtener un ocho al tirar
un dado cúbico.
Suceso contrario o complementario de otro suceso
Se define el suceso contrario a A como el suceso que acontece cuando no ocurre A. EL suceso contrario a obtener un
número par es obtener uno impar. Suele denotarse como:

Criterio de independencia de sucesos


Imagina que vamos a sacar dos cartas de una baraja. Realizamos el experimento sacando en primer lugar una de las
cartas, anotamos su valor, la devolvemos a la baraja, mezclamos bien y extraemos la segunda carta. ¿Influye lo que
ocurrió en la primera extracción en lo que ocurirá en la segunda?.
En muchas situaciones en la que la probabilidad aparece ligada a sucesos compuestos, la ocurrencia de un suceso no
influye en nada en la ocurrencia o no del otro. Por así decirlo, no existe nada adicional que modifique las posibilidades
de ocurrencia del segundo suceso cuando se sabe que ha ocurrido el primero; esto es si el primero no hubiera ocurrido,
las posibilidades del segundo seguirían siendo exactamente las mismas. En estos casos, se habla de Independencia de los
sucesos.
Cuando se cumpla que p(B/A) coincida con p(B) se dice que los sucesos A y B son independientes. En este caso la
probabilidad de la intersección obtenida en el epígrafe anterior quedaría simplemente como el producto de las
probabilidades de cada suceso.

La fórmula anterior se conoce con el nombre de criterio de independencia y es lo que en la práctica nos lleva a calificar
sucesos como independientes.

Medidas de tendencia central


Promedio o media
La medida de tendencia central más conocida y utilizada es la media aritmética o promedio aritmético. Se representa
por la letra griega µ cuando se trata del promedio del universo o población y por Ȳ (léase Y barra) cuando se trata del
promedio de la muestra. Es importante destacar que µ es una cantidad fija mientras que el promedio de la muestra es
variable puesto que diferentes muestras extraídas de la misma población tienden a tener diferentes medias. La media se
expresa en la misma unidad que los datos originales: centímetros, horas, gramos, etc.

Si una muestra tiene cuatro observaciones: 3, 5, 2 y 2, por definición el estadígrafo será:


Estos cálculos se pueden simbolizar:
Donde Y1 es el valor de la variable en la primera observación, Y2 es el valor de la segunda observación y así
sucesivamente. En general, con “n” observaciones, Yi representa el valor de la i-ésima observación. En este caso el
promedio está dado por
De aquí se desprende la fórmula definitiva del promedio:
Desviaciones: Se define como la desviación de un dato a la diferencia entre el valor del dato y la media:
Ejemplo de desviaciones:
Una propiedad interesante de la media aritmética es que la suma de las desviaciones es cero.

Mediana
Otra medida de tendencia central es la mediana. La mediana es el valor de la variable que ocupa la posición central,
cuando los datos se disponen en orden de magnitud. Es decir, el 50% de las observaciones tiene valores iguales o
inferiores a la mediana y el otro 50% tiene valores iguales o superiores a la mediana.
Si el número de observaciones es par, la mediana corresponde al promedio de los dos valores centrales. Por ejemplo, en
la muestra 3, 9, 11, 15, la mediana es (9+11)/2=10.

Moda
La moda de una distribución se define como el valor de la variable que más se repite. En un polígono de frecuencia la
moda corresponde al valor de la variable que está bajo el punto más alto del gráfico. Una muestra puede tener más de
una moda.

Você também pode gostar