1. Introducción.
En la vida cotidiana aparecen muchas situaciones en las que los resultados observados son diferentes aunque las condiciones iniciales en las que se produce la experiencia sean las mismas. Por ejemplo, al lanzar una moneda unas veces resultará cara y otras cruz. Estos fenómenos, denominados aleatorios, se ven afectados por la incertidumbre.
En el lenguaje habitual, frases como "probablemente...", "es poco probable que...", "hay muchas posibilidades de que..." hacen referencia a esta incertidumbre.
La teoría de la probabilidad pretende ser una herramienta para modelizar y tratar con situaciones de este tipo. Por otra parte, cuando aplicamos las técnicas estadísticas a la recogida, análisis e interpretación de los datos, la teoría de la probabilidad proporciona una base para evaluar la fiabilidad de las conclusiones alcanzadas y las inferencias realizadas.
El objetivo del Cálculo de Probabilidades es el estudio de métodos de análisis del comportamiento de fenómenos aleatorios.
Aunque desde sus orígenes siempre han estado ligadas, es cierto que existe un cierto paralelismo entre la estadística descriptiva y el cálculo de probabilidades, como se puede apreciar en la siguiente tabla:
ESTADÍSTICA
|
PROBABILIDAD
|
Fi Fi
|
Probabilidad
|
Variable Unidimensional
|
Variable aleatoria
|
Variable Bidimensional
|
Vectores aleatorios
|
Distribución de frecuencias
|
Distribución de Probabilidad (Función de distribución)
|
Medías, Momentos
|
Esperanza, momentos
|
Independencia Estadística
|
Independencia estocástica
|
Series Temporales
|
Procesos escolásticos
|
En la vida diaria nos encontramos muchos fenómenos que se puede repetir un gran número de veces, en condiciones similares dando un conjunto de datos.
Estos fenómenos pueden ser determinísticos o aleatorios.
2. PROBABILIDAD CLÁSICA O “A PRIORI”
- Definición: Si un evento puede ocurrir de N formas, las cuales se excluyen mutuamente y son igualmente probables, y si m de esos eventos poseen una característica E, la probabilidad de ocurrencia de E es igual a m/N.
3. PROBABILIDAD RELATIVA O “A POSTERIORI”
- DEFINICIÓN: Si un suceso es repetido un GRAN número de veces, y si algún evento resultante, con la característica E, ocurre m veces, la frecuencia relativa de la ocurrencia E, m/n, es aproximadamente igual a la probabilidad de ocurrencia de E.
4. Conceptos básicos.
- Fenómeno determinístico: al repetir un fenómenos bajo idénticas condiciones iniciales se obtiene siempre los mismos datos.
- Fenómeno aleatorio: al repetir el fenómeno bajo las mismas condiciones no obtenemos los mismos resultados. Por ejemplo: al lanzar una moneda al aire, puede dar cara o cruz.
- Experimento aleatorio: es una acción que repetimos bajo idénticas condiciones iniciales y no se obtienen siempre los mismos resultados. Por ejemplo, al lanzar un dado, tenemos una sucesión de números que pueden salir.
- Suceso elemental: es cada uno de las posibilidades de un experimento aleatorio.
- Espacio muestral: conjunto de todos los sucesos elementales del experimento aleatorio y lo llamaremos (E). En el caso del dado sería: 1, 2, 3, 4, 5, 6.
- Suceso: está formado por uno o más sucesos, es decir, un subconjunto de resultados elementales del experimento aleatorio. En el caso del dado, nos interesa saber si es par o impar el número dado.
- Dos sucesos serán iguales, cuando todo el suceso elemental de uno está en el otro, y viceversa.
- Suceso imposible: no tiene ningún elemento espacial (E). Por tanto, no ocurrirá nunca se representa como ∅. Por ejemplo, en el lanzamiento del dado no puede darse 8.
INTRODUCCIÓN AL CÁLCULO DE PROBABILIDADES.
—> Suceso complementario a un suceso A: Es el suceso que verifica si, como el resultado del experimento aleatorio, no se verifica A. Se denota con el símbolo Ā.
—> Sucesos incompatibles: Los sucesos A y B son incompatibles o mutuamente excluyentes si no pueden ocurrir simultaneamente.
Si tenemos dos sucesos cualesquiera, A,B: A está contenido en B y B no está contenido en A,
A⊂B⇒ B⊄A
Si tenemos dos sucesos cualesquiera A, B: donde A está contenido en B y B está
contenido en A, entonces A = B.
A,B/A⊂B⇒ B⊂A⇒A=B
—> Unión de sucesos: es el suceso formado por todos los complementos de A y de B.
A∪B.
—> Diferencia de sucesos: dados dos sucesos aleatorios A, B ∈ E , se llama suceso
diferencia de A y B y se representa mediante A/B, o bien, A-B al suceso aleatorio formado por todos los sucesos elementales que pertenecen a A, pero no a B.
—> Intersección de sucesos: Dados dos sucesos A y B, se llama suceso intersección de A y B, y se representa por A ∩ B, al suceso que se realiza si y sólo si se realizan simultáneamente A y B.
5. Reglas básicas: Teoría de la Probabilidad.
- Las probabilidades de un evento o suceso siempre oscilan entre 0 y 1.
- La probabilidad de que un evento o suceso sea seguro es igual a 1.
- La probabilidad de un suceso o evento imposible es igual a 0.
- La unión de A y B es:
P(AUB)=P(A)+P(B)-P(A П B)
- La probabilidad de un suceso contrario o del complemento es igual a 1, menos probabilidad del suceso.
P (A ́)= 1-P(A)
- La probabilidad de que ocurra el suceso A si ha ocurrido el suceso B se denomina probabilidad condicionada y se define como:
P(A/B)=P(AI B) / P(B)
SiP(B) no es igual a 0.
6. Probabilidad Condicionada.
Hasta ahora hemos visto el concepto de probabilidad partiendo de que la única información que tenemos sobre el experimento es el espacio muestral. Sin embargo, en ocasiones se conoce que un determinado suceso ha ocurrido. ¿Modificará esta información adicional la probabilidad de que ocurra otro suceso?. Veremos que generalmente sí. A partir de esta idea surge la idea de probabilidad condicionada, que se
define:
Sea un espacio probabilístico y un suceso B perteneciente al Algebra de Boole, tal que P(B) ≠ 0, entonces se define la probabilidad de que ocurra A si antes ha ocurrido B, como:
P(B/A)= P(A ∩ B)/ P(A) si P(B) ≠ O.
Análogamente podemos definir P(A/B) como:
P(A/B)= P(A ∩ B)/ P(B) si P(A) ≠ O.
7. Teorema de Bayes.
Expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A.
En términos más generales el teorema de Bayes que vincula la probabilidad de A dado B con la probabilidad de B dado A.
8. Distribución de probabilidad en variables directas: Binomial y Poisson.
8.1. Distribución binomial.
La distribución binomial es un modelo matemático de distribución teórica de (la normal es con variables continuas) variables discretas
– Cuando se producen situaciones en las que sólo existen dos posibilidades (cara/cruz; sano/enfermo...)
– El resultado obtenido en cada prueba es independiente de los resultados obtenidos anteriormente.
– La probabilidad del suceso A es constante, la representamos por p, y no varía de una prueba a otra. La probabilidad de `A es 1- p y la representamos por q .
– El experimento consta de un número n de pruebas.
Mediante esta distribución se resuelven los problemas que plantean:
– Si al hacer un experimento hay una probabilidad p de que ocurra un suceso ¿Cuál es la probabilidad de que en N experimentos el suceso ocurra X veces?
• P: probabilidad de ocurrencia; q de no ocurrencia
• X: numero sucesos favorables
• N: numero total de ensayos
8.2. Distribución de Poisson.
Poisson: médico miliar francés que estudia en el s.XIX la probabilidad de que un soldado muera en el campo de batalla por golpes de un caballo
– También se llama la distribución de probabilidad de casos raros.
La distribución de Poisson se utiliza en situaciones donde los sucesos son impredecibles o de ocurrencia aleatoria, es decir, no se sabe el total de posibles resultados.
Permite determinar la probabilidad de ocurrencia de un suceso con resultado directo.
Es muy útil cuando la muestra o segmento n es grande y la posibilidad de éxitos p es pequeña. También, es útil cuando la probabilidad del evento que nos interesa se distribuye dentro de un segmento n dado como, por ejemplo, distancia, área, volumen o tiempo definido.
9. Tipificación de valores.
Como cualquier otra variable, las variables con distribución normal también pueden tipificarse
El resultado es una variable que tiene la distribución normal tipificada o estándar
Es una distribución con media 0 y desviación típica 1
Suele representarse con la letra z
Una vez tipificadas, todas las variables con distribución normal tienen exactamente la misma distribución.
Esto quiere decir que para toda variable con distribución normal, una vez tipificada, para cada valor o conjunto de valores de z, sabemos exactamente su frecuencia relativa o su probabilidad.
Pero el valor tipificado z no tiene por qué ser un número
entero
Podemos calcular la probabilidad de cualquier valor de z, aunque no sea entero
Hoy día lo hacemos con ordenadores
También se puede hacer (antes siempre así) con tablas publicadas en muchos lugares con la frecuencia relativa o probabilidad de diferentes valores de z en la distribución normal estándar
Muchos tablas ligeramente diferentes: todas la misma información.
Cómo interpretar la tabla:
Columna de la izquierda (permite elegir fila): valor de z con un decimal.
Columnas sucesivas (permite elegir columna): valor del segundo decimal de z.
No hay comentarios:
Publicar un comentario