jueves, 4 de octubre de 2012

Introduccion a estadistica II

Que es la probabilidad?

La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto de resultados) luego de llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. Asi como se refiere al calculo de un evento, cuando se sabe otro con el cual esta relacionado.




Probabilidad Objetiva.

Supone que todos los eventos tienen la misma probabilidad de ocurrir, esta en relacion entre el numero de eventos señalados como exitosos. respecto al total de eventos posibles.

Por ejemplo:
si en una caja hay 50 manzanas y 200 naranjas, la probabilidad de que al tomar una fruta sea esta manzana es de?  50/250


Se toma el total de eventos exitosos ( en este caso 50) , y se dividen entre el total de producto ( que en este caso son 250 frutas.)


Probabilidad Subjetiva.

Es una forma de cuantificar por medio de factores de ponderacion individuales, la probabilidad de que ocurra cierto evento, cuando no es posible de cuantificar de otra manera mas confiable.

FORMULA GENERAL  DE PROBABILIDAD: = numero de eventos (n)/ total de eventos (N)



Hay determinados experimentos aleatorios que no son susceptibles de realizarse y sus resultados no son equiprobables. Imaginemos que se quiere determinar la probabilidad: de que la economía de España crezca en el próximo año un 3%; que las acciones de una empresa se revaloricen en un 10% en un mes; que una empresa presente suspensión de pagos; que un nuevo producto sea bien acogido en el mercado; que ocurra un accidente nuclear; etc.

En estas circunstancias, donde los experimentos solo se pueden realizar una vez o ninguna o que se puedan repetir pero en condiciones distintas, no son aplicables ninguna de las dos definiciones dadas anteriormente, por lo que no es posible asignar probabilidades mediante un procedimiento objetivo, debiendo recurrir a procedimientos de tipo subjetivo, a opiniones de expertos. 

En estos casos la probabilidad expresa un grado de creencia o confianza individual en relación con la ocurrencia o no de un determinado suceso. Se trata de un juicio personal sobre el resultado de un experimento aleatorio. Además debemos admitir la posibilidad de que distintos sujetos asignen probabilidades diferentes al mismo suceso. No obstante esta definición de probabilidad también satisface las tres propiedades vistas antes.

QUE ES UN EVENTO.

Un evento es el resultado posible o un grupo de resultados posibles de un experimento o un proceso observado y es la mínima unidad de análisis, para efectos de calculo de probabilidad.

Tipos de evento:

  • Mutuamente excluyente
  • Independiente.
  • Dependiente
  • No excluyente entre si. 






EJEMPLO DE EVENTO:


  • MUTUAMENTE EXCLUYENTE
Se tiene una urna con 50 papeles de colores, 15 rojos, 5 morados, 9 verdes, 11 naranjas y 10 azules ¿ cual es la probabilidad de:

  1. Salga un papel azul ó
  2. Sale un papel rojo

P(A ó B)=10/50+15/50= 25/50=1/2

  • INDEPENDIENTE
En una baraja de 52 cartas se toma una carta al azar, luego se regresa y se toma otra, cual es la probabilidad de: A la primera sea de diamante y B sea de trebol.

P(A)*P(B)= 13/52 * 13/52= 169/2704

  • NO EXCLUYENTE ENTRE SI:
Si consideramos en un juego de domino sacar al menos un blanco y un 6, estos eventos son no excluyentes porque puede ocurrir que salga el 6 blanco.


  • DEPENDIENTE
Si hago la probabilidad de que pase B dado que sea A y esto es igual a la probabilidad de  que pase B, solo entonces los eventos son independientes.




PROBABILIDAD CLÁSICA, FRECUENCIAL Y SUBJETIVA


El concepto de probabilidad es muy antiguo y a lo largo de la historia se ha definido de distintas formas, aunque todas ellas mantienen en común las características básicas del concepto. En general cuando hablemos de probabilidad lo haremos siempre en referencia a la probabilidad de un suceso y la entenderemos como una medida cuantificada de la verosimilitud de ocurrencia de un suceso frente a los demás sucesos del experimento. Pero qué duda cabe que esta definición no es del todo buena, pues se utiliza el término verosimilitud para definir la probabilidad, cuando el mismo es un sinónimo de lo que se quiere definir. También podría hablarse del grado de incertidumbre en la ocurrencia de los resultados de un experimento. En cualquier caso la probabilidad de un suceso es una medida cuantificable que toma valores entre cero y uno a diferencia del concepto de posibilidad que es una medida cualitativa.


PROBABILIDAD CLÁSICA O A PRIORI 

Si el experimento que estamos realizando da lugar a un espacio muestral E que es finito y cuyos resultados son mutuamente excluyentes y equiprobables o simétricos, entonces, la probabilidad del suceso A perteneciente a E se define como el cociente de los resultados favorables a A respecto del total de resultados posibles, este tipo de probabilidad es la que se emplea antes del evento, de ahí el nombre de apriori.

 LA DISTRIBUCIÓN UNIFORME

 La distribución Uniforme es el modelo (absolutamente) continuo más simple. Corresponde al caso de una variable aleatoria que sólo puede tomar valores comprendidos entre dos extremos a y b, de manera que todos los intervalos de una misma longitud (dentro de (a, b)) tienen la misma probabilidad. También puede expresarse como el modelo probabilístico correspondiente a tomar un número al azar dentro de un intervalo (a, b).

 














DISTRIBUCIÓN NORMAL

En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales.
La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana.
La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.
De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional.
La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.
Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:
·   caracteres morfológicos de individuos como la estatura;
·   caracteres fisiológicos como el efecto de un fármaco;
·   caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos;
·    caracteres psicológicos como el cociente intelectual;
·   nivel de ruido en telecomunicaciones;
·    errores cometidos al medir ciertas magnitudes;
·     etc.

La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muéstrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal. Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".
En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad  Continuas y discretas.

DISTRIBUCIÓN EXPONENCIAL
La distribución exponencial es el equivalente continuo de la distribución geométrica discreta. Esta ley de distribución describe procesos en los que:

·   Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que,  el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra en un instante tf, no depende del tiempo transcurrido anteriormente en el que no ha pasado nada.

Ejemplos de este tipo de distribuciones son:
·    El tiempo que tarda una partícula radiactiva en desintegrarse. El conocimiento de la ley que sigue este evento se utiliza en Ciencia para, por ejemplo, la datación de fósiles o cualquier materia orgánica mediante la técnica del carbono 14, C14;
·    El tiempo que puede transcurrir en un servicio de urgencias, para la llegada de un paciente;
·   En un proceso de Poisson donde se repite sucesivamente un experimento a intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos sucesos consecutivos sigue un modelo probabilístico exponencial. Por ejemplo, el tiempo que transcurre entre que sufrimos dos veces una herida importante.


No hay comentarios:

Publicar un comentario