A3 Estadistica

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 8

CDMX a 28 de marzo de 2022

ACTIVIDAD
CUESTIONARIO

Nombre del docente: Pablo Barrera Pineda

INSTRUCCIONES
a) RESPONDE LAS SIGUIENTES ACTIVIDADES

1. Define variable aleatoria, continua y discreta.

Variable Aleatoria
Para un espacio muestral dado 𝛿 de algún experimento, una variable aleatoria (va) es cualquier regla que asocia un número con
cada resultado en 𝛿. En lenguaje matemático una variable aleatoria es una función cuyo dominio es el espacio muestral y cuyo
rango es el conjunto de los números reales.
Variable Continua
Una variable aleatoria es continua si las siguientes condiciones se cumplen:
1. Su conjunto de valores posibles se compone de todos los números que hay en un solo intervalo sobre la línea de numeración
posiblemente de extensión infinita, es decir, desde −∞ hasta ∞) o todos los números en una unión disjunta de dichos intervalos
(por ejemplo, [0,10] ꓴ [20,30]).
2. Ningún valor posible de la variable tiene probabilidad positiva, esto es, 𝑃(𝑋 = 𝑐) = 0 con cualquier valor posible de 𝑐 .
Variable Discreta
Una variable aleatoria discreta es una variable aleatoria cuyos valores posibles constituyen un conjunto finito, o bien pueden ser
puestos en lista en una secuencia infinita en la cual existen un primer elemento, un segundo elemento y así sucesivamente
(“contablemente” infinita).
2. ¿Qué es una distribución de probabilidad?
La distribución de probabilidad o función masa de probabilidad (fmp) de una variable discreta se define para cada número 𝑥 como
𝑝(𝑥) = 𝑃(𝑋 = 𝑥) = 𝑃(𝑡𝑜𝑑𝑜𝑠 𝜔𝜖𝛿: 𝑋(𝜔).

Es decir, para cada valor posible 𝑥 de la variable aleatoria la función masa de probabilidad especifica la probabilidad de observar
dicho valor cuando se realiza el experimento. Se requieren las condiciones 𝑝(𝑥) ≥ 0 𝑦 𝛴 todas las x posibles𝑝(𝑥) = 1 para cualquier función
masa de probabilidad.

3. Define espacio muestral.


El espacio muestral de un experimento, denotado por 𝛿, es el conjunto de todos los posibles resultados de dicho experimento.

Es el conjunto de todos los resultados posibles, en función de nuestra perspectiva del experimento aleatorio. También se le conoce
como evento universo.

4. Describe eventos simples, eventos compuestos, eventos complementarios y eventos


mutuamente excluyentes.
Evento Simple

Los eventos simples son aquéllos que ya no pueden descomponerse en otros más sencillos. Otra manera de denominar
a los eventos simples es la de “puntos muéstrales”. Esta denominación es útil cuando se trata de representar
gráficamente los problemas de probabilidad pues cada evento simple (punto muestral) se representa efectivamente
como un punto.

Eventos Compuestos

Los eventos compuestos incluyen varias posibilidades por lo que pueden descomponerse en eventos sencillos.

(evento compuesto)

Eventos mutuamente excluyentes

Son aquellos eventos que si se producen uno de ellos, no puede producirse el otro.

En el caso A y B sean simultáneamente


excluyentes, esto es, cuando su intersección
es vacía, la probabilidad de la unión de dos
eventos es la suma de las probabilidades de
los eventos tomados individualmente.

𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) 𝑠𝑖 𝐴 ∩ 𝐵 = 𝛷

Eventos complementarios

Los eventos complementarios son aquellos que nos dan solo dos resultados de un evento, siendo éstos los dos únicos
resultados posibles.
4. Explica cuáles son los axiomas de la probabilidad.
Hay tres postulados básicos de la probabilidad a los que se les conoce como Axiomas de probabilidad, lo que en leguaje matemático
significa que son proposiciones que por su carácter evidente no requieren demostración. Construyen, por decirlo de alguna manera,
“las reglas del juego”, sin importar si estamos trabajando una probabilidad subjetiva o empírica, o si seguimos los postulados de la
probabilidad clásica. Estos axiomas, que constituyen el cimiento de la teoría moderna de probabilidades y fueron propuestos por el
matemático ruso Kolmogorov, se expresan de manera formal en los siguientes términos:

1) Para todo evento 𝐴, 𝑃(𝐴) ≥ 0

2) Si Ω representa el evento universo, entonces 𝑃(𝛿) = 1

3) Si A1, A2, A3,... es un conjunto de eventos disjuntos, entonces

𝑃(A1∪ A2∪ A3∪ … ) = ∑∞


𝑖=1 𝑃(𝐴𝑖 )

- El primer axioma nos indica que no hay probabilidades negativas

- El segundo. Que ningún evento tiene una probabilidad mayor a uno

A partir de ellos se tienen se tienen otros resultados de suyo importantes, tales como:

a) P(Φ)=0, donde Φ representa el conjunto vacío.

b) P(𝐴𝑐 ) = 1 − 𝑃(𝐴)

En el segundo de estos resultados estamos haciendo referencia a eventos complementarios.

5. Define, probabilidad simple, probabilidad conjunta y probabilidad condicional.

Probabilidad simple

En un experimento cualquiera, la probabilidad simple de un evento es la que tiene este, sin considerar que pueda tener con otros
eventos. También se llama probabilidad marginal.

Probabilidad conjunta

En muchas ocasiones estaremos enfrentando problemas en los que nuestros eventos de interés definidos por la ocurrencia de dos o
más eventos simples. Cuando los eventos de interés implican la ocurrencia de dos o mas eventos simples de manera simultánea,
decimos que estamos en presencia de una probabilidad conjunta.

Probabilidad condicional

Dados dos eventos podemos preguntarnos por la probabilidad de uno de ellos bajo el supuesto de que el otro ya ocurrió. Al inicio de
este tema, por ejemplo, se planteaba la situación con respecto de la probabilidad de pasar un examen si el estudiante realmente
estudio para icho examen. Este tipo de situaciones dan lugar a la probabilidad condicional.
6. ¿Qué es la Independencia estadística?
Sean dos eventos A y B del espacio de eventos Ω; decimos que A y B son independientes en sentido probabilístico si la probabilidad
de que ocurra A no influye en la probabilidad de que ocurra B y simultáneamente, la probabilidad de que ocurra B no influye en la
probabilidad de que ocurra A. En caso contrario decimos que los eventos son independientes. Esto lo expresamos simbólicamente del
siguiente modo:

Para considerar que A y B son independientes se deben cumplir las dos condiciones siguientes:

𝑃(𝐵|𝐴) = 𝑃(𝐵) 𝑦 𝑃(𝐴|𝐵) = 𝑃(𝐴)

Es decir, el hecho e que ocurra un evento no modifica la probabilidad de que ocurra el otro, sin importar quien sea condición de quien.

7. Explica el Teorema de Bayes.


Cuando calculamos la probabilidad de B dado que A ya ocurrió. de alguna manera se piensa que el evento A es algo que sucede antes que B y que A
puede ser (tal vez) causa de B o puede contribuir con su aparición. También de algún modo podemos decir que A normalmente ocurre antes que B.
Pensemos, por ejemplo, que deseamos saber la probabilidad de que un estudiante apruebe el examen parcial de estadística dado que estudió por lo
menos veinte horas antes del mismo. En algunas ocasiones sabemos que ocurrió el evento B y queremos saber cuál es la probabilidad de que haya
ocurrido el evento A. En nuestro ejemplo anterior la pregunta seria cuál es la probabilidad de que el alumno haya estudiado por lo menos veinte horas
dado que, efectivamente, aprobó el examen de estadística. Esta probabilidad se encuentra aplicando una regla que se conoce como teorema de Bayes,
mismo que se muestra enseguida.

b) COMPLETA LA SIGUIENTE TABLA


Aplica en:

Desviación estándar Variable Variable Variable


Distribución de Probabilidad Valor esperado Varianza
Aleatoria Continua Discreta
𝑛 𝐸(𝑥) = 𝑛𝑝 𝑉(𝑥) 𝜎𝑥 = √𝑛𝑝𝑞 X - Discreta
( ) 𝑝 𝑥 (1 − 𝑝)𝑥−𝑛 𝑥 = 0,1,2, … 𝑛
𝑏(𝑥; 𝑛, 𝑃) = { 𝑥 = 𝑛𝑝(1 − 𝑝) Donde
0 = 𝑛𝑝𝑞 𝑞 =1−𝑝

Distribución hipergeométrica 𝑀 𝑁−𝑛 𝑀 𝑀 X - Discreta


𝐸(𝑋) = 𝑛. 𝑉(𝑋) = ( ) ∙ 𝑛 ∙ ∙ (1 − ) 𝑁−𝑛
𝑁 𝑁−1 𝑁 𝑁 𝜎𝑥 = √𝑛𝑝𝑞 ∙
(𝑀 )(𝑁−𝑀 ) 𝑁−1
𝑥 𝑛−𝑥
𝑃(𝑋 = 𝑥) = ℎ(𝑥; 𝑛, 𝑀, 𝑁) =
(𝑁𝑛)

Con 𝑥, un entero, que satisface max(0, 𝑛 − 𝑁 +


𝑀) ≤ 𝑥 ≤ 𝑚í𝑛(𝑛, 𝑀)
Distribución binomial negativa 𝑟(1 − 𝑝) 𝑟(1 − 𝑝) X Discreta
𝐸(𝑋) = 𝑉(𝑋) = 1−𝑝
La función de la masa de probabilidad de la variable 𝑝 𝑝2 𝜎𝑥 = √𝑟 ∙
aleatoria binomial negativa X con los parámetros r= 𝑝2
número de éxitos (𝑆)𝑦 𝑝 = 𝑃(𝑒𝑠) 𝑒𝑠

𝑥+𝑟−1 𝑟
𝑛𝑏(𝑥; 𝑟, 𝑝) = ( ) 𝑝 (1 − 𝑝)𝑥 𝑥 = 0,1,2, …
𝑟−1

Distribución de probabilidad de Poisson 𝐸(𝑋) = 𝜇 𝑉(𝑋) = 𝜇 𝜎𝑥 = √𝜇 X Discreta


Se dice que una variable aleatoria discreta X tiene
una distribución de Poisson con parámetro
𝜇(𝑥 > 0)si la función masa de probabilidad X es

𝑒 −𝜇 ∙ 𝜇 𝑥
𝑝(𝑥; 𝜇) = 𝑥 = 0,1,2,3, …
𝑥!

Distribución normal 𝐸(𝑋) = 𝜇 𝑉(𝑋) = 𝜎 2 X Continua


𝛴(𝑥 − 𝜇)2
Se dice que una variable aleatoria continua X tiene 𝜎=√
una distribución normal con parámetros 𝑁
𝜇 𝑦 𝜎(𝑜 𝜇 𝜎 2 ), 𝑑𝑜𝑛𝑑𝑒 − ∞ < 𝜇 < ∞ 𝑦 0 < 𝜎, si la
función de densidad de probabilidad de X es

1 −(𝑥−𝜇)2
𝑓(𝑥; 𝜇, 𝜎) = 𝑒 2𝜎 2 −∞<𝑥 <∞
√2𝜋𝜎

Distribución normal estándar 𝐸(𝑋) = 0 𝑉(𝑋) = 1 𝜎 = √𝜎 2 X Continua


La distribución normal con valores de parámetro
𝜇 = 0 𝑦 𝜎 = 1 se llama distribución normal 𝛴(𝑥 − 𝜇)2
=√
estándar. Una variable aleatoria que tiene una 𝑁
distribución normal estándar se llama variable
aleatoria normal estándar y se denota por Z. La
función de densidad de probabilidad de Z es

1 𝑧2
𝑓(𝑧; 0,1) = 𝑒2 −∞<𝑧<∞
√2𝜋

Distribución exponencial 𝜇 = 𝐸(𝑋) 𝑉(𝑋) = 𝐸(𝑋 2 ) − [𝐸(𝑋)]2 X Continua


∞ 1
Se dice que X tiene una distribución exponencial 𝜎=√
con parámetro 𝜆(𝜆 > 0) si la función de densidad = ∫ 𝑥𝜆𝑒 −𝜆𝑥 𝑑𝑥 𝜆2
de probabilidad de X es 0

−𝜆𝑥
𝑓(𝑥; 𝜆) = {𝜆𝑒 𝑥≥0
0 de lo contrario
Distribución Gamma 𝐸(𝑋) = 𝜇 = 𝛼𝛽 𝑉(𝑋) = 𝜎 2 = 𝛼𝛽 2 𝜎 = √𝛼𝛽 2 X Continua
Se dice que una variable aleatoria continua X tiene
una distribución gamma si la función de densidad
de probabilidad de X es

1 −𝑥
∞−1
𝑓(𝑥; 𝛼, 𝛽) = { 𝑥 𝑒𝛽 𝑥≥0
𝛽 ∞ 𝛤(𝛼)
0 de lo contrario

Donde los parámetros 𝛼 𝑦 𝛽 satisfacen 𝛼 > 0, 𝛽 > 0

Distribución ji-cuadrada 𝐸(𝑋) = 𝜇 = 𝜈 𝑉(𝑋) = 𝜎 2 = 2𝜈 (𝑛 − 1)𝑠 2 X Continua


Sea 𝜈 un entero positivo. Se dice, por tanto, que 𝜎2 =
𝑋2
una variable aleatoria X tienen una distribución ji-
cuadrada con parámetro 𝜈 si la función de densidad
de probabilidad de 𝑋 es la densidad gamma con
𝛼 = 𝜈⁄2 𝑦 𝛽 = 2. La función de densidad de
probabilidad de una variable aleatoria ji-cuadrada
es

1 𝜈 −1⁄
𝑥 ( ⁄2)−1𝑒 2 𝑥 ≥ 0
𝑓(𝑥, 𝜈) = {2𝜈⁄2 𝛤(𝜈⁄ )
2 𝑥<0
0

Distribución de Weibull 1 1 1 22 X Continua


𝐸(𝑋) = Γ ( + 1) 𝑉(𝑋) = [𝛤 (1 + )
Se dice que una variable X tiene una distribución de 𝜆 𝛼 𝜆2 𝛼1
Weibull con parámetros de forma 𝛼 y de escala − 𝛤 2 (1
𝛽(𝛼 > 0, 𝛽 > 0) si la función de densidad de
1
probabilidad de X es + )]
𝛼
𝛼 𝛼−1 −(𝑥⁄𝛽)𝛼
𝑥 𝑒 𝑥≥0
𝑓(𝑥; 𝛼, 𝛽) = {𝛽 𝛼
𝑥<0
0
𝜎 2⁄ 2 2
Distribución Lognormal 𝐸(𝑋) = 𝑒 𝜇+ 2 𝑉(𝑋) = 𝑒 2𝜇+𝜎 ∙ (𝑒 𝜎 − 1) 𝜎 = √log(𝜈⁄𝑚2 + 1
X Continua
Se dice que una variable aleatoria no negativa X
tiene una distribución lognormal si la variable
aleatoria 𝑌 = 𝐼𝑛(𝑋) tiene una distribución normal.
La función de densidad de probabilidad resultante
de una variable aleatoria lognormal cuando el In(X)
está normalmente distribuido con parámetros
𝜇 𝑦 𝜎 es
1 [𝐼𝑛(𝑥)−𝜇]2
− ⁄ 2
(2𝜎 )
𝑓(𝑥; 𝜇, 𝜎) = {√2𝜋𝜎𝑥 𝑒
𝑥≥0
0
𝑥<0

Distribución beta 𝛼 𝛼𝛽 𝜎2 X Continua


𝐸(𝑋) = 𝑉(𝑋) =
Se dice que una variable aleatoria X tiene una 𝛼+𝛽 (𝛼 + 𝛽 + 1)(𝛼 + 𝛽)2 (𝐵 − 𝐴)2 𝛼𝛽
=
distribución beta con parámetros (ambos positivos), (𝛼 + 𝛽)2 (𝛼 + 𝛽 + 1)
A y B si la función de densidad de probabilidad de
X es

𝑓(𝑥; 𝛼, 𝛽, 𝐴, 𝐵)
1 Γ(α + β) 𝑥 − 𝐴 𝛼−1 𝐵 − 𝑥 𝛽−1
= {𝐵 − 𝐴 ∙ Γ(𝛼) ∙ Γ(𝛽) (𝐵 − 𝐴) 2 (
𝐵−𝐴
)2
0
𝐴≤𝑥≤𝐵
REFERENCIAS

Devore, J. L. (2016). Probabilidad y estadística: para ingeniería y ciencias. [Versión electrónica]. Recuperado de
https://elibro.net/es/ereader/uvm/93280?page=69

Universidad Nacional Autonóma de México (2010). Estadística descriptiva. [Archivo PDF]. Recuperado de
http://fcasua.contad.unam.mx/apuntes/interiores/docs/20181/administracion/1/LA_1142_05047_A_Estadistica_Descrptiva_Plan2016.pdf

Khan Academy. (octubre 2013). Probabilidad básica. [Archivo de video]. Recuperado de https://youtu.be/JDP3mGgBp68

Khan Academy. (S. F.). Espacios muestrales. [Sitio web]. Recuperado de https://es.khanacademy.org/math/statistics-probability/probability-
library/probability-sample-spaces/v/events-and-outcomes-3

Khan Academy. (S. F.). Calcular la probabilidad condicional. [Sitio web]. Recuperado de https://es.khanacademy.org/math/statistics-
probability/probability-library/conditional-probability-independence/v/calculating-conditional-probability

Khan Academy. (S. F.). Espacios muestrales para eventos compuestos. [Sitio web]. Recuperado de https://es.khanacademy.org/math/statistics-
probability/probability-library/multiplication-rule-independent/v/compound-sample-spaces

También podría gustarte