Res. Estadistica Funcado
Res. Estadistica Funcado
Res. Estadistica Funcado
análisis
¿Qué es la estadística?
¿Cómo?
Datos Estadísticos
Unidad de relevamiento
Operaciones permitidas
Nominal Igualdad
Ordinal Mayor o menor
De Intervalos Suma y resta
De Razón Multiplicación y división
Podemos encontrar:
Podemos encontrar:
• Datos primarios: Son los que hay que recoger mediante el uso
de técnicas como los grupos de interés, entrevistas Teléfono,
Cuestionario por corre, Puerta en puerta, Abordaje en un
centro comercial, Entrevistas
Tablas estadísticas
Podemos encontrar dos tipos:
• Simplicidad
• Solo un tema por vez en la tabla
x1 Primer valor
x2 Segundo valor
x3 Tercer valor
xn Valor enésimo
Cabe aclarar que al ser x minúscula nos estamos refiriendo a que los
valores se obtuvieron de un muestreo, en caso de ser X mayúscula nos
referimos a un censo. Lo mismo para la cantidad de elementos dentro de
la muestra es “n” y para la cantidad de elementos de una población es “N”
Titulo: En Lista
yi ni hi Ni Hi
y1 n1 h1 n1 h1
y2 n2 h2 n1 + n2 h1 + h2
y3 n3 h3 n1 + n2 + n3 = n h1 + h2 + h3 = 1
m n 1
Titulo: En Intervalo
y’i-1 – y’i yi ni hi Ni Hi
y’0 – y’1 y1 n1 h1 n1 h1
y’1 – y’ 2 y2 n2 h2 n1+n2 h1+h2
y’ 2 – y’3 y3 n3 h3 n1+n2+n3 = n H1+h2+h3 = 1
n 1
Medidas de posición
Son medidas que me dan la tendencia central de la distribución de datos
como:
• M(k) = k
• M(k * Y) = k *M(Y)
• M(k ± Y) = k ± M(Y)
• M(X ± Y) = M(X) ± M(Y)
Medidas de Dispersión
Son medidas que indican la concentración o la dispersión de los datos con
respecto a la promedio de la distribución, estas medidas son a menudo
complemento de las medidas de posición ya que por sí solas no
caracterizan totalmente una distribución o también sirven para hacer
comparaciones entre conjuntos. Por ejemplo si hay mucha dispersión
respecto al promedio la medida de posición no representa un valor
altamente significativo del conjunto
• V(k) = 0
• V(k*Y) = k² * V(Y)
• V(k+Y) = V(Y)
• V(-k+Y) = V(Y)
Formas de calculo
Serie simple, v. en lista y en 𝐷𝑠 = √𝑉(𝑌)
intervalo
• Ds(Y) >= 0
• Ds(k) = 0
Medidas de asimetría
Cuando dos conjuntos de datos coinciden en sus medidas de posición y
dispersión se suele recurrir a las medidas de asimetría que muestran de
manera grafica la tendencia central de cada una de ellas.
Medidas de puntiagudez
Indica la velocidad con la que sube o baja la curva en una distribución de
datos la cual se calcula con el coeficiente de curtosis de Fisher
𝑀(𝑌)4
𝑘= −3
𝑉(𝑌)4
Experimento aleatorio
Es aquel que conduce a dos o más resultados posibles. Este puede estar
definido por una sola prueba o por un conjunto de pruebas bajo las
mismas condiciones
Evento o Hecho
Teoría de probabilidades
Se cuenta con tres tipos de teorías
Cálculo de probabilidades
𝑃(𝐴∩B)
P(A/B) =
𝑃(𝐵)
Probabilidad Marginal
Teorema de Bayes
𝑃(𝐴)∗𝑃(𝐵/𝐴)
P (A/B) =
𝑃(𝐵)
Desarrollo:
Supongamos lo siguiente
𝑃(𝐴∩B)
• P(A/B) = ---> P(𝐴 ∩ B) = P(A/B) * P(B)
𝑃(𝐵)
P (𝐴 ∩ B) = P (𝐵 ∩ A)
𝑃(𝐵∩A)
• P(B/A) = ---> P(𝐵 ∩ A) = P(B/A) * P(A)
𝑃(𝐴)
𝑃(𝐴)∗𝑃(𝐵/𝐴)
1) P (A/B) =
𝑃(𝐵∩𝐴1)+𝑃(𝐵∩𝐴2)+𝑃(𝐵∩𝐴𝑖 )
𝑃(𝐴)∗𝑃(𝐵/𝐴)
2) P (A/B) =
𝑃(𝐵/𝐴1)∗𝑃(𝐴1)+𝑃(𝐵/𝐴2)∗𝑃(𝐴2)+𝑃(𝐵/𝐴𝑖 )∗𝑃(𝐴𝑖)
Variable Aleatoria
Características:
o Es una función monótona creciente
o Los valores que puede asumir la función están entre 0 y 1
o La probabilidad de que la variable asuma un valor menor a 0
es igual a 0
o La probabilidad de que la variable asuma valores menores o
iguales a todos los valores posibles va a ser igual a 1
o Dado dos números enteros positivos A y B tales que A < B, la
P(A ≤ X ≤ B) = P(B ≤ X) – P (X < A) = P (B ≤ X) – P(A ≤ A - 1)
o Dado una variable aleatoria X y un numero entero positivo A,
la P(A ≤ X) = 1 – P(X < A) = 1 – P(X ≤ A - 1)
𝑏
P(a ≤ X ≤ b) = ∫𝑎 𝑓𝑥 ∗ 𝑑𝑥
O
𝑎
P(x ≤ a) = ∫−∞ 𝑓𝑥 ∗ 𝑑𝑥
Formula
𝑁
V. aleatoria Discreta
𝐸 (𝑥) = ∑ 𝑥𝑖 ∗ 𝑃(𝑥𝑖)
𝑖=1
∞
V. aleatoria Continua
𝐸 (𝑥) = ∫ 𝑥 ∗ 𝑓(𝑥) ∗ 𝑑𝑥
−∞
Propiedades
Formula
𝑁
V. aleatoria Discreta
𝑉 (𝑥) = ∑ 𝑥𝑖² ∗ 𝑃(𝑥𝑖) − (𝐸 (𝑥))²
𝑖=1
∞
V. aleatoria Continua
𝐸 (𝑥) = ∫ 𝑥² ∗ 𝑓(𝑥) ∗ 𝑑𝑥 − (𝐸 (𝑥))²
−∞
Propiedades
1) V(X) ≥ 0
2) V(c) = 0
3) V(c * X) = c² * V(X)
4) V(c ± X) = V(X)
5) V(X ± Y) = V(X) ± V(Y) Solo cuando X e Y sean independientes
∞
V. aleatoria Continua
𝑚𝑘 = 𝐸 (𝑥 𝑘 ) = ∫ [𝑥𝑖 − 𝐸 (𝑋)]𝑘 ∗ 𝑓 (𝑥) ∗ 𝑑𝑥
−∞
• K = 2: Representa la varianza
• K = 3: Utilizada para determinar si una distribución es simétrica o
asimétrica. Entonces:
o 𝐸(𝑥 3 ) = 0: Simetría alrededor de la esperanza
o 𝐸(𝑥 3 ) > 0: Asimétrica hacia la derecha
o 𝐸(𝑥 3 ) < 0: Asimétrica hacia la izquierda
o 𝐸(𝑥 4 ) = 0: Mesocurtica
o 𝐸(𝑥 4 ) > 0: Leptocurtica
o 𝐸(𝑥 4 ) < 0: Platicurtica.
Función de cuantía
𝑃(𝑋 = 𝑥𝑖) = 𝑃 𝑋 ∗ (1 − 𝑃)1−𝑋
Parámetros
1
Esperanza
𝐸 (𝑥) = ∑ 𝑥 ∗ 𝑃(𝑥)
𝑥=0
1
Varianza
𝑉 (𝑥) = ∑ 𝑥² ∗ 𝑃(𝑥) − (𝐸 (𝑥))²
𝑥=0
Desviación Ds = √𝑃𝑄
estándar
Demostraciones:
La media es una variable aleatoria bipuntual es igual a la
probabilidad de éxito
𝒙 ≈ 𝑩(𝒏, 𝑷)
Funciones
Función de Cuantía P(x = xi, n, P) = 𝐶𝑛𝑥 ∗ 𝑃 𝑥 ∗ 𝑄𝑛−𝑥
Funciones
Función de cuantía 𝑪𝒙𝑿 ∗ 𝑪𝒏−𝒙
𝑵−𝑿
𝑷(𝑿 = 𝒙, 𝑵, 𝑿, 𝒏) = 𝒏
𝑪𝑵
Función acumulada 𝑪𝑿 ∗ 𝑪𝒏−𝒙
𝒙
𝑵−𝑿
𝑷(𝑿 ≤ 𝒙, 𝑵, 𝑿, 𝒏) = ∑ 𝒏
𝑪𝑵
Parámetros
Esperanza E(x) = n*P siendo P = X/N
Varianza V(x) = n*P*Q siendo Q = (1-(X/N))
Desviación estándar Ds(x) = √𝒏 ∗ 𝑷 ∗ 𝑸
Esperanza
𝑥 1 1
E (Psombrero)= 𝐸 (𝑛) = ∗ 𝐸(𝑥) = ∗ 𝑛∗𝑃 = 𝑷
𝑛 𝑛
Varianza
𝑥 1 1 𝑷∗(𝟏−𝑷)
V(Psombrero)= 𝑉 ( ) = ∗ 𝑉 (𝑥 ) = ∗𝑛∗𝑃∗𝑄 =
𝑛 𝑛2 𝑛2 𝒏
Desviación Estándar
𝑷∗(𝟏−𝑷)
Ds(Psombrero) = √ 𝒏
Esperanza
𝑥 1 1
E (Psombrero)= 𝐸 ( ) = ∗ 𝐸(𝑥) = ∗ 𝑛∗𝑃 = 𝑷
𝑛 𝑛 𝑛
Funciones
Función de cuantía 𝑒 −λ ∗ λx
P(x=xi,µ = λ) =
𝑥!
Función acumulada 𝑒−λ∗ λx
P(x≤xi,µ = λ) =∑𝑋𝑖
𝑋=0 𝑥!
Funciones
Función de densidad 1
f(x) = 𝑏−𝑎 𝑎 ≤ 𝑥 ≤ 𝑏
∞
∫ 𝑓 (𝑥) ∗ 𝑑 (𝑥) = 1
−∞
𝑏
∫ 𝑘 ∗ 𝑑𝑥 = 𝑘 ∗ (𝑏 − 𝑎)
𝑎
𝑏
𝑘 𝑘 ∗ (𝑏 − 𝑎)
∫ ∗ 𝑑𝑥 =
𝑎 𝑘 ∗ (𝑏 − 𝑎) 𝑘 ∗ (𝑏 − 𝑎)
𝑏
1
∫ ∗ 𝑑𝑥 = 1
𝑎 (𝑏 − 𝑎)
1
Lo cual indica que la función” f(x) = “es una función de
(𝑏−𝑎)
densidad constante.
𝑥
1 𝑥−𝑎
∫ ∗ 𝑑𝑥 =
𝑎 (𝑏 − 𝑎) 𝑏−𝑎
Funciones
Función de densidad
t(x) = 𝜆 − 𝑒 −λx
Función acumulada
t(x) = P(x ≤ xi) = 1 − 𝑒 −λx
Parámetros
Esperanza 1
E(x) = β =
𝜆
Varianza 1
V(x) = β² =
𝜆²
Desviación estándar 1
Ds(x) = β =
𝜆
1 −
(𝑥−µ)²
𝑓(𝑥 ) = 𝑒 2σ²
σ√2π
A tener en cuenta:
o Toda el área bajo la curva es igual a 1
o La curva es asintótica con el eje de las x
o El área determinada por un intervalo debajo de la curva y por
encima de las x es la probabilidad del mismo.
o El dominio de f(x) es infinito
o f(x) solo depende de µ y σ
o µ Es el factor de traslación que mueve la grafica
o σ Hace que sea más o menos aplanada la función
Propiedades:
1 −𝑧²
𝑓(𝑧) = 𝑒−2
√2π
𝑥− µ 1 µ
𝑍= = 𝑥−
σ σ σ
Demostración de E (Z) = 0
1 µ 1 µ
𝐸( 𝑥− ) = ∗µ− =0
σ σ σ σ
Demostración de V (Z) = 1
1 µ 1 1
( )
𝑉( 𝑥− ) = 𝑉 𝑥 − 0 = ∗ σ² = 1
σ σ σ² σ²
𝑍
F (z) = ∫
−∞
𝑓 (𝑧) ∗ 𝑑𝑧
𝑥−𝑛∗𝑃
𝑍= ~N(0,1)
√𝑛∗𝑃∗𝑄
𝑥−𝑛∗𝑃
𝑍=
√𝑛 ∗ 𝑃
Calderon Jonathan Página 41
Siendo en este caso µ = n*p y σ =√𝒏 ∗ 𝑷
• Aproximación del modelo Hipergeometrico al Modelo Normal:
𝑿
𝒙 − 𝒏𝑵
𝒁=
√𝒏 𝑿 ∗ (𝟏 − 𝑿 ) ∗ 𝑵 − 𝒏
𝑵 𝑵 𝑵−𝟏
𝑷𝒔𝒐𝒎𝒃 − 𝑷
𝒁=
√𝑷 ∗ 𝑸 ∗ 𝑵 − 𝒏
𝒏 𝑵−𝟏
𝑥− µ 2
Es decir ∑𝑛𝑖=1 𝑍𝑖2 = ( σ ) = 𝑋(𝑛)
2
Características: Siendo ∅ = 𝑛 − 1
o El campo de variación de esta distribución va desde el 0 hasta
el + ∞
Parámetros
Esperanza 2
E(𝑋(∅) )=µ
Varianza 2
V(𝑋(∅) ) = 2∅
𝑍 𝑥−𝑢
𝑡∅ = =
2 σ
√𝑋
∅
Características:
o La variable t asume valores de -∞ a ∞.
o Es unimodal y simétrica respecto a 0.
o Es más aplanada que la distribución normal, pues su varianza
es ligeramente superior a 1.
Parámetros
Esperanza E(t) = 0
Varianza ∅
V(t) =
∅−2
o Plan de Muestreo
o Elección del estimador a utilizar
Tipos de procedimientos
𝑛
𝑛𝑖 =
𝑟
𝑁𝑖
𝑛𝑖 = ( ) 𝑛
𝑁
𝑁𝑖∗σ𝑖
𝑛𝑖 = ( )∗𝑛
∑ 𝑁𝑖∗σ𝑖
𝑁
𝑘=
𝑛
Distribuciones en el muestreo
Antes que nada hay que recordar que los muestreos pueden ser con
reposición o sin teniendo cada uno sus respectivas características:
Una vez aclarado eso podemos decir que hay tres tipos de distribuciones
que son:
∑𝑛𝑖=1 𝑥𝑖
𝑛
∑𝑛𝑖=1 𝑥𝑟𝑖 ∗ 𝑛𝑖
𝐸(𝑥𝑟) =
𝑁 𝑛 𝑜 𝐶𝑁𝑛
∑𝑛𝑖=1 𝑥𝑟𝑖 ² ∗ 𝑛𝑖
σ2 (𝑥𝑟) = − [𝐸(𝑥𝑟)]²
𝑁𝑛 𝑜 𝐶𝑛𝑁
correcciones finitas
𝐸 (𝑝) = ∑ 𝑝𝑖 ∗ 𝑃(𝑝𝑖 )
𝑖=1
∑𝑛𝑖=1 𝑝𝑖 ∗ 𝑛𝑖
𝐸 (𝑝) =
𝑁 𝑛 𝑜 𝐶𝑁𝑛
∑𝑛𝑖=1 𝑝𝑖 ² ∗ 𝑛𝑖
𝐸 (𝑝) = − [𝐸(𝑝)]²
𝑁 𝑛 𝑜 𝐶𝑁𝑛
Muestreo con
reposición P(1 − P)
σ(𝑝) = √
𝑛
∑𝑛𝑖=1(𝑥 − 𝑥𝑟)²
𝑠²𝑠𝑜𝑚𝑏𝑟𝑒𝑟𝑜 =
𝑛−1
𝑛
𝑠²𝑠𝑜𝑚𝑏𝑟𝑒𝑟𝑜 = 𝑆²
𝑛−1
Se puede calcular la desviación estándar muestral también siendo
esta la raíz cuadrada de la varianza muestral corregida
𝑠𝑠𝑜𝑚𝑏𝑟𝑒𝑟𝑜 = √𝑠²𝑠𝑜𝑚𝑏𝑟𝑒𝑟𝑜
2
∑𝑛𝑖=1 𝑠 2 𝑠𝑜𝑚𝑏𝑟𝑒𝑟𝑜.𝑖 ∗ 𝑛𝑖
𝐸 (𝑠 𝑠𝑜𝑚𝑏𝑟𝑒𝑟𝑜 ) =
𝑁 𝑛 𝑜 𝐶𝑁𝑛
Ø Al parámetro a estimar
Øsombrero Al estimador que por razones cómodas solo para este resumen se
llamara Øs el cual será función de las observaciones muéstrales y por esto
implica que va a ser una variable aleatoria. Por otro lado un estimador es
un estimador puntual de una característica de la población si proporciona
un solo número como estimación y por otro lado está la estimación por
intervalos en donde sitúa al parámetro entre dos valores para una
confianza dada
e = (Øs0 - Ø)
Ahora para medir el riesgo de cometer un error mayor que “e” seria
Pr[(Øs0- Ø) > e]
Øs0− Ø
Pero antes hay que normalizar la variable particular, es decir z = σ(Øs)
o Riesgo:
𝑒 ∗ √𝑛
𝑍=
σ
𝑍∗ σ
𝑒=
√𝑛
Mientras mayor sea la desviación, mayor será el error
Si se incrementa n el error será más pequeño
Si incrementamos el riesgo disminuye z y disminuye el error
𝑧² ∗ σ²
𝑛=
𝑒²
Ø Parámetro a estimar
Øs Estimador
K(Ø, Øs) Distribución de probabilidades
tabulada y conocida
n Observaciones muéstrales
K1,k2 Coeficientes de confianza o puntos
críticos
1-α Nivel de confianza
L1, L2 Limites del intervalo de confianza
(L1 < Ø < L2)
Ø=μ
Øs= xr
1 – α = Pr [𝑧1≤ 𝑥𝑟 − 𝜇 ≤ 𝑍 ]
σ 2
√n
σ σ
1 – α = Pr [𝑥𝑟 − 𝑧2∗ ≤ μ ≤ 𝑥𝑟 + 𝑧1∗ ]
√n √n
Ø=μ
Øs = xr
𝑥𝑟 − 𝜇
K (Øs, Ø) = σ ~ 𝑡𝑛−1
√n
𝑧²∗ σ²
n≥
𝑒²
Ø=P
Øs = p
𝑝(1−𝑝) 𝑝(1−𝑝)
1 – α = Pr [p – z2*√ ≤ P ≤ p + z1* √ ]
𝑛 𝑛
Se suele utilizar a P = 0,50 para así poder dar un tamaño lo mayor posible
para la muestra.
Ø = σ²
Øs = Ssomb²(Ss²)
𝑆𝑠²(𝑛−1) 𝑆𝑠²(𝑛−1)
1 – α = Pr[ ≤ σ²≤ ]
𝑥2² 𝑥1²
Decisión Estadística
Hipótesis Estadística
𝐻0 : Ø = Ø0
𝐻1 : Ø ≠ Ø0
𝐻0 : Ø = Ø0
𝐻1 : Ø ≠ Ø0
𝐻0 : Ø = Ø0
𝐻1 : Ø > Ø0
Considerando ahora solo un punto crítico (Øs*]) podemos decir que:
1-α = Pr[Øs ≤ Øs*/H0 es cierta]
• Izquierda:
𝐻0 : Ø = Ø0
𝐻1 : Ø < Ø0
𝐻0 : Ø = Ø0
𝐻1 : Ø = Ø1
Pasos para docimar: Los pasos son los mismos que la de la unidad anterior
solo que ahora se agregan las hipótesis, es decir
Como se dijo anteriormente hay dos tipos de errores cada uno con su
cálculo de probabilidad, para la media poblacional es de la siguiente
manera
• Derecha:
1-α = Pr [xr ≤ xr*/𝐻0 sea cierta]
α= Pr [xr > xr*]
• Izquierda:
1-α = Pr [xr ≥ xr*/𝐻0 sea cierta]
𝑥𝑟∗ −𝜇1
Siendo xr# = 𝜎 para ambos casos.
⁄
√𝑛
D. Izquierda Derecha
Compuesta
Parámetro Ø=µ Ø=µ
poblacional, Øs = xr Øs = xr
su estadístico K(xr,µ)~ N(0,1) K(xr,µ)~ N(0,1)
y si
distribución
Planteo las 𝐻0 : µ = 𝜇0 𝐻0 : µ = 𝜇0
hipótesis 𝐻1 : µ < 𝜇0 𝐻1 : µ > 𝜇0
𝜎 𝜎
Calculo de xr* = 𝜇0 - 𝑍1−∝ ∗ xr* = 𝜇0 + 𝑍1−∝ ∗
√𝑛 √𝑛
puntos
críticos
Toma de xr ≥ xr* Acepto 𝐻0 xr ≤ xr* Acepto 𝐻0
decisión xr < xr* Rechazo 𝐻0 xr > xr* Rechazo 𝐻0
2. Planteo de hipótesis
𝐻0 : µ = 𝜇0
𝐻1 : µ ≠ 𝜇0
𝜎
𝑥𝑟2∗ = 𝜇0 + 𝑧1−∝ ∗
2 √𝑛
5. Cálculo de probabilidades
Cálculo de probabilidades
• Derecha:
1 − 𝛼 = Pr[𝑝 ≤ 𝑝∗ / 𝐻0 𝑠𝑒𝑎 𝑐𝑖𝑒𝑟𝑡𝑎]
𝛼 = Pr[𝑝 > 𝑝∗ ]
1 − 𝛽 = Pr[𝑝 > 𝑝# ]
• Izquierda:
1 − 𝛼 = Pr[𝑝 ≥ 𝑝∗ / 𝐻0 𝑠𝑒𝑎 𝑐𝑖𝑒𝑟𝑡𝑎]
𝛼 = Pr[𝑝 < 𝑝∗ ]
1 − 𝛽 = Pr[𝑝 < 𝑝# ]
# 𝑝∗ −𝑃1
Siendo 𝑝 =
𝑃 (1−𝑃1)
√ 1
𝑛
2. Planteo de hipótesis
𝐻0 : P = 𝑃0
𝐻1 : P ≠ 𝑃0
𝑃0 (1 − 𝑃0 )
𝑝1∗ = 𝑝0 − 𝑍1−𝛼 ∗ √
2 𝑛
𝑃0 (1 − 𝑃0 )
𝑝1∗ = 𝑝0 + 𝑍1−𝛼 ∗ √
2 𝑛
4. Toma de decisión
𝑝1∗ ≤ 𝑝 ≤ 𝑝2∗ −→ 𝐴𝑐𝑒𝑝𝑡𝑜 𝐻0
5. Cálculo de probabilidades
Siendo
𝑝1∗ −𝑃1
𝑝1# =
𝑃 (1−𝑃1)
√ 1
𝑛
𝑝2∗ − 𝑃1
𝑝2# =
√𝑃1 (1 − 𝑃1 )
𝑛