Estadística 5
Transcripción
Estadística 5
DELTA – MASTER FORMACIÓN UNIVERSTARIA C/ Gral. Ampudia, 16 Teléf.: 91 533 38 42 - 91 535 19 32 28003 MADRID FORMULARIO DE ESTADÍSTICA. DISTRIBUCIONES UNIDIMENSIONALES. Esperanza matemática. Siendo ξ una variable aleatoria y g ( ξ) una función de la misma, definimos: ∞ ∑ g (x i )⋅ p i Caso discreto i =1 E (g (ξ) ) = ∞ ∫ g ( x ) ⋅ f ( x ) dx Caso continuo −∞ Como caso particular: ∞ ∑ x ⋅p i =1 i i E (ξ) = α = ∞ ∫ x ⋅ f ( x ) dx −∞ Propiedades: E (k) = k E (k 1 ⋅ ξ1 + k 2 ⋅ ξ 2 ) = k 1 ⋅ E (ξ1 ) + k 2 ⋅ E (ξ 2 ) E (ξ1 ⋅ ξ 2 ) = E (ξ1 )⋅ E (ξ 2 ) Si ξ1 y ξ 2 son independientes Momentos. Con respecto al origen: Con respecto a la media: ∞ ∑ xr ⋅ p 1 i i αr = ∞ ∫ x r ⋅ f ( x ) dx −∞ ∞ ∑ (x − α1 )r ⋅ p i 1 i µr = ∞ ∫ (x − α1 )r ⋅ f ( x ) dx −∞ Media = α1 = α Varianza = µ 2 = σ 2 = α 2 − α12 Desviación típica = µ 2 = σ Var (k 1 ⋅ ξ1 + k 2 ⋅ ξ 2 ) = k 12 ⋅ Var (ξ1 ) + k 22 ⋅ Var (ξ 2 ) + 2 ⋅ k 1 ⋅ k 2 ⋅ Cov (ξ1 , ξ 2 ) Si ξ1 y ξ 2 son independientes: Cov (ξ1 , ξ 2 ) = 0 1 DELTA – MASTER FORMACIÓN UNIVERSTARIA C/ Gral. Ampudia, 16 Teléf.: 91 533 38 42 - 91 535 19 32 28003 MADRID Coeficiente de asimetría: g 1 = µ3 σ3 Coeficiente de apuntamiento o kurtosis: g 2 = Coeficiente de variación: C.V. = µ4 −3 σ4 σ α Función característica. ∞ ∑ ei t x i ⋅ pi Caso discreto i 1 = ϕξ ( t ) = E (ei t ξ ) = ∞ ∫ ei t x ⋅ f ( x ) dx Caso continuo −∞ En el caso continuo se verifica la siguiente propiedad: α1 = ϕ ′ (0) ; i α2 = ϕ ′′ (0) ; i2 α3 = ϕ′′′ (0) ; i3 y así sucesivamente. DESIGUALDAD DE TCHEBYCHEFF. Pr ( α − k < ξ < α + k ) ≥ 1 − σ2 k2 En el caso particular k = n ⋅ σ Pr (α − n ⋅ σ < ξ < α + n ⋅ σ) ≥ 1 − 1 n2 DISTRIBUCIONES BIDIMENSIONALES. x y p Caso discreto ∑ ij i∑ =1 j=1 F ( x , y) = Pr (ξ1 ≤ x , ξ 2 ≤ y ) = x y ∫ ∫ f ( x , y) dx dy Caso continuo − ∞ − ∞ En el caso continuo f ( x, y) = ∂ 2 F ( x, y) ∂x ∂y Distribuciones marginales. ∞ p = ∑ p ij Caso discreto i. j=1 ∞ f1 ( x ) = ∫ f ( x, y ) dy = F1′ ( x ) Caso continuo −∞ ∞ p = ∑ p ij .j i =1 ∞ f 2 ( y ) = ∫ f ( x, y ) dx = F2′ ( y ) −∞ 2 DELTA – MASTER FORMACIÓN UNIVERSTARIA C/ Gral. Ampudia, 16 Teléf.: 91 533 38 42 - 91 535 19 32 28003 MADRID x ∞ x ∑ p ij = ∑ p i. ∑ i =1 i =1 j=1 F1 ( x ) = Pr (ξ1 ≤ x ) = F ( x, ∞) = x ∞ x ∫ ∫ f ( x , y ) dy dx = ∫ f 1 ( x ) dx − ∞ − ∞ −∞ y ∞ p = y p ∑ ij ∑ . j ∑ j=1 i =1 j=1 F2 ( y ) = Pr (ξ 2 ≤ y ) = F ( ∞, y) = y ∞ y ∫ ∫ f ( x , y ) dx dy = ∫ f 2 ( y) dy − ∞ − ∞ −∞ Distribuciones condicionadas. p ij ( ) Pr x y = i j p. j f (x y ) = f ( x, y ) f 2 ( y) p ij Pr (y j x i ) = p i. f (y x ) = f ( x , y) f1 (x ) x p ij i∑ =1 p . j F (x y ) = x f (x y ) dx −∫∞ y p ij ∑ j=1 p i . F (y x ) = y f (y x ) dy ∫ − ∞ Independencia. Decimos que ξ1 y ξ 2 son independientes si se verifica que: p ij = p i. ⋅ p . j f ( x , y) = f1 ( x ) ⋅ f 2 ( y) que equivale a F ( x, y ) = F1 ( x ) ⋅ F2 ( y ) o bien: f (x y ) = f 1 ( x ) o f (y x ) = f 2 ( y ) Momentos con respecto al origen. α hk ∞ ∞ h k ∑ ∑ x i ⋅ y j ⋅ p ij = = i 1 j 1 = E (x h ⋅ y k ) = ∞ ∞ ∫ ∫ x h ⋅ y k ⋅ f ( x , y ) dx dy − ∞ − ∞ 3 DELTA – MASTER FORMACIÓN UNIVERSTARIA C/ Gral. Ampudia, 16 Teléf.: 91 533 38 42 - 91 535 19 32 28003 MADRID ∞ ∑ x ⋅p i =1 i i. α10 = x = E (ξ1 ) = ∞ ∫ x ⋅ f 1 ( x ) dx − ∞ Momentos con respecto a la media. µ hk ∞ ∑ y j ⋅ p. j j=1 α 01 = y = E (ξ 2 ) = ∞ ∫ y ⋅ f 2 ( y) dy − ∞ ∞ ∞ k ∑ ( x i − x )h ⋅(y j − y ) ⋅ p ij ∑ i =1 j=1 = E ( x − x ) h ⋅ ( y − y) k = ∞ ∞ ∫ ∫ ( x − x ) h ⋅ ( y − y ) k ⋅ f ( x , y ) dx dy − ∞ − ∞ [ ] 2 µ 20 = Var (ξ1 ) = σ ξ21 = α 20 − α10 ; σ ξ1 desviación típica de ξ1 2 µ 02 = Var (ξ 2 ) = σ ξ22 = α 02 − α 01 ; σ ξ2 desviación típica de ξ 2 µ 11 = Cov (ξ1 , ξ 2 ) = α11 − α10 ⋅ α 01 El coeficiente de correlación es ρ = µ11 , verificándose que − 1 ≤ ρ ≤ 1 . σ ξ1 ⋅ σ ξ2 Si las variables son independientes ρ = 0 , en cambio si ρ = 0 eso no implica que las variables sean independientes. El coeficiente de determinación es ρ 2 (0 ≤ ρ 2 ≤ 1) e indica el porcentaje de causas comunes (concausalidad) que influyen en las dos variables, también decimos que si ρ 2 = 0'55 una variable explica el 55% de la otra. REGRESIÓN. ∞ Curva de regresión de x sobre y: x = E (x y ) = ∫ x ⋅ f (x y ) dx −∞ ∞ Curva de regresión de y sobre x: y = E (y x ) = ∫ y ⋅ f (y x ) dy −∞ Regresión lineal. y = Ax + B A= µ11 σ 2x B = α 01 − A ⋅ α10 x = Cy + D C= µ11 σ 2y D = α10 − C ⋅ α 01 A y C tienen el mismo signo. A ⋅ C = ρ 2 coeficiente de terminación. 4 DELTA – MASTER FORMACIÓN UNIVERSTARIA C/ Gral. Ampudia, 16 Teléf.: 91 533 38 42 - 91 535 19 32 28003 MADRID DISTRIBUCIONES DE PROBABILIDAD. n - Binomial (n, p): Pr ( ξ = k ) = ⋅ p k ⋅ q n − k , k E ( ξ) = n ⋅ p k = 0, 1, ..., n ϕ ξ ( t ) = (q + e i t ⋅ p ) n Var ( ξ) = n ⋅ p ⋅ q - Poisson (λ λ ) : Pr ( ξ = k ) = e −λ E ( ξ) = λ λk , k! k = 0, 1, 2, ... ϕ ξ ( t ) = e λ (e Var (ξ) = λ - Uniforme (en el intervalo [a, b]): x ∈ [a , b] , f ( x ) = (b − a)2 Var ( ξ) = 12 a+b E ( ξ) = 2 1 b−a 1 E (ξ 2 ) = 1 Var (ξ) = 1 1 x −µ σ − 1 - Normal (µ, σ ) : f ( x ) = e 2 σ 2π E (ξ3 ) = 0 E (ξ 4 ) = 3 2 ; x ∈ℜ Var ( ξ) = σ 2 Tipificación: ξ′ = ) ei t b − ei t a ϕξ (t) = i t (b − a) 1 E ( ξ) = µ −1 − t2 − x2 1 e 2 ; ϕξ (t) = e 2 2π - Normal (0, 1): f ( x ) = E ( ξ) = 0 it ϕ ξ ( t) = e 1 i t µ − t 2 ⋅σ 2 2 ξ−µ → N (0, 1) . σ ( ) - Chi-cuadrado χ n2 : Dadas las variables aleatorias ξ1 , ξ 2 , ..., ξ n independientes, la variable η = ξ12 + ξ 22 + ... + ξ2n es una χ 2n . f (x) = 1 n 2 n 2 ⋅Γ 2 E (η) = n x n −1 2 ⋅e − x 2 ( N (0, 1) e x≥0 , Var ( η) = 2n Se aproxima a una N n, todas ellas ϕ η ( t ) = ( −2 i t ) − n 2 ) 2n cuando n > 30 . 5 DELTA – MASTER FORMACIÓN UNIVERSTARIA C/ Gral. Ampudia, 16 Teléf.: 91 533 38 42 - 91 535 19 32 28003 MADRID - t de Student ( t n ) : Dadas las variables aleatorias η1 , η2 , η3 ..., ηn todas ellas N (0, 1) e n es una t de Student con n grados de libertad. independientes, la variable t n = 1 2 2 2 (η1 + η2 + ... + ηn ) n E (t n ) = 0 tn ∈ ℜ Var (t n ) = n para n > 2 n−2 Se aproxima a una N (0, 1) cuando n > 30 . Tiene el interés de que su función de densidad no depende de σ . - F de Snedecor (Fm, n ): Consideremos m + n variables aleatorias independientes η1 , η2 , ..., ηm ; ξ1 , ξ 2 , ..., ξ n todas ellas N (0, σ) . La variable Fm, n Fm, n 1 2 ( η1 + η22 + ... + η2m ) = m es una F de Snedecor con (m, n) grados de libertad. 1 2 2 2 (ξ1 + ξ2 + ... + ξ n ) n η12 η22 η2 2 + 2 + ... + m2 1 χ 2 σ m m σ σ = = 1 2 ξ 2n 1 ξ11 ξ 22 χn 2 + 2 + ... + 2 n n σ σ σ 1 m La gráfica de su función de densidad es similar a la de χ 2 y se verifica que Fm , n = 1 Fn , m TEOREMA CENTRAL DEL LÍMITE (DE LINDEBERG-LEVY). Sean ξ1 , ξ 2 , ..., ξ n variables aleatorias independientes con la misma distribución, tales que E (ξi ) = α , Var (ξi ) = σ 2 (finita). Entonces formamos una nueva variable S n = ξ1 + ξ2 + ... + ξ n , que sabemos que verifica E (S n ) = n α , Var (S n ) = n σ 2 . Pues bien este teorema dice que lim n→ ∞ Sn − n α nσ 2 Sn − n α n σ2 tiende a una N (0, 1) cuando n → ∞ . = ξ1 (N (0, 1) ) ( ) Por tanto ξ1 + ξ 2 + ... + ξ n n → N n α, σ n . →∞ Se admiten aproximaciones por valores de n > 30 . 6