Altillo.com > Exámenes > UBA - Económicas > Estadística

Estadística

Resumen para el Segundo Parcial

Cátedra: Capriglioni

Prof: Cristian Kaplan 1º Cuat. de 2012 Altillo.com

Variables aleatorias
Los resultados de los experimentos aleatorios, cualesquiera que sean, tienen que estar expresados cuantitativamente. Para ello, hay que contar con métodos capaces de definir reglas precisas que asignen números reales a los resultados de los experimentos aleatorios, teniendo en cuenta que se quiere medir y como se quiere medir.
Variable aleatoria: Es una función, o regla bien definida, que asigna, a cada elemento del espacio muestral, un vector perteneciente a un espacio vectorial.
Variables aleatoria unidimensional: Cuando, a cada elemento del espacio muestral, se asigna un escalar perteneciente al conjunto de números reales.
Recorrido de una variable aleatoria unidimensional: Conjunto formado por los números reales que se pueden asignar a dicha variable.
Es conveniente recalcar el hecho de que se puede concebir una variable aleatoria de dos maneras:
• Se realiza un Experimento aleatorio E que tiene un resultado u=U, y luego se le asigna a este resultado el valor numérico x(U)€R
• Se realiza un experimento aleatorio E que tiene un resultado u=U. Si la observación consiste en realizar mediciones cuantitativas, el resultado u, es un número real. Si la unidad de medida correspondiente a dicho resultado coincide con “como se quiere medir” o sea, la unidad de medida de la variable aleatoria definida, entonces, u es igual a x(u), y U es igual a R(x). Si la unidad de medida de la magnitud de la variable no coincide con la medición realizada son dos números reales distintos.
Variable aleatoria discreta unidimensional: Es aquella variable aleatoria cuyo recorrido es finito o infinito numerable.
Distribución de probabilidad univariada
Funciona de probabilidad puntual: Asigna a cada valor del recorrido de dicha variable, un numero real no negativo, llamado probabilidad puntual, de modo tal que la suma de todos estos valores, a través del recorrido de la variable , debe será igual a la unidad. Debe cumplir dos condiciones:
1) Condición de no negatividad; El número real asignado debe ser no negativo.
2) Condición de cierre: La suma de todos los números reales asignados por la función de probabilidad puntual, a cada valor de la variable discreta, debe ser igual a uno.
Una variable discreta, X, queda estrictamente definida cuando se establece su función de probabilidad puntual. La función de probabilidad puntual puede ser graficada utilizando las coordenadas ortogonales, donde los valores de la variable se ubican en el eje de abscisas y los correspondientes valores puntual, en el eje de ordenadas. (Grafico de Bastones)
Función de distribución: Función que asigna a cada valor del recorrido, un número real que representa la suma de todas las probabilidades puntuales, desde el primero hasta el valor en cuestión.
La función de distribución acumulada puede ser graficada utilizando las coordenadas cartesianas ortogonales, donde los valores de la variable se ubican en el eje de abscisas y los correspondientes valores de probabilidad acumulada, en el eje de ordenadas. (Grafico escalonado)
El conjunto de pares ordenados {Xi; F(Xi)}, para todo i, se llama función de distribución de probabilidad. Es la distribución acumulada hasta un valor de la variable, o simplemente Distribución acumulada.
Función de distribución complementaria: Función que asigna a cada valor del recorrido, un número real que representa la suma de todas las probabilidades puntuales, desde el valor en cuestión hasta el último.
El conjunto de pares ordenados {Xi; G(Xi)}, para todo i, se llama función de distribución complementaria de probabilidad. Es la distribución acumulada desde un valor de la variable, o simplemente Distribución desacumulada.
• La suma entre el valor de la función de distribución correspondiente a un valor de la variable y el valor de la función de distribución complementaria correspondiente al siguiente valor de la variable, es siempre igual a uno.
Percentiles
Percentil de orden K (O<K<100 / K€r) de una variable aleatoria discreta a un valor Xk, tal que, hasta el valor de variable inmediato anterior, se acumule, a lo sumo, una probabilidad igual a K/100 y, desde el valor de variable inmediato posterior se acumule, a lo sumo, una probabilidad igual a (1-K/100).








Variables aleatorias continuas unidimensionales
Las variables continuas por tener un recorrido infinito no numerable, no permiten una clasificación puntual de sus valores, sino que su análisis debe hacerse utilizando intervalos de clase. También, el histograma de las frecuencias relativas simples, debe cubrir una superficie igual a uno.
Por otro lado, la cantidad de intervalos de clase que se necesitan para clasificar a las unidades experimentales dentro de la amplitud total, depende de la cantidad de observaciones. Si esta cantidad tiende a infinito, consecuentemente la amplitud de cada intervalo tiende a cero.
Una variable con recorrido infinito no numerable es una variable aleatoria continua en un determinado intervalo de números reales, si existe una función real que en dicho intervalo, cumpla con las siguientes dos condiciones: Sea no negativa y cubra una superficie igual a 1.
Función de densidad de probabilidad: Es la función real que cumple con la condición de no negatividad y con la condición de cierre.
Una variable aleatoria continua queda definida cuando se conoce su función de densidad de probabilidad. Una función de densidad de probabilidad está definida únicamente en el recorrido de la variable aleatoria, o sea, el intervalo {a;b}, fuera de este intervalo dicha función es nula.
La función de densidad de probabilidad de una variable aleatoria continua explica el comportamiento probabilístico de esta variable.
Con la función de densidad de probabilidad es posible calcular la probabilidad de ocurrencia de los valores de una variable aleatoria continua, teniendo en cuenta las siguientes reglas:
• Dados dos valores de la variable continua X, X1<X2 que pertenezcan al intervalo {a;b} la probabilidad de encontrar un valor de la variable entre ellos esta dadas por la superficie que encierra la función entre dichos puntos.
• La probabilidad de que la variable X tome un valor individual X3 es nula. En un punto no hay superficie.
• Si la probabilidad puntual es igual a cero, cuando se calcula la probabilidad de que un valor de la variable pertenezca a un intervalo determinado, es indistinto que este sea cerrado o abierto.
Función de distribución
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x) definida en el intervalo de números reales {a;b}. Se llama función de distribución, F(x), a un modelo matemático o función no decreciente, que asigna a cada valor de la variable aleatoria un valor de probabilidad acumulada desde el límite inferior del recorrido, hasta ese valor.
Función de distribución complementaria
Sea X una variable aleatoria continua con función de densidad de probabilidad f(x) definida en el intervalo de números reales {a;b}. Se llama función de distribución complementaria, G(x), a un modelo matemático o función no creciente, que asigna a cada valor de la variable aleatoria un valor de probabilidad acumulada desde un valor de la variable, hasta el límite superior del recorrido.
La suma entre el valor de la función de distribución correspondiente a un valor de la variable y el valor de la función de distribución complementaria correspondiente a dicho valor de la variable es igual a uno.
Percentil de orden K (O<K<100 / K€r) de una variable aleatoria continua al valor de la variable Xk, donde se acumule, una probabilidad igual a K/100.
Es posible obtener una función de proporciones lo percentiles (o fractiles) buscando la inversa de la función de distribución. Esta función recibe el nombre de Función percentilar.
La función de distribución surge de integrar la función de densidad de probabilidad de la variable aleatoria continua utilizando como límite inferior de integración el límite inferior del recorrido, y como límite superior de integración, el valor de la variable.
Momentos teóricos
Una función de probabilidad o una función de densidad de probabilidad, por ser Modelos Matemáticos, son Modelos Teóricos. Con estas funciones se puede predecir el comportamiento probabilístico de las variables aleatorias. Permiten calcular valores teóricos relacionados con dichas variables. Valores que se esperan, en promedio, si el experimento aleatorio se desarrolla bajo las mismas condiciones.
Se llama Momento de una variable aleatoria al valor esperado o esperanza matemática de una función de la variable.
Se llama Momento o esperanza matemática de una función generada con una variable aleatoria discreta, a la suma del producto de cada valor numérico de la función por el correspondiente valor de probabilidad puntual, a través del recorrido de la variable.



Se llama Esperanza matemática de una función generada con una variable aleatoria continua, a la integral, a través del recorrido de la variable, del producto de la función dada por la función de densidad de probabilidad de la variable.

Momento absoluto de orden K: Es la esperanza matemática de la potencia K-esima de la variable aleatoria.
El momento absoluto de orden 1 es el promedio o media aritmética esperada de la variable aleatoria. La interpretación del promedio esperado o media aritmética esperada es el valor que se espera obtener, en promedio, si el experimento es repetido bajo las mismas condiciones, una cantidad muy grande de veces.
Momento centrado teórico de orden K: Es la esperanza matemática de la potencia k-esima de la desviación de la variable aleatoria con respecto a la media aritmética esperada.
El momento centrado de orden 2 es la varianza esperada de la variable aleatoria.
Función generatriz de momentos
Sea X una variable aleatoria y t una variable real, no aleatoria, se llama función generatriz de momentos de la variable X, a la esperanza matemática de la potencia X.t del numero E.
• La función generatriz de momentos es única y determina por completo la distribución de probabilidad de una variable aleatoria. Esto quiere decir que si dos variables tienen la misma función generatriz de momentos, entonces tienen la misma distribución de probabilidad.
• El momento absoluto de orden K se obtiene realizando la derivada k-esima de la función generatriz de momentos, con respecto a la variable t y valorizando dicha derivada en el origen de la variable t(t=0)
Desvío estándar: Es la raíz cuadrada positiva de la varianza esperada.
Coeficiente de variación: Es el cociente entre el desvío estándar y el promedio o media aritmética esperada.
Mediana:
• De una variable aleatoria discreta es el valor tal que, hasta el valor de variable inmediato anterior, se acumule, a lo sumo, una probabilidad de 0,50 y desde el valor de variable inmediato posterior se acumule, a lo sumo, una probabilidad de 0,50.
• De una variable aleatoria continua al valor de la variable hasta donde se acumula una probabilidad exactamente igual a 0,50.
Modo:
• De una variable aleatoria discreta al valor de la variable mas probable, o de máxima probabilidad, dentro de un entorno de dicho valor. Si todos los valores de una variable aleatoria discreta tienen igual valor de probabilidad puntual entonces no existe modo.
• De una variable aleatoria continua al valor de la variable con el que la función de densidad de probabilidad alcanza un máximo relativo.
Coeficiente de asimetría
• Función de probabilidad: Una distribución de probabilidad de una variable discreta es simétrica, si las probabilidades puntuales correspondientes a valores de la variable que equidistan de la media aritmética esperada son iguales
• Función de densidad de probabilidad: Una distribución de probabilidad de una variable continua es simétrica, si las imágenes de la función de densidad de probabilidad correspondientes a valores de la variable que equidisten de la media aritmética esperada son iguales.
Propiedades del promedio y de la varianza
• El promedio esperado de una constante, es la constante misma y la varianza esperada de una constante es nula.
• El promedio esperado de la suma de una constante mas una variable, es igual a la constante mas el promedio esperado de la variable y la varianza de la suma de una constante mas una variable es igual a la varianza de la variable.

• La esperanza matemática o promedio del producto de una constante por una variable, es igual al producto entre la constante y la esperanza matemática o promedio de la variable y la varianza del producto de una constante por una variable es igual al producto entre el cuadrado de la constante y la varianza de la variable.


Teorema de tchebycheff
Sea X una variable aleatoria, discreta o continua, con esperanza matemática finita y varianza finita, y sea K un número real positivo mayor a uno. Cualquiera sea la distribución de probabilidad de la variable aleatoria X, siempre se cumple que:
La probabilidad de que, el modulo de la desviación ente un valor de la variable y el promedio esperado, sea mayor o igual, a k veces el desvío estándar (K>1), es a lo sumo 1/K₂

Variable estandarizada
Se llama variable estandarizada de una variable aleatoria, discreta o continua, a la variable que se genera haciendo el cociente entre, la diferencia entre la variable original y su esperanza matemática, y la raíz cuadrada positiva de la varianza. Toda variable aleatoria estandarizada, tiene esperanza igual a cero y varianza igual a uno, cualquiera sea la naturaleza de la variable original que se está estandarizando.
Aplicaciones de la variable estandarizada
Estandarizar una variable aleatoria, la variable original, es transformar los valores de ella, que están expresados en unidades de la magnitud original, a valores en unidades de desvió estándar. En otras palabras, el valor de la variable estandarizada indica a qué distancia, a cuantos desvíos estándares, y en qué posición (izquierda o derecha) se encuentra el correspondiente valor observado de la variable en estudio, con respecto a su media aritmética.
Esta transformación hace posible que se pueda comparar la desviación con respecto al promedio aritmético, de valores individuales correspondientes a variables aleatorias que representan distintas circunstancias, o distintos grupos, o medidas en distintas unidades de magnitudes.
Leyes de probabilidad específicas
Experimento aleatorio dicotómico: Aquel experimento aleatorio cuyo espacio muestral tiene solo dos resultados posibles mutuamente excluyentes.
Permutaciones: Dado un conjunto formado por n elementos, se llama permutación de n a cualquier arreglo ordenado de los n elementos. La cantidad de permutaciones que se pueden formar ordenando los n elementos de distinta manera, se calcula con un numero llamado factorial de n.
Espacio continuo: Es un recinto de infinitos puntos donde en cualquiera de ellos es posible encontrar un elemento. Son las magnitudes (longitud; superficie; tiempo)
Distribución de Bernoulli: Es una función que proporciona valores de probabilidad a una variable aleatoria discreta que denota la presencia o ausencia de un determinado atributo. Si el atributo no se presenta, se asigna a la variable el valor cero; si el atributo se presenta se asigna a la variable el valor uno.
La cantidad de elementos con un determinado atributo que se presenta en una observación de un experimento aleatorio dicotómico, es una variable aleatoria discreta, r, cuya función de probabilidad es llamada distribución de bernoulli.


Repetición de un experimento aleatorio dicotómico: Cada vez que el experimento aleatorio dicotómico se repite, los elementos que tengan el atributo que se está considerando pueden presentarse o no, es aleatorio, entonces, en las n repeticiones del experimento, habrá algunos elementos que tengan el atributo, o puede ser que ninguno tenga el atributo, o todos tengan el atributo.
Distribución Hipergeometrica:
• Modelo probabilístico para una variable aleatoria discreta.
• Modelo que corresponde a aquellos experimentos aleatorios donde se realizan sucesivas observaciones de unidades experimentales sin reposición.
• La no reposición provoca un cambio en el valor de probabilidad de ocurrencia del atributo por tal motivo las observaciones no son independientes.
• Las n repeticiones del experimento aleatorio dicotómico no son independientes, o sea, la probabilidad de que se presente un elemento con un determinado atributo no permanece constante a través de las n observaciones.
La cantidad de elementos con un determinado atributo, que se presentan en n observaciones dependientes de un experimento aleatorio dicotómico, es una variable aleatoria discreta, r, cuya función de probabilidad es llamada distribución hipergeometrica.



Distribución Binomial
• Las n observaciones son independientes: la probabilidad de que se presente un elemento con un determinado atributo permanece constante a través de las n pruebas.
La cantidad de elementos con un determinado atributo, que se presentan en n observaciones independientes de un experimento aleatorio dicotómico, es una variable aleatoria discreta, r, cuya función de probabilidad es llamada distribución binomial.



Distribución geométrica
• La variable aleatoria es la cantidad de repeticiones independientes del experimento que son necesarias para encontrar un elemento que tenga un determinado atributo.
• Si n es la cantidad de observaciones o repeticiones independientes del experimento aleatorio dicotómico, entonces en las primeras (n-1) observaciones no se tiene que haber presentado el elemento con el atributo.
La cantidad de observaciones independientes de un experimento aleatorio dicotómico necesarias para encontrar 1 elementos con un determinado atributo, es una variable aleatoria discreta, ñ, cuya función de probabilidad es llamada distribución geométrica


Distribución Pascal
• La variable aleatoria es la cantidad de repeticiones del experimento pero que son necesarias para encontrar una cantidad fija, mayor a uno, de elementos que tengan un determinado atributo.
• Esta variable es útil cuando se quieren concreta algunos trabajos de investigación, o tener una correcta información acerca de determinadas situaciones, donde es necesario contar con una cantidad fija de elementos que tengan un determinado atributo. Para ello, habrá que repetir el experimento aleatorio tantas veces como sea necesario. Es decir, se observan unidades experimentales sucesivamente hasta conseguir la cantidad con atributo que se necesita, y recién, cuando ello se logra, se detienen las pruebas.

La cantidad de observaciones independientes de un experimento aleatorio dicotómico necesarias para encontrar r elementos con un determinado atributo, es una variable aleatoria discreta, ñ, cuya función de probabilidad es llamada distribución pascal.



Relación entre la distribución de pascal y la distribución binomial
Los valores de probabilidad puntual de la distribución de pascal se pueden obtener a partir de la distribución binomial.
Si hay que encontrar exactamente r elementos que tengan un determinado atributo, o sea r éxitos, y para ello hay que hacer exactamente n pruebas, necesariamente, el último éxito encontrado, debe coincidir con el último elemento observado, porque cuando se lo encuentra se detienen las pruebas.
Los (r-1) primeros éxitos pueden obtenerse en cualquiera de las primeras (n-1) pruebas independientes, pero el r-esimo éxito debe estar en la n-esima observación.
Para calcular la probabilidad de encontrar (r-1) éxitos en (n-1) observaciones independientes, hay que utilizar la distribución binomial. Si esta probabilidad se multiplica por p, o sea por la probabilidad de encontrar el r-esimo éxito que falta se obtiene el mismo valor de probabilidad que el que se obtiene cuando se calcula usando la distribución de Pascal.


Distribución de Poisson
La distribución que se estudia en este punto se origino en el estudio de la cantidad de elementos (personas, automóviles, llamadas telefónicas, etc.) que arriban en un determinado periodo de tiempo. Posteriormente el análisis fue generalizado para otros espacios continuos.
Dado un espacio muestral continuo de extensión t. En dicho continuo ocurren ciertos acontecimientos en forma aleatoria formando una secuencia o flujo de acontecimientos. Se supone que este flujo de acontecimientos satisfaces las siguientes condiciones:
1) Sean (t1;t2) y (t3;t4) dos intervalos cualesquiera del continuo, no superpuestos y estadísticamente independientes, o sea que la probabilidad de que se produzcan acontecimientos en uno de los intervalos, no depende de los que ocurrieron en el otro.
2) La probabilidad de que un acontecimiento se produzca en un intervalo infinitesimal (t0;t0+∆t) es un infinitésimo de orden ∆t.
3) La probabilidad de que se produzcan dos o más acontecimiento en el intervalo infinitesimal (t0;t0+∆t) es un infinitésimo de orden ∆t.
4) Los acontecimientos ocurren con una tasa media o frecuencia media o promedio de presentación en el continuo conocido.
La cantidad de acontecimientos que se presentan en un continuo es una variable aleatoria discreta.
La cantidad de elementos que se presentan al azar en un continuo de extensión t, y con un promedio de presentación en el continuo igual a , es una variable aleatoria discreta, r~, cuya función de probabilidad es llamada distribución de Poisson.


Aproximación de la distribución hipergeometrica a la distribución Binomial
Cuando hay que calcular un valor de probabilidad para una variable con distribución hipergeometrica, frecuentemente, el tamaño del universo N es una cantidad grande en relación con la cantidad de observación n. Tan grande es, que el numero combinatorio se torna incalculable con los métodos corrientes. Cuando ello ocurre, el cálculo de las probabilidades de la distribución hipergeometrica se hace utilizando la distribución binomial.
El límite de la distribución hipergeometrica, cuando el tamaño del universo N tiende a infinito, es la distribución binomial. Esto quiere decir que, si el tamaño del universo es suficientemente grande, con relación al número de observaciones, aun cuando las observaciones sean sin reposición, los valores de probabilidad puntual de la distribución hipergeometrica se pueden calcular, aproximadamente con la distribución binomial.



Aproximación de la distribución binomial a la distribución de Poisson
Cuando hay que calcular un valor de probabilidad para una variable con Distribución binomial, puede ocurrir que la cantidad de observaciones n, sea grande y la probabilidad de encontrar un elemento con el atributo p, sea pequeña. Si n es muy grande el número combinatorio se torna incalculable con los métodos corrientes. Si p es muy pequeño, la potencia es prácticamente cero.
El límite de la distribución binomial, cuando la cantidad de observaciones n tiende a infinito y la probabilidad de que se presente un elemento con un determinado atributo p tiene a 0 es la distribución de Poisson.
Esto quiere decir que, si la cantidad de observación es suficientemente grande y la probabilidad de encontrar un elemento con un determinado atributo es suficientemente chica, los valores de probabilidad puntual de la distribución binomial, se pueden calcular, aproximadamente, con la distribución de Poisson.









Variables aleatorias continuas
Para poder estudiar el comportamiento probabilístico de una variable aleatoria continua, calcular los momentos, calcular los valores de probabilidad dentro de un intervalo dado, etc. Es necesario conocer cuál es la función de densidad de probabilidad que las define.
Algunas variables están definidas por funciones de densidad de probabilidad cuyas ecuaciones tienen ciertas características especiales y por ello se les ha asignado un nombre con el que se las reconoce.
Distribución Uniforme
Una variable aleatoria continua X, definida en el intervalo de números reales {a;b} tiene distribución uniforme si su función de densidad de probabilidad es



Características
1) a y b son los parámetros matemáticos de la función.
2) Por ser función de densidad de probabilidad la función de densidad uniforme cumple con la condición de no negatividad y con la condición de cierre.
3) La función de distribución de la distribución uniforme es:



4) La función percentilar de la distribución uniforme es:


5) La función generatriz de Momentos es:


6) La esperanza matemática o promedio aritmético de la variable es
7) La varianza esperada de la variable es:


8) Dado que la función de densidad de probabilidad de la distribución uniforme es simétrica se verifica que:

9) Dado que la función de densidad de probabilidad de la distribución uniforme no tiene máximo relativo entonces la variable no tiene Modo.


Distribución Normal
La distribución normal es quizá, una de las más importantes, dado que es un modelo teórico que se presenta con extraordinaria frecuencia como función de densidad de probabilidad de las variables aleatorias continuas que se estudian en todas las ciencias. No obstante, es necesario verificar, mediante metodologías que se estudiaran en cursos más avanzados, la validez de la “normalidad” en las variables que se analizan, para evitar errores en las decisiones.
Por otro lado, la distribución normal posee importantes propiedades que permiten analizar el comportamiento de variables originadas en la suma o diferencia de otras variables; como así también, bajo ciertas condiciones, puede ser utilizada como aproximación de funciones de probabilidad para variables aleatorias discretas.
Una variable aleatoria continua X, definida para todos los números reales, tiene distribución normal, si su función de densidad de probabilidad es


Características
1) Los números µ y ∂ de la función de densidad normal son los parámetros matemáticos de la función
2) La función de densidad normal alcanza un máximo relativo cuando x= µ
3) La función de densidad normal tiene dos puntos de inflexión cuando:
X= µ - ∂ X= µ + ∂
4) La función de densidad normal es simétrica con respecto al punto de máxima ordenada
5) La función de densidad normal es asíntota al eje de abscisa.
Variable normal estandarizada o tipificada
El valor de la función de distribución de una variable aleatoria con distribución normal, para el valor x, es igual al valor de la función de distribución de la variable estandarizada Z con distribución normal, para el correspondiente valor.


Si x se distribuye normalmente con media mu y varianza sigma cuadrado, entonces X se distribuye normalmente con media cero y varianza uno


Función de distribución de la variable estandarizada
Los valores de la función de distribución de la variable estandarizada X se encuentran tabulados, por lo tanto, no es necesario lograr su expresión funcional.
Si bien el recorrido de la variable es el conjunto de los números reales, los valores de probabilidad acumulada significativos más usuales, corresponden a los valores de la variable que se encuentran en el intervalo -3,99< Z < 3,99
Para calcular la probabilidad de que el valor de una variable aleatoria distribuida normalmente pertenezca a un determinado intervalo, primero hay que estandarizar los valores de la variable original X, y con el correspondiente valor de Z, obtener el valor de probabilidad en la tabla de la función de distribución Z.
Calculo de los percentiles
Para calcular el percentil de orden k de una variable aleatoria continua X, distribuida normalmente, se utiliza la Tabla de percentiles de la variable estandarizada Z, ubicando el orden del percentil, expresado en probabilidad, en la columna F(z) y, de esta manera, localizar el correspondiente valor de Zk.



Transformación lineal de variables aleatorias normales
Toda transformación afín de una variable aleatoria con distribución normal, se distribuye normalmente.
Toda combinación lineal de variables aleatorias normales independientes, tiene distribución normal.
Proposiciones
• La esperanza matemática de la suma de variables aleatorias independientes es igual a la suma de las Esperanzas Matemáticas Individuales de cada una de las variables.
• La Varianza de la suma de variables aleatorias independientes es igual a la suma de las varianzas individuales de cada una de las variables.
• La suma de variables aleatorias normales independientes, se distribuye normalmente.
Primer caso: Todas las variables están multiplicadas por una constante no nula y cada una de las variables tiene distinta esperanza matemática y distinta varianza.
Segundo caso: Todas las constantes son iguales a uno, y todas las variables tienen distinto promedio o esperanza matemática y distinta varianza.
Tercer caso: Todas las constantes son iguales a uno, y todas las variables tienen el mismo promedio o esperanza matemática y la misma varianza.

Aproximación de la distribución binomial a la distribución normal
El límite de la distribución binomial, cuando la cantidad de observaciones n tiende a infinito y la probabilidad de que se presente un elemento con un determinado atributo p tiende a 0,50 es la distribución normal.
La variable en estudio es una variable aleatoria discreta, pero para el cálculo de probabilidad se utiliza la distribución normal, que es una distribución para variable continua, por ello, para calcular el valor de la variable estandarizada haciendo una “corrección por continuidad” que consiste en sumar o restar, según corresponda, medio punto al valor de la variable r~, de modo que el valor puntual quede estrictamente incluido en un intervalo