sábado, 9 de junio de 2012

UN DIFICIL DE CREER.....
EL ESTADO DE OAXACA CUENTA CON 570 MUNICIPIOS EN SU MAYORÍA LOS NOMBRES  SON DE PERSONAJES QUE TRASCENDIERÓN EN LA RELIGIÓN CATÓLICA.

DA CLIC AQUÍ  PARA CONOCER LOS NOMBRE DE CADA MUNICIPIO.


La estadística se puede clasificar en dos grandes ramas:
  • Estadística descriptiva o deductivaa.
  • Estadística inferencial o inductiva.
La primera se emplea simplemente para resumir de forma numérica o gráfica un conjunto de datos. Se restringe a describir los datos que se analizan. Si aplicamos las herramientas ofrecidas por la estadística descriptiva a una muestra, solo nos limitaremos a describir los datos encontrados en dicha muestra, no se podrá generalizar la información hacia la población. La estadística inferencial permite realizar conclusiones o inferencias, basándose en los datos simplificados y analizados de una muestra hacia la población o universo. Por ejemplo, a partir de una muestra representativa tomada a los habitantes de una ciudad, se podrá inferir la votación de todos los ciudadanos que cumplan los requisitos con un error de aproximación.
Empleo de los modelos matematicos:

 
Una de las herramientas principales utilizadas en la estadística son los modelos, los cuales constituyen representaciones de problemas y situaciones de la vida.

Un modelo es una representación que describe en forma simplificada el comportamiento de un fenómeno o experimento o un objeto real.

Los modelos pueden ser representaciones físicas, gráficas y simbólicas o matemáticas. Los modelos físicos se usan principalmente para hacer simulaciones. Se llama simulación a un experimento realizado sobre el modelo de un sistema. Como ejemplos de modelos físicos podemos mencionar el geoide, que pone de manifiesto la forma de nuestro planeta y la distribución y forma de los continentes y océanos, la topografía, etc.; un avión a escala, que se utiliza en los túneles aerodinámicos para conocer su comportamiento y estabilidad ante diferentes condiciones atmosféricas ahí simuladas; una maqueta, que es la representación a escala de un edificio o construcciones en general, etc.

Entre los modelos gráficos se pueden mencionar los diagramas, planos, bocetos, gráficas y dibujos que se utilizan para representar la imagen de una idea.

Los modelos simbólicos o matemáticos están constituidos por todas las ecuaciones matemáticas requeridas para representar satisfactoriamente un fenómeno o experimento. Cuando se usan los modelos matemáticos, a veces es posible determinar, mediante un proceso deductivo, cuáles serán los resultados de un experimento sin realizarlo. Generalmente esto ahorra tiempo, trabajo y dinero, y proporciona resultados aun más precisos que los que se pueden obtener por medio de la simulación.

Los modelos son útiles en diferentes formas, entre las que se pueden mencionar:

Ofrecen una forma relativamente barata y segura de probar las ideas antes de ponerlas en práctica. Así, si se desea construir un nuevo barco, primero se deben hacer dibujos, cálculos y modelos de prueba antes de construir el barco.
Proporciona una versión simplificada de algún problema o situación de la vida real, concebida para resaltar ciertos aspectos del problema, sin tener que analizar todos los detalles. Así, un modelo se utiliza destacando los aspectos de interés y haciendo a un lado otros detalles que no tienen mucha relación con el problema. Por lo tanto, el modelo ayuda a reducir la complejidad del problema.
Permiten la comunicación de una idea o concepto. De esta forma, los planos, bocetos y maquetas permiten al arquitecto transmitir la idea que tiene sobre el tamaño, distribución y aspecto de una construcción.

Para poder utilizar correctamente un modelo, es necesario conocer bien el problema y definirlo con precisión, que es uno de los aspectos más importantes en la solución de todo problema. Un error que se presenta frecuentemente es que las personas prestan poca atención a la definición del problema, lo cual da como resultado un trabajo de mala calidad o la repetición del mismo. Otro requerimiento en el uso de los modelos, es que obliga a los usuarios a identificar las áreas en las que el conocimiento o la información son deficientes y en las que se requiere de mayor esfuerzo o de mayores conocimientos.

La probabilidad, por su esencia, requiere del uso de modelos gráficos y matemáticos. Los modelos gráficos los usa para presentar la información y los matemáticos para procesar la misma y hacer inferencias con ella. Por ejemplo, el muestreo es una herramienta que sirve para hacer inferencias. Pongamos el caso que se tenga una urna con canicas de diferentes colores (población). Es posible tomar una parte de la población (muestra) y clasificar las canicas según el color, lo cual dará idea de la forma en que se distribuyen los colores de la población.

Al plantear un problema estadístico, se deben buscar los métodos y procedimientos adecuados para la solución y representarlos mediante un modelo matemático. El éxito que se obtenga dependerá de cuan fiel y completamente represente el modelo al problema y de que tan bien se puedan deducir soluciones al modelo una vez que este se ha elaborado.

Uso y abuso de la estadistica

El uso de cualquier método estadístico es válido solo cuando el sistema o población bajo consideración satisface los supuestos matemáticos del método. El mal uso de la estadística puede producir serios errores en la descripción e interpretación, afectando las políticas sociales, la práctica médica y la calidad de estructuras tales como puentes y plantas de reacción nuclear.
Incluso cuando la estadística es correctamente aplicada, los resultados pueden ser difícilmente interpretados por un inexperto. Por ejemplo, el significado estadístico de una tendencia en los datos, que mide el grado al cual la tendencia puede ser causada por una variación aleatoria en la muestra, puede no estar de acuerdo con el sentido intuitivo. El conjunto de habilidades estadísticas básicas (y el escepticismo) que una persona necesita para manejar información en el día a día se refiere como «cultura estadística».

PROCESAMIENTO ESTADISTICO DE DATOS





Distribucion de Frecuencias para datos agrupados y simples


Cuando los datos que deben analizarse son numerosos, como puede ser la edad o el salario mensual de una población de tres mil personas, es conveniente agrupar los datos de manera ordenada por clases o categorías que muestran, para cada una de ellas, el número de elementos que contiene o frecuencia. A esto es lo que se denomina, distribución de frecuencia.
Las distribuciones de frecuencias son tablas que los datos originales en frecuencias.
Los tipos de frecuencia pueden ser:
- Frecuencia Absoluta (f).- Es el número de veces que se repite el valor de cada variable. La de frecuencias absolutas es siempre al total de datos observados.
- Frecuencia Relativa (fr).- Indica la proporción con que se repite un valor. Es el cociente entre la frecuencia absoluta y el número total de datos. La suma de las frecuencias relativas es siempre 1
Monografias.com
- Frecuencia Acumulada (fa).- Indica el número de valores que son menores o iguales que el valor dado. Es la suma de la frecuencia absoluta primera con la segunda, este valor con la tercera, y así sucesivamente.
- Frecuencia Porcentual (f%).- Llamada también frecuencia relativa porcentual. Se obtiene multiplicando la frecuencia relativa por 100. La suma de las frecuencias porcentuales es siempre 100%. Se calcula así:
Monografias.com
- Frecuencia Relativa Acumulada (fra).- Es la suma de la frecuencia relativa primera con la segunda, este valor con la tercera, y así sucesivamente.
- Frecuencia Relativa Acumulada Porcentual (fra%).- Indica el número de que son menores o iguales que el valor dado. Se obtiene multiplicando la frecuencia relativa acumulada por 100. Se calcula así:
Monografias.com

REGLAS GENERALES PARA FORMAS DISTRIBUCIONES DE FRECUENCIAS PARA DATOS AGRUPADOS EN INTERVALOS

Cuando los datos contienen una gran cantidad de elementos, para facilitar los cálculos es necesario agruparlos, a estos grupos se los llama intervalos o clases. Un intervalo es una serie de incluidos entre dos extremos, así por ejemplo, el intervalo 40 – 45 está formado por 40, 41, 42, 43, 44 y 45, siendo 40 el límite inferior, 45 el límite superior, 39,5 límite real inferior (límite inferior disminuido en 5 décimas) y 40,5 el límite real superior (límite superior aumentado en 5 décimas).
Las generales para formas distribuciones de frecuencias para datos agrupados en intervalos son:
1) Calcule el Rango (R).- También se llama recorrido o amplitud total. Es la entre el valor mayor y el menor de los datos.
Monografias.com
2) Seleccione el Número de Intervalos de Clase (ni).- No debe ser menor de 5 y mayor de 12, ya que un número mayor o menor de clases podría oscurecer el comportamiento de los datos. Para calcular el número de intervalos se aplica la de Sturges:
Monografias.com
Siendo n el tamaño de la muestra.
3) Calcule el Ancho del Intervalo (i).- Se obtiene dividiendo el Rango para el número de intervalos
Monografias.com
Cuando el valor de i no es exacto, se debe redondear al valor superior más cercano. Esto altera el valor de rango por lo que es necesario efectuar un ajuste así:
Monografias.com
Por ejemplo:
Si una distribución de 40 datos el valor mayor es 41 y el menor es 20 se tiene:
Calculando el Rango se obtiene:
Monografias.com
Calculando el número de intervalos se obtiene:
Monografias.com
Calculando el ancho se obtiene:
Monografias.com
Redondeando se obtiene: i = 4
Calculando el nuevo rango se obtiene:
Monografias.com
El exceso de 3 que se tiene en este caso se distribuye entre xmáx y xmín. Por lo general se agrega al mayor y se quita al menor. Como por ejemplo, se podría agregar 2 al valor mayor y quitar 1 al valor menor, obteniéndose los siguientes valores:
Monografias.com
Monografias.com
O también se podría agregar 1 al valor mayor y quitar 2 al valor menor, obteniéndose los siguientes nuevos valores:
Monografias.com
Monografias.com
4) Forme los Intervalos de Clase agregando i-1 al límite inferior de cada clase, comenzando por el Xmín del rango.
5) Se realiza el Conteo de Datos que cae dentro de cada clase (frecuencia absoluta)
6) Calcule la Marca de Clase (xm).- Es el valor medio de cada clase, se obtiene sumando los límites superior (Ls) e inferior (Li) del intervalo y dividiendo ésta suma entre 2
Monografias.com

REPRESENTACION GRAFICA DE LOS DATOS
Los datos pueden representarse mediante diferentes gráficas que nos ayudan a plasmar de manera detallada y concreta el contenido, a continuación se presentan modelos de gráficas:





En estadística denominamos gráficos a aquellas imágenes que, combinando la utilización De sombreado, colores, puntos, líneas, símbolos, números, texto y un sistema De referencia (coordenadas), permiten presentar información cuantitativa.
La utilidad De los gráficos es doble, ya que pueden servir no sólo como sustituto a las tablas, sino que también constituyen por sí mismos una poderosa herramienta para el análisis De los datos, siendo en ocasiones el medio más efectivo no sólo para describir y resumir la información, sino también para analizarla.
En este trabajo solo nos vamos a centrar únicamente en los gráficos como vehículo de presentación de datos, sin abordar su otra faceta como herramienta de análisis.
Gráficos estadísticos
Los gráficos son medios popularizados y a menudo los más convenientes para presentar datos, se emplean para tener una representación visual de la totalidad de la  información. Los gráficos estadísticos presentan los datos en forma de dibujo de tal modo que se pueda percibir fácilmente los hechos esenciales y compararlos con otros.
Tipos de gráficos estadísticos
  • Barras
  • Líneas
  • Circulares
  • Áreas
  • Cartogramas
  • Mixtos
  • Histogramas


MEDIA ARITMETICA
En matemáticas y estadística, la media aritmética (también llamada promedio o simplemente media) de un conjunto finito de números es el valor característico de una serie de datos cuantitativos objeto de estudio que parte del principio de la esperanza matemática o valor esperado, se obtiene a partir de la suma de todos sus valores dividida entre el número de sumandos. Cuando el conjunto es una muestra aleatoria recibe el nombre de media muestral siendo uno de los principales estadísticos muestrales.
Expresada de forma más intuitiva, podemos decir que la media (aritmética) es la cantidad total de la variable distribuida a partes iguales entre cada observación.
Por ejemplo, si en una habitación hay tres personas, la media de dinero que tienen en sus bolsillos sería el resultado de tomar todo el dinero de los tres y dividirlo a partes iguales entre cada uno de ellos. Es decir, la media es una forma de resumir la información de una distribución (dinero en el bolsillo) suponiendo que cada observación (persona) tuviera la misma cantidad de la variable.
También la media aritmética puede ser denominada como centro de gravedad de una distribución, el cual no está necesariamente en la mitad.
Una de las limitaciones de la media aritmética es que se trata de una medida muy sensible a los valores extremos; valores muy grandes tienden a aumentarla mientras que valores muy pequeños tienden a reducirla, lo que implica que puede dejar de ser representativa de la población.

Dados los n números \{a_1, a_2, \ldots, a_n\}, la media aritmética se define simplemente como:
 \bar{x} = \frac{1}{n} \sum_{i=1}^{n} a_i = \frac{a_1+a_2+\cdots+a_n}{n}
Por ejemplo, la media aritmética de 8, 5 y -1 es igual a:
 \bar{x} = \frac{ 8 + 5 + \left ( -1 \right ) }{3} = 4
Se utiliza la letra X con una barra horizontal sobre el símbolo para representar la media de una muestra (\overline{X}), mientras que la letra µ (mu) se usa para la media aritmética de una población, es decir, el valor esperado de una variable.
En otras palabras, es la suma de n valores de la variable y luego dividido por n : donde n es el número de sumandos, o en el caso de estadística el número de datos.

Propiedades
  • La Suma de los desviaciones con respecto a la Media Aritmética es cero (0).
  • La Media Aritmética de los cuadrados de las desviaciones de los valores de la variable con respecto a una constante cualquiera se hace mínima cuando dicha constante coincide con la media aritmética.
  • Si a todos los valores de la variable se le suma una misma cantidad, la media aritmética queda aumentada en dicha cantidad.
  • Si todos los valores de la variable se multiplican por una misma constante la media aritmética queda multiplicada por dicha constante.
  • La media aritmética de un conjunto de números positivos siempre es igual o superior a la media geométrica:
\sqrt[n]{x_1 x_2 \dots x_n} \le \frac{x_1+ \dots + x_n}{n}
  • La media aritmética está comprendida entre el valor máximo y el valor mínimo del conjunto de datos:
\min \{x_1, x_2, \dots x_n\} \le \frac{x_1+ \dots + x_n}{n}
\le \max \{x_1, x_2, \dots x_n\}


 MEDIDAS DE TENDENCIA CENTRAL

Media aritmética:
También se le conoce como promedio; es la suma de todos los elementos dividida entre el número total de ellos. Matemáticamente se representa de la siguiente manera:
Sea X una variable; X1, X2, . . . , Xn , la población generada por X, el promedio de la población será :



Donde,
n/2 = posición de la mediana
Li = es el límite inferior de la clase donde se encuentra ubicada la mediana.
F(i-1) = es el valor de la frecuencia acumulada anterior a la clase mediana.
fi = es el valor de la frecuencia de clase donde se encuentra la mediana.
Ic = es el tamaño del intervalo de clase.
n = es el número total de datos de la distribución en estudio.

La moda:
La moda es la medida de posición que indica la magnitud del valor que se presenta con más frecuencia en una serie de datos; es pues, el valor de la variable que más se repite en un conjunto de datos. De las medidas de posición la moda es la que se determina con mayor facilidad, ya que se puede obtener por una simple observación de los datos en estudio, puesto que es el dato que se observa con mayor frecuencia. Se designa con las letras Mo.
En las representaciones gráficas la moda es el punto más alto de la gráfica. La obtención de la moda para datos agrupados no es un valor exacto, ya que varía con las diferentes formas de agrupar una distribución de frecuencia.
En algunas distribuciones de frecuencias o serie de datos no agrupados o agrupados se pueden presentar dos o más modas, en estos casos se habla de serie de datos bimodales o multimodales respectivamente. Estos tipos de distribuciones o series de valores se deben a la falta de homogeneidad de los datos.
Cuando una serie de valores es simétrica, la media, la mediana y el modo coinciden, y si el grado de asimetría de la serie es moderada, la mediana estará situada entre la media y el modo con una separación de un tercio entre ambas. Tomando en cuenta esta relación, cuando se tengan dos de esta medidas se puede determinar la tercera; sin embargo es conveniente utilizar esta relación para calcular solamente la moda ya que para calcular la media y la mediana existen formulas matemáticas que dan resultados más exactos; la fórmula matemática para calcular la moda por medio de la relación antes mencionada es:

Mo = X – 3(X – Me).



Cuando los datos se encuentran no agrupados la determinación de la moda es sencilla y exacta; pero para calcularla en datos agrupados existen varios métodos; cada uno de los cuales puede dar un valor diferente de la moda: En este curso se dará el método de la interpolación por considerarse uno de los más precisos en el cálculo de esta. Este método puede expresarse mediante la siguiente fórmula:



Donde,
Li = es el límite inferior de la clase modal.
Δ1= es la diferencia entre la frecuencia absoluta de la clase modal y la frecuencia de la clase anterior a la modal.
Δ2= es la diferencia entre la frecuencia absoluta de la clase modal y la frecuencia de la clase siguiente a la modal.
Ic = es el tamaño del intervalo de clase.
Medidas derivadas de la mediana:
Los cuartiles, deciles y percentiles se parecen mucho a la media porque también subdividen una distribución de mediciones de acuerdo con la proporción de frecuencias observadas. Mientras que la mediana divide a la distribución en dos mitades, los cuarteles la dividen en cuatro cuartos, los deciles en diez decimos y los puntos percentiles la dividen en cien partes. Matemáticamente, a manera de ejemplo, se pueden expresar:

Q1 (Primer cuartil): X[(n/4+1/2)]
D3 (Tercer decil): X[(3n/10+1/2)]
P70 (Percentil 70): X[(70n/100+1/2)]

 
Axioma 1
La probabilidad de un evento es un numero real no negativo; o sea, P(A)" 0 para cualquier subconjunto de A de S.
Axioma 2
P(S) = 1
Axioma 3
Si A1, A2, A3, …, es un secuencia finita o infinita de eventos mutuamente exclusivos de S entonces
P(A1 U A2 U A3 U …)= P(A1) + P(A2) + P(A3) + …


 INTRODUCCIÓN A LA PROBABILIDAD

CONCEPTOS BÁSICOS.
Probabilidad: Es un valor numérico que representa la oportunidad o posibilidad que un evento en particular ocurra.
 La probabilidad es una porción o fracción cuyo valor varía entre 0 y 1.  Si un evento es imposible, tiene una probabilidad de 0, pero si el evento ocurrirá con toda seguridad, entonces tiene una probabilidad de 1.

Experimento: Proceso que conduce a que ocurra una (y solamente una) de varias observaciones posibles.
En probabilidad, un experimento tiene dos o más resultados posibles, y es incierto cual es el que ocurrirá.
Espacio muestral: Se le llama al conjunto de todos los posibles resultados individuales de un experimento aleatorio.
Evento: Conjunto de uno o más resultados de un experimento.
En el experimento de lanzar un dado existen seis resultados posibles, pero hay muchos eventos posibles.
Diagrama de árbol: Es el dibujo que se usa para enumerare todos los resultados posibles de una serie de experimentos en donde cada experimento puede en un número finito de maneras.
ENFOQUES CONCEPTUALES
El enfoque clásico: Dice que si hay x posibles resultados favorables a la ocurrencia de un evento A y z posibles resultados desfavorables a la ocurrencia de A, y todos los resultados son igualmente posibles y mutuamente excluyente (no pueden ocurrir los dos al mismo tiempo), entonces la probabilidad de que ocurra A es:

Donde:
P (A/E) es la probabilidad de que se dé el suceso A condicionada a que se haya dado el suceso E.
P (AE) es la probabilidad del suceso simultáneo de A y de E.
P (E) es la probabilidad a priori del suceso E.
P (A/E) = TOTAL DE MANERAS DE A∩E
                 TOTAL DE MANERAS DE E


Teorema de Bayes:
En su forma algebraica más simple, el teorema de Bayes se refiere al cálculo de la probabilidad condicional del evento A, dado que ha ocurrido el evento B, la forma general del teorema de Bayes es:
P(A/B) = P (A∩B)
      P (B)
La fórmula anterior es simplemente una forma específica de la fórmula general para la probabilidad condicional; sin embargo, la importancia especial del teorema de Bayes consiste en que se aplica en el contexto de eventos secuenciales y además, en que la versión de cálculo de la fórmula proporciona la base para determinar la probabilidad condicional de un evento que ha ocurrido en la primera posición secuencial, dado que se ha observado un evento especifico en la segunda posición secuencial. La forma de cálculo para el teorema específico de Bayes es:
P(A/B) =                                P(A) P(A/B)                                .
    P(A1) P(A/B1) + P(A2) P (A/B2)4... + P(An) P(B/An)


 DISTRIBUCIONES DISCRETAS DE PROBABILIDAD


Variables aleatorias:
Es una función que asocia un número real a cada elemento del espacio muestral. Es decir son aquellas que pueden diferir de una respuesta a otra.
Una variable aleatoria se puede clasificar en:

a)     Variable aleatoria discreta. Una variable discreta proporciona datos que son llamados datos cuantitativos discretos y son respuestas numéricas que resultan de un proceso de conteo.
b)     Variable aleatoria continua. Es aquella que se encuentra dentro de un intervalo comprendido entre dos valores cualesquiera; ésta puede asumir infinito número de valores y éstos se pueden medir.

Distribución binomial:
Es una distribución de probabilidades que surge al cumplirse cinco condiciones:
1.    Existe una serie de N ensayos,
2.    En cada ensayo hay sólo dos posibles resultados,
3.    En cada ensayo, los dos resultados posibles son mutuamente excluyentes,
4.    Los resultados de cada ensayo son independientes entre si, y
5.    La probabilidad de cada resultado posible en cualquier ensayo es la misma de un ensayo a otro.
Cuando se cumple estas condiciones, la distribución binomial proporciona cada resultado posible de los N ensayos y la probabilidad de obtener cada uno de estos resultados.
Para este tipo de distribución de probabilidad, la función matemática es la siguiente:


Donde: P(X) = probabilidad de X éxitos dados los parámetros n y p
n = tamaño de la muestra
p = probabilidad de éxito
1 – p = probabilidad de fracaso
X = numero de éxitos en la muestra ( X = 0, 1, 2, …….. n)








El enfoque clásico de la probabilidad se basa en la suposición de que cada resultado sea igualmente posible. Este enfoque es llamado enfoque a priori porque permite, (en caso de que pueda aplicarse) calcular el valor de probabilidad antes de observar cualquier evento de muestra.
El enfoque de frecuencia relativa: También llamado Enfoque Empírico, determina la probabilidad sobre la base de la proporción de veces que ocurre un evento favorable en un número de observaciones. En este enfoque no ese utiliza la suposición previa de aleatoriedad. Porque la determinación de los valores de probabilidad se basa en la observación y recopilación de datos.


Los axiomas por sí mismo no requieren demostración, pero si se va a aplicar la teoría resultante, debemos demostrar que se cumplen los axiomas cuando damos a las probabilidades un significado “real”.
Como las proporciones son siempre positivas o cero, el primero axioma coincide por completo con la interpretación de la frecuencia. El segundo axioma expresa indirectamente que la certeza se identifica con una probabilidad de 1 (después de todo, siempre se supone que debe ocurrir una de las posibilidades de S y es a este evento cierto que asignamos una probabilidad de 1. Hasta donde atañe a la interpretación de la frecuencia, una probabilidad de 1 implica que el evento en cuestión ocurrirá el 100% del tiempo o bien, dicho de otra manera, que ocurre con certeza.
Tomando el tercer axioma en el caso más simple; o sea, en relación con dos eventos mutuamente exclusivos A1 y A2, se aprecia fácilmente que se cumple a través de la interpretación de la frecuencia. Si un evento ocurre.
Probabilidad condicional:
En la práctica es común enfrentarnos al problema de obtener la probabilidad de un evento, condicionado a la ocurrencia o no ocurrencia de otro, esto es, el caso en que la ocurrencia de un evento altera las condiciones de las que depende la probabilidad del otro, estas probabilidades se llaman probabilidades condicionadas. Si A y B son los eventos en cuestión, tenemos que P(A/B) es la probabilidad de A dado que ya ocurrió el evento B. P(B/A) es la probabilidad de B dado que A ya ocurrió.
Sea E un evento maestral arbitrario de un espacio maestral S con P(E) > 0. La probabilidad de que un evento A suceda una vez que E haya sucedido, se define como:

El término

Tanto el enfoque clásico como el enfoque empírico conducen a valores objetivos de probabilidad, en el sentido de que los valores de probabilidad indican al largo plazo la tasa relativa de ocurrencia del evento.
El enfoque subjetivo: Dice que la probabilidad de ocurrencia de un evento es el grado de creencia por parte de un individuo de que un evento ocurra, basado en toda la evidencia a su disposición. Bajo esta premisa se puede decir que este enfoque es adecuado cuando solo hay una oportunidad de ocurrencia del evento. Es decir, que el evento ocurrirá o no ocurrirá esa sola vez. El valor de probabilidad bajo este enfoque es un juicio personal.


TIPOS DE EVENTOS
DISTRIBUCIONES CONTINUAS DE PROBABILIDAD

DISTRIBUCIÓN DE PROBABILIDAD NORMAL:
1.     Una distribución normal es simétrica y tiene forma de campana, con parámetros  y.
2.     La media, divide al área en dos mitades, pues se localiza en el centro, coincidiendo con el modo y la mediana.
3.     El área por debajo de la curva y sobre el eje de las x es la unidad en términos de probabilidad.
1.     En teoría la distribución se extiende desde -" a +" a lo largo del eje de las abscisas. Esto significa que una variable X ~ N (______), puede tomar cualquier valor, ya sea grande o pequeño, aunque los valores alejados de  ± 3 _______, son poco probables.

2.     Un cambio en el valor de ________ desplaza la distribución a la derecha o a la izquierda. Un cambio en el valor de ________ altera su forma, sin moverla de izquierda a derecha.
Eventos Independientes: Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso típico de eventos independiente es el muestreo con reposición, es decir, una vez tomada la muestra se regresa de nuevo a la población donde se obtuvo.
Ejemplo:
Lanzar al aire dos veces una moneda son eventos independientes por que el resultado del primer evento no afecta sobre las probabilidades efectivas de que ocurra cara o sello, en el segundo lanzamiento.
Eventos dependientes: Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso, empleamos entonces, el concepto de probabilidad condicional para denominar la probabilidad del evento relacionado. La expresión P(A|B) indica la probabilidad de ocurrencia del evento A sí el evento B ya ocurrió.

Se debe tener claro que A|B no es una fracción.
P(A|B) = P(A y B)/P(B) o P(B|A) = P(A y B)/P(A)
Reglas de Multiplicación. Se relacionan con la determinación de la ocurrencia de conjunta de dos o más eventos. Es decir la intersección entre los conjuntos de los posibles valores de A y los valores de B, esto quiere decir que la probabilidad de que ocurran conjuntamente los eventos A y B es:
P(A y B) = P(A B) = P(A)P(B) si A y B son independientes
P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes
P(A y B) = P(A B) = P(B)P(A|B) si A y B son dependientes
Eventos mutuamente excluyentes: Dos o más eventos son mutuamente excluyentes o disjuntos, si no pueden ocurrir simultáneamente. Es decir, la ocurrencia de un evento impide automáticamente la ocurrencia del otro evento (o eventos).
Ejemplo: Al lanzar una moneda solo puede ocurrir que salga cara o sol pero no los dos a la vez, esto quiere decir que estos eventos son excluyentes.
Eventos no excluyentes: Dos o más eventos son no excluyentes, o conjuntos, cuando es posible que ocurran ambos. Esto no indica que necesariamente deban ocurrir estos eventos en forma simultánea.
Ejemplo: Si consideramos en un juego de domino sacar al menos un blanco y un seis, estos eventos son no excluyentes porque puede ocurrir que salga el seis blanco.
Reglas de la Adición. La Regla de la Adición expresa que: la probabilidad de ocurrencia de al menos dos sucesos A y B es igual a:
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente
P(A o B) = P(A) + P(B) – P(A y B) si A y B son no excluyentes
Siendo: P(A) = probabilidad de ocurrencia del evento A
P(B) = probabilidad de ocurrencia del evento B
P(A y B) = probabilidad de ocurrencia simultanea de los eventos A y B
PRINCIPIO FUNDAMENTAL DE CONTEO
Combinaciones: Determina el número de subgrupos de 1, 2, 3, etc. elementos que se pueden formar con los "n" elementos de una nuestra. Cada subgrupo se diferencia del resto en los elementos que lo componen, sin que influya el orden.
Para calcular el número de combinaciones se aplica la siguiente fórmula:




El término "n!" se denomina "factorial de n" y es la multiplicación de todos los números que van desde "n" hasta 1.
Permutaciones: Calcula las posibles agrupaciones que se pueden establecer con todos los elementos de un grupo, por lo tanto, lo que diferencia a cada subgrupo del resto es el orden de los elementos.
Para calcular el número de permutaciones se aplica la siguiente fórmula:


La expresión "Pm" representa las permutaciones de "m" elementos, tomando todos los elementos. Los subgrupos se diferenciaran únicamente por el orden de los elementos.
Enfoque axiomático:
Los axiomas por si mismos no requieren demostración, pero si se va a aplicar la teoría resultante, debemos demostrar que se cumplen los axiomas cuando damos a las probabilidades un significado “real”.

P(A/E) = P (A∩E)
                 P(E)
indica la probabilidad de obtener X éxitos de n observaciones en una secuencia específica. En término
indica cuantas combinaciones de los X éxitos entre n observaciones son posibles.
Entonces dado el número de observaciones n y la probabilidad de éxito p, la probabilidad de X éxitos es:
P(X) = (numero de de secuencia posibles) x (probabilidad de un secuencia especifica)
Por eso que llegamos a la función matemática que representa esta distribución.
Distribucion de Poisson:
Se dice que existe un proceso de Poisson si podemos observar eventos discretos en un área de oportunidad – un intervalo continuo (de tiempo, longitud, superficie, etc.) – de tal manera que si se reduce lo suficiente el área de oportunidad o el intervalo,
1.    La probabilidad de observar exactamente un éxito en el intervalo es constante.
2.    La probabilidad de obtener más de un éxito en el intervalo es 0.
3.    La probabilidad de observar un éxito en cualquier intervalo es estadísticamente independiente de la de cualquier otro intervalo.
Esta distribución se aplica en situaciones como:
·         El número de pacientes que llegan al servicio de emergencia de un hospital en un intervalo de tiempo.
·         El número de radiaciones radiactivas que se recibe en un lapso de tiempo,
·         El número de partos triples por año.
Su utilidad en el área de la salud es muy amplia.
      La expresión matemática para la distribución de Poisson para obtener X éxitos, dado que se esperan l éxitos es:

Donde: P(X) = probabilidad de X éxitos dado el valor de l
l = esperanza del número de éxitos.
e = constante matemática, con valor aproximado 2.711828
X = número de éxitos por unidad
La distribución de Poisson se considera una buena aproximación a la distribución binomial, en el caso que np < 5 y p < 0.1 ó n > 100 y p < 0.05 y en ese caso l = np. El interés por sustituir la distribución Binomial por una distribución de Poisson se debe a que esta última depende únicamente de un solo parámetro, l, y la binomial de dos, n y p.


Distribución normal estándar:
·         Una distribución de una variable aleatoria normal con media,  = 0 y varianza,  = 1, se llama distribución normal estándar y es el miembro más importante de la familia de distribuciones normales.
·         Esta distribución se obtiene creando una variable aleatoria Z
·         Cada valor z es el número de desviaciones estándar separado de la media.



CONCEPTOS BÁSICOS DE MUESTREO
Muestreo: Proceso que nos permite la extracción de una muestra a partir de una población.
Tipos de muestreo.   
A.  Muestreo no probabilístico:
Es aquel en el que la selección de los elementos de la muestra no se hace al azar. Existen dos tipos de muestro no probabilístico:
·     Muestreo sin norma (o de conveniencia): Se elige a una muestra por ser conveniente, fácil, económica. Pero no se hace en base a un criterio de aleatoridad.
·     Muestreo intencional: En este caso, si bien el muestreo no es probabilístico, los investigadores procuran que se garantice la representatividad de la muestra.

B.  Muestreo probabilístico:
Consiste en elegir una muestra de una población al azar. Podemos distinguir los siguientes tipos de muestreo:
·     Muestreo aleatorio simple: Para obtener una muestra, se numeran los elementos de la población y se seleccionan al azar los n elementos que contiene la muestra.
·     Muestreo aleatorio sistemático: Se elige un individuo al azar y a partir de él, a intervalos constantes, se eligen los demás hasta completar la muestra.
·     Muestreo aleatorio estratificado: Se divide la población en clases o estratos y se escoge, aleatoriamente, un número de individuos de cada estrato proporcional al número de componentes de cada estrato.
·     Muestreo por conglomerados: en lugar de considerar cada elemento de la población, lo que consideramos son “conglomerados de elementos”. El proceso es elegir aleatoriamente uno o varios conglomerados y la muestra estará formada por TODOS los elementos de los conglomerados.
·     Muestreo por etapas: En este caso se combina el muestreo aleatorio simple con el muestreo por conglomerados:
Primero se realiza un muestreo por conglomerados (v.g., si los conglomerados son colegios en Valencia, se seleccionan aleatoriamente varios de ellos).
Segundo, no se eligen todos los alumnos (como ocurriría en un muestro por conglomerados), sino que se elige una muestra aleatoria. (Dicha muestra puede ser obtenida por muestreo aleatorio simple o puede ser estratificado.)
Es decir, hemos tenido 2 etapas de muestreo. Y claro está, es posible tener más de 2 etapas...
Un muestreo puede hacerse con o sin reposición, y la población de partida puede ser infinita o finita.
Si consideremos todas las posibles muestras de tamaño n en una población, para cada muestra podemos calcular un estadístico (media, desviación típica, proporción, etc.) que variará de una a otra.
Así obtenemos una distribución del estadístico que se llama distribución muestral.


Distribución muestral:
La distribución de probabilidad de todas las muestras de un determinado tamaño de muestra de la población.
Distribución muestral de medias:
Es la distribución de probabilidad de todos los valores de la media muestral ().
La distribución muestral de medias como otras distribuciones de probabilidad tiene un valor esperado, una desviación estándar y una forma característica.
Teorema de Límite Central:
Cuando se seleccionan muestras aleatorias simples de tamaño n de una población, la distribución muestral de la media muestral puede aproximarse mediante una distribución normal a medida que el tamaño de la muestra se  hace grande.


Para datos agrupados en tablas, usando las notaciones establecidas en los capítulos anteriores, la varianza se puede escibir como

MEDIDAS DE DISPERSIÓN O VARIABILIDAD.
Los estadísticos de tendencia central o posición nos indican donde se sitúa un grupo de puntuaciones. Los de variabilidad o dispersión nos indican si esas puntuaciones o valores están próximas entre sí o si por el contrario están o muy dispersas.
Una medida razonable de la variabilidad podría ser la amplitud o rango, que se obtiene restando el valor más bajo de un conjunto de observaciones del valor más alto. Es fácil de calcular y sus unidades son las mismas que las de la variable, aunque posee varios inconvenientes:
·         No utiliza todas las observaciones (sólo dos de ellas);
·         Se puede ver muy afectada por alguna observación extrema;
·         El rango aumenta con el número de observaciones, o bien se queda igual. En cualquier caso nunca disminuye.
En el transcurso de esta sección, veremos medidas de dispersión mejores que la anterior. Estas se determinan en función de la distancia entre las observaciones y algún estadístico de tendencia central.
Desviación Intercuartil.
Esta medida de dispersión se construye basándose en la diferencia entre el tercer y primer cuartil. En realidad es la mitad de esa diferencia.
Si se escribe Q1 y Q3 para el primer y tercer cuartil respectivamente, entonces la 'desviación intercuartil' está definida por:

Esta estadística cumple una función similar a la desviación estándar, pero es mucho más resistente al efecto de valores extremos en los datos. De hecho, los cuartiles primero y tercero dejan entre sí la mitad de la muestra, La otra mitad se encuentra fuera y por lo tanto la presencia de un bajo número de datos extremos no cambia el valor de la desviación intercuartil.
Esta estadística cumple una función similar a la desviación estándar, pero es mucho más resistente al efecto de valores extremos en los datos. De hecho, los cuartiles primero y tercero dejan entre sí la mitad de la muestra, La otra mitad se encuentra fuera y por lo tanto la presencia de un bajo número de datos extremos no cambia el valor de la desviación intercuartil.

Desviación media, Dm

 

Se define la desviación media como la media de las diferencias en valor absoluto de los valores de la variable a la media, es decir, si tenemos un conjunto de n observaciones, x1, ..., xn, entonces


Si los datos están agrupados en una tabla estadística es más sencillo usar la relación:


Como se observa, la desviación media guarda las mismas dimensiones que las observaciones. La suma de valores absolutos es relativamente sencilla de calcular, pero esta simplicidad tiene un inconveniente, esto hace que sea muy engorroso trabajar con ella a la hora de hacer inferencia a la población.
Varianza y desviación típica
Como forma de medir la dispersión de los datos hemos descartado:
  • Pues sabemos que esa suma vale 0, ya que las desviaciones con respecto a la media se compensan al haber términos en esa suma que son de signos distintos.

     

  •  Para tener el mismo signo al sumar las desviaciones con respecto a la media podemos realizar la suma con valores absolutos. Esto nos lleva a la Dm, pero

          como hemos mencionado, tiene poco interés por las dificultades que presenta.



Distribución Normal:
Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas. Su propio nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución.
Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana.
En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo valor de p y valores de n cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una curva en "forma de campana".
En resumen, la importancia de la distribución normal se debe principalmente a que hay muchas variables asociadas a fenómenos naturales que siguen el modelo de la normal.


Si las desviaciones con respecto a la media las consideramos al cuadrado,       
      , de nuevo obtenemos que todos los sumandos tienen el mismo signo (positivo). Esta es además la forma de medir la dispersión de los datos de forma que sus propiedades matemáticas son más fáciles de utilizar.
Vamos a definir entonces dos estadísticos que serán fundamentales en el resto del curso: La varianza y la desviación típica.
La varianza, S, se define como la media de las diferencias cuadráticas de n puntuaciones con respecto a su media aritmética, es decir

Una fórmula equivalente para el cálculo de la varianza es




Si los datos están agrupados en tablas, es evidente que


La varianza no tiene la misma magnitud que las observaciones (ej. si las observaciones se miden en metros, la varianza lo hace en metros cuadrados). Si queremos que la medida de dispersión sea de la misma dimensionalidad que las observaciones bastará con tomar su raíz cuadrada. Por ello se define la desviación típica, S, como:




PROCEDIMIENTO DE CALIFICACIÓN



La importancia que tienen los sistemas de calificación y los regímenes de promoción, sea evaluándolos en un sentido positivo o sea éste negativo, obliga a efectuar un estudio cuidadoso de las características de cada uno de los modelos, de manera de seleccionar los más apropiados para los propósitos de la programación didáctica, de la planificación de la institución y del sistema escolar.
Sistemas de Calificación:
Dos cuestiones básicas con respecto a la constitución de un sistema de calificación:
¨    Relacionado con la construcción y la fijación de una escala de medición.
¨    La decisión relativa a la adopción de sólo una o más de estas escalas en el sistema de Calificación que se diseña.
Escalas de medición: pueden ser clasificadas en 4 grupos a partir de las características que presentan respecto de la relación de ordenamiento progresivo u horizontal de las categorías que las constituyen, de la distancia igual o desigual que existe entre los diferentes grados de las escala y de la existencia o no de un punto de partida (cero absoluto) que permita operar de manera particular con tramos parciales de la escala.
1.   Nominales.
·       No hay grados superiores o inferiores, todos se encuentran en el mismo nivel.
·       Se emplean para medir la frecuencia con la que los ejemplares evaluados se incluyen en cada una de las clases que la escala presenta.
·       La construcción de una escala nominal requiere: que las categorías se determinen en función del número indispensable de clases que permitan dar cuenta del universo que se estudia; el número debe ser el mínimo posible, sin que se pierda información útil. La escala debe ser completa: es decir debe hacer posible la inclusión en alguna categoría de la escala de todos los ejemplares analizados. Por otra parte, todas las categorías deben ser excluyentes entre sí, lo que implica que ningún ejemplar podría ser incluido simultáneamente en más de una categoría, por ello la definición de las categorías debe ser clara para que no haya error de clasificación.
2.   Ordinales.
Deben cumplir los mismos requisitos de las escalas nominales, a los que se suma:
·       La definición del criterio de ordenamiento de la serie (ej de menor a mayor o de mejor a peor.
·       Se caracterizan porque las distancias entre los pares de categorías o grados consecutivos no deben ser necesariamente iguales. Así el intervalo entre “muy bueno y bueno” no tiene que ser igual al intervalo entre “bueno y regular”.
·       No deben ser usadas como escalas universales, sino son escalas específicas y se usan para medir aspectos determinados.
3.   De intervalos.
Responden a los mismos requisitos que las escalas ordinales, con la particularidad de que:
·       Los intervalos entre pares de grados consecutivos deben ser iguales, este rasgo permite operar con las mediciones en las que se han utilizado las unidades medidas por estas escalas efectuando operaciones aritméticas que no pueden utilizarse con las escalas ordinales. Entre ellas es posible obtener la media aritmética (promedio) de las mediciones.
·       Un ejemplo de las escalas de intervalos son Las escalas numéricas, siempre que estén definidas sin ambigüedad de tal modo que aseguren la igualdad de los intervalos.
1.   De razones o proporciones.
A los requisitos de las escalas de intervalos se le suma que:
·      Deben poseer un cero absoluto. Esta característica permite efectuar operaciones en las que se suman mediciones obtenidas independientemente o en las que se comparan mediciones.
Tipos de escalas de calificación:
Las escalas de medición son la matriz básica a partir de la cual se pueden conceptualizar las escalas de calificación de los aprendizajes escolares.
La norma general que se ha de aplicar en la construcción de una escala de calificación es que El números de grados de la escala debe ser elegido de acuerdo con la posibilidad real que tiene el evaluador de operar con una técnica apropiada y disponible para él, discriminando los diferentes grados de calidad
Escalas de calificación:
1.   Numérica.
·       Consiste en un cierto número de categorías a las que se atribuye de antemano valores numéricos convencionales. El n° de grados comprendidos por la escala puede variar. Con fines escolares se han utilizado escalas de muchos grados y escalas de pocos grados.
·       Las escalas integradas por un gran n° de grados no permiten una discriminación rigurosa y clara de cada una de las categorías de calidad correspondientes. Por esta razón, lejos de mejorar la medición, contribuyen a acrecentar la imprecisión asignadas por los docentes.
·       Desde el punto de vista práctico, trabajar con una escala de pocos grados facilita la tarea del docente ya que disminuye la posibilidad de error o injusticia y la ansiedad en la elección de la calificación. Por otro lado, ayuda a lograr consensos en los criterios de calificación empleados por diferentes docentes.
·       Las escalas numéricas, según la calidad de la definición de cada uno de los grados que las componen, aplicando la categorización que antes se presentó con respecto a los tipos de escalas de medición, pueden ser ordinales, intervalares o de razones.
2.   Gráfica.
·       Consiste en representar, sobre referencias lineales, categorías descriptivas determinadas.
·       Tiene la característica de presentar la intensidad de un rasgo como un continuo desde un grado mínimo hasta un grado máximo. La intensidad deseable del rasgo puede encontrarse señalada y definida en cualquiera de los puntos de la línea de evaluación, en ambos extremos y en un n° determinado de puntos intermedios.
·       Cada uno de los grados de la escala, cuyo número se recomienda que no supere los siete para no disminuir la confiabilidad de la evaluación, debe estar especificado en términos de los que el docente está en condiciones de observar, conceptualizar e inferir realmente.

MEDIDAS DE ASOCIACIÓN
La correlación es la medida de asociación entre variables. En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación lineal entre dos variables aleatorias. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa.
El coeficiente de correlación sirve para medir la correlación entre 2 variables. La ventaja que tiene este coeficiente sobre otras herramientas para medir la correlación, como puede ser la covarianza, es que los resultados del coeficiente de correlación están acotados entre -1 y +1. Esta característica nos permite comparar diferentes correlaciones de una manera más estandarizada.
El coeficiente de correlación se puede calcular con Excel mediante el comando “COEF.DE.CORREL”. También se puede calcular mediante la fórmula:

Siendo Cov (X,Y) la covarianza entre las series temporales X e Y, y σX e σY las desviaciones estándar de X e Y.
Tipos de correlación:
La correlación puede clasificarse en dos tipos dependiendo de la cantidad de variables analizadas y  por el tipo de relación lineal, en el primer caso estamos haciendo referencia a:
1.   Correlación simple: se estudia la dependencia únicamente entre dos variables
2.   Correlación múltiple: se estudia la dependencia entre mas de 2 variables
3.   Correlación parcial: cuando se incluye la influencia de variables exógenas no consideradas en el cálculo de los coeficientes.
Dependiendo del tipo de relación lineal el coeficiente relaciona:
1.   Relación directa entre las variables: un aumento en la variable independiente implica un aumento en la variable dependiente.
2.   Relación inversa entre las variables: un aumento en la variable independiente implica una disminución en la variable dependiente.
Diagrama de dispersión:
Un diagrama de dispersión es un tipo de diagrama matemático que utiliza las coordenadas cartesianas para mostrar los valores de dos variables para un conjunto de datos.
Los datos se muestran como un conjunto de puntos, cada uno con el valor de una variable que determina la posición en el eje horizontal y el valor de la otra variable determinado por la posición en el eje vertical.[1] Un diagrama de dispersión se llama también gráfico de dispersión.

ASOCIACIÓN ENTRE VARIABLES DE INTERVALOS: MÉTODO DE CORRELACIÓN, MOMENTO DE PEARSON


Coeficiente de correlación de Karl Pearson
El coeficiente de correlación de Pearson es un índice que mide la relación lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlación de Pearson como un índice que puede utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas.
Dado dos variables, la correlación permite hacer estimaciones del valor de una de ellas conociendo el valor de la otra variable.
Los coeficientes de correlación son medidas que indican la situación relativa de los mismos sucesos respecto a las dos variables, es decir, son la expresión numérica que nos indica el grado de relación existente entre las 2 variables y en qué medida se relacionan. Son números que varían entre los límites +1 y -1. Su magnitud indica el grado de asociación entre las variables; el valor r = 0 indica que no existe relación entre las variables; los valores ± 1 son indicadores de una correlación perfecta positiva (al crecer o decrecer X, crece o decrece Y) o negativa (Al crecer o decrecer X, decrece o crece Y).























Para datos no agrupados se calcula aplicando la siguiente ecuación:









Para datos agrupados, el coeficiente de Correlación de Pearson se calcula aplicando la siguiente fórmula:




Donde
n = número de datos.
f = frecuencia de celda.
fx = frecuencia de la variable X.
fy = frecuencia de la variable Y.
dx = valores codificados o cambiados para los intervalos de la variable X, procurando que al intervalo central le corresponda dx = 0, para que se hagan más fáciles los cálculos.
dy = valores codificados o cambiados para los intervalos de la variable X, procurando que al intervalo central le corresponda dy = 0, para que se hagan más fáciles los cálculos.


ASOCIACIÓN ENTRE VARIABLES ORDINALES, MÉTODO DE CORRELACIÓN DE SPEARMAN

Una variable ordinal es definida simplemente como un conjunto de categorías mutuamente excluyentes que están ordenadas en términos de la característica de interés. Aunque son posibles varios refinamientos a la medición ordinal, tales como asignar rangos a distancias entre varias categorías así como a las propias categorías, tales complicaciones no se considerarán aquí. Ocasionalmente, será útil asignar nombres numéricos a las categorías de una variable ordinal tales como (1) alto, (2) medio, (3) bajo.
Las variables ordinales son importantes por una serie de razones. Primero, al menos en algunas situaciones ciertos conceptos sólo pueden ser medidos en el nivel ordinal (o, al menos, fácil y económicamente). Segundo, en algunas situaciones sólo importa el ordenamiento de las observaciones de una variable cuantitativa; valores numéricos específicos no tienen importancia.
En estadística, el coeficiente de correlación de Spearman, ρ (ro) es una medida de la correlación (la asociación o interdependencia) entre dos variables aleatorias continuas. Para calcular ρ, los datos son ordenados y reemplazados por su respectivo orden.
El estadístico ρ viene dado por la expresión:



donde D es la diferencia entre los correspondientes estadísticos de orden de x - y. N es el número de parejas.
Se tiene que considerar la existencia de datos idénticos a la hora de ordenarlos, aunque si éstos son pocos, se puede ignorar tal circunstancia
Para muestras mayores de 20 observaciones, podemos utilizar la siguiente aproximación a la distribución t de Student




La interpretación de coeficiente de Spearman es igual que la del coeficiente de correlación de Pearson. Oscila entre -1 y +1, indicándonos asociaciones negativas o positivas respectivamente, 0 cero, significa no correlación pero no independencia. La tau de Kendall es un coeficiente de correlación por rangos, inversiones entre dos ordenaciones de una distribución normal bivariante.


ASOCIACIÓN ENTRE VARIABLES NOMINALES DE CORRELACIÓN PHI


Definición de variable

Una variable estadística es cada una de las características o cualidades que poseen los individuos de una población.

Variables cualitativas

Son las variables que expresan distintas cualidades, características o modalidad. Cada modalidad que se presenta se denomina atributo o categoría y la medición consiste en una clasificación de dichos atributos. Las variables cualitativas pueden ser dicotómicas cuando sólo pueden tomar dos valores posibles como sí y no, hombre y mujer o son politómicas cuando pueden adquirir tres o más valores. Dentro de ellas podemos distinguir:
  • Variable cualitativa ordinal o variable cuasicuantitativa: La variable puede tomar distintos valores ordenados siguiendo una escala establecida, aunque no es necesario que el intervalo entre mediciones sea uniforme, por ejemplo: leve, moderado, grave.
  • Variable cualitativa nominal: En esta variable los valores no pueden ser sometidos a un criterio de orden como por ejemplo los colores o el lugar de residencia.

Coeficiente Phi

El coeficiente Phi (también llamado coeficiente de correlación de cuatro campos)  (también ) es una medida para la intensidad de la relación entre variables dicotómicas.

Cálculo

Para estimar la correlación de cuatro campos entre dos características dicotómicas A y B, se construye primeramente una tabla de contingencia que contiene la distribución de frecuencia conjunta de las variables.


Con los datos de la tabla se puede calcular según la fórmula



Ejemplos

Medida de la asociación entre
  • Aprobación o rechazo de una decisión política acerca del género,
  • Presentación o en su defecto, no presentación de un aviso publicitario y compra o no-compra de un producto.
  • Aplicación de a una matriz de confusión con dos clases.

ESTADÍSTICA NO PARAMÉTRICA


La estadística no paramétrica es una rama de la estadística que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados los que la determinan. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribución conocida, cuando el nivel de medida empleado no sea, como mínimo, de intervalo.
Las principales pruebas no paramétricas son las siguientes:
PRUEBA BINOMIAL
La prueba binomial analiza variables dicotómicas y compara las frecuencias observadas en cada categoría con las que cabría esperar según una distribución binomial de parámetro especificado en la hipótesis nula.
La secuencia para realizar este contraste es:
Analizar
Pruebas no paramétricas
Binomial
En el cuadro de diálogo se debe seleccionar la variable en Contrastar variables e indicar la proporción postulada en la hipótesis nula en Contrastar proporción.
PRUEBA DE RACHAS
El contraste de rachas permite verificar la hipótesis nula de que la muestra es aleatoria, es decir, si las sucesivas observaciones son independientes. Este contraste se basa en el número de rachas que presenta una muestra. Una racha se define como una secuencia de valores muestrales con una característica común precedida y seguida por valores que no presentan esa característica. Así, se considera una racha la secuencia de k valores consecutivos superiores o iguales a la media muestral (o a la mediana o a la moda, o a cualquier otro valor de corte) siempre que estén precedidos y seguidos por valores inferiores a la media muestral (o a la mediana o a la moda, o a cualquier otro valor de corte).
El número total de rachas en una muestra proporciona un indicio de si hay o no aleatoriedad en la muestra. Un número reducido de rachas (el caso extremo es 2) es indicio de que las observaciones no se han extraído de forma aleatoria, los elementos de la primera racha proceden de una población con una determinada característica (valores mayores o menores al punto de corte) mientras que los de la segunda proceden de otra población. De forma idéntica un número excesivo de rachas puede ser también indicio de no aleatoriedad de la muestra.
Si la muestra es suficientemente grande y la hipótesis de aleatoriedad es cierta, la distribución muestral del número de rachas, R, puede aproximarse mediante una distribución normal de parámetros:




donde n1 es el número de elementos de una clase, n2 es el número de elementos de la otra clase y n es el número total de observaciones.
La prueba de correlación por rangos de spearman.
En estadística, el coeficiente de correlación de Spearman, ρ (ro) es una medida de la correlación (la asociación o interdependencia) entre dos variables aleatorias continuas. Para calcular ρ, los datos son ordenados y reemplazados por su respectivo orden.
El estadístico ρ viene dado por la expresión:


donde D es la diferencia entre los correspondientes estadísticos de orden de x - y. N es el número de parejas.
Se tiene que considerar la existencia de datos idénticos a la hora de ordenarlos, aunque si éstos son pocos, se puede ignorar tal circunstancia.
Para muestras mayores de 20 observaciones, podemos utilizar la siguiente aproximación a la distribución t de Student



La interpretación de coeficiente de Spearman es igual que la del coeficiente de correlación de Pearson. Oscila entre -1 y +1, indicándonos asociaciones negativas o positivas respectivamente, 0 cero, significa no correlación pero no independencia. La tau de Kendall es un coeficiente de correlación por rangos, inversiones entre dos ordenaciones de una distribución normal bivariante.


LA PRUEBA DE LA MEDIANA.
La prueba de la mediana es una prueba no paramétrica que podemos considerar un caso especial de la prueba de chi-cuadrado, pues se basa en esta última. Su objetivo es comparar las medianas de dos muestras y determinar si pertenecen a la misma población o no.
Para ello, se calcula la mediana de todos los datos conjuntamente. Después, se divide cada muestra en dos subgrupos: uno para aquellos datos que se sitúen por encima de la mediana y otro para los que se sitúen por debajo. La prueba de chi-cuadrado determinará si las frecuencias observadas en cada grupo difieren de las esperadas con respecto a una distribución de frecuencias que combine ambas muestras.
Esta prueba está especialmente indicada cuando los datos sean extremos o estén sesgados.
LA PRUEBA DE LOS SIGNOS
La prueba de los signos de Wilcoxon es una prueba no paramétrica para comparar la mediana de dos muestras relacionadas y determinar si existen diferencias entre ellas. Se utiliza como alternativa a la prueba t de Student cuando no se puede suponer la normalidad de dichas muestras. Debe su nombre a Frank Wilcoxon, que la publicó en 1945.[]
Se utiliza cuando la variable subyacente es continua pero presupone ningún tipo de distribución particular.

Planteamiento

                Supóngase que se dispone de n pares de observaciones, denominadas .         

El objetivo del test es comprobar si puede dictaminarse que los valores e son o no iguales.

Suposiciones

  1. Si ,                                       
entonces los valores Zi son independientes.
2. Los valores Zi tienen una misma distribución continua y simétrica respecto a una mediana común 0.

Método

La hipótesis nula es Ho:0=0 Retrotrayendo dicha hipótesis a los valores
originales, ésta vendría a decir que son en cierto sentido del mismo tamaño.

Para verificar la hipótesis, en primer lugar, se ordenan los valores absolutos
 y se les asigna su rango Ri. Entonces, el estadístico de la prueba de los signos de Wilcoxon, W+, es

es decir, la suma de los rangos Ri correspondientes a los valores positivos de Zi.
La distribución del estadístico W+ puede consultarse en tablas para determinar si se acepta o no la hipótesis nula.
En ocasiones, esta prueba se usa para comparar las diferencias entre dos muestras de datos tomados antes y después del tratamiento, cuyo valor central se espera que sea cero. Las diferencias iguales a cero son eliminadas y el valor absoluto de las desviaciones con respecto al valor central son ordenadas de menor a mayor. A los datos idénticos se les asigna el lugar medio en la serie. la suma de los rangos se hace por separado para los signos positivos y los negativos. S representa la menor de esas dos sumas. Comparamos S con el valor proporcionado por las tablas estadísticas al efecto para determinar si rechazamos o no la hipótesis nula, según el nivel de significación elegido.

La prueba de Mann-Whitney
En estadística la prueba U de Mann-Whitney (también llamada de Mann-Whitney-Wilcoxon, prueba de suma de rangos Wilcoxon, o prueba de Wilcoxon-Mann-Whitney) es una prueba no paramétrica aplicada a dos muestras independientes. Es, de hecho, la versión no paramétrica de la habitual prueba t de Student.

Planteamiento de la prueba

La prueba de Mann-Whitney se usa para comprobar la heterogeneidad de dos muestras ordinales. El planteamiento de partida es:
  1. Las observaciones de ambos grupos son independientes
  2. Las observaciones son variables ordinales o continuas.
  3. Bajo la hipótesis nula, las distribuciones de partida de ambas distribuciones es la misma
  4. Bajo la hipótesis alternativa, los valores de una de las muestras tienden a exceder a los de la otra: P(X > Y) + 0.5 P(X = Y)  > 0.5.

Cálculo del estadístico

Para calcular el estadístico U se asigna a cada uno de los valores de las dos muestras su rango para construir






donde n1 y n2 son los tamaños respectivos de cada muestra; R1 y R2 es la suma de los rangos de las observaciones de las muestras 1 y 2 respectivamente.
El estadístico U se define como el mínimo de U1 y U2.
Los cálculos tienen que tener en cuenta la presencia de observaciones idénticas a la hora de ordenarlas. No obstante, si su número es pequeño, se puede ignorar esa circunstancia.

Distribución del estadístico

La prueba calcula el llamado estadístico U, cuya distribución para muestras con más de 20 observaciones se aproxima bastante bien a la distribución normal.
La aproximación a la normal, z, cuando tenemos muestras lo suficientemente grandes viene dada por la expresión:





Donde mU y σU son la media y la desviación estándar de U si la hipótesis nula es cierta, y vienen dadas por las siguientes fórmulas: