A) ESTADÍSTICA.

INTRODUCCIÓN

La palabra 'estadística' aparece en el Diccionario de la Lengua como "censo o recuento de la población, de la producción, del tráfico o de cualquier otra entidad colectiva". Proviene del griego, con la significación de "ciencia del Estado" , lo que resulta lógico porque eran los Estados los que establecían registros de población, nacimientos, defunciones, cosechas, impuestos,..., temas sobre los que trataban las primeras estadísticas conocidas. La palabra estadista, que refiere al hombre de estado, tiene un origen histórico cercano.

La Estadística, como rama del saber, presenta un cuerpo de doctrina metódicamente organizado.y un campo de aplicación muy amplio, siendo una de las disciplinas matemáticas que más utilidad tiene en otros ámbitos de conocimiento. Su objeto de estudio puede ir desde una fundamentación teórica más rigurosa como disciplina matemática, hasta la mera aplicación de sus resultados en otros campos científicos y sociales.

La Estadística podría definirse, de una manera breve, como la los disciplina que nos proporciona una metodología para recoger, organizar, resumir, analizar la información y hacer inferencias a partir de los correspondientes datos.obtenidos

La Estadística puede ser:

Descriptiva: trata del recuento, ordenación y clasificación de los datos obtenidos por las observaciones. Se construyen tablas y se representan gráficos que permiten simplificar la complejidad de los datos que intervienen en una distribución.

Inferencial: trata de establecer previsiones y conclusiones generales sobre una población a partir de los resultados obtenidos de una muestra. Utiliza resultados obtenidos mediante la estadística descriptiva y se apoya en el cálculo de probabilidades.

 

UN POCO DE HISTORIA

Las primeras noticias que se tienen de la estadística se sitúan en China, en el año 2.238 a. de C. en que el emperador Yao mandó hacer un censo general del Imperio.

En Egipto debido a las inundaciones el Nilo se efectuaban anualmente trabajos censales para repartir los bienes y la propiedad salvada de las inundaciones.

En el Imperio Romano para poder aplicar los impuestos se realizaban censos de bienes y personas, siendo famoso el decretado por Octavio Augusto.

Carlomagno y Guillermo el Conquistador ordenaron realizar trabajos de estadística en la Edad Media.

En España, los árabes en el siglo VIII cultivaron la estadística.

En las Cortes de Alcalá en 1348 se habla de padrones, empadronadores y notas de rebaños.

Los Reyes Católicos ordenaron realizar un empadronamiento general de los habitantes de sus dominios.

Fue Grant (1.620-1.674), vendedor de paños de Londres, el verdadero precursor de la estadística pues utilizando datos demográficos reunidos en las parroquias de Londres logró estudios que permitieron descubrir leyes demográficas de validez permanente, llegando a estimar la población de Londres y de otras ciudades inglesas.

Discípulos de Grant fueron Petty y Susmilch que constituyeron con sus trabajos un punto de partida para estudiar los fenómenos de masas.

Hasta finales del siglo XVIII se designaba con el término estadística la exposición de características más notables de un estado y fue Achenwall (1719-1772), profesor de la universidad alemana de Goetingen quien introdujo la palabra estadística con el siguiente significado: "Ciencia de las cosas que pertenecen al Estado, llamando Estado a todo lo que es una sociedad civil y al país en que ella habita..."

En el siglo XIX la descripción de los datos oficiales se vio complementada por descripciones numéricas, adquiriendo entonces el significado especial de exponer las características de un Estado mediante métodos numéricos.

Los trabajos de Bernouilli, Laplace, Gauss y Bessel desarrollaron conjuntamente el cálculo de Probabilidades y la Estadística, siendo el astrónomo Quetelet quien realizó notables aplicaciones haciendo que la Estadística se constituyese como un método de investigación de los fenómenos de masas y en un auxiliar valioso de los problemas de gobierno, ya sean demográficos, económicos, etc y aunando el aspecto científico con el de Estado.

Posteriormente Pearson, Galton y Fisher dieron un gran avance en los siglos XIX y XX siendo el primero conocido como el padre de la "inferencia estadística", el segundo de la "regresión y el tercero de la "teoría de la investigación".

Nadie pone en duda que los trabajos de investigación sobre Estadística no hubieran prosperado de no haberse implantado la estadística oficial que apoyada en principios científicos ha podido disponer de órganos técnicamente especializados. Pionera de esta organización estadística oficial fue Suecia en 1756 en donde una Comisión de Indices desde entonces facilita informaciones anuales sobre el movimiento de la población. En 1800 Francia se sumó a la estadística oficial, siguiendo Baviera, Italia, Prusia, Austria, Bélgica..

En España en 1713 se dictaron disposiciones sobre el Registro Civil; en 1810 José Bonaparte intentó hacer un censo; en 1837 se mandó formar el censo de la población y en 1841 se ordenó por decreto que se estableciese el registro civil de los nacidos, casados y muertos en los pueblos de más de 500 vecinos. El 3 de noviembre de 1856 se estableció la Comisión General de Estadística.

En la actualidad el Instituto Nacional de Estadística (I.N.E.) creado por Ley el 31-XII-1945 es el organismo encargado de las estadísticas oficiales.


APLICACIONES DE LA ESTADÍSTICA

La Estadística, según hemos visto en sus orígenes históricos, ha ido ligada a las cuestiones de Estado, siendo la organización de las estadísticas oficiales un hecho reseñado como fundamental en todos los países. Pero tiene muchas otras importantes aplicaciones. Señañamos a continuación una selección de dichas aplicaciones.

* Administración Pública: La Administración Pública, a través de sus Delegaciones territoriales y provinciales, se encarga de recoger datos que una vez elaborados y analizados son sometidos a procesos estadísticos, sirviendo posteriormente para las tomas de decisiones a nivel nacional. De esta manera se conocen los movimientos naturales de la población: nacimientos, matrimonios y defunciones; datos relativos a agricultura, ganadería, pesca, industria, transporte y comunicaciones, comercio exterior, finanzas; precios y salarios; trabajo, seguridad y acción social; sanidad, enseñanza y expansión cultural; turismo y otros servicios; justicia; etc. Todos estos datos se recogen en publicaciones, que sirven como punto de referencia para las cuestiones diarias.

* Economía: son fundamentales las estadísticas en este campo ya que nos ofrecen las macromagnitudes para elaborar las cuentas nacionales. ituSuelen ser realizadas por por los estados y por las principales instituciones financieras..

* Sociología: La Estadística desempeña un papel importante en las investigaciones sociológicas. Mediante las encuestas se conoce la realidad social, lo que opinan y lo que demandan, necesitando de la Estadística para la elaboración, análisis y presentación de resultados.

* Psicología: La mayor parte de los trabajos científicos en el área de psicología experimental tienen como herramienta de trabajo principal la estadística. Se utiliza la estadística en el estudio del comportamiento de los individuos, de sus aptitudes, de su cociente intelectual, etc.

* Biología, Medicina y Veterinaria: En cualquier estudio de tipo experimental la Estadística es utilizada en toda su extensión, habiendo nacido en los últimos tiempos la asignatura de Bioestadística con esta finalidad. En Genética, los estudios sobre herencia son los más desarrollados.

* Meteorología: Para la confección de las series temporales y predicción de ciclones, movimientos sísmicos, temperaturas, etc.

* Industria y dirección empresarial: Para el control de calidad en la producción en cadena, para el análisis de mercados, para el estudio del precio de venta al público de los artículos fabricados, en la gestión financiera, etc.

 


TÉRMINOS BÁSICOS USADOS EN ESTADÍSTICA

En estadística hay una serie de conceptos básicos que hay que conocer. Estos términos son:

Población: es el conjunto de personas, animales o cosas que cumplen una determinada característica y sobre el que se va a llevar a cabo una investigación

Elemento de una población: es cada una de las unidades, individuos o entes que componen esa población.

Tamaño de una población: es el número de elementos que la integran.

Muestra: Cualquier subconjunto de una población.

Carácter estadístico: Es una propiedad que permite clasificar los individuos de una población. Pueden ser de dos tipos:

Cuantitativos: Aquellos que se pueden medir numéricamente (talla, número de hijos...)

Cualitativos: Aquellos que no se pueden medir numéricamente (profesión, estado civil, sexo, color de ojos...). Cada una de las diferencias que se pueden establecer en un carácter cualitativo se denomina modalidad.

Variable estadística: Conjunto de todos los valores posibles que puede tomar un carácter estadístico cuantitativo.

Atributos: Conjunto de todos los valores posibles que puede tomar un carácter estadístico cualitativo.

La frecuencia absoluta es el número de veces que se repite cada valor o modalidad de la variable o atributo. En general se representa por ni . La suma de las frecuencias absolutas será el número total de datos, individuos o población y se representa por n.

La frecuencia relativa es la frecuencia absoluta dividida por el número total de individuos. Se representa por fi .

La frecuencia acumulada de una observación de la variable es la suma de las frecuencias correspondientes a los valores menores que, o anteriores a, dicho valor. Hablamos de frecuencias absolutas acumuladas (Ni) cuando sumamos frecuencias absolutas; si sumamos frecuencias relativas nos referiremos a frecuencias relativas acumuladas.

Las estadísticas que se organizan en una tabla de frecuencias reciben el nombre de distribuciones de frecuencias.

Estas distribuciones son de dos tipos: las distribuciones de frecuencias propiamente dichas y las distribuciones de frecuencias agrupadas.

En las distribuciones de frecuencias propiamente dichas aparecen dos columnas; en la primera, ordenados, los diferentes valores de la variable y, en la segunda, las correspondientes frecuencias.

En las distribuciones de frecuencias agrupadas también hay dos columnas, lo que ocurre es que la variable toma muchos valores distintos y por ello los valores de la variables se agrupan en ciertos intervalos.

 

REPRESENTACIÓN GRÁFICA DE LA INFORMACIÓN

Para representar la información de una forma sintetizada se puede gacer uso de gráficos.

La utilidad de los gráficos está en relación con su capacidad para ayudar a::
- Mejorar la comprensión de las variables de estudio.
- Captar de manera sencilla y rápida la esencia del fenómeno.
- Detectar errores en los datos utilizados.

Pero los gráficos también presentan una serie de inconvenientes:

- Un gráfico supone siempre una simplificación y reducción de la información.
- La mayor o menor utilidad de las representaciones gráficas dependerá de la forma en la que estén construidas, ya que ello influye sobre su interpretación.

Hay muchos sistemas de representación gráficaa, de forma que dependiendo de la
distribución (es decir, si son distribuciones sin agrupar o distribuciones agrupadas en intervalos) serán más adecuadas unas u otras representaciones gráficas. A continuación indicamos las más usuales

Diagrama de barras

Se usan fundamentalmente en distribuciones discretas. Sobre el eje horizontal se representan los valores de la variable y sobre el eje vertical, las frecuencias (absolutas o relativas). Desde los puntos marcados sobre el eje horizontal se trazan barras verticales de longitud igual a la frecuencia correspondiente. El polígono de frecuencias se forma uniendo los extremos de las barras mediante una línea quebrada.

 

 


A partir de este diagrama, es fácil darse cuenta de en qué valores de la variable se concentra la mayor parte de las observaciones.

Cuando los datos se han agrupado por intervalos, bien por corresponder a una variable estadística continua o porque lo aconseje la situación a estudiar, aunque la variable sea discreta, las representaciones que se utilizan son los llamados histogramas, donde las superficies de los rectángulos son proporcionales a las frecuencias que representan.

 

 

Para construir un histograma, se representan sobre el eje horizontal los límites de los intervalos; sobre ellos, se construyen rectángulos de cada intervalo con una altura adecuada para que el área sea proporcional a la frecuencia.

Diagrama de sectores

Esta representación es especialmente adecuada en aquellos casos en que se desea que los datos estadísticos lleguen a todo tipo de personas, incluso a las que no tienen por qué tener una formulación científica.


Este tipo de diagrama muestra la importancia relativa de las diferentes partes que componen un total. La forma de elaborarlo es la siguiente:
- Se toma como total el círculo.
- A continuación, se divide éste en tantas partes como componentes haya, siendo el tamaño de cada una de ellas proporcional a la importancia relativa de cada componente.
- Más concretamente, como el círculo tiene 360º, éstos se reparten proporcionalmente a las frecuencias relativas de cada componente.

La ventaja intrínseca de este tipo de representaciones no debe hacer olvidar que plantea ciertas desventajas, que pasamos a enumerar:
- Requiere cálculos adicionales.
- Es más difícil comparar segmentos de un círculo que comparar alturas de un diagrama de barras.
- No da información sobre las magnitudes absolutas, a menos que la incorporemos en cada segmento.

Pictograma y cartograma

El pictograma consiste en tomar como unidad una silueta o símbolo que sea representativo del fenómeno que se va a estudiar, con un tamaño variable y proporcional a la frecuencia de cada modalidad.

 



Los cartogramas son especialmente útiles en estudios de carácter geográfico. La forma de construirlos es la siguiente: se colorea o se raya con colores e intensidades diferentes los distintos espacios o zonas (que pueden ser comunidades autónomas, provincias, ríos, etc.) en función de la mayor o menor importancia que tenga la variable o atributo en estudio.

 

REPRESENTACIÓN CUANTITATIVA DE LA INFORMACIÓN

Medidas de centralización

En una distribución estadística, se llaman medidas de centralización a una serie de parámetros que tienden a situarse hacia el centro del conjunto de datos, una vez ordenados. También se les suele llamar medidas de tendencia central o promedios. Sirven para representar, de forma sintética, al conjunto total de datos a estudiar. Las medidas de centralización más importantes son la media aritmética, la moda, la mediana y los cuartiles, deciles y percentiles, aunque éstos últimos pueden considerarse también medidas de dispersión.

Media aritmética
Se llama media aritmética de una variable estadística X y se representa por x , a la suma de todos los valores de dicha variable (xi) dividida entre el número total de valores (N). Si la variable estadística toma los valores x1, x2..., xn con frecuencias respectivas f1, f2,..., fn, viene dada por:

Moda.
Se llama moda de una variable estadística al valor de dicha variable que posee mayor frecuencia absoluta. En general, no tiene por qué ser única, sino que existen distribuciones bimodales, trimodales, etc.
En variables discretas el cálculo se hace a simple vista. Sin embargo, en distribuciones con datos agrupados en clases, se habla de la clase o intervalo modal, que es el de mayor frecuencia; en este caso, como valor concreto para la moda se toma el resultante de aplicar la siguiente fórmula:
Moda = Li + a · D1/D1+D2, donde:
Li: límite inferior de la clase modal.
A: amplitud de la clase modal.
D1: diferencia de frecuencia entre la clase modal y la anterior.
D2: diferencia de frecuencia entre la clase modal y la siguiente.
La moda representa el valor dominante de la distribución: Es un parámetro menos representativo que la media, ya que no tiene en cuenta todos los datos: Es posible que existan distribuciones sin moda (todas las frecuencias iguales). Por último, no tiene por qué situarse en el centro de la distribución.

Mediana
Se llama mediana de una variable estadística a un valor de la variable, tal que el número de datos menores que dicho valor coincide con el número de datos mayores, es decir, el 50% de los datos son menores y el otro 50% son mayores. Se representa por M.
Según el tipo de variable, el cálculo se efectúa de la forma siguiente:
-Variable discreta con datos simples (todas las frecuencias valen 1). Si el número de datos es impar, la mediana es el dato central, una vez ordenados de menor a mayor. Si el número de datos es par, la mediana es la semisma de los dos datos centrales (aunque el valor resultante no pertenezca al conjunto de datos).
-Variable discreta con datos agrupados: La mediana es el primer valor de la variable cuya frecuencia absoluta acumulada es mayor que N/", la mediana es la semisuma del valor correspondiente de la variable y el valor siguiente.
-Variable continua o discreta con datos agrupados en intervalos: En este caso se habla de clase mediana. Hay fórmulas que permiten calcular el valor más representativo de la clase o intervalo mediano.

La mediana es un parámetro útil en el caso de que existan datos muy extremos que afecten a la media y, sobre todo, cuando ésta no puede clacularse por existir intervalos ilimitados. Geométricamente, para distribuciones representadas con un histograma, la mediana es el valor de la variable tal que la vertical sobre ella divide el histograma en dos regiones de igual área.
En el caso de distribuciones simétricas o ligramente asimétricas, se comprueba experimentalmente la relación: Media - Moda = 3(Media - Mediana).

Cuantiles
- Cuartiles: Son tres valores de la variable que dividen la distribución en cuatro artes iguales: Se representan por Q1 Q2 Q3 y Q4
- Deciles: Son nueve valores que dividen la distribución en diez partes iguales: Se representan por D1 D2 .... D9
- Percentiles: Son noventa y nueve valores de la variable que dividen la distribución en cien partes iguales. Se representan por P1 P2 ... P99
- Teniendo en cuenta las definiciones es inmediato que M = Q2 = D5 = P50 ; Q1 = P25 ;...
El cálculo de los cuantiles es idéntico al cálculo de la mediana, pero teniendo en cuenta siempre el número de datos que quedan a la izquierda de cada cuantil concreto que estemos calculando.


Medidas de dispersión.

La investigación acerca de una distribución queda incompleta si sólo se estudian las medias de centralización. Es imprescindible conocer si los datos numéricos están agrupados o no alrededor de los valores centrales. A esto se le llama dispersión y lo parámetros que miden estas desviaciones, medias de dispersión. Las más importantes son el recorrido, la varianza, la desviación típica y el coeficiente de variación.

Rango o recorrido.
Se llama recorrido de una distribución a la diferencia entre el mayor y el menor valor que toma la variable estadística.
Su cálculo es muy simple. Cuanto menor es el recorrido, mayor es el grado de representatividad de los valores centrales; sin embargo, tiene el inconveniente de que sólo depende de los valores extremos, En algunas ocasiones se usan otros rangos, como el rango intercuartílico (Q3 - Q1), o el rango entre percentiles (P90 - P10)

Varianza y desviación típica.
Se llaman desviaciones respecto a la media a las diferencias entre cada valor de la variable y la media de la distribución. Si la variable toma los valores x1 x2 ... xn, las desviaciones respecto a la media serían (x1 - x),... (xn - x)
Se llama varianza de una variable a la media aritmética de los cuadrados de las desviaciones con respecto a la media. La raiz cuadrada positiva de la varianza se llama desviación típica. La varianza se representa por s2


Tanto la varianza como la desviación típica dependen de todos los valores de la distribución, así como de la media. La varianza tiene el inconveniente de que no viene expresada en las mismas unidades que los datos; sin embargo, la desviación típica sí viene expresada en las mismas unidades que los datos y, por tanto , es más significativa.

Coeficiente de variación.
Se define el coeficiente de variación de una variable estadística X, y se representa por C.V. (X), como el cociente de su desviación típica entre su media.

El coeficiente de variación permite comparar entre sí la dispersión de varias distribuciones aunque tomen valores muy distintos unas de otras, ya que podemos decir que uniformiza la dispersión, al comparar la desviación típica con la media de la distribución.


B) PROBABILIDAD.

INTRODUCCIÓN

Los modelos probabilísticos son el fundamento de la estadística inferencial

Para el tratamiento estadístico de datos con vistas a realizar inferencias, hay que tener en cuenta que el proceso de experimentación (por ejemplo, el muestreo) lleva asociado la idea de azar.

En la práctica existen numerosas situaciones en las que la realización sucesiva de un experimento en las mismas condiciones produce resultados distintos: son los que hemos llamado experimentos de azar o aleatorios; en dichos experimentos las mismas "causas" producen "efectos" distintos: (por ejemplo, al lanzar una moneda unas veces sale cara y otras cruz, sin que normalmente podamos predecir el resultado de una realización del experimento). A estas situaciones o sucesos se les llama estocásticos o aleatorios a diferencia de las situaciones de tipo determinista, como por ejemplo los modelos de la Mecánica Clásica

Para medir el grado de incertidumbre originado por esta situación introducimos el concepto de probabilidad.

Por lo tanto, para poder utilizar la metodología estadística, es necesario conocer los fundamentos de la Teoría de la Probabilidad.

 

UN POCO DE HISTORIA

Los juegos de azar existían desde la Edad de Piedra, ya que se jugaba a los dados con uno huesos de animales llamados astrágalos, cuya forma era muy parecida a los dados actuales. Más tarde, los griegos confeccionaron los primeros dados para que los resultados fuesen "regulares".

 

 

Toda la teoría de la probabilidades tiene origen en los juegos del azar. Sin embargo, aquí surge la primera curiosidad, ya que aunque todas las culturas han practicado y practican juegos de azar, la probabilidad como tal no comenzó a estudiarse hasta hace sólo unos 300 años.

La primera noticia escrita que se tiene sobre diversos conceptos relacionados con el azar (posibilidad de ganar, estrategias de juegos), aparece en un libro escrito por Girolamo Cardano en 1563 títulado Liber de ludo alae (Libro sobre el juego de los dados).

No se supo nada más del azar, hasta que a principios del siglo XVII el Príncipe de Toscana planteó el siguiente problema a Galileo Galilei: "¿Por qué cuando se lanzan tres dados, obtenemos con más frecuencia la suma 10 que la suma 9, aunque hay las mismas formas de conseguir 9 que 10?.

El problema quedó como un hecho aislado, pues Galileo no profundizó en el tema, y fueron Pascal y Fermat quienes en 1654 resolvieron, por separado y simultáneamente, el problema plantado a Pascal por el filósofo y hombre de la corte de Luis XIV, el caballero de la Mére; dando con ello Principio al estudio sistemático de las leyes del azar y Teoría de la Probabilidad.


CONCEPTOS BÁSICOS

El Cálculo de Probabilidades es la parte de las Matemáticas que se dedica al estudio de los fenómenos (experiencias)aleatorios. Digamos que es la ciencia que estudia las "leyes del azar". Desde este ámbito de las matemáticas se puede dar significado a los términos de estadística y probabilidad a partir de la definición de conceptos tales como:

· Un suceso es el resultado de una experiencia cualquiera.

· Una experiencia es determinista cuando da como resultado un suceso que se puede conocer (predecir)con anterioridad (pequeñas variaciones iniciales implican pequeños cambios en el resultado).

· Una experiencia es aleatoria cuando el resultado de la misma no se puede conocer con seguridad hasta que no se realiza (la experiencia); de tal forma que repetida la experiencia varias veces, en las mismas condiciones, los resultados pueden ser distintos (pequeñas variaciones iniciales implican grandes cambios en el resultado).

· Espacio muestral: es el conjunto formado por todos los resultados posibles de un experimento aleatorio.

· Sucesos elementales: son los resultados del experimento. Son los formados por un solo resultado.

· Sucesos compuestos: son los que se forman con más de un resultado del experimento. Un suceso compuesto se verifica cuando ocurre alguno de los resultados que lo componen.

· Suceso unión: el suceso (A o B) se compone de los resultados comunes y no comunes de A y de B. El suceso (A o B) se realiza cuando se realiza A o cuando se realiza B o cuando se realizan los dos.

· Suceso intersección: el suceso (A y B) se compone de los resultados comunes a los sucesos A y B. El suceso (A y B) se realiza sólo cuando se realizan el suceso A y el suceso B simultáneamente.

· Suceso contrario de A: es el formado por los resultados del experimento no incluidos en el suceso A.

· Suceso seguro: es el que se compone de todos los resultados o sucesos elementales del experimento. Ocurre siempre que se lleve a cabo el experimento.

· Suceso imposible: es aquel que tiene intersección vacía con el espacio muestral. Nunca ocurre por más que se repita el experimento.

· Sucesos incompatibles: dos sucesos A y B son incompatibles si el hecho de que ocurra uno de ellos impide la realización del otro. En el caso de que A y B se puedan realizar simultáneamente, serán compatibles.

· Frecuencia absoluta (F) de un resultado es el número de veces que se repite dicho resultado en un experimento.

· Frecuencia relativa (fr) de un resultado es el cociente entre la frecuencia absoluta de dicho resultado y el número de veces que se ha realizado el experimento.

Propiedades de las frecuencias relativas:
- Si A es un suceso cualquiera se verifica que fr(A) es mayor o igual que cero y menor o igual que 1.
- La suma de las frecuencias relativas de todos los resultados de un experimento aleatorio es igual a 1.
- La frecuencia relativa de un suceso compuesto es igual a la suma de las frecuencias relativas de los sucesos elementales que lo componen.

· Ley del azar o ley de estabilidad de las frecuencias. Al repetir numerosas veces un experimento aleatorio, la frecuencia relativa (fr) de cada resultado tiende hacia un determinado número (que llamaremos probabilidad de dicho resultado). La frecuencia relativa de un resultado tiende, o se aproxima, a la probabilidad cuando el experimento aleatorio se repite un gran número de veces.

La probabilidad, P(S), de un suceso aleatorio, S, es la medida de la posibilidad de que ocurra ese suceso. Se expresa mediante un número comprendido entre 0 y 1.

· Sucesos equiprobables: si todos los resultados de un experimento aleatorio tienen la misma probabilidad, se dice que los sucesos elementales son equiprobables.

· Regla de Laplace: si los sucesos elementales de un experimento aleatorio son equiprobables y A es un suceso cualquiera, entonces la probabilidad de A es el cociente entre el número de casos favorables al suceso entre el número de casos posibles.

La regla de Laplace permite el cálculo de probabilidades en experimentos sencillos. De todas formas, si el número de casos favorables o posibles es muy elevado, para contarlos hay que recurrir a la combinatoria, de la que hablaremos en el siguiente apartado.


Combinatoria.

Se llama factorial de un número natural "n", y se representa por n! al producto de todos los números naturales decrecientes a partir de n hasta llegar a 1. O sea:

n! = n.(n-1).(n-2)....4.3.2.1

Por ejemplo, se tiene de la definición:

0! = 1 (por convenio)

1! = 1

2! = 2.1 =2

3! = 3.2.1 = 6

4! = 4.3.2.1 = 24

5! = 5.4.3.2.1 =120 , etc.


Se llaman variaciones ordinarias de n elementos tomados m a m a cada uno de los grupos de m elementos que se pueden formar con los n dados, considerándose como distintos dos de ellos cuando difieran en algún elemento o en el orden de colocación de los mismos.

Por ejemplo, si queremos saber cuántos números de 3 cifras pueden formarse con los dígitos 1, 2, 3, 4, y 5 sin poder repetirse ninguno, como sabemos que aunque estén formados por las mismas cifras, los números difieren si su orden no es el mismo.

Se llaman Combinaciones ordinarias de n elementos tomados m a m a cada uno de los grupos de m elementos que se pueden formar con los n dados, considerándose como distintos dos de ellos únicamente si difieren en algún elemento (pero no si difieren en el orden de los mismos). El número total de combinaciones ordinarias se calcula así:

Por ejemplo: Una heladería dispone de 12 clases de helados ¿Cuántas copas de tres bolas diferentes podría tomar? Como el orden de las bolas en las copas no influye, se tiene:

Se llaman permutaciones ordinarias de n elementos a las variaciones ordinarias de n elementos tomados n a n. su número es:

Si queremos saber de cuántas maneras pueden sentarse 7 personas en 7 sillas, tendremos:

Entre las variaciones, combinaciones y permutaciones se cumple la siguiente relación:

Cuando en las variaciones ordinarias permitimos que puedan repetirse los elementos, obtenemos las variaciones con repetición de n elementos tomados m a m. Su número es:


Por ejemplo ¿Cuántas quinielas de 14 resultados hay que hacer para acertar seguro? Como podemos elegir entre tres signos (1-x-2) y hay que tomarlos de 14 en 14 tendremos:



INFERENCIA ESTADÍSTICA. ESTADÍSTICA MATEMÁTICA

La Estadística Inferencial trata de determinar los valores que adoptarán una serie de datos muy numerosos, que forman una población mediante el estudio de unos cuantos de ellos extraídos de la población de una manera significativa y que forman una muestra.

Al disponer de una muestra para el estudio de un colectivo, el objetivo usual es utilizar la información contenida en ésta, para realizar inferencias sobre la población. Este proceso consta de dos fases: en primer lugar es necesario definir o delimitar el colectivo; a continuación es preciso obtener una muestra adecuada, es decir, representativa de los aspectos que deseamos estudiar en la población; para conseguir esta representatividad se utiliza el "Principio de aleatoriedad", lo que nos lleva al concepto de "muestra aleatoria"; en la que los distintos elementos que la componen se eligen mediante regla de azar, lo que nos permitirá utilizar el poderoso modelo matemático que es la Teoría de la Probabilidad.

Al considerar un enfoque frecuentista del concepto de probabilidad, se desarrolla la Estadística Clásica cuyas ramas básicas son la Teoría de la Estimación, cuyo objetivo es la realización de estimaciones sobre el colectivo a partir de muestras aleatorias, y la Teoría de la Contrastación de Hipótesis; normalmente cuando se realiza un experimento sobre cierto fenómeno, queremos investigar un comportamiento para poder predecir: es usual tener una idea a priori sobre alguna propiedad del colectivo, o sea una hipótesis estadística sobre el estado de éste; la Estadística nos proporciona una metodología para diseñar el experimento y contrastar si los resultados obtenidos son razonablemente acordes con esta hipótesis o, al contrario, si las diferencias observadas son probablemente mayores que las derivadas del proceso de muestreo.

Asociados a otras definiciones subjetivas del concepto de probabilidad se obtienen los desarrollos de la Estadística Bayesiana y de la Teoría de la Decisión Estadística, como supermodelos de la Estadística Clásica y que, en definitiva, tratan de construir un modelo matemático para el comportamiento humano en situaciones de incertidumbre.

Al utilizar un modelo matemático, y en particular un modelo estadístico para representar una situación que se nos presenta en la realidad, el primer problema que nos planteamos es el de la eficiencia del experimento diseñado. En definitiva, queremos obtener la máxima información posible del material estadístico disponible y, con ésta, responder a los fines del estudio con la mayor precisión y exactitud, y todo ello con un consumo mínimo de recursos. El diseño es un problema estadístico, de la misma forma que lo es el análisis posterior de los datos.

Los orígenes del planteamiento estadístico de los problemas de diseño los encontramos: en aplicaciones agrícolas, al estudiar Fisher los modelos de Análisis de la Varianza en la década 1920-30, en el control de calidad industrial, y en los problemas de Muestreo en Poblaciones Finitas.

En muchas situaciones es necesario estudiar relaciones interdependientes entre distintas series de datos o entre variables. Ppara estudiar la interdependencia entre variables aleatorias, se construye la Teoría de la Correlación, y para investigar las relaciones de dependencia entre éstas, la Teoría de la Regresión, base del desarrollo de la Econometría.

Otros Métodos Estadísticos son el Análisis en Componentes Principales, El Análisis Factorial, la Teoría de las Correlaciones Canónicas y otros métodos multivariantes como el Análisis discriminante , el Análisis "Cluster", el Reconocimiento de Formas, etc.

En los últimos años una parte considerable de la investigación se ha dirigido hacia el campo de las Series Temporales uni y multivariantes, en el dominio de las frecuencias, utilizando métodos espectrales, basados en el análisis de Fourier tan utilizado en Ingeniería en modelos deterministas, y en el dominio del tiempo, mediante distintas técnicas: ajustes, medias móviles, modelos Arima, etc; de esta forma se suelen estudiar los problemas de previsión económica, y de planificación.

MATEMÁTICAS ELEMENTALES EN EL CIBERESPACIO

AYUDA PARA PROFESORES: EDUCACIÓN PRIMARIA: ESTADÍSTICA Y PROBABILIDAD: ASPECTOS MATEMÁTICOS

Ayuda para profesores