Diapositiva 0
Bienvenidas y bienvenidos a un nuevo episodio en el que volveremos a charlar de matemáticas. Una vez más, estamos hablando de experimentos aleatorios y de lo que ocurre exactamente cuando un determinado experimento aleatorio se realiza con mucha frecuencia.
Como ocurre a menudo en matemáticas, nos interesa cualquier regularidad.
Una cosa más: veremos algunos experimentos aleatorios que ya se han utilizado en episodios anteriores. Veámoslo con un enfoque diferente.
Además
Mariano cree que en Alemania el 25% de la población habla español. Está en Múnich y pregunta en español cómo llegar a la catedral. Vamos a ver el resultado.
Obviamente, no tuvo mucho éxito. Ni una de cada cuatro personas hablaba español. ¿Contradice eso su suposición? En absoluto, porque cuatro personas son demasiado pocas. Ese es el tipo de cifras de las que vamos a hablar hoy.
Diapositiva 1
Vamos a empezar. Lancemos un dado regular 10 veces, 100 veces, 1000 veces. Ya ha visto estos números absolutos en el último episodio.
Diapositiva 2
Si se representan los datos en un gráfico de barras, se observa una imagen bastante irregular para N = 10. Cuatro veces salió el 4, dos veces el 1 y todos los demás números fueron lanzados una vez cada uno.
Diapositiva 3
Para N = 100, el gráfico de barras ya parece algo más suave o tranquilo. Pero las columnas no son – como se puede esperar – igual de altas. Obviamente, el 2 y el 3 se lanzaron con mucha menos frecuencia que el 5 y el 6.
Diapositiva 4
Y esto cambia cuando N = 1000, es decir, cuando se lanzan 1000 veces los dados. El 2 se ha puesto claramente su nivel, el 5 ha perdido algo de terreno. Pero, sobre todo, queda claro que el número de lanzamientos para los números individuales entre el 1 y el 6 se va acercando poco a poco.
¿Qué se puede esperar para N = 10.000 o N = 100.000? Probablemente, el resultado sea aún más tranquilo, las desviaciones de una sexta parte del número respectivo se reduzcan.
Diapositiva 5
Veamos esto de nuevo en un diagrama diferente. Para este gráfico, hice que el generador de números aleatorios del ordenador lanzara los dados y contara la frecuencia con la que se producía el 6.
A continuación se determinó la frecuencia relativa y se puede ver que para valores pequeños de N esta frecuencia es bastante inestable, pero a partir de N = 1000, obviamente se pone a nivel y está ligeramente por encima del valor 0,15.
En teoría, sería una sexta parte, es decir, 0,166666... etc. o
– matemáticamente correcto hablado, porque etc. no le gusta tanto a los matemáticos –
0, período 6.
Diapositiva 6
Ahora hemos colocado una franja de ancho 0,1 alrededor de este valor de 0,1666, es decir,
0,05 hacia arriba y 0,05 hacia abajo.
Al principio, la frecuencia relativa se encuentra también fuera de esta franja, pero después de un cierto número de intentos sólo se encuentra dentro de esta franja.
Si la franja se hiciera menos ancha, por ejemplo, la mitad, entonces es de suponer que todos los valores se situarían también dentro de la franja, a partir de un N algo mayor.
Obviamente, la frecuencia relativa obtenida empíricamente de los lanzamientos con el resultado 6 se aproxima a la probabilidad teórica para un gran número de intentos.
Diapositiva 7
También hemos hecho esto antes, es decir, lanzar dos dados y formar las sumas de los puntos. Lo importante ahora es que no sólo lo hemos hecho 1000 veces, sino que hemos anotado los resultados intermedios en centésimas.
Diapositiva 8
Y estas son las frecuencias relativas para las sumas seleccionadas – aquí 2, 3, 5, 7 y 12 – a medida que evolucionan de N = 100 a N = 1000.
He omitido algunos pasos para mantener la diapositiva clara.
Para las sumas 2 y 3, las frecuencias relativas varían significativamente y también se alejan a la probabilidad teórica. En este caso, los valores para N = 100 no fueron peores que los de N = 1000.
Diapositiva 9
Para las sumas 5, 7 y 12 las cosas se ven mejor y las frecuencias relativas se acercan a las probabilidades teóricas o incluso son iguales para la suma 7.
Sin embargo, para confirmar realmente la conjetura de que a lo largo los resultados empíricos se acercan a la probabilidad teórica, deberíamos ampliar la serie de experimentos.
Diapositiva 10
Por cierto, se puede ver la tendencia un poco mejor si se observan las distribuciones de frecuencia en el gráfico de barras.
Diapositiva 11
Volvamos a analizar los dos experimentos aleatorios.
En ambos experimentos, primero quedó claro que todo es posible con un pequeño número de intentos. No se detecta ninguna tendencia.
Sin embargo, a medida que N aumentaba, la probabilidad empírica se acercaba cada vez más a la probabilidad teórica.
Llamamos a este fenómeno la ley empírica de los grandes números. Dice: Si se realiza un experimento aleatorio con mucha frecuencia, las frecuencias relativas de los sucesos individuales se aproximan a un determinado valor.
Por supuesto, estos sucesos no tienen que ser igualmente probables. Lo hemos visto en el ejemplo de la suma de los puntos de un dado.
Diapositiva 12
¿Qué ocurre si no conocemos una probabilidad teórica? Nada, el concepto es fácilmente transferible.
Tomemos como ejemplo las tachuelas, con las que también estamos familiarizados.
Lo habíamos lanzado 1000 veces, cayendo de cabeza 633 veces y de lado 367 veces.
Ciertamente, no es irrazonable suponer que, también en este caso, el resultado debería estabilizarse si realizamos este experimento aleatorio con mucha frecuencia.
Así que la ley empírica de los grandes números también se aplica aquí.
A medida que aumenta el número de intentos, la frecuencia relativa de un evento observado se estabiliza.
¿Por qué se llama ley? ¿Por qué no es un teorema matemático? Eso es muy fácil.
Un teorema matemático necesita una demostración. Esta ley no se puede demostrar, es más bien una experiencia empírica.
Ya saben que el azar siempre es bueno para la sorpresa.
Diapositiva 13
Eso es todo por hoy. Gracias por acompañarme y espero verle en el próximo episodio.