Generated by GPT-5-mini| ley de los grandes números | |
|---|---|
| Nombre | Ley de los grandes números |
| Campo | Probabilidad, Estadística, Matemáticas |
| Descubridor | Jakob Bernoulli |
| Fecha | 1713 (Ars Conjectandi) |
| Tipo | Teorema límite |
| Aplicaciones | Teoría de la estimación, Teoría ergódica, Finanzas, Física estadística |
ley de los grandes números
La ley de los grandes números es un teorema fundamental en Jakob Bernoulli's obra que conecta observaciones empíricas con cantidades teóricas en Ars Conjectandi, y establece la convergencia de promedios muestrales hacia parámetros poblacionales; contribuyó al desarrollo de técnicas en Pierre-Simon Laplace, Andrey Kolmogorov, Émile Borel y Aleksandr Lyapunov, y ha influido en aplicaciones en John von Neumann, Norbert Wiener, André Weil, Paul Lévy y William Feller.
La ley de los grandes números describe cómo la media aritmética de una sucesión de variables aleatorias independientes identicamente distribuidas se aproxima al valor esperado conforme aumenta el tamaño muestral, vínculo explorado por Jakob Bernoulli, formalizado por Pafnuty Chebyshev, extendido por Aleksandr Lyapunov y axiomatizado en la teoría moderna por Andrey Kolmogorov; este principio respalda métodos en Ronald Fisher, Jerzy Neyman, Abraham Wald y Harald Cramér. La ley distingue versiones débil y fuerte, con demostraciones desarrolladas por S. N. Bernstein, Kolmogorov, Paul Lévy y Sergey Bernstein, y sirve como fundamento para técnicas empleadas por Edwin Jaynes, Bruno de Finetti y Thomas Bayes.
La formulación clásica (versión débil) afirma que para una sucesión de variables aleatorias independientes e identicamente distribuidas con esperanza finita, la media muestral converge en probabilidad al valor esperado; esta versión fue tratada por Pafnuty Chebyshev y popularizada en trabajos de William Feller y Émile Borel. La versión fuerte asegura convergencia casi segura y fue establecida por Andrey Kolmogorov y complementada por resultados de Aleksandr Lyapunov, Paul Lévy y Giovanni Cantelli; variantes incluyen condiciones de independencia relajada trabajadas por Marshall Stone, Shizuo Kakutani y David Blackwell. Formulaciones para variables no idénticamente distribuidas aparecen en resultados de Kolmogorov three-series theorem, Hille-Yosida y en teoremas relacionados con Ergodic theory por George David Birkhoff y John von Neumann.
Pruebas clásicas de la versión débil emplean desigualdades de Pafnuty Chebyshev y estimaciones de momentos usadas por S. N. Bernstein y Sergei Bernstein, mientras que la versión fuerte recurre a series de Bernoulli y técnicas de truncamiento desarrolladas por Andrey Kolmogorov; demostraciones alternativas usan transformadas de Laplace y desigualdades de Markov (established by Andrey Markov), Kolmogorov inequality, Doob y métodos martingala introducidos por Joseph Doob y amplificados por Donald Burkholder y Meyer. En entornos de dependencia débil, las pruebas utilizan descomposiciones tipo Martingale convergence theorem y resultados de Etemadi, extendidos por Bradley y Peligrad.
La ley se aplica en estimación de parámetros en el trabajo de Ronald Fisher, pruebas de hipótesis por Jerzy Neyman y Egon Pearson, y en métodos de Monte Carlo desarrollados por Stanislaw Ulam, Nicholas Metropolis y John von Neumann; ejemplos concretos incluyen frecuencias de caras en lanzamientos de monedas en estudios de Pierre-Simon Laplace, estimaciones actuariales usadas por Edmond Halley y modelos en finanzas por Louis Bachelier y Paul Samuelson. En física estadística la ley respalda el comportamiento termodinámico discutido por Ludwig Boltzmann y Josiah Willard Gibbs, y en teoría ergódica sus implicaciones se exploran en trabajos de George David Birkhoff y Oskar Perron.
Probabilísticamente, la ley liga la noción de esperanza matemática formulada por Christiaan Huygens con observaciones empíricas en la tradición de Pierre-Simon Laplace y Jakob Bernoulli; estadísticamente justifica la convergencia de estimadores consistentes desarrollada por Ronald Fisher, Jerzy Neyman y Abraham Wald. En inferencia bayesiana, conexiones con el teorema de consistencia de Doob y los trabajos de Bruno de Finetti y Thomas Bayes muestran cómo la ley influye en la actualización de creencias en presencia de datos crecientes.
Existen extensiones a variables dependientes como las cadenas de Markov estudiadas por Andrey Markov, condiciones de mezcla tratadas por R. C. Bradley y desigualdades de concentración de medida desarrolladas por Michel Talagrand y Sergey Bobkov; teoremas de tipo glivenko-cantelli relacionados con Vladimir Vapnik y Anatol Rapoport generalizan convergencias uniformes, y versiones no clásicas aparecen en contextos de procesos estocásticos estudiados por Kiyoshi Itô, Paul Lévy y Andrey Kolmogorov. En análisis funcional y teoría ergódica, la ley conecta con resultados de John von Neumann, Hille-Yosida y Stefan Banach.
La primera manifestación conocida aparece en Jakob Bernoulli's Ars Conjectandi; desarrollos subsiguientes involucraron a Pierre-Simon Laplace en trabajos sobre probabilidades y errores, formalizaciones por Pafnuty Chebyshev y completaciones por Aleksandr Lyapunov, Paul Lévy y Andrey Kolmogorov en el siglo XX; la ley influyó en la fundación de la teoría de la probabilidad axiomatizada por Andrey Kolmogorov y motivó investigaciones por Émile Borel, William Feller, Joseph Doob y Kolmogorov en teoría de procesos estocásticos. Avances recientes conectan la ley con teoría de grandes desviaciones desarrollada por S. R. S. Varadhan, desigualdades de concentración estudiadas por Michel Talagrand y aplicaciones en aprendizaje estadístico investigadas por Vladimir Vapnik y Avi Wigderson.
Category:Teoremas de probabilidad