fbpx
Wikipedia

Historia de la estadística

Se puede afirmar que la Historia de la estadística comienza de una quinta alrededor de 1549, aunque con el tiempo, ha habido cambios en la interpretación de la palabra "estadística". En un principio, el significado estaba restringido a la información acerca de los estados. Este fue extendido posteriormente para incluir toda colección de información de cualquier tipo, y más tarde fue extendido para incluir el análisis e interpretación de los datos. En términos modernos, "estadística" significa tanto conjuntos de información recopilada, por ejemplo registros de temperatura, contabilidad nacional, como trabajo analítico que requiera Estadística inferencial|inferencia estadístico

[[]]

Introducción

En el siglo XIV el término "estadística" designaba la colección sistemática de datos demográficos y económicos por los estados. A principios del siglo XIX, el significado de "estadística" fue ampliado para incluir la disciplina ocupada de recolectar, resumir y analizar los datos. Hoy la estadística es ampliamente usada en el gobierno, los negocios y todas las ciencias. Las computadoras electrónicas han acelerado la estadística computacional y ha permitido a los estadísticos el desarrollo de métodos que usan recursos informáticos intensivamente.

El término "estadística matemática" designa las teorías matemáticas de la probabilidad e inferencia estadística, las cuales son usadas en la estadística aplicada. La relación entre estadística y probabilidades se fue desarrollando con el tiempo. En el siglo XIX, las estadísticas usaron de forma gradual la teoría de probabilidades, cuyos resultados iniciales fueron encontrados en los siglos XVII y XXI, particularmente en el análisis de los juegos de azar (apuestas). Para 1600, la astronomía usaba modelos probabilísticos y teorías estadísticas, particularmente el método de los mínimos cuadrados, el cual fue inventado por Legendre y Gauss. La incipiente teoría de las probabilidades y estadísticas fue sistematizada y extendida por Laplace; después de este, las probabilidades y estadísticas han experimentado un continuo desarrollo. En el siglo XIX, el razonamiento estadístico y los modelos probabilísticos fueron usados por las ciencias sociales para el avance las nuevas ciencias de psicología experimental y sociología, y por las ciencias físicas en termodinámica y mecánica estadística. El desarrollo del razonamiento estadístico estuvo fuertemente relacionado con el desarrollo de la lógica inductiva y el método científico.

La estadística puede ser considerada no como una rama de las matemáticas, sino como una ciencia matemática autónoma, como las ciencias de la computación y la investigación de operaciones. A diferencia de las matemáticas, la estadística tuvo sus orígenes en la administración pública. Fue usada en la demografía y la economía. Con el énfasis en el aprendizaje de los datos y en la elaboración de las predicciones más acertadas, la estadística se ha solapado con la teoría de la decisión y la microeconomía. Con el enfoque de los datos, la estadística se ha solapado con la ciencia de la información y las ciencias de la computación.


Etimología

El término «estadística», en última instancia, deriva la palabra del neolatín statisticum collegium (consejo de estado) y la palabra italiana statista (‘hombre de estado’ o político). La palabra alemana statistik, introducida primeramente por Godofredo Achenwall (1749), originalmente designaba el análisis de datos acerca del estado, significando la ‘ciencia del estado’ (llamado posteriormente «aritmética política» en idioma inglés). A principios del siglo XIX, adquirió el significado de colección y clasificación de datos. El término fue introducido en Inglaterra en 1792 por sir John Sinclair cuando publicó el primero de los 21 volúmenes titulados Statistical account of Scotland.[1]

De esta forma, el propósito original principal de la statistik eran los datos usados por el gobierno y los cuerpos administrativos (a menudo centralizados). La colección de datos acerca de estados y localidades continúa, en mayor parte a través de servicios estadísticos nacionales e internacionales. En particular, los censos proveen frecuentemente información actualizada acerca de la población.

El primer libro en tener ‘estadísticas’ en su título fue “Contributions to Vital Statistics” por Francis GP Neison, registrado a la Medical Invalid and General Life Office (1 era edición 1845, 2nda ed. 1846, 3.ª ed. 1857).[cita requerida]

Orígenes en probabilidades

El uso de los métodos estadísticos se remonta al menos al siglo V a. C. El historiador Tucídides en su Historia de la Guerra del Peloponeso[2]​ describe como los atenienses calculaban la altura de la muralla de Platea, contando el número de ladrillos de una sección expuesta de la muralla que estuviera lo suficientemente cerca como para contarlos. El conteo era repetido varias veces por diferentes soldados. El valor más frecuente (la moda en términos más modernos) era tomado como el valor del número de ladrillos más probable. Multiplicando este valor por la altura de los ladrillos usados en la muralla les permitía a los atenienses determinar la altura de las escaleras necesarias para trepar las murallas.

En el poema épico indio Majabhárata (libro 3: la historia del rey Nala), el rey Ritupama estimaba el número de frutas y hojas (2095 frutas y 50,00,000 hojas (5 crores)) en dos grandes hojas de un árbol Vibhitaka contándolos en un solo vástago. Este número era luego multiplicado por el número de vástagos en las ramas. Este estimado fue posteriormente verificado y se halló que estaba muy cerca del número verdadero. Con el conocimiento de este método Nala pudo subsecuentemente reconquistar su reino.

El primer escrito de estadística fue encontrado en un libro del siglo IX titulado Manuscrito sobre el descifrado de mensajes criptográficos, escrito por Al-Kindi (801-873). En su libro, Al-Kindi da una descripción detallada sobre el uso de las estadísticas y análisis de frecuencias en el descifrado de mensajes, este fue el nacimiento tanto de la estadística como del criptoanálisis.[3][4]

La Prueba del Pyx es una prueba de pureza de la moneda del Royal Mint, que ha sido llevada a cabo regularmente desde el siglo XII. La prueba en sí misma está basada en métodos de muestreo estadístico. Después de acuñar una serie de monedas ―originalmente de 10 libras de plata― una moneda singular era colocada en el Pyx (una caja en la Abadía de Westminster). Después de un tiempo ―ahora una vez al año― las monedas son retiradas y pesadas. Luego, una muestra de monedas retiradas de la caja es probada por pureza.

La Nuova Crónica, una historia de Florencia del siglo XIV escrita por el banquero florentino y oficial Giovanni Villani, incluye mucha información estadística.sobre la población, ordenanzas, comercio, educación y edificaciones religiosas, y ha sido descrito como la primera introducción de la estadística como elemento positivo en la historia,[5]​ aunque ni el término ni el concepto de la estadística como campo específico existía aún. Esto se demostró que era incorrecto después del hallazgo del libro de Al-Kindi sobre análisis de frecuencias.[3][4]

Aunque era un concepto conocido por los griegos, la media aritmética no fue generalizada a más de dos valores hasta el siglo 16. La invención del sistema decimal por Simon Stevin en 1585 parece haber facilitado estos cálculos. Este método fue adoptado por primera vez en astronomía por Tycho Brahe, el que intentaba reducir errores en sus estimados de las localizaciones de varios cuerpos celestiales.

La idea de la mediana se originó en el libro de navegación de Edward Wright (Certaine errors in navigation) en 1599 en una sección concerniente a la determinación de una localización con un compás. Wright sintió que este valor era el que más probablemente estuviera correcto en una serie de observaciones.

John Graunt en su libro Natural and Political Observations Made upon the Bills of Mortality, estimó la población de Londres en 1662 a través de registros parroquiales. Él sabía que había cerca de 13,000 funerales al año en Londres y que de cada once familias tres personas morían por año. Estimó de los registros parroquiales que el tamaño promedio de las familias era 8 y calculó que la población de Londres era de cerca de 384 000. Laplace en 1802 estimó la población de Francia con un método similar.

Los métodos matemáticos de la estadística surgieron de la teoría de probabilidades, la cual tiene sus raíces en la correspondencia entre Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) proveyó el primer tratamiento científico sobre el tema que se conozca hasta la fecha. El libro Ars Conjectandi de Jakob Bernoulli (póstumo 1713) y La doctrina de las probabilidades (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. En su libro, Bernoulli introdujo la idea de representar certeza completa como el número 1 y la probabilidad como un número entre cero y uno.

Galileo luchó contra el problema de errores en las observaciones y había formulado ambiguamente el principio de que los valores más probables de cantidades desconocidas serían aquellos que hicieran los errores en las ecuaciones razonablemente pequeños. El estudio formal en teoría de errores puede ser originado en el libro de Roger Cotes (Opera Miscellanea, póstumo 1750). Tobias Mayer, en su estudio de los movimientos de la Luna (Kosmographische Nachrichten, Núremberg, 1750), inventó el primer método formal para estimar cantidades desconocidas generalizando el promedio de las observaciones bajo circunstancias idénticas al promedio de los grupos de ecuaciones similares.

Un primer ejemplo de lo que posteriormente fue conocido como la curva normal fue estudiado por Abraham de Moivre, quien trazó esta curva en noviembre 12, 1733.[6]​ De Moivre estaba estudiando el número de caras que ocurrían cuando una moneda “justa” era lanzada.

En sus memorias ―Un intento por mostrar la emergente ventaja de tomar la media de un número de observaciones en astronomía práctica― preparada por Thomas Simpson en 1755 (impreso en 1756) aplicaba por primera vez la teoría a la discusión de errores en observaciones. La reimpresión (1757) de sus memorias sostiene el axioma que errores positivos y negativos son igualmente probables, y que hay ciertos valores límites dentro de los cuales todos los errores se encuentran; los errores continuos son discutidos y se provee una curva de probabilidad. Simpson discutió varias posibles distribuciones de error. Primero consideró la distribución uniforme y después la distribución triangular discreta simétrica, seguida por la distribución triangular continua simétrica.

Ruder Boškovic en 1755 se basó en su trabajo sobre la forma de la Tierra propuesto en el libro De litteraria expeditione per pontificiam ditionem ad dimetiendos duos meridiani gradus a PP. Maire et Boscovicli para proponer que el verdadero valor de una serie de observaciones sería aquel que minimizara la suma de los errores absolutos. En terminología moderna este valor es la media.

Johann Heinrich Lamber en su libro de 1765 Anlage zur Architectonic propuso el semicírculo como una distribución de errores:

 

con –1 = x = 1.

Pierre-Simon Laplace (1774) hizo su primer intento de deducir una regla para la combinación de observaciones desde los principios de la teoría de las probabilidades. El representó la ley de a probabilidad de errores mediante una curva y dedujo una fórmula para la media de tres observaciones.

Laplace en 1774 notó que la frecuencia de un error podía ser expresada como una función exponencial de su magnitud una vez descartado el signo.[7][8]​ Esta distribución es ahora conocida como distribución de Laplace.

Lagrange propuso una distribución parabólica de errores en 1776:
 

con -1 = x = 1.

Laplace en 1778 publicó su segunda ley de errores en la cual notó que la frecuencia de un error era proporcional a la función exponencial del cuadrado de su magnitud. Esto fue descubierto subsecuentemente por Gauss (posiblemente en 1797) y es ahora mejor conocida como distribución normal, la cual es de importancia central en la estadística.[9]​ Esta distribución fue referida como «normal» por primera vez por Pierce en 1873, quien estaba estudiando las medidas de error cuando un objeto era dejado caer sobre una superficie de madera.[10]​ Escogió el término «normal» debido a su ocurrencia frecuente en variables que ocurrían en la naturaleza.

Lagrange también sugirió en 1781 otras dos distribuciones para errores ―una distribución coseno―:

 

con -1 = x = 1 y una distribución logarítmica

 

con -1 = x = 1 donde || es el --valor absoluto-- de x.

Laplace obtuvo una fórmula (1781) para la ley de facilidad de un error (un término acuñado por Joseph Louis Lagrange, 1774), pero esta conllevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.

Laplace, en una investigación del movimiento de Saturno y Júpiter en 1787, generalizó el método de Mayer usando diferentes combinaciones lineales de un grupo de ecuaciones.

En 1802 Laplace estimó la población en Francia a 28,328,612.[11]​ Él calculó este número usando la cantidad de nacimientos del año anterior y el dato del censo de tres comunidades. Los datos de los censos de estas comunidades mostraron que tenían 2,037,615 personas y que el número de nacimientos era de 71,866. Suponiendo que estas muestras eran representativas de Francia, Laplace produjo un estimado para la población entera.

El método de los mínimos cuadrados, el cual era usado para minimizar errores en la medición de datos, fue publicado independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich Gauss (1809).Gauss había usado el método en su famosa predicción en 1801 de la localización del planeta enano Ceres. Las observaciones en las que Gauss basó sus cálculos fueron hechas por el monje italiano Piazzi. Posteriormente se dieron demostraciones por Laplace (1810, 1812), Gauss (1823), Ivory (1825, 1826), Hagen (1837), Bessel (1838), Donkin (1844, 1856), Herschel (1850), Crofton (1870), y Thiele (1880, 1889).

El término «error probable» (der wahrscheinliche Fehler) ―la desviación media― fue introducido en 1815 por el astrónomo alemán Frederik Wilhelm Bessel.

Antoine Augustin Cournot en 1843 fue el primero en usar el término «mediana» (valeur médiane) para el valor que divide la distribución de probabilidad en dos mitades iguales.

Otros contribuyentes a la teoría de errores fueron Ellis (1844), De Morgan (1864), Glaisher (1872), y Giovanni Schiaparelli (1875).[cita requerida] La fórmula de Peters (1856) para  , el "error probable" de una sola observación fue ampliamente usada e inspiró tempranamente la estadística robusta (resistente a valores atípicos: ver criterio de Peirce).

En el siglo 19 los autores de la teoría estadística incluían a Laplace, S. Lacroix (1816), Littrow (1833), Dedekind (1860), Helmert (1872), Laurant (1873), Liagre, Didion, De Morgan, Boole, Edgeworth,[12]​ y K. Pearson.[13]

Gustav Theodor Fechner usó la mediana (centralwerth) en fenómenos sociológicos y sociológicos.[14]​ Anteriormente había sido usado solamente en astronomía y campos relacionados.

Las primeras pruebas de la distribución normal fueron inventadas por el estadístico alemán Wilhelm Lexis en 1870. El único conjunto de datos disponible para él, en que le era posible mostrar que estaba normalmente distribuido, era la frecuencia de nacimientos.

Francis Galton estudió una variedad de características humanas ―altura, edad, peso, tamaño de las pestañas, entre otras― y encontró que muchos de estos factores podían ser ajustados a una distribución normal.[15]

Francis Galton en 1907 entregó un artículo a la revista Nature acerca de la utilidad de la mediana.[16]​ El examinó la precisión de 787 intentos de adivinar el peso de un buey en una feria de campo. El peso real era de 1208: la mediana de todas las conjeturas fue 1198 libras. Las conjeturas fuern marcadamente no normales en su distribución.

El noruego Anders Nicolai Kiær introdujo el concepto de muestreo estratificado en 1895.[17]​ Arthur Lyon Bowley introdujo el muestreo aleatorio en 1906. [20] Jerzy Neyman en 1934 hizo evidente que el muestreo aleatorio estratificado era en general un mejor método de estimación que el muestreo intencional (por cuota).[18]

El nivel de significación del 5 % parece ser introducido por Fisher en 1925.[19]​ Fisher expresó que las desviaciones que excedían dos veces la desviación estándar eran consideradas significativas. Previamente a esto las desviaciones que excedían tres veces el error probable eran consideradas significativas. Para una distribución simétrica el error probable la mitad del rango intercuantil. El cuantil superior de la distribución normal estándar está entre 0.66 y 0.67, su error probable es aproximadamente 2/3 de la desviación estándar. Parece que el criterio de Fisher del 5% tenía sus raíces en la práctica previa.

En 1929 Wilso y Hilferty re-examinaron los datos de Pierce de 1873 y descubrieron que en realidad no estaba realmente normalmente distribuida.[20]

Notas

Ver Ian Hacking's The emergence of probability[21]​ and James Franklin's The science of conjecture: evidence and probability before Pascal[22]​ para historias del desarrollo del concepto de probabilidad matemática. En la era moderna, el trabajo de Andréi Kolmogórov ha sido imprescindible para la formulación del modelo fundamental de Teoría de Probabilidades.[23]

Inferencia

Charles S. Peirce (1839-1914) formuló teorías frecuentistas de estimación y prueba de hipótesis (1877-1878) y (1883), cuando introdujo la “confianza”. Pierce también introdujo experimentos aleatorios controlados y a ciegas con diseño de medidas repetidas.[24]​ Pierce inventó un diseño óptimo para experimentos sobre gravedad.

Estadísticas bayesianas

 
Pierre-Simon, marqués de Laplace, uno de los principales desarrolladores de la estadística bayesiana

El término "bayesiano" se refiere a Thomas Bayes (1702 – 1761), quién probó un caso especial de lo que se conoce hoy como Teorema de Bayes. Sin embargo fue Pierre-Simon Laplace (1749–1827) quien introdujo una visión general del teorema y lo aplicó a mecánica celeste, estadísticas médicas, confiabilidad y jurisprudencia. Cuando el conocimiento disponible era insuficiente para especificar una prior informada, Laplace usaba priores uniformes, de acuerdo a su principio de razón insuficiente.[25]​ Laplace asumió priores uniformes más por claridad matemática que por razones filosóficas.[25]​ Laplace también introdujo versiones primitivas de priores conjugadas y el teorema de von Mises y Bernstein, de acuerdo a los cuales, las posteriores correspondientes a priores inicialmente diferentes convergen asintóticamente con el crecimiento del número de observaciones.[26]​ Esta temprana inferencia bayesiana, que usaba priores uniformes de acuerdo con el principio de Laplace de razón insuficiente, fue llamado “probabilidad inversa” (debido a su inferencia hacia atrás desde las observaciones a los parámetros, o de efectos a causas).[27]​).

Después de los años veinte, la probabilidad inversa fue suplantada en su mayoría por una colección de métodos desarrollados por Ronald A. Fisher, Jerzy Neyman y Egon Pearson. Sus métodos fueron llamados estadística frecuentista.[27]​ Fisher rechazó el enfoque bayesiano, escribiendo que “la teoría de la probabilidad inversa está fundada sobre un error, y debe ser rechazada por completo”.[28]​ Al final de su vida, sin embargo, Fisher expresó un gran respeto por los ensayos de Bayes, los cuales Fisher creía que habían anticipado su propio enfoque fiducial a la probabilidad; Fisher aún mantenía que la visión de Laplace de las probabilidades era “sinsentido falaz”.[28]​ Neyman comenzó como un “cuasibayesiano”, pero con el tiempo desarrolló los intervalos de confianza (un método clave estadísticas frecuentistas) porque “la teoría completa sería mejor si estuviera construida desde el comienzo sin referencia al bayesianismo y las priores”.[29]​ La palabra bayesiano apareció en 1930 y para 1960 se convirtió en el término preferido por aquellos que no estaban satisfechos con las limitaciones de las estadísticas frecuentistas.[27][30]

En el siglo XX, las ideas de Laplace fueron desarrolladas posteriormente en dos direcciones, dando origen a las corrientes objetivas y subjetivas en la páctica bayesiana. En la corriente objetiva, el análisis estadístico depende solo del modelo asumido y el dato analizado.[31]​ No hay necesidad de involucrar decisiones subjetivas. En contraste, los estadísticos “subjetivos” niegan la posibilidad de un análisis completamente objetivo en el caso general.

En el subsiguiente desarrollo de las ideas de Laplace, las ideas subjetivas predominaron sobre las objetivas. La idea de que la “probabilidad” debería ser interpretada como el ¨grado de creencia subjetivo en una proposición¨ fue propuesto, por ejemplo, por John Maynard Keynes a comienzos de la década de 1920. Esta idea fue llevada más lejos por Bruno de Finetti en Italia (Fondamenti Logici del Ragionamento Probabilistico, 1930) y Frank Ramsey en Cambridge (The Foundations of Mathematics, 1931).[32]​ El enfoque fue diseñado para resolver problemas con la definición frecuentista de la probabilidad, pero también con el anterior enfoque objetivo de Laplace.[31]​ El método subjetivo bayesiano fue sucesivamente desarrollado y popularizado en los años cincuenta por L. J. Savage.

La inferencia objetiva bayesiana fue desarrollada con posterioridad por Harold Jeffreys, cuyo libro "Theory of probability" apareció en 1939. En 1957, Edwin Thompson Jaynes promovió el concepto de entropía máxima para construir priores, el cual es un principio importante en la formulación de métodos objetivos, principalmente para problemas discretos. En 1965, el segundo volumen de Dennis Lindley "Introduction to probability and statistics from a bayesian viewpoint" llevó los métodos bayesianos a un público más amplio. En 1979, José-Miguel Bernardo introdujo el análisis referencial,[31]​ el cual ofrece un marco de trabajo general aplicable para el análisis objetivo. Otros de los más populares proponentes del bayesianismo incluyen a I. J. Good, B. O. Koopman, Howard Raiffa, Robert Schlaifer y Alan Turing

En los años ochenta hubo un crecimiento dramático en investigaciones y aplicaciones de métodos bayesianos, mayormente atribuibles al descubrimiento de los métodos Markov chain Monte Carlo, los cuales eliminaron, muchos de los , y al creciente interés en aplicaciones complejas y no estándares.[33]​ A pesar del crecimiento de la investigación bayesiana, la mayoría de la enseñanza universitaria está basada en estadísticas frecuentistas.[34]​ Sin embargo, los métodos bayesianos son ampliamente aceptados y usados, por ejemplo, en el campo de aprendizaje de máquinas.[35]

Estadísticas en la actualidad

Durante el siglo 20, la creación de instrumentos precisos para la investigación en agricultura, problemas de salud pública (epidemiología, bioestadísticas, etc.), control de calidad industrial y propósitos económicos y sociales (tasa de desempleo, econometría, etc.) necesitaron de los avances substanciales en la práctica de la estadística.

Hoy el uso de la estadística se ha ampliado más allá de sus orígenes. Individuos y organizaciones usan las estadísticas para entender los datos y hacer decisiones informadas a través de las ciencias naturales y sociales, medicina, negocios y otras áreas.

La estadística es generalmente considerada no como una rama de las matemáticas, sino como un campo distintivo e independiente. Muchas universidades mantienen separados los departamentos de matemática y estadística. La estadística es también enseñada en departamentos tan diversos como psicología, pedagogía y salud pública.

Importantes contribuyentes a la estadística

Referencias

  1. Ball, Philip (2004). Critical Mass. Farrar, Straus and Giroux. p. 53. ISBN 0-374-53041-6. 
  2. Thucydides (1985). History of the Peloponnesian War. Nueva York: Penguin Books, Ltd. p. 204. 
  3. Singh, Simon (2000). The code book : the science of secrecy from ancient Egypt to quantum cryptography (1st Anchor Books ed. edición). Nueva York: Anchor Books. ISBN 0-385-49532-3. 
  4. Ibrahim A. Al-Kadi "The origins of cryptology: The Arab contributions”, Cryptologia, 16 (2), abril de 1992; pp. 97-126.
  5. Villani, Giovanni. Encyclopædia Britannica. Encyclopædia Britannica 2006 Ultimate Reference Suite DVD. Consultado el 4 de marzo de 2008.
  6. de Moive A (1738) The doctrine of chances. Woodfall
  7. Laplace, P.-S. (1774)ː "Mémoire sur la probabilité des causes par les évènements". Mémoires de l'Académie Royale des Sciences Présentés par Divers Savants, 6, págs. 621-656.
  8. Wilson, Edwin Bidwell (1923) "First and second laws of error", Journal of the American Statistical Association, 18 (143), 841-851 JSTOR 2965467
  9. Havil J (2003): Gamma: Exploring Euler's Constant. Princeton (New Jersey): Princeton University Press, pág. 157.
  10. Peirce CS (1873) Theory of errors of observations. Report of the Superintendent US Coast Survey, Washington, Government Printing Office. Appendix no. 21: 200-224
  11. Cochran W.G. (1978) "Laplace’s ratio estimators". pp 3-10. En David, H. A. (ed.): Contributions to survey sampling and applied statistics: papers in honor of H. O. Hartley. Nueva York: Academic Press, ISBN 122047508.
  12. (Stigler 1986, Chapter 9: The Next Generation: Edgeworth)
  13. Stigler (1986, Chapter 10: Pearson and Yule)
  14. Keynes, JM (1921) A treatise on probability. Pt II Ch XVII §5 (p 201)
  15. Galton F (1877) Typical laws of heredity. Nature 15: 492-553
  16. Galton F (1907) One Vote, One Value. Nature 75: 414
  17. Bellhouse DR (1988) A brief history of random sampling methods. Handbook of statistics. Vol 6 pp 1-14 Elsevier
  18. Neyman, J (1934) On the two different aspects of the representative method: The method of stratified sampling and the method of purposive selection. Journal of the Royal Statistical Society, 97 (4): págs. 557-625 JSTOR 2342192
  19. Fisher RA (1925) Statistical methods for research workers, Edinburgh: Oliver & Boyd
  20. Wilson EB, Hilferty MM (1929) Note on C.S. Peirce’s experimental discussion of the law of Errors. Proc Nat Acad Sci USA, 15 (2) 120-125
  21. Hacking, Ian (2006). The emergence of probability : a philosophical study of early ideas about probability, induction and statistical inference. Cambridge New York: Cambridge University Press. ISBN 9780521685573. 
  22. Franklin, James (2001). The science of conjecture : evidence and probability before Pascal. Baltimore: Johns Hopkins University Press. ISBN 9780801871092. 
  23. (Salsburg 2001, Chapter 14: The Mozart of Mathematics, pp 137-159)
  24. Hacking, Ian (septiembre de 1988). «Telepathy: Origins of Randomization in Experimental Design». Isis 79 (3): 427-451. JSTOR 234674. MR 1013489. doi:10.1086/354775. 
  25. Hald (1998)[página requerida]
  26. Lucien Le Cam (1986) Asymptotic methods in statistical decision theory: páginas 336 y 618-621 (von Mises and Bernstein).
  27. Fienberg, Stephen. E. (2006): «When did bayesian inference become "bayesian"?» el 10 de septiembre de 2014 en Wayback Machine., artículo en inglés en Bayesian Analysis, 1 (1), págs. 1-40. Ver la página 5.
  28. Aldrich, A. (2008) "R. A. Fisher on Bayes and Bayes' theorem" el 6 de septiembre de 2014 en Wayback Machine., artículo en inglés en la revista Bayesian Analysis, 3 (1),161–170
  29. Neyman, J. (1977). «Frequentist probability and frequentist statistics». Synthese 36 (1): 97-131. doi:10.1007/BF00485695. 
  30. Jeff Miller, "Earliest Known Uses of Some of the Words of Mathematics (B)"
  31. Bernardo, JM. (2005). «Reference analysis». Handbook of statistics 25: 17-90. doi:10.1016/S0169-7161(05)25002-2. 
  32. Gillies, D. (2000), Philosophical Theories of Probability. Routledge. ISBN 0-415-18276-X pp 50–1
  33. Wolpert, RL. (2004) "A conversation with James O. Berger", Statistical Science, 9, 205–218 doi 10.1214/088342304000000053 MR 2082155
  34. Bernardo, J. M. (2006). «A bayesian mathematical statistics primer». Proceedings of the Seventh International Conference on Teaching Statistics [CDROM]. Salvador (Bahia), Brazil: International Association for Statistical Education. 
  35. Bishop, C.M. (2007) Pattern Recognition and Machine Learning. Springer ISBN 978-0-387-31073-2

Bibliografía

  • Freedman, D. (1999). «From association to causation: Some remarks on the history of statistics». Statistical Science 14 (3): 243-258. doi:10.1214/ss/1009212409.  (Revised version, 2002).
  • Hald, Anders (2003). A History of Probability and Statistics and Their Applications before 1750. Hoboken, NJ: Wiley. ISBN 0-471-47129-1. 
  • Hald, Anders (1998). A History of Mathematical Statistics from 1750 to 1930. Nueva York: Wiley. ISBN 0-471-17912-4. 
  • Kotz, S., Johnson, N.L. (1992,1992,1997). Breakthroughs in Statistics, Vols I, II, III. Springer ISBN 0-387-94037-5, ISBN 0-387-94039-1, ISBN 0-387-94989-5
  • Pearson, Egon (1978). The History of Statistics in the 17th and 18th Centuries against the changing background of intellectual, scientific and religious thought (Lectures by Karl Pearson given at University College London during the academic sessions 1921-1933). Nueva York: MacMillan Publishng Co., Inc. p. 744. ISBN 0-02-850120-9. 
  • Salsburg, David (2001). The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century. ISBN 0-7167-4106-7
  • Stigler, Stephen M. (1986). The History of Statistics: The Measurement of Uncertainty before 1900. Belknap Press/Harvard University Press. ISBN 0-674-40341-X. 
  • Stigler, Stephen M. (1999) Statistics on the Table: The History of Statistical Concepts and Methods. Harvard University Press. ISBN 0-674-83601-4
  • David, H. A. (1995). «First (?) Occurrence of Common Terms in Mathematical Statistics». The American Statistician 49 (2): 121. ISSN 0003-1305. doi:10.2307/2684625. 

Enlaces externos

  •   Wikimedia Commons alberga una categoría multimedia sobre Historia de la estadística.
  • JEHPS: Recent publications in the history of probability and statistics
  • Electronic Journ@l for History of Probability and Statistics/Journ@l Electronique d'Histoire des Probabilités et de la Statistique
  • Figures from the History of Probability and Statistics (Univ. of Southampton)
  • Materials for the History of Statistics (Univ. of York)
  • Probability and Statistics on the Earliest Uses Pages (Univ. of Southampton)
  • Earliest Uses of Symbols in Probability and Statistics on Earliest Uses of Various Mathematical Symbols
  •   Datos: Q1444687
  •   Multimedia: History of statistics

historia, estadística, puede, afirmar, comienza, quinta, alrededor, 1549, aunque, tiempo, habido, cambios, interpretación, palabra, estadística, principio, significado, estaba, restringido, información, acerca, estados, este, extendido, posteriormente, para, i. Se puede afirmar que la Historia de la estadistica comienza de una quinta alrededor de 1549 aunque con el tiempo ha habido cambios en la interpretacion de la palabra estadistica En un principio el significado estaba restringido a la informacion acerca de los estados Este fue extendido posteriormente para incluir toda coleccion de informacion de cualquier tipo y mas tarde fue extendido para incluir el analisis e interpretacion de los datos En terminos modernos estadistica significa tanto conjuntos de informacion recopilada por ejemplo registros de temperatura contabilidad nacional como trabajo analitico que requiera Estadistica inferencial inferencia estadistico Indice 1 Introduccion 2 Etimologia 3 Origenes en probabilidades 3 1 Notas 4 Inferencia 4 1 Estadisticas bayesianas 5 Estadisticas en la actualidad 6 Importantes contribuyentes a la estadistica 7 Referencias 8 Bibliografia 9 Enlaces externosIntroduccion EditarEn el siglo XIV el termino estadistica designaba la coleccion sistematica de datos demograficos y economicos por los estados A principios del siglo XIX el significado de estadistica fue ampliado para incluir la disciplina ocupada de recolectar resumir y analizar los datos Hoy la estadistica es ampliamente usada en el gobierno los negocios y todas las ciencias Las computadoras electronicas han acelerado la estadistica computacional y ha permitido a los estadisticos el desarrollo de metodos que usan recursos informaticos intensivamente El termino estadistica matematica designa las teorias matematicas de la probabilidad e inferencia estadistica las cuales son usadas en la estadistica aplicada La relacion entre estadistica y probabilidades se fue desarrollando con el tiempo En el siglo XIX las estadisticas usaron de forma gradual la teoria de probabilidades cuyos resultados iniciales fueron encontrados en los siglos XVII y XXI particularmente en el analisis de los juegos de azar apuestas Para 1600 la astronomia usaba modelos probabilisticos y teorias estadisticas particularmente el metodo de los minimos cuadrados el cual fue inventado por Legendre y Gauss La incipiente teoria de las probabilidades y estadisticas fue sistematizada y extendida por Laplace despues de este las probabilidades y estadisticas han experimentado un continuo desarrollo En el siglo XIX el razonamiento estadistico y los modelos probabilisticos fueron usados por las ciencias sociales para el avance las nuevas ciencias de psicologia experimental y sociologia y por las ciencias fisicas en termodinamica y mecanica estadistica El desarrollo del razonamiento estadistico estuvo fuertemente relacionado con el desarrollo de la logica inductiva y el metodo cientifico La estadistica puede ser considerada no como una rama de las matematicas sino como una ciencia matematica autonoma como las ciencias de la computacion y la investigacion de operaciones A diferencia de las matematicas la estadistica tuvo sus origenes en la administracion publica Fue usada en la demografia y la economia Con el enfasis en el aprendizaje de los datos y en la elaboracion de las predicciones mas acertadas la estadistica se ha solapado con la teoria de la decision y la microeconomia Con el enfoque de los datos la estadistica se ha solapado con la ciencia de la informacion y las ciencias de la computacion Etimologia EditarEl termino estadistica en ultima instancia deriva la palabra del neolatin statisticum collegium consejo de estado y la palabra italiana statista hombre de estado o politico La palabra alemana statistik introducida primeramente por Godofredo Achenwall 1749 originalmente designaba el analisis de datos acerca del estado significando la ciencia del estado llamado posteriormente aritmetica politica en idioma ingles A principios del siglo XIX adquirio el significado de coleccion y clasificacion de datos El termino fue introducido en Inglaterra en 1792 por sir John Sinclair cuando publico el primero de los 21 volumenes titulados Statistical account of Scotland 1 De esta forma el proposito original principal de la statistik eran los datos usados por el gobierno y los cuerpos administrativos a menudo centralizados La coleccion de datos acerca de estados y localidades continua en mayor parte a traves de servicios estadisticos nacionales e internacionales En particular los censos proveen frecuentemente informacion actualizada acerca de la poblacion El primer libro en tener estadisticas en su titulo fue Contributions to Vital Statistics por Francis GP Neison registrado a la Medical Invalid and General Life Office 1 era edicion 1845 2nda ed 1846 3 ª ed 1857 cita requerida Origenes en probabilidades EditarEl uso de los metodos estadisticos se remonta al menos al siglo V a C El historiador Tucidides en su Historia de la Guerra del Peloponeso 2 describe como los atenienses calculaban la altura de la muralla de Platea contando el numero de ladrillos de una seccion expuesta de la muralla que estuviera lo suficientemente cerca como para contarlos El conteo era repetido varias veces por diferentes soldados El valor mas frecuente la moda en terminos mas modernos era tomado como el valor del numero de ladrillos mas probable Multiplicando este valor por la altura de los ladrillos usados en la muralla les permitia a los atenienses determinar la altura de las escaleras necesarias para trepar las murallas En el poema epico indio Majabharata libro 3 la historia del rey Nala el rey Ritupama estimaba el numero de frutas y hojas 2095 frutas y 50 00 000 hojas 5 crores en dos grandes hojas de un arbol Vibhitaka contandolos en un solo vastago Este numero era luego multiplicado por el numero de vastagos en las ramas Este estimado fue posteriormente verificado y se hallo que estaba muy cerca del numero verdadero Con el conocimiento de este metodo Nala pudo subsecuentemente reconquistar su reino El primer escrito de estadistica fue encontrado en un libro del siglo IX titulado Manuscrito sobre el descifrado de mensajes criptograficos escrito por Al Kindi 801 873 En su libro Al Kindi da una descripcion detallada sobre el uso de las estadisticas y analisis de frecuencias en el descifrado de mensajes este fue el nacimiento tanto de la estadistica como del criptoanalisis 3 4 La Prueba del Pyx es una prueba de pureza de la moneda del Royal Mint que ha sido llevada a cabo regularmente desde el siglo XII La prueba en si misma esta basada en metodos de muestreo estadistico Despues de acunar una serie de monedas originalmente de 10 libras de plata una moneda singular era colocada en el Pyx una caja en la Abadia de Westminster Despues de un tiempo ahora una vez al ano las monedas son retiradas y pesadas Luego una muestra de monedas retiradas de la caja es probada por pureza La Nuova Cronica una historia de Florencia del siglo XIV escrita por el banquero florentino y oficial Giovanni Villani incluye mucha informacion estadistica sobre la poblacion ordenanzas comercio educacion y edificaciones religiosas y ha sido descrito como la primera introduccion de la estadistica como elemento positivo en la historia 5 aunque ni el termino ni el concepto de la estadistica como campo especifico existia aun Esto se demostro que era incorrecto despues del hallazgo del libro de Al Kindi sobre analisis de frecuencias 3 4 Aunque era un concepto conocido por los griegos la media aritmetica no fue generalizada a mas de dos valores hasta el siglo 16 La invencion del sistema decimal por Simon Stevin en 1585 parece haber facilitado estos calculos Este metodo fue adoptado por primera vez en astronomia por Tycho Brahe el que intentaba reducir errores en sus estimados de las localizaciones de varios cuerpos celestiales La idea de la mediana se origino en el libro de navegacion de Edward Wright Certaine errors in navigation en 1599 en una seccion concerniente a la determinacion de una localizacion con un compas Wright sintio que este valor era el que mas probablemente estuviera correcto en una serie de observaciones John Graunt en su libro Natural and Political Observations Made upon the Bills of Mortality estimo la poblacion de Londres en 1662 a traves de registros parroquiales El sabia que habia cerca de 13 000 funerales al ano en Londres y que de cada once familias tres personas morian por ano Estimo de los registros parroquiales que el tamano promedio de las familias era 8 y calculo que la poblacion de Londres era de cerca de 384 000 Laplace en 1802 estimo la poblacion de Francia con un metodo similar Los metodos matematicos de la estadistica surgieron de la teoria de probabilidades la cual tiene sus raices en la correspondencia entre Pierre de Fermat y Blaise Pascal 1654 Christiaan Huygens 1657 proveyo el primer tratamiento cientifico sobre el tema que se conozca hasta la fecha El libro Ars Conjectandi de Jakob Bernoulli postumo 1713 y La doctrina de las probabilidades 1718 de Abraham de Moivre trataron el tema como una rama de las matematicas En su libro Bernoulli introdujo la idea de representar certeza completa como el numero 1 y la probabilidad como un numero entre cero y uno Galileo lucho contra el problema de errores en las observaciones y habia formulado ambiguamente el principio de que los valores mas probables de cantidades desconocidas serian aquellos que hicieran los errores en las ecuaciones razonablemente pequenos El estudio formal en teoria de errores puede ser originado en el libro de Roger Cotes Opera Miscellanea postumo 1750 Tobias Mayer en su estudio de los movimientos de la Luna Kosmographische Nachrichten Nuremberg 1750 invento el primer metodo formal para estimar cantidades desconocidas generalizando el promedio de las observaciones bajo circunstancias identicas al promedio de los grupos de ecuaciones similares Un primer ejemplo de lo que posteriormente fue conocido como la curva normal fue estudiado por Abraham de Moivre quien trazo esta curva en noviembre 12 1733 6 De Moivre estaba estudiando el numero de caras que ocurrian cuando una moneda justa era lanzada En sus memorias Un intento por mostrar la emergente ventaja de tomar la media de un numero de observaciones en astronomia practica preparada por Thomas Simpson en 1755 impreso en 1756 aplicaba por primera vez la teoria a la discusion de errores en observaciones La reimpresion 1757 de sus memorias sostiene el axioma que errores positivos y negativos son igualmente probables y que hay ciertos valores limites dentro de los cuales todos los errores se encuentran los errores continuos son discutidos y se provee una curva de probabilidad Simpson discutio varias posibles distribuciones de error Primero considero la distribucion uniforme y despues la distribucion triangular discreta simetrica seguida por la distribucion triangular continua simetrica Ruder Boskovic en 1755 se baso en su trabajo sobre la forma de la Tierra propuesto en el libro De litteraria expeditione per pontificiam ditionem ad dimetiendos duos meridiani gradus a PP Maire et Boscovicli para proponer que el verdadero valor de una serie de observaciones seria aquel que minimizara la suma de los errores absolutos En terminologia moderna este valor es la media Johann Heinrich Lamber en su libro de 1765 Anlage zur Architectonic propuso el semicirculo como una distribucion de errores f x 1 2 1 x 2 displaystyle f x frac 1 2 sqrt 1 x 2 con 1 x 1 Pierre Simon Laplace 1774 hizo su primer intento de deducir una regla para la combinacion de observaciones desde los principios de la teoria de las probabilidades El represento la ley de a probabilidad de errores mediante una curva y dedujo una formula para la media de tres observaciones Laplace en 1774 noto que la frecuencia de un error podia ser expresada como una funcion exponencial de su magnitud una vez descartado el signo 7 8 Esta distribucion es ahora conocida como distribucion de Laplace Lagrange propuso una distribucion parabolica de errores en 1776 f x 3 4 1 x 2 displaystyle f x frac 3 4 1 x 2 con 1 x 1 Laplace en 1778 publico su segunda ley de errores en la cual noto que la frecuencia de un error era proporcional a la funcion exponencial del cuadrado de su magnitud Esto fue descubierto subsecuentemente por Gauss posiblemente en 1797 y es ahora mejor conocida como distribucion normal la cual es de importancia central en la estadistica 9 Esta distribucion fue referida como normal por primera vez por Pierce en 1873 quien estaba estudiando las medidas de error cuando un objeto era dejado caer sobre una superficie de madera 10 Escogio el termino normal debido a su ocurrencia frecuente en variables que ocurrian en la naturaleza Lagrange tambien sugirio en 1781 otras dos distribuciones para errores una distribucion coseno f x p 4 c o s p x 2 displaystyle f x frac pi 4 cos frac pi x 2 con 1 x 1 y una distribucion logaritmica f x 1 2 1 x displaystyle f x frac 1 2 frac 1 x con 1 x 1 donde es el valor absoluto de x Laplace obtuvo una formula 1781 para la ley de facilidad de un error un termino acunado por Joseph Louis Lagrange 1774 pero esta conllevaba a ecuaciones inmanejables Daniel Bernoulli 1778 introdujo el principio del maximo producto de las probabilidades de un sistema de errores concurrentes Laplace en una investigacion del movimiento de Saturno y Jupiter en 1787 generalizo el metodo de Mayer usando diferentes combinaciones lineales de un grupo de ecuaciones En 1802 Laplace estimo la poblacion en Francia a 28 328 612 11 El calculo este numero usando la cantidad de nacimientos del ano anterior y el dato del censo de tres comunidades Los datos de los censos de estas comunidades mostraron que tenian 2 037 615 personas y que el numero de nacimientos era de 71 866 Suponiendo que estas muestras eran representativas de Francia Laplace produjo un estimado para la poblacion entera El metodo de los minimos cuadrados el cual era usado para minimizar errores en la medicion de datos fue publicado independientemente por Adrien Marie Legendre 1805 Robert Adrain 1808 y Carl Friedrich Gauss 1809 Gauss habia usado el metodo en su famosa prediccion en 1801 de la localizacion del planeta enano Ceres Las observaciones en las que Gauss baso sus calculos fueron hechas por el monje italiano Piazzi Posteriormente se dieron demostraciones por Laplace 1810 1812 Gauss 1823 Ivory 1825 1826 Hagen 1837 Bessel 1838 Donkin 1844 1856 Herschel 1850 Crofton 1870 y Thiele 1880 1889 El termino error probable der wahrscheinliche Fehler la desviacion media fue introducido en 1815 por el astronomo aleman Frederik Wilhelm Bessel Antoine Augustin Cournot en 1843 fue el primero en usar el termino mediana valeur mediane para el valor que divide la distribucion de probabilidad en dos mitades iguales Otros contribuyentes a la teoria de errores fueron Ellis 1844 De Morgan 1864 Glaisher 1872 y Giovanni Schiaparelli 1875 cita requerida La formula de Peters 1856 para r displaystyle r el error probable de una sola observacion fue ampliamente usada e inspiro tempranamente la estadistica robusta resistente a valores atipicos ver criterio de Peirce En el siglo 19 los autores de la teoria estadistica incluian a Laplace S Lacroix 1816 Littrow 1833 Dedekind 1860 Helmert 1872 Laurant 1873 Liagre Didion De Morgan Boole Edgeworth 12 y K Pearson 13 Gustav Theodor Fechner uso la mediana centralwerth en fenomenos sociologicos y sociologicos 14 Anteriormente habia sido usado solamente en astronomia y campos relacionados Las primeras pruebas de la distribucion normal fueron inventadas por el estadistico aleman Wilhelm Lexis en 1870 El unico conjunto de datos disponible para el en que le era posible mostrar que estaba normalmente distribuido era la frecuencia de nacimientos Francis Galton estudio una variedad de caracteristicas humanas altura edad peso tamano de las pestanas entre otras y encontro que muchos de estos factores podian ser ajustados a una distribucion normal 15 Francis Galton en 1907 entrego un articulo a la revista Nature acerca de la utilidad de la mediana 16 El examino la precision de 787 intentos de adivinar el peso de un buey en una feria de campo El peso real era de 1208 la mediana de todas las conjeturas fue 1198 libras Las conjeturas fuern marcadamente no normales en su distribucion El noruego Anders Nicolai Kiaer introdujo el concepto de muestreo estratificado en 1895 17 Arthur Lyon Bowley introdujo el muestreo aleatorio en 1906 20 Jerzy Neyman en 1934 hizo evidente que el muestreo aleatorio estratificado era en general un mejor metodo de estimacion que el muestreo intencional por cuota 18 El nivel de significacion del 5 parece ser introducido por Fisher en 1925 19 Fisher expreso que las desviaciones que excedian dos veces la desviacion estandar eran consideradas significativas Previamente a esto las desviaciones que excedian tres veces el error probable eran consideradas significativas Para una distribucion simetrica el error probable la mitad del rango intercuantil El cuantil superior de la distribucion normal estandar esta entre 0 66 y 0 67 su error probable es aproximadamente 2 3 de la desviacion estandar Parece que el criterio de Fisher del 5 tenia sus raices en la practica previa En 1929 Wilso y Hilferty re examinaron los datos de Pierce de 1873 y descubrieron que en realidad no estaba realmente normalmente distribuida 20 Notas Editar Ver Ian Hacking s The emergence of probability 21 and James Franklin s The science of conjecture evidence and probability before Pascal 22 para historias del desarrollo del concepto de probabilidad matematica En la era moderna el trabajo de Andrei Kolmogorov ha sido imprescindible para la formulacion del modelo fundamental de Teoria de Probabilidades 23 Inferencia EditarCharles S Peirce 1839 1914 formulo teorias frecuentistas de estimacion y prueba de hipotesis 1877 1878 y 1883 cuando introdujo la confianza Pierce tambien introdujo experimentos aleatorios controlados y a ciegas con diseno de medidas repetidas 24 Pierce invento un diseno optimo para experimentos sobre gravedad Estadisticas bayesianas Editar Pierre Simon marques de Laplace uno de los principales desarrolladores de la estadistica bayesiana El termino bayesiano se refiere a Thomas Bayes 1702 1761 quien probo un caso especial de lo que se conoce hoy como Teorema de Bayes Sin embargo fue Pierre Simon Laplace 1749 1827 quien introdujo una vision general del teorema y lo aplico a mecanica celeste estadisticas medicas confiabilidad y jurisprudencia Cuando el conocimiento disponible era insuficiente para especificar una prior informada Laplace usaba priores uniformes de acuerdo a su principio de razon insuficiente 25 Laplace asumio priores uniformes mas por claridad matematica que por razones filosoficas 25 Laplace tambien introdujo versiones primitivas de priores conjugadas y el teorema de von Mises y Bernstein de acuerdo a los cuales las posteriores correspondientes a priores inicialmente diferentes convergen asintoticamente con el crecimiento del numero de observaciones 26 Esta temprana inferencia bayesiana que usaba priores uniformes de acuerdo con el principio de Laplace de razon insuficiente fue llamado probabilidad inversa debido a su inferencia hacia atras desde las observaciones a los parametros o de efectos a causas 27 Despues de los anos veinte la probabilidad inversa fue suplantada en su mayoria por una coleccion de metodos desarrollados por Ronald A Fisher Jerzy Neyman y Egon Pearson Sus metodos fueron llamados estadistica frecuentista 27 Fisher rechazo el enfoque bayesiano escribiendo que la teoria de la probabilidad inversa esta fundada sobre un error y debe ser rechazada por completo 28 Al final de su vida sin embargo Fisher expreso un gran respeto por los ensayos de Bayes los cuales Fisher creia que habian anticipado su propio enfoque fiducial a la probabilidad Fisher aun mantenia que la vision de Laplace de las probabilidades era sinsentido falaz 28 Neyman comenzo como un cuasibayesiano pero con el tiempo desarrollo los intervalos de confianza un metodo clave estadisticas frecuentistas porque la teoria completa seria mejor si estuviera construida desde el comienzo sin referencia al bayesianismo y las priores 29 La palabra bayesiano aparecio en 1930 y para 1960 se convirtio en el termino preferido por aquellos que no estaban satisfechos con las limitaciones de las estadisticas frecuentistas 27 30 En el siglo XX las ideas de Laplace fueron desarrolladas posteriormente en dos direcciones dando origen a las corrientes objetivas y subjetivas en la pactica bayesiana En la corriente objetiva el analisis estadistico depende solo del modelo asumido y el dato analizado 31 No hay necesidad de involucrar decisiones subjetivas En contraste los estadisticos subjetivos niegan la posibilidad de un analisis completamente objetivo en el caso general En el subsiguiente desarrollo de las ideas de Laplace las ideas subjetivas predominaron sobre las objetivas La idea de que la probabilidad deberia ser interpretada como el grado de creencia subjetivo en una proposicion fue propuesto por ejemplo por John Maynard Keynes a comienzos de la decada de 1920 Esta idea fue llevada mas lejos por Bruno de Finetti en Italia Fondamenti Logici del Ragionamento Probabilistico 1930 y Frank Ramsey en Cambridge The Foundations of Mathematics 1931 32 El enfoque fue disenado para resolver problemas con la definicion frecuentista de la probabilidad pero tambien con el anterior enfoque objetivo de Laplace 31 El metodo subjetivo bayesiano fue sucesivamente desarrollado y popularizado en los anos cincuenta por L J Savage La inferencia objetiva bayesiana fue desarrollada con posterioridad por Harold Jeffreys cuyo libro Theory of probability aparecio en 1939 En 1957 Edwin Thompson Jaynes promovio el concepto de entropia maxima para construir priores el cual es un principio importante en la formulacion de metodos objetivos principalmente para problemas discretos En 1965 el segundo volumen de Dennis Lindley Introduction to probability and statistics from a bayesian viewpoint llevo los metodos bayesianos a un publico mas amplio En 1979 Jose Miguel Bernardo introdujo el analisis referencial 31 el cual ofrece un marco de trabajo general aplicable para el analisis objetivo Otros de los mas populares proponentes del bayesianismo incluyen a I J Good B O Koopman Howard Raiffa Robert Schlaifer y Alan TuringEn los anos ochenta hubo un crecimiento dramatico en investigaciones y aplicaciones de metodos bayesianos mayormente atribuibles al descubrimiento de los metodos Markov chain Monte Carlo los cuales eliminaron muchos de los y al creciente interes en aplicaciones complejas y no estandares 33 A pesar del crecimiento de la investigacion bayesiana la mayoria de la ensenanza universitaria esta basada en estadisticas frecuentistas 34 Sin embargo los metodos bayesianos son ampliamente aceptados y usados por ejemplo en el campo de aprendizaje de maquinas 35 Estadisticas en la actualidad EditarDurante el siglo 20 la creacion de instrumentos precisos para la investigacion en agricultura problemas de salud publica epidemiologia bioestadisticas etc control de calidad industrial y propositos economicos y sociales tasa de desempleo econometria etc necesitaron de los avances substanciales en la practica de la estadistica Hoy el uso de la estadistica se ha ampliado mas alla de sus origenes Individuos y organizaciones usan las estadisticas para entender los datos y hacer decisiones informadas a traves de las ciencias naturales y sociales medicina negocios y otras areas La estadistica es generalmente considerada no como una rama de las matematicas sino como un campo distintivo e independiente Muchas universidades mantienen separados los departamentos de matematica y estadistica La estadistica es tambien ensenada en departamentos tan diversos como psicologia pedagogia y salud publica Importantes contribuyentes a la estadistica EditarThomas Bayes George E P Box Pafnuti Chebyshov David R Cox Gertrude Cox Harald Cramer Francis Ysidro Edgeworth Bradley Efron Bruno de Finetti Ronald A Fisher Francis Galton Carl Friedrich Gauss William Sealey Gosset student Andrei Kolmogorov Pierre Simon Laplace Erich L Lehmann Aleksandr Liapunov Abraham de Moivre Jerzy Neyman Blaise Pascal Karl Pearson Charles S Peirce Adolphe Quetelet C R Rao Walter A Shewhart Charles Spearman Thorvald N Thiele John W Tukey Abraham Wald Al KindiReferencias Editar Ball Philip 2004 Critical Mass Farrar Straus and Giroux p 53 ISBN 0 374 53041 6 Thucydides 1985 History of the Peloponnesian War Nueva York Penguin Books Ltd p 204 a b Singh Simon 2000 The code book the science of secrecy from ancient Egypt to quantum cryptography 1st Anchor Books ed edicion Nueva York Anchor Books ISBN 0 385 49532 3 a b Ibrahim A Al Kadi The origins of cryptology The Arab contributions Cryptologia 16 2 abril de 1992 pp 97 126 Villani Giovanni Encyclopaedia Britannica Encyclopaedia Britannica 2006 Ultimate Reference Suite DVD Consultado el 4 de marzo de 2008 de Moive A 1738 The doctrine of chances Woodfall Laplace P S 1774 ː Memoire sur la probabilite des causes par les evenements Memoires de l Academie Royale des Sciences Presentes par Divers Savants 6 pags 621 656 Wilson Edwin Bidwell 1923 First and second laws of error Journal of the American Statistical Association 18 143 841 851 JSTOR 2965467 Havil J 2003 Gamma Exploring Euler s Constant Princeton New Jersey Princeton University Press pag 157 Peirce CS 1873 Theory of errors of observations Report of the Superintendent US Coast Survey Washington Government Printing Office Appendix no 21 200 224 Cochran W G 1978 Laplace s ratio estimators pp 3 10 En David H A ed Contributions to survey sampling and applied statistics papers in honor of H O Hartley Nueva York Academic Press ISBN 122047508 Stigler 1986 Chapter 9 The Next Generation Edgeworth Stigler 1986 Chapter 10 Pearson and Yule Keynes JM 1921 A treatise on probability Pt II Ch XVII 5 p 201 Galton F 1877 Typical laws of heredity Nature 15 492 553 Galton F 1907 One Vote One Value Nature 75 414 Bellhouse DR 1988 A brief history of random sampling methods Handbook of statistics Vol 6 pp 1 14 Elsevier Neyman J 1934 On the two different aspects of the representative method The method of stratified sampling and the method of purposive selection Journal of the Royal Statistical Society 97 4 pags 557 625 JSTOR 2342192 Fisher RA 1925 Statistical methods for research workers Edinburgh Oliver amp Boyd Wilson EB Hilferty MM 1929 Note on C S Peirce s experimental discussion of the law of Errors Proc Nat Acad Sci USA 15 2 120 125 Hacking Ian 2006 The emergence of probability a philosophical study of early ideas about probability induction and statistical inference Cambridge New York Cambridge University Press ISBN 9780521685573 Franklin James 2001 The science of conjecture evidence and probability before Pascal Baltimore Johns Hopkins University Press ISBN 9780801871092 Salsburg 2001 Chapter 14 The Mozart of Mathematics pp 137 159 Hacking Ian septiembre de 1988 Telepathy Origins of Randomization in Experimental Design Isis 79 3 427 451 JSTOR 234674 MR 1013489 doi 10 1086 354775 a b Hald 1998 pagina requerida Lucien Le Cam 1986 Asymptotic methods in statistical decision theory paginas 336 y 618 621 von Mises and Bernstein a b c Fienberg Stephen E 2006 When did bayesian inference become bayesian Archivado el 10 de septiembre de 2014 en Wayback Machine articulo en ingles en Bayesian Analysis 1 1 pags 1 40 Ver la pagina 5 a b Aldrich A 2008 R A Fisher on Bayes and Bayes theorem Archivado el 6 de septiembre de 2014 en Wayback Machine articulo en ingles en la revista Bayesian Analysis 3 1 161 170 Neyman J 1977 Frequentist probability and frequentist statistics Synthese 36 1 97 131 doi 10 1007 BF00485695 Jeff Miller Earliest Known Uses of Some of the Words of Mathematics B a b c Bernardo JM 2005 Reference analysis Handbook of statistics 25 17 90 doi 10 1016 S0169 7161 05 25002 2 Gillies D 2000 Philosophical Theories of Probability Routledge ISBN 0 415 18276 X pp 50 1 Wolpert RL 2004 A conversation with James O Berger Statistical Science 9 205 218 doi 10 1214 088342304000000053 MR 2082155 Bernardo J M 2006 A bayesian mathematical statistics primer Proceedings of the Seventh International Conference on Teaching Statistics CDROM Salvador Bahia Brazil International Association for Statistical Education Bishop C M 2007 Pattern Recognition and Machine Learning Springer ISBN 978 0 387 31073 2Bibliografia EditarFreedman D 1999 From association to causation Some remarks on the history of statistics Statistical Science 14 3 243 258 doi 10 1214 ss 1009212409 Revised version 2002 Hald Anders 2003 A History of Probability and Statistics and Their Applications before 1750 Hoboken NJ Wiley ISBN 0 471 47129 1 Hald Anders 1998 A History of Mathematical Statistics from 1750 to 1930 Nueva York Wiley ISBN 0 471 17912 4 Kotz S Johnson N L 1992 1992 1997 Breakthroughs in Statistics Vols I II III Springer ISBN 0 387 94037 5 ISBN 0 387 94039 1 ISBN 0 387 94989 5 Pearson Egon 1978 The History of Statistics in the 17th and 18th Centuries against the changing background of intellectual scientific and religious thought Lectures by Karl Pearson given at University College London during the academic sessions 1921 1933 Nueva York MacMillan Publishng Co Inc p 744 ISBN 0 02 850120 9 Salsburg David 2001 The Lady Tasting Tea How Statistics Revolutionized Science in the Twentieth Century ISBN 0 7167 4106 7 Stigler Stephen M 1986 The History of Statistics The Measurement of Uncertainty before 1900 Belknap Press Harvard University Press ISBN 0 674 40341 X Stigler Stephen M 1999 Statistics on the Table The History of Statistical Concepts and Methods Harvard University Press ISBN 0 674 83601 4 David H A 1995 First Occurrence of Common Terms in Mathematical Statistics The American Statistician 49 2 121 ISSN 0003 1305 doi 10 2307 2684625 Enlaces externos Editar Wikimedia Commons alberga una categoria multimedia sobre Historia de la estadistica JEHPS Recent publications in the history of probability and statistics Electronic Journ l for History of Probability and Statistics Journ l Electronique d Histoire des Probabilites et de la Statistique Figures from the History of Probability and Statistics Univ of Southampton Materials for the History of Statistics Univ of York Probability and Statistics on the Earliest Uses Pages Univ of Southampton Earliest Uses of Symbols in Probability and Statistics on Earliest Uses of Various Mathematical Symbols Historia del razonamiento estadistico Paginas de bioestadistica de la Sociedad Espanola de Hipertension Arterial Datos Q1444687 Multimedia History of statistics Obtenido de https es wikipedia org w index php title Historia de la estadistica amp oldid 141762216, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos