fbpx
Wikipedia

hartley (unidad)

El hartley (símbolo Hart), también llamado ban o dit (abreviatura de decimal digit ),[1]​ es una unidad logarítmica que mide información o entropía, basada en logaritmos de base 10 y potencias de 10, en lugar de potencias de 2 y logaritmos de base 2 que definen el bit o shannon. Un ban o hartley es el contenido de información de un evento si la probabilidad de que el evento ocurra es 1/10.[2]​ Por lo tanto, es igual a la información contenida en un dígito decimal (o dit), suponiendo la equiprobabilidad a priori de cada valor posible.

Unidades de
Información

Al igual que un bit corresponde a un dígito binario, un ban corresponde a un dígito decimal. Un deciban es una décima parte de un ban; el nombre está formado por ban con el prefijo del SI deci- .

Un hartley corresponde a log2 (10) bit = ln (10) nat, o aproximadamente 3.322 Sh,[3]​ o 2.303 nat. Un deciban es aproximadamente 0.332 Sh.

Aunque no es una unidad del SI, el Hartley es parte del Sistema Internacional de Cantidades, definido por la Norma Internacional IEC 80000-13 de la Comisión Electrotécnica Internacional. Lleva el nombre de Ralph Hartley.

Historia

El término Hartley lleva el nombre de Ralph Hartley, quien sugirió en 1928 utilizar para medir la información una base logarítmica igual al número de estados distinguibles en su representación, lo que sería la base 10 de un dígito decimal.[4][5]

El ban y el deciban fueron inventados por Alan Turing en colaboración con I. J. Good en 1940, para medir la cantidad de información que los descifradores de códigos de Bletchley Park podían deducir mediante el procedimiento denominado Banburismus, con el fin de determinar la configuración desconocida de cada día de la máquina de cifrado naval alemana Enigma. El nombre se inspiró en las enormes hojas de cartulina, impresas en la ciudad de Banbury, a unas 30 millas de distancia, que se utilizaron en el proceso.[6]

Jack Good argumentó que la suma secuencial de decibans para construir una medida del peso de la evidencia a favor de una hipótesis, es esencialmente un proceso de inferencia bayesiana.[6]​ Donald A. Gillies, sin embargo, argumentó que el ban es, en efecto, lo mismo que la medida de Karl Popper de la rigurosidad de una prueba.[7]

Uso como unidad de probabilidad

El deciban es una unidad particularmente útil para las probabilidades de registro, especialmente como una medida de información sobre factores de Bayes, razones de probabilidades (cocientes de probabilidades, por lo que una probabilidad de registro es la diferencia de probabilidades de registro al calcularse logarítmicamente) o ponderaciones de evidencia. 10 decibans corresponde a probabilidades de 10:1; 20 decibans a probabilidades de 100:1, etc. Según I. J. Good, un cambio en el peso de la evidencia de 1 deciban (es decir, un cambio en las probabilidades de igualar a aproximadamente 5:4) coincide con la medida en la que los humanos pueden razonablemente cuantificar su grado de creencia en una hipótesis.[8]

Las probabilidades correspondientes a los decibans enteros a menudo se pueden aproximar bien mediante razones enteras simples, que se listan a continuación. La tabla contiene un valor con dos decimales, una aproximación simple (dentro de aproximadamente el 5%), y una aproximación más precisa (dentro del 1%) si la aproximación simple no es precisa:

decibans Valor exacto Valor aproximado Proporción aproximada Proporción precisa Probabilidad
0 100/10 1 1:1 50%
1 101/10 1,26 5:4 56%
2 102/10 1,58 3:2 8:5 61%
3 103/10 2,00 2:1 67%
4 104/10 2,51 5:2 71,5%
5 105/10 3.16 3:1 19:6, 16:5 76%
6 106/10 3.98 4:1 80%
7 107/10 5.01 5:1 83%
8 108/10 6.31 6:1 19:3, 25:4 86%
9 109/10 7,94 8:1 89%
10 1010/10 10 10:1 91%

Véase también

Referencias

  1. Lukoff, Herman (1979). From Dits to Bits: A personal history of the electronic computer. Portland, Oregon, USA: Robotics Press. ISBN 0-89661-002-0. LCCN 79-90567.
  2. "IEC 80000-13:2008". International Organization for Standardization (ISO)
  3. Este valor, aproximadamente 103 pero un poco menos, puede entenderse simplemente porque  : los tres dígitos decimales son un poco menos de información que los 10 dígitos binarios, por lo que 1 dígito decimal es ligeramente menos que 103 dígitos binarios
  4. Hartley, Ralph Vinton Lyon (July 1928). "Transmission of Information". Bell System Technical Journal. VII (3): 535–563 2008-03-27
  5. Reza, Fazlollah M. (1994). An Introduction to Information Theory. New York: Dover Publications. ISBN 0-486-68210-2.
  6. Good, Irving John (1979). "Studies in the History of Probability and Statistics. XXXVII A. M. Turing's statistical work in World War II". Biometrika. 66 (2): 393–396. doi:10.1093/biomet/66.2.393. MR 0548210.
  7. Gillies, Donald A. (1990). "The Turing-Good Weight of Evidence Function and Popper's Measure of the Severity of a Test". British Journal for the Philosophy of Science. 41 (1): 143–146. doi:10.1093/bjps/41.1.143. JSTOR 688010. MR 0055678.
  8. Good, Irving John (1985). "Weight of Evidence: A Brief Survey" (PDF) Bayesian Statistics. 2: 253. Retrieved 2012-12-13

Bibliografía

  • Lukoff, Herman (1979). From Dits to Bits: A personal history of the electronic computer. Portland, Oregon, USA: Robotics Press. ISBN 0-89661-002-0. LCCN 79090567. 
  • «IEC 80000-13:2008». International Organization for Standardization (ISO). Consultado el 21 de julio de 2013. 
  • Hartley, Ralph Vinton Lyon (July 1928). «Transmission of Information». Bell System Technical Journal VII (3): 535-563. Consultado el 27 de marzo de 2008. 
  • Reza, Fazlollah M. (1994). An Introduction to Information Theory. New York: Dover Publications. ISBN 0-486-68210-2. 
  • Good, Irving John (1979). «Studies in the History of Probability and Statistics. XXXVII A. M. Turing's statistical work in World War II». Biometrika 66 (2): 393-396. MR 0548210. doi:10.1093/biomet/66.2.393. 
  • Gillies, Donald A. (1990). «The Turing-Good Weight of Evidence Function and Popper's Measure of the Severity of a Test». British Journal for the Philosophy of Science 41 (1): 143-146. JSTOR 688010. MR 055678. doi:10.1093/bjps/41.1.143. 
  • Good, Irving John (1985). «Weight of Evidence: A Brief Survey». Bayesian Statistics 2: 253. Consultado el 13 de diciembre de 2012. 
  •   Datos: Q324923

hartley, unidad, hartley, símbolo, hart, también, llamado, abreviatura, decimal, digit, unidad, logarítmica, mide, información, entropía, basada, logaritmos, base, potencias, lugar, potencias, logaritmos, base, definen, shannon, hartley, contenido, información. El hartley simbolo Hart tambien llamado ban o dit abreviatura de decimal digit 1 es una unidad logaritmica que mide informacion o entropia basada en logaritmos de base 10 y potencias de 10 en lugar de potencias de 2 y logaritmos de base 2 que definen el bit o shannon Un ban o hartley es el contenido de informacion de un evento si la probabilidad de que el evento ocurra es 1 10 2 Por lo tanto es igual a la informacion contenida en un digito decimal o dit suponiendo la equiprobabilidad a priori de cada valor posible Unidades deInformacionshannon o bit base 2 nat base e trit base 3 hartley ban o dit base 10 qubit cuantico editar datos en Wikidata Al igual que un bit corresponde a un digito binario un ban corresponde a un digito decimal Un deciban es una decima parte de un ban el nombre esta formado por ban con el prefijo del SI deci Un hartley corresponde a log2 10 bit ln 10 nat o aproximadamente 3 322 Sh 3 o 2 303 nat Un deciban es aproximadamente 0 332 Sh Aunque no es una unidad del SI el Hartley es parte del Sistema Internacional de Cantidades definido por la Norma Internacional IEC 80000 13 de la Comision Electrotecnica Internacional Lleva el nombre de Ralph Hartley Indice 1 Historia 2 Uso como unidad de probabilidad 3 Vease tambien 4 Referencias 5 BibliografiaHistoria EditarEl termino Hartley lleva el nombre de Ralph Hartley quien sugirio en 1928 utilizar para medir la informacion una base logaritmica igual al numero de estados distinguibles en su representacion lo que seria la base 10 de un digito decimal 4 5 El ban y el deciban fueron inventados por Alan Turing en colaboracion con I J Good en 1940 para medir la cantidad de informacion que los descifradores de codigos de Bletchley Park podian deducir mediante el procedimiento denominado Banburismus con el fin de determinar la configuracion desconocida de cada dia de la maquina de cifrado naval alemana Enigma El nombre se inspiro en las enormes hojas de cartulina impresas en la ciudad de Banbury a unas 30 millas de distancia que se utilizaron en el proceso 6 Jack Good argumento que la suma secuencial de decibans para construir una medida del peso de la evidencia a favor de una hipotesis es esencialmente un proceso de inferencia bayesiana 6 Donald A Gillies sin embargo argumento que el ban es en efecto lo mismo que la medida de Karl Popper de la rigurosidad de una prueba 7 Uso como unidad de probabilidad EditarEl deciban es una unidad particularmente util para las probabilidades de registro especialmente como una medida de informacion sobre factores de Bayes razones de probabilidades cocientes de probabilidades por lo que una probabilidad de registro es la diferencia de probabilidades de registro al calcularse logaritmicamente o ponderaciones de evidencia 10 decibans corresponde a probabilidades de 10 1 20 decibans a probabilidades de 100 1 etc Segun I J Good un cambio en el peso de la evidencia de 1 deciban es decir un cambio en las probabilidades de igualar a aproximadamente 5 4 coincide con la medida en la que los humanos pueden razonablemente cuantificar su grado de creencia en una hipotesis 8 Las probabilidades correspondientes a los decibans enteros a menudo se pueden aproximar bien mediante razones enteras simples que se listan a continuacion La tabla contiene un valor con dos decimales una aproximacion simple dentro de aproximadamente el 5 y una aproximacion mas precisa dentro del 1 si la aproximacion simple no es precisa decibans Valor exacto Valor aproximado Proporcion aproximada Proporcion precisa Probabilidad0 100 10 1 1 1 50 1 101 10 1 26 5 4 56 2 102 10 1 58 3 2 8 5 61 3 103 10 2 00 2 1 67 4 104 10 2 51 5 2 71 5 5 105 10 3 16 3 1 19 6 16 5 76 6 106 10 3 98 4 1 80 7 107 10 5 01 5 1 83 8 108 10 6 31 6 1 19 3 25 4 86 9 109 10 7 94 8 1 89 10 1010 10 10 10 1 91 Vease tambien EditarbitReferencias Editar Lukoff Herman 1979 From Dits to Bits A personal history of the electronic computer Portland Oregon USA Robotics Press ISBN 0 89661 002 0 LCCN 79 90567 IEC 80000 13 2008 International Organization for Standardization ISO Este valor aproximadamente 10 3 pero un poco menos puede entenderse simplemente porque 10 3 1000 1 024 2 10 displaystyle 10 3 1000 lesssim 1 024 2 10 los tres digitos decimales son un poco menos de informacion que los 10 digitos binarios por lo que 1 digito decimal es ligeramente menos que 10 3 digitos binarios Hartley Ralph Vinton Lyon July 1928 Transmission of Information Bell System Technical Journal VII 3 535 563 2008 03 27 Reza Fazlollah M 1994 An Introduction to Information Theory New York Dover Publications ISBN 0 486 68210 2 a b Good Irving John 1979 Studies in the History of Probability and Statistics XXXVII A M Turing s statistical work in World War II Biometrika 66 2 393 396 doi 10 1093 biomet 66 2 393 MR 0548210 Gillies Donald A 1990 The Turing Good Weight of Evidence Function and Popper s Measure of the Severity of a Test British Journal for the Philosophy of Science 41 1 143 146 doi 10 1093 bjps 41 1 143 JSTOR 688010 MR 0055678 Good Irving John 1985 Weight of Evidence A Brief Survey PDF Bayesian Statistics 2 253 Retrieved 2012 12 13Bibliografia EditarLukoff Herman 1979 From Dits to Bits A personal history of the electronic computer Portland Oregon USA Robotics Press ISBN 0 89661 002 0 LCCN 79090567 IEC 80000 13 2008 International Organization for Standardization ISO Consultado el 21 de julio de 2013 Hartley Ralph Vinton Lyon July 1928 Transmission of Information Bell System Technical Journal VII 3 535 563 Consultado el 27 de marzo de 2008 Reza Fazlollah M 1994 An Introduction to Information Theory New York Dover Publications ISBN 0 486 68210 2 Good Irving John 1979 Studies in the History of Probability and Statistics XXXVII A M Turing s statistical work in World War II Biometrika 66 2 393 396 MR 0548210 doi 10 1093 biomet 66 2 393 Gillies Donald A 1990 The Turing Good Weight of Evidence Function and Popper s Measure of the Severity of a Test British Journal for the Philosophy of Science 41 1 143 146 JSTOR 688010 MR 055678 doi 10 1093 bjps 41 1 143 Good Irving John 1985 Weight of Evidence A Brief Survey Bayesian Statistics 2 253 Consultado el 13 de diciembre de 2012 Datos Q324923Obtenido de https es wikipedia org w index php title Hartley unidad amp oldid 130008776, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos