fbpx
Wikipedia

nat (unidad)

La unidad natural de información (símbolo: nat),[1]​ a veces también nit o nepit, se utiliza para medir la información o entropía. Está basada en el logaritmo natural y en las potencias del número e, en lugar de los logaritmos de base 2 y las potencias de 2, que definen bits. Esta unidad también es conocida por su símbolo de unidad, el nat.

Unidades de
Información

El nat es la unidad coherente para cuantificar la entropía de la información. El Sistema Internacional de Unidades, al asignar las mismas unidades (julios por kelvin) tanto a la capacidad calorífica como a la entropía termodinámica, trata implícitamente la entropía de la información como una magnitud adimensional, con 1 nat = 1. Los sistemas físicos de unidades naturales que normalizan la constante de Boltzmann a 1 están midiendo la entropía termodinámica en nats.

Cuando la entropía se especifica usando un logaritmo natural,

se está dando implícitamente un número medido en nats.

Una nat es igual a 1/ln 2 shannons (o bits) ≈ 1.44 Sh o, equivalentemente, 1/ln 10 hartleys ≈ 0.434 Hart.[1]​ Los factores 1.44 y 0.434 surgen de las relaciones

, y
.

Una nat es el contenido de información de un evento si la probabilidad de que ocurra ese evento es 1/e.

Historia

Boulton y Wallace usaron el término nit junto con mínima longitud de mensaje[2]​ que posteriormente fue cambiado por la comunidad científica por longitud de descripción mínima, con la sigla nat para evitar confusiones con la unidad nit, que ya era usada como unidad de luminancia.[3]

Alan Turing utilizó el ban natural.[4]

Referencias

  1. «IEC 80000-13:2008». Comisión Electrotécnica Internacional. Consultado el 21 de julio de 2013. 
  2. Boulton, D. M.; Wallace, C. S. (1970). «A program for numerical classification». Computer Journal 13 (1): 63-69. 
  3. Comley, J. W. & Dowe, D. L. (2005). «Minimum Message Length, MDL and Generalised Bayesian Networks with Asymmetric Languages». En Grünwald, P.; Myung, I. J. & Pitt, M. A., eds. . Cambridge: MIT Press. sec. 11.4.1, p271. ISBN 0-262-07262-9. Archivado desde el original el 30 de noviembre de 2010. Consultado el 3 de agosto de 2019. 
  4. Hodges, Andrew (1983). Alan Turing: The Enigma. New York: Simon & Schuster. ISBN 0-671-49207-1. OCLC 10020685. 

Lecturas adicionales

  • Reza, Fazlollah M. (1994). An Introduction to Information Theory. New York: Dover. ISBN 0-486-68210-2. 
  •   Datos: Q376660

unidad, unidad, natural, información, símbolo, veces, también, nepit, utiliza, para, medir, información, entropía, está, basada, logaritmo, natural, potencias, número, lugar, logaritmos, base, potencias, definen, bits, esta, unidad, también, conocida, símbolo,. La unidad natural de informacion simbolo nat 1 a veces tambien nit o nepit se utiliza para medir la informacion o entropia Esta basada en el logaritmo natural y en las potencias del numero e en lugar de los logaritmos de base 2 y las potencias de 2 que definen bits Esta unidad tambien es conocida por su simbolo de unidad el nat Unidades deInformacionshannon o bit base 2 nat base e trit base 3 hartley ban o dit base 10 qubit cuantico editar datos en Wikidata El nat es la unidad coherente para cuantificar la entropia de la informacion El Sistema Internacional de Unidades al asignar las mismas unidades julios por kelvin tanto a la capacidad calorifica como a la entropia termodinamica trata implicitamente la entropia de la informacion como una magnitud adimensional con 1 nat 1 Los sistemas fisicos de unidades naturales que normalizan la constante de Boltzmann a 1 estan midiendo la entropia termodinamica en nats Cuando la entropia se especifica usando un logaritmo natural H i p i ln p i displaystyle mathrm H sum i p i ln p i se esta dando implicitamente un numero medido en nats Una nat es igual a 1 ln 2 shannons o bits 1 44 Sh o equivalentemente 1 ln 10 hartleys 0 434 Hart 1 Los factores 1 44 y 0 434 surgen de las relaciones 2 x e 1 x 1 ln 2 displaystyle left 2 x e 1 Rightarrow x tfrac 1 ln 2 right y 10 x e 1 x 1 ln 10 displaystyle left 10 x e 1 Rightarrow x tfrac 1 ln 10 right Una nat es el contenido de informacion de un evento si la probabilidad de que ocurra ese evento es 1 e Historia EditarBoulton y Wallace usaron el termino nit junto con minima longitud de mensaje 2 que posteriormente fue cambiado por la comunidad cientifica por longitud de descripcion minima con la sigla nat para evitar confusiones con la unidad nit que ya era usada como unidad de luminancia 3 Alan Turing utilizo el ban natural 4 Referencias Editar a b IEC 80000 13 2008 Comision Electrotecnica Internacional Consultado el 21 de julio de 2013 Boulton D M Wallace C S 1970 A program for numerical classification Computer Journal 13 1 63 69 Comley J W amp Dowe D L 2005 Minimum Message Length MDL and Generalised Bayesian Networks with Asymmetric Languages En Grunwald P Myung I J amp Pitt M A eds Advances in Minimum Description Length Theory and Applications Cambridge MIT Press sec 11 4 1 p271 ISBN 0 262 07262 9 Archivado desde el original el 30 de noviembre de 2010 Consultado el 3 de agosto de 2019 Hodges Andrew 1983 Alan Turing The Enigma New York Simon amp Schuster ISBN 0 671 49207 1 OCLC 10020685 Lecturas adicionales EditarReza Fazlollah M 1994 An Introduction to Information Theory New York Dover ISBN 0 486 68210 2 Datos Q376660 Obtenido de https es wikipedia org w index php title Nat unidad amp oldid 148654499, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos