fbpx
Wikipedia

Inferencia bayesiana

La inferencia bayesiana es un tipo de inferencia estadística en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipótesis pueda ser cierta. El nombre «bayesiana» proviene del uso frecuente que se hace del teorema de Bayes durante el proceso de inferencia. El teorema de Bayes se ha derivado del trabajo realizado por el matemático Thomas Bayes. Hoy en día, uno de los campos de aplicación es en la teoría de la decisión,[1]visión artificial[2]​(simulación de la percepción en general)[3]​ y reconocimiento de patrones por ordenador.

Contexto inicial

La incertidumbre y la imprecisión son connaturales en el proceso de razonamiento. La lógica establece unas reglas de inferencia a partir de las cuales se construye el sistema de razonamiento deductivo, en el que una proposición determinada es considerada como cierta o falsa, es decir un sistema de dos únicos estados posibles, sin que se admitan grados entre estos dos extremos. Los métodos de razonamiento aproximado, entre los que se encuentran los métodos bayesianos, aportan modelos teóricos que simulan la capacidad de razonamiento en condiciones de incertidumbre, cuando no se conoce con absoluta certeza la verdad o falsedad de un enunciado o hipótesis, e imprecisión, enunciados en los que se admite un rango de variación.

Entre los métodos de razonamiento aproximado se encuentran los métodos bayesianos, basados en el conocido teorema de Bayes. Todos ellos tienen en común la asignación de una probabilidad como medida de credibilidad de las hipótesis. En este contexto, la inferencia se entiende como un proceso de actualización de las medidas de credibilidad al conocerse nuevas evidencias. Mediante la aplicación del Teorema de Bayes se busca obtener las probabilidades de las hipótesis condicionadas a las evidencias que se conocen. La diferencia entre los distintos métodos bayesianos, modelos causales y redes bayesianas, estriba en las hipótesis de independencia condicional entre hipótesis y evidencias. Dichas relaciones se expresan comúnmente mediante un grafo acíclico dirigido.

Evidencia y creencias cambiantes

La inferencia bayesiana utiliza aspectos del método científico, que implica recolectar evidencia que se considera consistente o inconsistente con una hipótesis dada. A medida que la evidencia se acumula, el grado de creencia en una hipótesis se va modificando. Con evidencia suficiente, a menudo podrá hacerse muy alto o muy bajo. Así, los que sostienen la inferencia bayesiana dicen que puede ser utilizada para discriminar entre hipótesis en conflicto: las hipótesis con un grado de creencia muy alto deben ser aceptadas como verdaderas y las que tienen un grado de creencia muy bajo deben ser rechazadas como falsas. Sin embargo, los detractores dicen que este método de inferencia puede estar afectado por un sesgo debido a las creencias iniciales que se deben sostener antes de comenzar a recolectar cualquier evidencia.

¿Qué es lo atractivo de la Estadística Bayesiana?

i) Construcción axiomática
ii) Una sola regla de decisión
iii) La única que ofrece solución para ciertos problemas

Axiomas de coherencia

i) Comparación
ii) Transitividad
iii) Dominancia-Sustitución
iv) Referencia

Ejemplos de inferencia

Un ejemplo de inferencia bayesiana es el siguiente:

  • Durante miles de millones de años, el sol ha salido después de haberse puesto. El sol se ha puesto esta noche. Hay una probabilidad muy alta de (o 'Yo creo firmemente' o 'es verdad') que el sol va a volver a salir mañana. Existe una probabilidad muy baja de (o 'yo no creo de ningún modo' o 'es falso') que el sol no salga mañana.

La inferencia bayesiana usa un estimador numérico del grado de creencia en una hipótesis aún antes de observar la evidencia y calcula un estimador numérico del grado de creencia en la hipótesis después de haber observado la evidencia. La inferencia bayesiana generalmente se basa en grados de creencia, o probabilidades subjetivas, en el proceso de inducción y no necesariamente declara proveer un método objetivo de inducción.

Definiciones formales

A pesar de todo, algunos estadísticos bayesianos creen que las probabilidades pueden tener un valor objetivo y por lo tanto la inferencia bayesiana puede proveer un método objetivo de inducción. (Ver método científico.) Dada una nueva evidencia, el teorema de Bayes ajusta las probabilidades de la misma de la siguiente manera:

 

donde

  •   representa una hipótesis, llamada hipótesis nula, que ha sido inferida antes de que la nueva evidencia,  , resultara disponible.
  •   se llama la probabilidad a priori de  .
  •   se llama la probabilidad condicional de que se cumpla la evidencia   si la hipótesis   es verdadera. Se llama también la función de verosimilitud cuando se expresa como una función de   dado  .
  •   se llama la probabilidad marginal de  : la probabilidad de observar la nueva evidencia   bajo todas las hipótesis mutuamente excluyentes. Se la puede calcular como la suma del producto de todas las hipótesis mutuamente excluyentes por las correspondientes probabilidades condicionales:  .
  •   se llama la probabilidad a posteriori de   dado  .

El factor   representa el impacto que la evidencia tiene en la creencia en la hipótesis. Si es posible que se observe la evidencia cuando la hipótesis considerada es verdadera, entonces este factor va a ser grande. Multiplicando la probabilidad a priori de la hipótesis por este factor va a resultar en una gran probabilidad a posteriori dada la evidencia. En la inferencia bayesiana, por lo tanto, el teorema de Bayes mide cuánto la nueva evidencia es capaz de alterar la creencia en la hipótesis.

Establecimiento de la inferencia

Los estadísticos bayesianos sostienen que aun cuando distintas personas puedan proponer probabilidades a priori muy diferentes, la nueva evidencia que surge de nuevas observaciones va a lograr que las probabilidades subjetivas se aproximen cada vez más. Otros, sin embargo, sostienen que cuando distintas personas proponen probabilidades a priori muy diferentes, las probabilidades subjetivas a posteriori pueden no converger nunca, por más evidencias nuevas que se recolecten. Estos críticos consideran que visiones del mundo que son completamente diferentes al principio pueden seguir siendo completamente diferentes a través del tiempo por más evidencias que se acumulen.

Multiplicando la probabilidad anterior   por el factor   nunca se podrá obtener una probabilidad superior a 1. Ya que   es al menos mayor que  , lo que permite la igualdad   (véase probabilidad conjunta), reemplazando   con   en el factor   esto dejará una probabilidad posterior de 1. Por lo tanto, la probabilidad posterior no llegará a ser mayor que uno sólo si   fuese menor que   lo que nunca es cierto.

La probabilidad de   dado  ,  , puede ser representada como una función de su segundo argumento, lo que puede hacerse propocionando un valor. Tal función se denomina función de verosimilitud; es función de   dado  . Una proporción de dos funciones de verosimilitudes que se denomina proporción de verosimilitud,  . Por ejemplo:

 

La probabilidad marginal  , puede ser representada además como la suma de los productos de todas las probabilidades de las hipótesis exclusivas mutuamente y que corresponden a probabilidades condicionales:  .

Como resultado, se puede reescribir el teorema de Bayes como:

 

Con dos evidencias independientes   y  , la inferencia bayesiana se puede aplicar iterativamente. Se puede emplear la primera evidencia para calcular la primera probabilidad posterior y emplear esta en el cálculo de la siguiente probabilidad y continuar de esta forma con las demás.

La independencia de evidencias implica que:

 
 
 

Aplicando el teorema de Bayes de forma iterativa, implica

 

Empleando los ratios de verosimilitud, se puede encontrar que

 ,

Esta iteración de la inferencia bayesiana puede ser expandida con la inclusión de más evidencias. La inferencia bayesiana se emplea en el cálculo de probabilidades en la toma de decisión. Se emplean en las probabilidades calculadas en la teoría de cálculo de riesgos, en la denominada función de pérdida que refleja las consecuencias de cometer un error.

Véase también

Referencias

  1. "Statistical Decision Theory and Bayesian Analysis", James O. Berger; 1985 ;Springer
  2. "Bayesian Approach to Image Interpretation", Sunil K. Kopparapu, Uday B. Desai; 2001 Springer
  3. "Perception as Bayesian Inference", David C. Knill, Whitman Richards;1996 ;Cambridge University Press

Bibliografía

  • Berger, J.O. (1999) Statistical Decision Theory and Bayesian Analysis. Second Edition. Springer Verlag, New York. ISBN 0-387-96098-8 and also ISBN 3-540-96098-8.
  • Bolstad, William M. (2004) Introduction to Bayesian Statistics, John Wiley ISBN 0-471-27020-2
  • Bretthorst, G. Larry, 1988, Bayesian Spectrum Analysis and Parameter Estimation in Lecture Notes in Statistics, 48, Springer-Verlag, New York, New York
  • Dawid, A.P. and Mortera, J. (1996) Coherent analysis of forensic identification evidence. Journal of the Royal Statistical Society, Series B, 58,425-443.
  • Foreman, L.A; Smith, A.F.M. and Evett, I.W. (1997). Bayesian analysis of deoxyribonucleic acid profiling data in forensic identification applications (with discussion). Journal of the Royal Statistical Society, Series A, 160, 429-469.
  • Gardner-Medwin, A. What probability should the jury address?. Significance. Volume 2, Issue 1, March 2005
  • Gelman, A., Carlin, B., Stern, H., and Rubin, D.B. (2003). Bayesian Data Analysis. Second Edition. Chapman & Hall/CRD, Boca Raton, Florida. ISBN 1-58488-388-X.
  • Gelman, A. and Meng, X.L. (2004). Applied Bayesian Modeling and Causal Inference from Incomplete-Data Perspectives: an essential journey with Donald Rubin's statistical family. John Wiley & Sons, Chichester, UK. ISBN 0-470-09043-X
  • Giffin, A. and Caticha, A. (2007) Updating Probabilities with Data and Moments
  • Jaynes, E.T. (1998) Probability Theory: The Logic of Science.
  • Lee, Peter M. Bayesian Statistics: An Introduction. Second Edition. (1997). ISBN 0-340-67785-6.
  • O'Hagan, A. and Forster, J. (2003) Kendall's Advanced Theory of Statistics, Volume 2B: Bayesian Inference. Arnold, New York. ISBN 0-340-52922-9.
  • Pearl, J. (1988) Probabilistic Reasoning in Intelligent Systems, San Mateo, CA: Morgan Kaufmann.
  • Robert, C.P. (2001) The Bayesian Choice. Springer Verlag, New York.
  • Robertson, B. and Vignaux, G.A. (1995) Interpreting Evidence: Evaluating Forensic Science in the Courtroom. John Wiley and Sons. Chichester.
  • Winkler, Robert L, Introduction to Bayesian Inference and Decision, 2nd Edition (2003) Probabilistic. ISBN 0-9647938-4-9

Referencias externas

  • Libro en línea textbook: Teoría de la información Theory, Inferencia, y algoritmos de aprendizaje, por David MacKay, tiene capítulos sobre métodos bayesianos, incluyendo ejemplos; argumentas a favor de los métodos bayesianos (del estilo de Edwin Jaynes); métodos modernos sobre Método de Montecarlo, y métodos variacionales; y ejemplos ilustrativos acerca de como se emplean las redes bayesianas en los algoritmos de compresión de datos.
  •   Datos: Q812535

inferencia, bayesiana, inferencia, bayesiana, tipo, inferencia, estadística, evidencias, observaciones, emplean, para, actualizar, inferir, probabilidad, hipótesis, pueda, cierta, nombre, bayesiana, proviene, frecuente, hace, teorema, bayes, durante, proceso, . La inferencia bayesiana es un tipo de inferencia estadistica en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipotesis pueda ser cierta El nombre bayesiana proviene del uso frecuente que se hace del teorema de Bayes durante el proceso de inferencia El teorema de Bayes se ha derivado del trabajo realizado por el matematico Thomas Bayes Hoy en dia uno de los campos de aplicacion es en la teoria de la decision 1 vision artificial 2 simulacion de la percepcion en general 3 y reconocimiento de patrones por ordenador Indice 1 Contexto inicial 1 1 Evidencia y creencias cambiantes 1 2 Que es lo atractivo de la Estadistica Bayesiana 1 3 Axiomas de coherencia 1 4 Ejemplos de inferencia 1 5 Definiciones formales 1 6 Establecimiento de la inferencia 2 Vease tambien 3 Referencias 4 Bibliografia 5 Referencias externasContexto inicial EditarLa incertidumbre y la imprecision son connaturales en el proceso de razonamiento La logica establece unas reglas de inferencia a partir de las cuales se construye el sistema de razonamiento deductivo en el que una proposicion determinada es considerada como cierta o falsa es decir un sistema de dos unicos estados posibles sin que se admitan grados entre estos dos extremos Los metodos de razonamiento aproximado entre los que se encuentran los metodos bayesianos aportan modelos teoricos que simulan la capacidad de razonamiento en condiciones de incertidumbre cuando no se conoce con absoluta certeza la verdad o falsedad de un enunciado o hipotesis e imprecision enunciados en los que se admite un rango de variacion Entre los metodos de razonamiento aproximado se encuentran los metodos bayesianos basados en el conocido teorema de Bayes Todos ellos tienen en comun la asignacion de una probabilidad como medida de credibilidad de las hipotesis En este contexto la inferencia se entiende como un proceso de actualizacion de las medidas de credibilidad al conocerse nuevas evidencias Mediante la aplicacion del Teorema de Bayes se busca obtener las probabilidades de las hipotesis condicionadas a las evidencias que se conocen La diferencia entre los distintos metodos bayesianos modelos causales y redes bayesianas estriba en las hipotesis de independencia condicional entre hipotesis y evidencias Dichas relaciones se expresan comunmente mediante un grafo aciclico dirigido Evidencia y creencias cambiantes Editar La inferencia bayesiana utiliza aspectos del metodo cientifico que implica recolectar evidencia que se considera consistente o inconsistente con una hipotesis dada A medida que la evidencia se acumula el grado de creencia en una hipotesis se va modificando Con evidencia suficiente a menudo podra hacerse muy alto o muy bajo Asi los que sostienen la inferencia bayesiana dicen que puede ser utilizada para discriminar entre hipotesis en conflicto las hipotesis con un grado de creencia muy alto deben ser aceptadas como verdaderas y las que tienen un grado de creencia muy bajo deben ser rechazadas como falsas Sin embargo los detractores dicen que este metodo de inferencia puede estar afectado por un sesgo debido a las creencias iniciales que se deben sostener antes de comenzar a recolectar cualquier evidencia Que es lo atractivo de la Estadistica Bayesiana Editar i Construccion axiomatica ii Una sola regla de decision iii La unica que ofrece solucion para ciertos problemas Axiomas de coherencia Editar i Comparacion ii Transitividad iii Dominancia Sustitucion iv Referencia Ejemplos de inferencia Editar Un ejemplo de inferencia bayesiana es el siguiente Durante miles de millones de anos el sol ha salido despues de haberse puesto El sol se ha puesto esta noche Hay una probabilidad muy alta de o Yo creo firmemente o es verdad que el sol va a volver a salir manana Existe una probabilidad muy baja de o yo no creo de ningun modo o es falso que el sol no salga manana La inferencia bayesiana usa un estimador numerico del grado de creencia en una hipotesis aun antes de observar la evidencia y calcula un estimador numerico del grado de creencia en la hipotesis despues de haber observado la evidencia La inferencia bayesiana generalmente se basa en grados de creencia o probabilidades subjetivas en el proceso de induccion y no necesariamente declara proveer un metodo objetivo de induccion Definiciones formales Editar A pesar de todo algunos estadisticos bayesianos creen que las probabilidades pueden tener un valor objetivo y por lo tanto la inferencia bayesiana puede proveer un metodo objetivo de induccion Ver metodo cientifico Dada una nueva evidencia el teorema de Bayes ajusta las probabilidades de la misma de la siguiente manera P H 0 E P E H 0 P H 0 P E displaystyle P H 0 E frac P E H 0 P H 0 P E donde H 0 displaystyle H 0 representa una hipotesis llamada hipotesis nula que ha sido inferida antes de que la nueva evidencia E displaystyle E resultara disponible P H 0 displaystyle P H 0 se llama la probabilidad a priori de H 0 displaystyle H 0 P E H 0 displaystyle P E H 0 se llama la probabilidad condicional de que se cumpla la evidencia E displaystyle E si la hipotesis H 0 displaystyle H 0 es verdadera Se llama tambien la funcion de verosimilitud cuando se expresa como una funcion de E displaystyle E dado H 0 displaystyle H 0 P E displaystyle P E se llama la probabilidad marginal de E displaystyle E la probabilidad de observar la nueva evidencia E displaystyle E bajo todas las hipotesis mutuamente excluyentes Se la puede calcular como la suma del producto de todas las hipotesis mutuamente excluyentes por las correspondientes probabilidades condicionales P E H i P H i displaystyle sum P E H i P H i P H 0 E displaystyle P H 0 E se llama la probabilidad a posteriori de H 0 displaystyle H 0 dado E displaystyle E El factor P E H 0 P E displaystyle P E H 0 P E representa el impacto que la evidencia tiene en la creencia en la hipotesis Si es posible que se observe la evidencia cuando la hipotesis considerada es verdadera entonces este factor va a ser grande Multiplicando la probabilidad a priori de la hipotesis por este factor va a resultar en una gran probabilidad a posteriori dada la evidencia En la inferencia bayesiana por lo tanto el teorema de Bayes mide cuanto la nueva evidencia es capaz de alterar la creencia en la hipotesis Establecimiento de la inferencia Editar Los estadisticos bayesianos sostienen que aun cuando distintas personas puedan proponer probabilidades a priori muy diferentes la nueva evidencia que surge de nuevas observaciones va a lograr que las probabilidades subjetivas se aproximen cada vez mas Otros sin embargo sostienen que cuando distintas personas proponen probabilidades a priori muy diferentes las probabilidades subjetivas a posteriori pueden no converger nunca por mas evidencias nuevas que se recolecten Estos criticos consideran que visiones del mundo que son completamente diferentes al principio pueden seguir siendo completamente diferentes a traves del tiempo por mas evidencias que se acumulen Multiplicando la probabilidad anterior P H 0 displaystyle P H 0 por el factor P E H 0 P E displaystyle P E H 0 P E nunca se podra obtener una probabilidad superior a 1 Ya que P E displaystyle P E es al menos mayor que P E H 0 displaystyle P E cap H 0 lo que permite la igualdad P E H 0 P H 0 displaystyle P E H 0 cdot P H 0 vease probabilidad conjunta reemplazando P E displaystyle P E con P E H 0 displaystyle P E cap H 0 en el factor P E H 0 P E displaystyle P E H 0 P E esto dejara una probabilidad posterior de 1 Por lo tanto la probabilidad posterior no llegara a ser mayor que uno solo si P E displaystyle P E fuese menor que P E H 0 displaystyle P E cap H 0 lo que nunca es cierto La probabilidad de E displaystyle E dado H 0 displaystyle H 0 P E H 0 displaystyle P E H 0 puede ser representada como una funcion de su segundo argumento lo que puede hacerse propocionando un valor Tal funcion se denomina funcion de verosimilitud es funcion de H 0 displaystyle H 0 dado E displaystyle E Una proporcion de dos funciones de verosimilitudes que se denomina proporcion de verosimilitud L displaystyle Lambda Por ejemplo L L H 0 E L n o t H 0 E P E H 0 P E n o t H 0 displaystyle Lambda frac L H 0 E L mathrm not H 0 E frac P E H 0 P E mathrm not H 0 La probabilidad marginal P E displaystyle P E puede ser representada ademas como la suma de los productos de todas las probabilidades de las hipotesis exclusivas mutuamente y que corresponden a probabilidades condicionales P E H 0 P H 0 P E n o t H 0 P n o t H 0 displaystyle P E H 0 P H 0 P E mathrm not H 0 P mathrm not H 0 Como resultado se puede reescribir el teorema de Bayes como P H 0 E P E H 0 P H 0 P E H 0 P H 0 P E n o t H 0 P n o t H 0 L P H 0 L P H 0 P n o t H 0 displaystyle P H 0 E frac P E H 0 P H 0 P E H 0 P H 0 P E mathrm not H 0 P mathrm not H 0 frac Lambda P H 0 Lambda P H 0 P mathrm not H 0 Con dos evidencias independientes E 1 displaystyle E 1 y E 2 displaystyle E 2 la inferencia bayesiana se puede aplicar iterativamente Se puede emplear la primera evidencia para calcular la primera probabilidad posterior y emplear esta en el calculo de la siguiente probabilidad y continuar de esta forma con las demas La independencia de evidencias implica que P E 1 E 2 H 0 P E 1 H 0 P E 2 H 0 displaystyle P E 1 E 2 H 0 P E 1 H 0 times P E 2 H 0 P E 1 E 2 P E 1 P E 2 displaystyle P E 1 E 2 P E 1 times P E 2 P E 1 E 2 n o t H 0 P E 1 n o t H 0 P E 2 n o t H 0 displaystyle P E 1 E 2 mathrm not H 0 P E 1 mathrm not H 0 times P E 2 mathrm not H 0 Aplicando el teorema de Bayes de forma iterativa implica P H 0 E 1 E 2 P E 1 H 0 P E 2 H 0 P H 0 P E 1 P E 2 displaystyle P H 0 E 1 E 2 frac P E 1 H 0 times P E 2 H 0 P H 0 P E 1 times P E 2 Empleando los ratios de verosimilitud se puede encontrar que P H 0 E 1 E 2 L 1 L 2 P H 0 L 1 P H 0 P n o t H 0 L 2 P H 0 P n o t H 0 displaystyle P H 0 E 1 E 2 frac Lambda 1 Lambda 2 P H 0 Lambda 1 P H 0 P mathrm not H 0 Lambda 2 P H 0 P mathrm not H 0 Esta iteracion de la inferencia bayesiana puede ser expandida con la inclusion de mas evidencias La inferencia bayesiana se emplea en el calculo de probabilidades en la toma de decision Se emplean en las probabilidades calculadas en la teoria de calculo de riesgos en la denominada funcion de perdida que refleja las consecuencias de cometer un error Vease tambien EditarTeorema de Bayes Fundamento de la inferencia Inferencia bayesiana en filogenias Razonamiento abductivo Epistemologia bayesianaReferencias Editar Statistical Decision Theory and Bayesian Analysis James O Berger 1985 Springer Bayesian Approach to Image Interpretation Sunil K Kopparapu Uday B Desai 2001 Springer Perception as Bayesian Inference David C Knill Whitman Richards 1996 Cambridge University PressBibliografia EditarBerger J O 1999 Statistical Decision Theory and Bayesian Analysis Second Edition Springer Verlag New York ISBN 0 387 96098 8 and also ISBN 3 540 96098 8 Bolstad William M 2004 Introduction to Bayesian Statistics John Wiley ISBN 0 471 27020 2 Bretthorst G Larry 1988 Bayesian Spectrum Analysis and Parameter Estimation in Lecture Notes in Statistics 48 Springer Verlag New York New York Dawid A P and Mortera J 1996 Coherent analysis of forensic identification evidence Journal of the Royal Statistical Society Series B 58 425 443 Foreman L A Smith A F M and Evett I W 1997 Bayesian analysis of deoxyribonucleic acid profiling data in forensic identification applications with discussion Journal of the Royal Statistical Society Series A 160 429 469 Gardner Medwin A What probability should the jury address Significance Volume 2 Issue 1 March 2005 Gelman A Carlin B Stern H and Rubin D B 2003 Bayesian Data Analysis Second Edition Chapman amp Hall CRD Boca Raton Florida ISBN 1 58488 388 X Gelman A and Meng X L 2004 Applied Bayesian Modeling and Causal Inference from Incomplete Data Perspectives an essential journey with Donald Rubin s statistical family John Wiley amp Sons Chichester UK ISBN 0 470 09043 X Giffin A and Caticha A 2007 Updating Probabilities with Data and Moments Jaynes E T 1998 Probability Theory The Logic of Science Lee Peter M Bayesian Statistics An Introduction Second Edition 1997 ISBN 0 340 67785 6 O Hagan A and Forster J 2003 Kendall s Advanced Theory of Statistics Volume 2B Bayesian Inference Arnold New York ISBN 0 340 52922 9 Pearl J 1988 Probabilistic Reasoning in Intelligent Systems San Mateo CA Morgan Kaufmann Robert C P 2001 The Bayesian Choice Springer Verlag New York Robertson B and Vignaux G A 1995 Interpreting Evidence Evaluating Forensic Science in the Courtroom John Wiley and Sons Chichester Winkler Robert L Introduction to Bayesian Inference and Decision 2nd Edition 2003 Probabilistic ISBN 0 9647938 4 9Referencias externas EditarLibro en linea textbook Teoria de la informacion Theory Inferencia y algoritmos de aprendizaje por David MacKay tiene capitulos sobre metodos bayesianos incluyendo ejemplos argumentas a favor de los metodos bayesianos del estilo de Edwin Jaynes metodos modernos sobre Metodo de Montecarlo y metodos variacionales y ejemplos ilustrativos acerca de como se emplean las redes bayesianas en los algoritmos de compresion de datos Datos Q812535 Obtenido de https es wikipedia org w index php title Inferencia bayesiana amp oldid 138612389, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos