fbpx
Wikipedia

Integración numérica

En análisis numérico, la integración[1]numérica constituye una amplia gama de algoritmos para calcular el valor numérico de una integral definida y, por extensión, el término se usa a veces para describir algoritmos numéricos para resolver ecuaciones diferenciales. El término cuadratura numérica (a menudo abreviado a cuadratura) es más o menos sinónimo de integración numérica, especialmente si se aplica a integrales de una dimensión a pesar de que para el caso de dos o más dimensiones (integral múltiple) también se utiliza.

El problema básico considerado por la integración numérica es calcular una solución aproximada a la integral definida:

Este problema también puede ser enunciado como un problema de valor inicial para una ecuación diferencial ordinaria, como sigue:

Encontrar y(b) es equivalente a calcular la integral. Los métodos desarrollados para ecuaciones diferenciales ordinarias, como el método de Runge-Kutta, pueden ser aplicados al problema reformulado. En este artículo se discuten métodos desarrollados específicamente para el problema formulado como una integral definida.

Razones para la integración numérica

Hay varias razones para llevar a cabo la integración numérica. La principal puede ser la imposibilidad de realizar la integración de forma analítica. Es decir, integrales que requerirían de un gran conocimiento y manejo de matemática avanzada pueden ser resueltas de una manera más sencilla mediante métodos numéricos. Incluso existen funciones integrables pero cuya primitiva no puede ser calculada, siendo la integración numérica de vital importancia. La solución analítica de una integral nos arrojaría una solución exacta, mientras que la solución numérica nos daría una solución aproximada. El error de la aproximación, que depende del método que se utilice y de qué tan fino sea, puede llegar a ser tan pequeño que es posible obtener un resultado idéntico a la solución analítica en las primeras cifras decimales.

Métodos para integrales unidimensionales

Los métodos de integración numérica pueden ser descritos generalmente como combinación de evaluaciones del integrando para obtener una aproximación a la integral. Una parte importante del análisis de cualquier método de integración numérica es estudiar el comportamiento del error de aproximación como una función del número de evaluaciones del integrando. Un método que produce un pequeño error para un pequeño número de evaluaciones es normalmente considerado superior. Reduciendo el número de evaluaciones del integrando se reduce el número de operaciones aritméticas involucradas, y por tanto se reduce el error de redondeo total. También, cada evaluación cuesta tiempo, y el integrando puede ser arbitrariamente complicado.

De todos modos, un modo de integración por «fuerza bruta» puede hacerse siempre, de un modo muy simplista, evaluando el integrando con incrementos muy pequeños.

Métodos basados en funciones de interpolación

Hay una extensa familia de métodos que se basan en aproximar la función a integrar   por otra función   de la cual se conoce la integral exacta. La función que sustituye la original se encuentra de forma que en un cierto número de puntos tenga el mismo valor que la original. Como los puntos extremos forman parte siempre de este conjunto de puntos, la nueva función se llama una interpolación de la función original. Cuando los puntos extremos no se utilizan para encontrar la función que sustituye a la original entonces se dice extrapolación. Típicamente estas funciones son polinomios.

Fórmulas de Newton-Cotes

La interpolación con polinomios evaluada en puntos igualmente separados en   da las fórmulas de Newton-Cotes, de las que la regla del rectángulo, la del trapecio y la de Simpson son ejemplos. Si se escogen los nodos hasta   incluidos los extremos del rango será la fórmula de Newton-Cotes cerrada y si se escogen   o que no incluyen en los datos tabulados los extremos será la fórmula de Newton-Cotes abierta.

Regla del rectángulo

El método más simple de este tipo es hacer a la función interpoladora ser una función constante (un polinomio de orden cero) que pasa a través del punto  . Este método se llama la regla del rectángulo:

 
Regla del punto medio
 

Si en el método anterior la función pasa a través del punto   este método se llama la regla del punto medio:

 
Regla del trapecio
 

Corresponde al caso donde el polinomio sustituto de la ecuación original es del primer orden aunque la fórmula original no pase por el punto  . Entonces si:

 

la regla de integración es:

 

que viene a ser la misma fórmula que la usada en la regla del punto medio. [2]

Regla de Simpson
 

La función interpoladora puede ser un polinomio de grado 2 que pasa a través de los puntos  ,   y  . Este método se llama regla de Simpson:

 .
Reglas compuestas

Para cualquier regla interpoladora, se puede hacer una aproximación más precisa dividiendo el intervalo   en algún número   de subintervalos, hallando una aproximación para cada subintervalo, y finalmente sumando todos los resultados. Las reglas que surgen de hacer esto se llaman reglas compuestas, y se caracterizan por perder un orden de precisión global frente a las correspondientes simples, si bien globalmente dan valores más precisos de la integral, a costa eso sí de incrementar significativamente el coste operativo del método. Por ejemplo, la regla del trapecio compuesta puede expresarse como:

 

donde los subintervalos tienen la forma   con
 
y  .

Métodos de extrapolación

La precisión de un método de integración del tipo Newton-Cotes es generalmente una función del número de puntos de evaluación. El resultado es usualmente más preciso cuando el número de puntos de evaluación aumenta, o, equivalentemente, cuando la anchura del paso entre puntos decrece. ¿Qué pasa cuando la anchura del paso tiende a cero? Esto puede responderse extrapolando el resultado de dos o más anchuras de paso (extrapolación de Richardson). La función de extrapolación puede ser un polinomio o una función racional. Los métodos de extrapolación están descritos en más detalle por Stoer y Bulirsch (Sección 3.4). En particular, al aplicar el método de extrapolación de Richardson a la regla del trapecio compuesta se obtiene el método de Romberg.

Cuadratura de Gauss

Si se permite variar los intervalos entre los puntos de interpolación, se encuentra otro grupo de fórmulas de integración, llamadas fórmulas de cuadratura de Gauss. Una regla de cuadratura de Gauss es típicamente más precisa que una regla de Newton-Cotes que requiera el mismo número de evaluaciones del integrando, si el integrando es suave (es decir, si se puede derivar muchas veces).

Algoritmos adaptativos

Si f no tiene muchas derivadas definidas en todos sus puntos, o si las derivadas toman valores muy elevados, la integración gausiana es a menudo insuficiente. En este caso, un algoritmo similar al siguiente lo haría mejor:

def integral(f, a, b): """Este algoritmo calcula la integral definida de una función en el intervalo [a,b], adaptativamente, eligiendo pasos más pequeños cerca de los puntos problemáticos. h0 es el paso inicial.""" x = a h = h0 acumulador = 0 while x < b: if x+h > b: h = b - x if error de la cuadratura sobre [x,x+h] para f es demasiado grande:  haz h más pequeño else:  acumulador += integral(f, x, x+h)  x += h  if error de la cuadratura sobre [x,x+h] es demasiado pequeño:  haz h más grande return acumulador 

Algunos detalles del algoritmo requieren mirarlo con cuidado. Para muchos casos, estimar el error de la integral sobre un intervalo para un función f no es obvio. Una solución popular es usar dos reglas de integración distintas, y tomar su diferencia como una estimación del error de la integral. El otro problema consiste en decidir qué es «demasiado grande» o «demasiado pequeño». Un criterio posible para «demasiado grande» es que el error de la integral no sea mayor que th, donde t, un número real, es la tolerancia que queremos tener para el error global. Pero también, si h es ya minúsculo, puede no valer la pena hacerlo todavía más pequeño si el error de la integral es aparentemente grande. Este tipo de análisis de error usualmente se llama «a posteriori» ya que calculamos el error después de haber calculado la aproximación.

La heurística para integración adaptativa está discutida en Forsythe et al (sección 5.4).

Estimación del error conservativa (a priori)

Supongamos que   tiene una primera derivada sobre   acotada. El teorema del valor medio para  , para  , da

 

para algún   en   dependiendo de  . Si integramos en   de   a   en ambos lados de la igualdad y tomamos valores absolutos, tenemos

 

Se puede aproximar más la integral en el lado derecho metiendo el valor absoluto en el integrando, y reemplazando el término en   por una cota superior:

 

Así, si aproximamos la integral   por su regla de integración  , el error no es mayor que el lado derecho de la ecuación.

Integrales múltiples

Los métodos de integración que se han comentado hasta aquí se han diseñado todos para calcular integrales de una dimensión.

Para calcular integrales de diversas dimensiones, un enfoque es expresar la integral múltiple como repetición de integrales de una dimensión haciendo uso del teorema de Fubini.

Este enfoque lleva a una cantidad de evaluaciones de la función que crece exponencialmente a medida que crece el número de dimensiones. Se conocen dos métodos para superar esta llamada maldición de la dimensión.

Montecarlo

Los métodos de Montecarlo y métodos de cuasi-Montecarlo son fáciles de aplicar a integrales multidimensionales, y pueden producir una mejor exactitud por el mismo número de evaluaciones de la función que en integraciones repetidas empleando métodos unidimensionales. Una clase grande de métodos útiles de Montecarlo son los llamados algoritmos de Cadena de Markov de Montecarlo, los cuales incluyen el algoritmo de Metropolis-Hastings y muestreo de Gibbs.

Programas para integración numérica

La integración numérica es uno de los problemas estudiados más intensivamente en el análisis numérico. Entre las muchas implementaciones en programas se encuentran:

  • QUADPACK (parte de SLATEC) (código fuente): QUADPACK es una colección de algoritmos en Fortran para integración numérica basada en reglas gausianas.
  • GSL: GNU Scientific Library. La biblioteca Científica de GNU (GSL) es una biblioteca numérica escrita en C que provee una amplia gama de rutinas matemáticas, como la integración por Montecarlo.
  • ALGLIB: Es una colección de algoritmos en C# / C++ / Delphi / Visual Basic / etc., para la integración numérica]].

Se pueden encontrar algoritmos de integración numérica en GAMS class H2.

Referencias

  1. Leithold, Louis Leithold (1992). «5». El Cálculo con Geometría Analítica. México: Harla. p. 376. ISBN 970-613-040-3. 
  2. Chapra, Steven C. (2012). «19». Applied Numerical Methods with MatLab (en inglés) (3 edición). p. 468. ISBN 978-0-07-340110-2. 
  • George E. Forsythe, Michael A. Malcolm, and Cleve B. Moler. Computer Methods for Mathematical Computations. Englewood Cliffs, NJ: Prentice-Hall, 1977. (See Chapter 5.)
  • William H. Press, Brian P. Flannery, Saul A. Teukolsky, William T. Vetterling. Numerical Recipes in C. Cambridge, UK: Cambridge University Press, 1988. (See Chapter 4.)
  • Josef Stoer and Roland Bulirsch. Introduction to Numerical Analysis. New York: Springer-Verlag, 1980. (See Chapter 3.)
  •   Datos: Q753445

integración, numérica, análisis, numérico, integración, numérica, constituye, amplia, gama, algoritmos, para, calcular, valor, numérico, integral, definida, extensión, término, veces, para, describir, algoritmos, numéricos, para, resolver, ecuaciones, diferenc. En analisis numerico la integracion 1 numerica constituye una amplia gama de algoritmos para calcular el valor numerico de una integral definida y por extension el termino se usa a veces para describir algoritmos numericos para resolver ecuaciones diferenciales El termino cuadratura numerica a menudo abreviado a cuadratura es mas o menos sinonimo de integracion numerica especialmente si se aplica a integrales de una dimension a pesar de que para el caso de dos o mas dimensiones integral multiple tambien se utiliza El problema basico considerado por la integracion numerica es calcular una solucion aproximada a la integral definida a b f x d x displaystyle int a b f x dx Este problema tambien puede ser enunciado como un problema de valor inicial para una ecuacion diferencial ordinaria como sigue y x f x y a 0 displaystyle y x f x quad y a 0 Encontrar y b es equivalente a calcular la integral Los metodos desarrollados para ecuaciones diferenciales ordinarias como el metodo de Runge Kutta pueden ser aplicados al problema reformulado En este articulo se discuten metodos desarrollados especificamente para el problema formulado como una integral definida Indice 1 Razones para la integracion numerica 2 Metodos para integrales unidimensionales 2 1 Metodos basados en funciones de interpolacion 2 1 1 Formulas de Newton Cotes 2 1 1 1 Regla del rectangulo 2 1 1 2 Regla del punto medio 2 1 1 3 Regla del trapecio 2 1 1 4 Regla de Simpson 2 1 1 5 Reglas compuestas 2 1 1 6 Metodos de extrapolacion 2 1 2 Cuadratura de Gauss 2 2 Algoritmos adaptativos 2 3 Estimacion del error conservativa a priori 3 Integrales multiples 3 1 Montecarlo 4 Programas para integracion numerica 5 ReferenciasRazones para la integracion numerica EditarHay varias razones para llevar a cabo la integracion numerica La principal puede ser la imposibilidad de realizar la integracion de forma analitica Es decir integrales que requeririan de un gran conocimiento y manejo de matematica avanzada pueden ser resueltas de una manera mas sencilla mediante metodos numericos Incluso existen funciones integrables pero cuya primitiva no puede ser calculada siendo la integracion numerica de vital importancia La solucion analitica de una integral nos arrojaria una solucion exacta mientras que la solucion numerica nos daria una solucion aproximada El error de la aproximacion que depende del metodo que se utilice y de que tan fino sea puede llegar a ser tan pequeno que es posible obtener un resultado identico a la solucion analitica en las primeras cifras decimales Metodos para integrales unidimensionales EditarLos metodos de integracion numerica pueden ser descritos generalmente como combinacion de evaluaciones del integrando para obtener una aproximacion a la integral Una parte importante del analisis de cualquier metodo de integracion numerica es estudiar el comportamiento del error de aproximacion como una funcion del numero de evaluaciones del integrando Un metodo que produce un pequeno error para un pequeno numero de evaluaciones es normalmente considerado superior Reduciendo el numero de evaluaciones del integrando se reduce el numero de operaciones aritmeticas involucradas y por tanto se reduce el error de redondeo total Tambien cada evaluacion cuesta tiempo y el integrando puede ser arbitrariamente complicado De todos modos un modo de integracion por fuerza bruta puede hacerse siempre de un modo muy simplista evaluando el integrando con incrementos muy pequenos Metodos basados en funciones de interpolacion Editar Hay una extensa familia de metodos que se basan en aproximar la funcion a integrar f x displaystyle f x por otra funcion g x displaystyle g x de la cual se conoce la integral exacta La funcion que sustituye la original se encuentra de forma que en un cierto numero de puntos tenga el mismo valor que la original Como los puntos extremos forman parte siempre de este conjunto de puntos la nueva funcion se llama una interpolacion de la funcion original Cuando los puntos extremos no se utilizan para encontrar la funcion que sustituye a la original entonces se dice extrapolacion Tipicamente estas funciones son polinomios Formulas de Newton Cotes Editar La interpolacion con polinomios evaluada en puntos igualmente separados en a b displaystyle a b da las formulas de Newton Cotes de las que la regla del rectangulo la del trapecio y la de Simpson son ejemplos Si se escogen los nodos hasta k n 1 displaystyle k n 1 incluidos los extremos del rango sera la formula de Newton Cotes cerrada y si se escogen k n 1 displaystyle k n 1 o que no incluyen en los datos tabulados los extremos sera la formula de Newton Cotes abierta Regla del rectangulo Editar El metodo mas simple de este tipo es hacer a la funcion interpoladora ser una funcion constante un polinomio de orden cero que pasa a traves del punto a f a displaystyle a f a Este metodo se llama la regla del rectangulo a b f x d x b a f a displaystyle int a b f x dx sim b a f a Regla del punto medio Editar Si en el metodo anterior la funcion pasa a traves del punto a b 2 f a b 2 displaystyle left frac a b 2 f left frac a b 2 right right este metodo se llama la regla del punto medio a b f x d x b a f a b 2 displaystyle int a b f x dx sim b a f left frac a b 2 right Regla del trapecio Editar Corresponde al caso donde el polinomio sustituto de la ecuacion original es del primer orden aunque la formula original no pase por el punto a b 2 f a b 2 displaystyle left frac a b 2 f left frac a b 2 right right Entonces si I a b f a f b f a b a x a d x displaystyle I int a b left f a frac f b f a b a x a right dx la regla de integracion es I b a f a f b 2 displaystyle I b a frac f a f b 2 que viene a ser la misma formula que la usada en la regla del punto medio 2 Regla de Simpson Editar La funcion interpoladora puede ser un polinomio de grado 2 que pasa a traves de los puntos a f a displaystyle a f a a b 2 f a b 2 displaystyle frac a b 2 f frac a b 2 y b f b displaystyle b f b Este metodo se llama regla de Simpson a b f x d x b a 6 f a 4 f a b 2 f b displaystyle int a b f x dx approx frac b a 6 left f a 4f left frac a b 2 right f b right Reglas compuestas Editar Para cualquier regla interpoladora se puede hacer una aproximacion mas precisa dividiendo el intervalo a b displaystyle a b en algun numero n displaystyle n de subintervalos hallando una aproximacion para cada subintervalo y finalmente sumando todos los resultados Las reglas que surgen de hacer esto se llaman reglas compuestas y se caracterizan por perder un orden de precision global frente a las correspondientes simples si bien globalmente dan valores mas precisos de la integral a costa eso si de incrementar significativamente el coste operativo del metodo Por ejemplo la regla del trapecio compuesta puede expresarse como a b f x d x b a n f a f b 2 k 1 n 1 f a k b a n displaystyle int a b f x dx sim frac b a n left frac f a f b 2 sum k 1 n 1 f left a k frac b a n right right donde los subintervalos tienen la forma k h k 1 h displaystyle kh k 1 h con h b a n displaystyle h frac b a n y k 0 1 2 n 1 displaystyle k 0 1 2 ldots n 1 Metodos de extrapolacion Editar La precision de un metodo de integracion del tipo Newton Cotes es generalmente una funcion del numero de puntos de evaluacion El resultado es usualmente mas preciso cuando el numero de puntos de evaluacion aumenta o equivalentemente cuando la anchura del paso entre puntos decrece Que pasa cuando la anchura del paso tiende a cero Esto puede responderse extrapolando el resultado de dos o mas anchuras de paso extrapolacion de Richardson La funcion de extrapolacion puede ser un polinomio o una funcion racional Los metodos de extrapolacion estan descritos en mas detalle por Stoer y Bulirsch Seccion 3 4 En particular al aplicar el metodo de extrapolacion de Richardson a la regla del trapecio compuesta se obtiene el metodo de Romberg Cuadratura de Gauss Editar Si se permite variar los intervalos entre los puntos de interpolacion se encuentra otro grupo de formulas de integracion llamadas formulas de cuadratura de Gauss Una regla de cuadratura de Gauss es tipicamente mas precisa que una regla de Newton Cotes que requiera el mismo numero de evaluaciones del integrando si el integrando es suave es decir si se puede derivar muchas veces Algoritmos adaptativos Editar Si f no tiene muchas derivadas definidas en todos sus puntos o si las derivadas toman valores muy elevados la integracion gausiana es a menudo insuficiente En este caso un algoritmo similar al siguiente lo haria mejor pre style overflow x auto def integral f a b Este algoritmo calcula la integral definida de una funcion en el intervalo a b adaptativamente eligiendo pasos mas pequenos cerca de los puntos problematicos h0 es el paso inicial x a h h0 acumulador 0 while x lt b if x h gt b h b x if error de la cuadratura sobre x x h para f es demasiado grande haz h mas pequeno else acumulador integral f x x h x h if error de la cuadratura sobre x x h es demasiado pequeno haz h mas grande return acumulador pre Algunos detalles del algoritmo requieren mirarlo con cuidado Para muchos casos estimar el error de la integral sobre un intervalo para un funcion f no es obvio Una solucion popular es usar dos reglas de integracion distintas y tomar su diferencia como una estimacion del error de la integral El otro problema consiste en decidir que es demasiado grande o demasiado pequeno Un criterio posible para demasiado grande es que el error de la integral no sea mayor que th donde t un numero real es la tolerancia que queremos tener para el error global Pero tambien si h es ya minusculo puede no valer la pena hacerlo todavia mas pequeno si el error de la integral es aparentemente grande Este tipo de analisis de error usualmente se llama a posteriori ya que calculamos el error despues de haber calculado la aproximacion La heuristica para integracion adaptativa esta discutida en Forsythe et al seccion 5 4 Estimacion del error conservativa a priori Editar Supongamos que f displaystyle f tiene una primera derivada sobre a b displaystyle a b acotada El teorema del valor medio para f displaystyle f para x lt b displaystyle x lt b da x a f y x f x f a displaystyle x a f y x f x f a para algun y x displaystyle y x en a x displaystyle a x dependiendo de x displaystyle x Si integramos en x displaystyle x de a displaystyle a a b displaystyle b en ambos lados de la igualdad y tomamos valores absolutos tenemos a b f x d x b a f a a b x a f y x d x displaystyle left int a b f x dx b a f a right left int a b x a f y x dx right Se puede aproximar mas la integral en el lado derecho metiendo el valor absoluto en el integrando y reemplazando el termino en f displaystyle f por una cota superior a b f x d x b a f a b a 2 2 sup a x b f x displaystyle left int a b f x dx b a f a right leq frac b a 2 2 sup a leq x leq b left f x right Asi si aproximamos la integral a b f x d x displaystyle int a b f x dx por su regla de integracion b a f a displaystyle b a f a el error no es mayor que el lado derecho de la ecuacion Integrales multiples EditarLos metodos de integracion que se han comentado hasta aqui se han disenado todos para calcular integrales de una dimension Para calcular integrales de diversas dimensiones un enfoque es expresar la integral multiple como repeticion de integrales de una dimension haciendo uso del teorema de Fubini Este enfoque lleva a una cantidad de evaluaciones de la funcion que crece exponencialmente a medida que crece el numero de dimensiones Se conocen dos metodos para superar esta llamada maldicion de la dimension Montecarlo Editar Articulo principal Integracion de Monte Carlo Los metodos de Montecarlo y metodos de cuasi Montecarlo son faciles de aplicar a integrales multidimensionales y pueden producir una mejor exactitud por el mismo numero de evaluaciones de la funcion que en integraciones repetidas empleando metodos unidimensionales Una clase grande de metodos utiles de Montecarlo son los llamados algoritmos de Cadena de Markov de Montecarlo los cuales incluyen el algoritmo de Metropolis Hastings y muestreo de Gibbs Programas para integracion numerica EditarLa integracion numerica es uno de los problemas estudiados mas intensivamente en el analisis numerico Entre las muchas implementaciones en programas se encuentran QUADPACK parte de SLATEC codigo fuente QUADPACK es una coleccion de algoritmos en Fortran para integracion numerica basada en reglas gausianas GSL GNU Scientific Library La biblioteca Cientifica de GNU GSL es una biblioteca numerica escrita en C que provee una amplia gama de rutinas matematicas como la integracion por Montecarlo ALGLIB Es una coleccion de algoritmos en C C Delphi Visual Basic etc para la integracion numerica Se pueden encontrar algoritmos de integracion numerica en GAMS class H2 Referencias Editar Leithold Louis Leithold 1992 5 El Calculo con Geometria Analitica Mexico Harla p 376 ISBN 970 613 040 3 Chapra Steven C 2012 19 Applied Numerical Methods with MatLab en ingles 3 edicion p 468 ISBN 978 0 07 340110 2 George E Forsythe Michael A Malcolm and Cleve B Moler Computer Methods for Mathematical Computations Englewood Cliffs NJ Prentice Hall 1977 See Chapter 5 William H Press Brian P Flannery Saul A Teukolsky William T Vetterling Numerical Recipes in C Cambridge UK Cambridge University Press 1988 See Chapter 4 Josef Stoer and Roland Bulirsch Introduction to Numerical Analysis New York Springer Verlag 1980 See Chapter 3 Datos Q753445Obtenido de https es wikipedia org w index php title Integracion numerica amp oldid 134556384, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos