fbpx
Wikipedia

Mínimos cuadrados no lineales

Los Mínimos cuadrados no lineales es la forma de análisis de mínimos cuadrados que se usa para encajar un conjunto de m observaciones con un modelo que es no lineal en n parámetros desconocidos (m > n). Se utiliza en algunas formas de regresión no lineal. La base del método es para aproximar el modelo por uno lineal y para refinar los parámetros por iteraciones sucesivas. Hay muchas similitudes con mínimos cuadrados lineales, pero también algunas diferencias importantes.

Teoría

Considere un conjunto de   observaciones,   y una curva (función del modelo)   que además de la variable   también depende de   parámetros,   con   Se desea encontrar el vector   de parámetros tales que la curva se ajuste mejor a los datos dados en el sentido de mínimos cuadrados, es decir, la suma de cuadrados

 

esta es minimizada cuando los errores ri están dados por

 

para  

El mínimo valor de S se produce cuando el gradiente es cero. Dado que el modelo contiene 'n parámetros hay n ecuaciones de gradiente:

 

En un sistema no lineal, los derivados   son funciones tanto de la variable independiente y los parámetros, por lo que estas ecuaciones gradiente no tienen una solución cerrada. En lugar de ello, los valores iniciales deben ser elegidos para los parámetros. Entonces, los parámetros se refinan iterativamente, es decir, los valores se obtienen por aproximación sucesiva,

 

Aquí, k es un número de iteración y el vector de incrementos,   que se conoce como el vector de desplazamiento. En cada iteración del modelo se linealiza por aproximación a un primer orden en serie de Taylor de expansión sobre  

 

El jacobiano , J, es una función de las constantes, la variable independiente y los parámetros, por lo que cambia de una iteración a la siguiente. Por lo tanto, en términos del modelo linealizado,   y los residuos se dan por

 

Sustituyendo estas expresiones en las ecuaciones de gradiente, se convierten

 

que, en el reordenamiento, convertido en n ecuaciones lineales simultáneas, las ecuaciones normales

 

Las ecuaciones normales se escriben en notación matricial como

 

Cuando las observaciones no son igualmente fiable, una suma ponderada de los cuadrados puede ser minimizado,

 

Cada elemento de la matriz de peso diagonal W debería, idealmente, ser igual al recíproco de la varianza de error de la medida. [1]​ Las ecuaciones normales son entonces:

 

Estas ecuaciones forman la base para el algoritmo de Gauss-Newton para un problema de mínimos cuadrados no lineal.

Interpretación geométrica

En mínimos cuadrados lineales la función objetivo, S, es una función cuadrática de los parámetros.

 

Cuando sólo hay un parámetro, la gráfica de S con respecto a ese parámetro será una parábola. Con dos o más parámetros, los contornos de S con respecto a cualquier par de parámetros serán elipses concéntricas (suponiendo que la matriz de ecuaciones normales   es definida positiva). Los valores de los parámetros mínimos se encuentran en el centro de las elipses. La geometría de la función objetivo general puede describirse como el elíptico paraboloide. En NLLSQ la función objetivo es cuadrática con respecto a los parámetros sólo en una región cercana a su valor mínimo, donde la serie truncada de Taylor es una buena aproximación al modelo.

 

Cuanto más los valores de los parámetros difieren de sus valores óptimos, más los contornos se desvían de la forma elíptica. Una consecuencia de esto es que las estimaciones de parámetros iniciales deben ser lo más cercanas posible a sus valores óptimos (desconocidos!). También explica cómo la divergencia puede surgir como el algoritmo de Gauss-Newton es convergente sólo cuando la función objetivo es aproximadamente cuadrática en los parámetros.

Computación

Estimaciones de parámetros iniciales

Algunos problemas de mal acondicionamiento y divergencia se pueden corregir mediante la búsqueda de estimaciones de parámetros iniciales que están cerca de los valores óptimos. Una buena manera de hacer esto es por simulación por computadora . Los datos observados y calculados se muestran en una pantalla. Los parámetros del modelo se ajustan a mano hasta que el acuerdo entre los datos observados y calculados es razonablemente bueno. Aunque esto será un juicio subjetivo, basta con encontrar un buen punto de partida para el refinamiento no lineal. Las estimaciones de parámetros iniciales se pueden crear usando transformaciones o linealizaciones. Los mejores algoritmos evolutivos como el Algoritmo del Embudo Estocástico pueden conducir a la cuenca convexa de atracción que rodea las estimaciones de los parámetros óptimos. Se ha demostrado que los algoritmos híbridos que usan la aleatorización y el elitismo, seguidos por los métodos de Newton, son útiles y computacionalmente eficientes.

Solución

Cualquier método entre los descritos a continuación se puede aplicar para encontrar una solución.

Criterios de convergencia

El criterio del sentido común para la convergencia es que la suma de los cuadrados no disminuye de una iteración a la siguiente. Sin embargo, este criterio es a menudo difícil de aplicar en la práctica, por diversas razones. Un criterio útil de convergencia es:

 

El valor 0.0001 es algo arbitrario y puede que tenga que cambiarse. En particular, puede ser necesario aumentar cuando los errores experimentales son grandes. Un criterio alternativo es:

 

Una vez más, el valor numérico es algo arbitrario; 0.001 es equivalente a especificar que cada parámetro debe ser refinado a 0.1% de precisión. Esto es razonable cuando es menor que la desviación estándar relativa más grande en los parámetros.

Cálculo del Jacobiano por aproximación numérica

Existen modelos para los cuales es muy difícil o incluso imposible derivar expresiones analíticas para los elementos del Jacobiano. Entonces, la aproximación numérica.

 

Se obtiene mediante el cálculo de   para   y  . El tamaño debe ser elegido por lo que la derivada numérica no está sujeta a error de aproximación por ser demasiado grande, o el error de redondeo por ser demasiado pequeño.

Referencias

  • C. T. Kelley, Iterative Methods for Optimization, SIAM Frontiers in Applied Mathematics, no 18, 1999, ISBN 0-89871-433-8. Online copy
  • T. Strutz: Data Fitting and Uncertainty (A practical introduction to weighted least squares and beyond). Vieweg+Teubner, ISBN 978-3-8348-1022-9.

Notas

  1. Esto implica que las observaciones no están correlacionadas. Si las observaciones están correlacionadas, aplica la expresión siguiente:
     
    En este caso, la matriz de pesos debería idealmente ser igual a la inversa de la matriz error -covarianza de error de las observaciones.
  •   Datos: Q3319230

mínimos, cuadrados, lineales, forma, análisis, mínimos, cuadrados, para, encajar, conjunto, observaciones, modelo, lineal, parámetros, desconocidos, utiliza, algunas, formas, regresión, lineal, base, método, para, aproximar, modelo, lineal, para, refinar, pará. Los Minimos cuadrados no lineales es la forma de analisis de minimos cuadrados que se usa para encajar un conjunto de m observaciones con un modelo que es no lineal en n parametros desconocidos m gt n Se utiliza en algunas formas de regresion no lineal La base del metodo es para aproximar el modelo por uno lineal y para refinar los parametros por iteraciones sucesivas Hay muchas similitudes con minimos cuadrados lineales pero tambien algunas diferencias importantes Indice 1 Teoria 2 Interpretacion geometrica 3 Computacion 3 1 Estimaciones de parametros iniciales 3 2 Solucion 3 2 1 Criterios de convergencia 3 2 2 Calculo del Jacobiano por aproximacion numerica 4 Referencias 5 NotasTeoria EditarConsidere un conjunto de m displaystyle m observaciones x 1 y 1 x 2 y 2 x m y m displaystyle x 1 y 1 x 2 y 2 dots x m y m y una curva funcion del modelo y f x b displaystyle y f x boldsymbol beta que ademas de la variable x displaystyle x tambien depende de n displaystyle n parametros b b 1 b 2 b n displaystyle boldsymbol beta beta 1 beta 2 dots beta n con m n displaystyle m geq n Se desea encontrar el vector b displaystyle boldsymbol beta de parametros tales que la curva se ajuste mejor a los datos dados en el sentido de minimos cuadrados es decir la suma de cuadrados S i 1 m r i 2 displaystyle S sum i 1 m r i 2 esta es minimizada cuando los errores ri estan dados por r i y i f x i b displaystyle r i y i f x i boldsymbol beta para i 1 2 m displaystyle i 1 2 dots m El minimo valor de S se produce cuando el gradiente es cero Dado que el modelo contiene nparametros haynecuaciones de gradiente S b j 2 i r i r i b j 0 j 1 n displaystyle frac partial S partial beta j 2 sum i r i frac partial r i partial beta j 0 quad j 1 ldots n En un sistema no lineal los derivados r i b j displaystyle frac partial r i partial beta j son funciones tanto de la variable independiente y los parametros por lo que estas ecuaciones gradiente no tienen una solucion cerrada En lugar de ello los valores iniciales deben ser elegidos para los parametros Entonces los parametros se refinan iterativamente es decir los valores se obtienen por aproximacion sucesiva b j b j k 1 b j k D b j displaystyle beta j approx beta j k 1 beta j k Delta beta j Aqui k es un numero de iteracion y el vector de incrementos D b displaystyle Delta boldsymbol beta que se conoce como el vector de desplazamiento En cada iteracion del modelo se linealiza por aproximacion a un primer orden en serie de Taylor de expansion sobre b k displaystyle boldsymbol beta k f x i b f x i b k j f x i b k b j b j b j k f x i b k j J i j D b j displaystyle f x i boldsymbol beta approx f x i boldsymbol beta k sum j frac partial f x i boldsymbol beta k partial beta j left beta j beta j k right approx f x i boldsymbol beta k sum j J ij Delta beta j El jacobiano J es una funcion de las constantes la variable independiente y los parametros por lo que cambia de una iteracion a la siguiente Por lo tanto en terminos del modelo linealizado r i b j J i j displaystyle frac partial r i partial beta j J ij y los residuos se dan por r i D y i s 1 n J i s D b s D y i y i f x i b k displaystyle r i Delta y i sum s 1 n J is Delta beta s Delta y i y i f x i boldsymbol beta k Sustituyendo estas expresiones en las ecuaciones de gradiente se convierten 2 i 1 m J i j D y i s 1 n J i s D b s 0 displaystyle 2 sum i 1 m J ij left Delta y i sum s 1 n J is Delta beta s right 0 que en el reordenamiento convertido en n ecuaciones lineales simultaneas las ecuaciones normales i 1 m s 1 n J i j J i s D b s i 1 m J i j D y i j 1 n displaystyle sum i 1 m sum s 1 n J ij J is Delta beta s sum i 1 m J ij Delta y i qquad j 1 dots n Las ecuaciones normales se escriben en notacion matricial como J T J D b J T D y displaystyle mathbf left J T J right Delta boldsymbol beta J T Delta y Cuando las observaciones no son igualmente fiable una suma ponderada de los cuadrados puede ser minimizado S i 1 m W i i r i 2 displaystyle S sum i 1 m W ii r i 2 Cada elemento de la matriz de peso diagonal W deberia idealmente ser igual al reciproco de la varianza de error de la medida 1 Las ecuaciones normales son entonces J T W J D b J T W D y displaystyle mathbf left J T WJ right Delta boldsymbol beta J T W Delta y Estas ecuaciones forman la base para el algoritmo de Gauss Newton para un problema de minimos cuadrados no lineal Interpretacion geometrica EditarEn minimos cuadrados lineales la funcion objetivo S es una funcion cuadratica de los parametros S i W i i y i j X i j b j 2 displaystyle S sum i W ii left y i sum j X ij beta j right 2 Cuando solo hay un parametro la grafica de S con respecto a ese parametro sera una parabola Con dos o mas parametros los contornos de S con respecto a cualquier par de parametros seran elipses concentricas suponiendo que la matriz de ecuaciones normales X T W X displaystyle mathbf X T WX es definida positiva Los valores de los parametros minimos se encuentran en el centro de las elipses La geometria de la funcion objetivo general puede describirse como el eliptico paraboloide En NLLSQ la funcion objetivo es cuadratica con respecto a los parametros solo en una region cercana a su valor minimo donde la serie truncada de Taylor es una buena aproximacion al modelo S i W i i y i j J i j b j 2 displaystyle S approx sum i W ii left y i sum j J ij beta j right 2 Cuanto mas los valores de los parametros difieren de sus valores optimos mas los contornos se desvian de la forma eliptica Una consecuencia de esto es que las estimaciones de parametros iniciales deben ser lo mas cercanas posible a sus valores optimos desconocidos Tambien explica como la divergencia puede surgir como el algoritmo de Gauss Newton es convergente solo cuando la funcion objetivo es aproximadamente cuadratica en los parametros Computacion EditarEstimaciones de parametros iniciales Editar Algunos problemas de mal acondicionamiento y divergencia se pueden corregir mediante la busqueda de estimaciones de parametros iniciales que estan cerca de los valores optimos Una buena manera de hacer esto es por simulacion por computadora Los datos observados y calculados se muestran en una pantalla Los parametros del modelo se ajustan a mano hasta que el acuerdo entre los datos observados y calculados es razonablemente bueno Aunque esto sera un juicio subjetivo basta con encontrar un buen punto de partida para el refinamiento no lineal Las estimaciones de parametros iniciales se pueden crear usando transformaciones o linealizaciones Los mejores algoritmos evolutivos como el Algoritmo del Embudo Estocastico pueden conducir a la cuenca convexa de atraccion que rodea las estimaciones de los parametros optimos Se ha demostrado que los algoritmos hibridos que usan la aleatorizacion y el elitismo seguidos por los metodos de Newton son utiles y computacionalmente eficientes Solucion Editar Cualquier metodo entre los descritos a continuacion se puede aplicar para encontrar una solucion Criterios de convergencia Editar El criterio del sentido comun para la convergencia es que la suma de los cuadrados no disminuye de una iteracion a la siguiente Sin embargo este criterio es a menudo dificil de aplicar en la practica por diversas razones Un criterio util de convergencia es S k S k 1 S k lt 0 0001 displaystyle left frac S k S k 1 S k right lt 0 0001 El valor 0 0001 es algo arbitrario y puede que tenga que cambiarse En particular puede ser necesario aumentar cuando los errores experimentales son grandes Un criterio alternativo es D b j b j lt 0 001 j 1 n displaystyle left frac Delta beta j beta j right lt 0 001 qquad j 1 dots n Una vez mas el valor numerico es algo arbitrario 0 001 es equivalente a especificar que cada parametro debe ser refinado a 0 1 de precision Esto es razonable cuando es menor que la desviacion estandar relativa mas grande en los parametros Calculo del Jacobiano por aproximacion numerica Editar Articulo principal Derivacion numerica Existen modelos para los cuales es muy dificil o incluso imposible derivar expresiones analiticas para los elementos del Jacobiano Entonces la aproximacion numerica f x i b b j d f x i b d b j displaystyle frac partial f x i boldsymbol beta partial beta j approx frac delta f x i boldsymbol beta delta beta j Se obtiene mediante el calculo de f x i b displaystyle f x i boldsymbol beta para b j displaystyle beta j y b j d b j displaystyle beta j delta beta j El tamano debe ser elegido por lo que la derivada numerica no esta sujeta a error de aproximacion por ser demasiado grande o el error de redondeo por ser demasiado pequeno Referencias EditarC T Kelley Iterative Methods for Optimization SIAM Frontiers in Applied Mathematics no 18 1999 ISBN 0 89871 433 8 Online copy T Strutz Data Fitting and Uncertainty A practical introduction to weighted least squares and beyond Vieweg Teubner ISBN 978 3 8348 1022 9 Notas Editar Esto implica que las observaciones no estan correlacionadas Si las observaciones estan correlacionadas aplica la expresion siguiente S k j r k W k j r j displaystyle S sum k sum j r k W kj r j En este caso la matriz de pesos deberia idealmente ser igual a la inversa de la matriz error covarianza de error de las observaciones Datos Q3319230 Obtenido de https es wikipedia org w index php title Minimos cuadrados no lineales amp oldid 117728251, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos