fbpx
Wikipedia

Algoritmo de Lanczos

El algoritmo de Lanczos es un algoritmo iterativo creado por Cornelius Lanczos,[1]​este es una adaptación de los métodos iterativos para encontrar los valores propios más útiles y vectores propios de un sistema lineal de dimensión realizando un número de operaciones, , donde es más pequeño que .

Aunque computacionalmente eficiente, en principio, el método formulado inicialmente no era útil, debido a su inestabilidad numérica. En 1970, Ojalvo y Newman mostraron cómo hacer el método numéricamente estable.[2]​ Esto se logró utilizando un método para la corrección de los vectores a cualquier grado de precisión que, cuando no se realiza, produce una serie de vectores que están altamente contaminados por los asociados con las frecuencias naturales más bajas. En su trabajo original, estos autores también sugirieron cómo seleccionar un vector de partida (utilizan un generador de números aleatorios para seleccionar cada elemento del vector de partida) y propusieron un método determinado empíricamente para determinar , el reducido número de vectores (debe ser seleccionado para ser de aproximadamente 1 ½ veces el número de valores propios exactos que se desea).

Poco después su trabajo fue seguido por más artículos[3][4]​ que también proporciaron un análisis del error cometido. En el año 1988, Ojalvo[5]​ produjo una historia más detallada de este algoritmo y una prueba de error eficiente para un valor propio. Actualmente, el método es ampliamente utilizado en una variedad de campos técnicos y ha dado lugar una serie de variantes.

Método iterativo para encontrar valores propios

El método iterativo para encontrar el mayor valor propio de una matriz   puede resumirse señalando que si   es un vector aleatorio y  , entonces para un   grande límite   se acerca al vector propio normalizado correspondiente al valor propio más grande.

Si   es la descomposición en valores propios de una matriz de  , entonces  . Como   se hace grande, la matriz diagonal de valores propios estará acotada por el valor propio más grande(despreciando el caso en que el valor más grande este repetido ). Mientras,   convergerán al mayor valor propio y   al vector propio asociado. Si el mayor valor propio es múltiple, entonces   convergerá a un vector en el subespacio generado por los vectores propios asociados con esos valores propios más grandes. Luego de haber encontrado el primer vector propio / valor, uno puede restringir sucesivamente el algoritmo para el espacio nulo (kernel) de los vectores propios conocidos para obtener el segundo mayor vector propio / valores y así sucesivamente.

En la práctica, este sencillo algoritmo no funciona muy bien para el cálculo de muchos de los vectores propios, ya que cualquier error de redondeo podría introducir ligeros cambios a los componentes de los vectores propios más significativos de nuevo en el cálculo, degradando la exactitud del cálculo.

Método de Lanczos

Durante el procedimiento de aplicación del método, al obtener el último valor propio  , también se obtiene una serie de vectores   los cuales son descartados. Como   es con frecuencia grande, puede que se tenga una gran cantidad de información que no se utilice. Los algoritmos más avanzados, Como el el algoritmo de Arnoldi, el algoritmo de Lanczos, guardan esta información y utilizan el proceso de Gram–Schmidt o el algoritmo Householder para ortogonalizar nuevamente en una base que abarca el subespacio de Krylov correspondiente a la matriz  .

El algoritmo

El algoritmo de Lanczos puede ser visto como un sistema simplificado del algoritmo de Arnoldi que se aplica a matrices hermitianas. El   paso del algoritmo transforma la matriz   en una matriz tridiagonal  ; cuando   es igual a la dimensión de  ,   es semejante a  .

Definiciones

Se quiere calcular la matriz tridiagonal y simétrica  

Los elementos de la diagonal se denotan por  , Y los elementos fuera de la diagonal son denotados por  .

Notar que  , debido a la simetría de la matriz.

Iteración

(Nota: siguiendo estos pasos solamente no se encontraran correctamente los valores y vectores propios. Se deben tener en cuenta más consideraciones para corregir errores numéricos. Ver la sección Estabilidad numérica.)

En principio, hay cuatro maneras de escribir el procedimiento de iteración. Paige[1972] y otros trabajos muestran que el siguiente procedimiento es el más estable numéricamente.[6][7]

   vector aleatorio con norma 1.     
 for             endfor 
     return 

Aquí,   representa el producto escalar de vectores   y  .

Después de la iteración, se obtiene la   and   con los que se forma una matriz tridiagonal.

 

Los vectores   (vectores de Lanczos) generados sobre la marcha forman la matriz de transformación  , que es útil para el cálculo de los vectores propios (ver más abajo). En la práctica, se podría guardar en cada iteración (pero ocupa memoria), o se podría recalcular cuando se necesite, siempre y cuando se tenga el primer vector  . En cada iteración del algoritmo realiza una multiplicación matriz-vector y otras operaciones de punto flotantes.

Encontrando valores y vectores propios

Después de que la matriz   es calculada, se pueden encontrar sus valores propios   y sus correspondientes vectores propios   (Por ejemplo, usando el algoritmo QR o Multiple Relatively Robust Representations (MRRR)). Los valores y vectores propios de  se pueden obtener en   usando MRRR; si se quiere buscar solo los valores propios estos se calculan en   usando bisección espectral.

Se puede demostrar que los valores propios son valores propios aproximados de la matriz original  .

Los vectores propios   de   se pueden calcular  , donde   es la matriz de transformación cuyos vectores columna son  .

Estabilidad Numérica

Estabilidad significa cuánto se verá afectado el algoritmo (es decir, se encontrara un resultado aproximado cercano al original) si hay pequeños errores numéricos introducidos y acumulados. Estabilidad numérica es el criterio central para juzgar la utilidad de una implementación de un algoritmo en un ordenador con redondeo. Para el algoritmo de Lanczos, se puede demostrar que con una aritmética exacta, el conjunto de vectores   forman una base ortonormal, los valores y vectores propios encontrados son buenas aproximaciones a los de la matriz original. Sin embargo, en la práctica (como los cálculos se realizan en aritméticas de punto flotante donde la inexactitud es inevitable, la ortogonalidad se pierde rápidamente y en algunos casos el nuevo vector incluso podría ser linealmente dependiente del conjunto que ya está construido. Como resultado, algunos de los valores propios de la matriz tridiagonal resultante no son buenas aproximaciones para los de la matriz original. Por lo que, el algoritmo de Lanczos no es muy estable.

Los que usen el algoritmo deben ser capaz de encontrar y eliminar los valores propios "con errores". Las implementaciones prácticas del algoritmo de Lanczos van en tres direcciones para luchar contra este problema de estabilidad:[6][7]

  1. Prevenir la pérdida de ortogonalidad
  2. Recuperar la ortogonalidad después de que se genera la base.
  3. Después de identificar los valores propios "con errores", eliminarlos.

Variantes

Existen variantes en el algoritmo de Lanczos donde los vectores involucrados son vectores columnas, matrices estrechas y las constantes de la normalización son pequeñas matrices cuadradas. Estos se llaman "bloques" y el algoritmo de Lanczos puede ser mucho más rápido en computadoras con un gran número de registros y tiempos de esfuerzo de memoria largos.

Muchas implementaciones del algoritmo de Lanczos reinician después de un cierto número de iteraciones. Una de las variaciones del reinicio más influyentes es el método de Lanczos con reinicio implícito,[8]​ que se implementa enARPACK.[9]​ Esto ha llevado a un número de otras variantes de reinicio tales como reinicio bidiagonalizado de Lanczos.[10]​ Otra variante de reinicio exitosa es el método Thick-Restart de Lanczos,[11]​ que se ha implementado en un paquete de software llamado TRLAN.[12]

Kernel sobre un cuerpo finito

En 1995, Peter Montgomery publicó un algoritmo, basado en el algoritmo de Lanczos para encontrar elementos del kernel de una gran matriz sparse sobre GF(2); ya que el conjunto de personas interesadas en matrices sparse de gran dimensión sobre cuerpos finitos y el conjunto de personas interesadas en los problemas de los valores propios más grandes, tienen pocas personas en común, esto es a menudo también llamado el algoritmo de Lanczos por bloques.

Aplicaciones

Los algoritmos Lanczos son muy atractivos porque la multiplicación por   es la única operación lineal a gran escala. Dado que los motores de recuperación de texto implementan esta operación, el algoritmo Lanczos se puede aplicar de manera eficiente a los documentos de texto (ver indexación semántica latente). Los vectores propios son también importantes para los métodos de clasificación a gran escala tales como el algoritmo HITS desarrollado por Jon Kleinberg, o el PageRank algoritmo usado por Google.

Algoritmos de Lanczos también se utilizan en Física de la materia condensada como un método para resolver hamiltonianas de sistemas de electrones fuertemente correlacionados.[13]

Implementaciones

La biblioteca NAG contiene varias métodos[14]​ para la solución de sistemas lineales grandes y problemas de valores/vectores propios que utilizan el algoritmo de Lanczos.

MATLAB y GNU Octave vienen con ARPACK incorporado. Ambos analizan matrices usando la función eigs() (Matlab/Octave).

La implementación de Matlab del algoritmo de Lanczos (nota: problemas de precisión) está disponible como parte de la Gaussian Belief Propagation Matlab Package. El GraphLab[15]​ biblioteca de filtrado colaborativo incorpora una implementación paralelizada del algoritmo de Lanczos (en C ++) para multinúcleo. La biblioteca PRIMME también implementa el algoritmo de Lanczos.

Referencias

  1. Lanczos, C. “An iteration method for the solution of the eigenvalue problem of linear differential and integral operators”, J. Res. Nat’l Bur. Std. 45, 225-282 (1950).
  2. Ojalvo, I.U. and Newman, M.,”Vibration modes of large structures by an automatic matrix-reduction method”, AIAA J., 8 (7), 1234-1239 (1970).
  3. Paige, C.C., “The computation of eigenvalues and eigenvectors of very large sparse matrices”, the U. of London Ph.D. thesis (1971).
  4. Paige, C.C., “Computational variants of the Lanczos method for the eigenproblem”, J. Inst. Maths Applics 10, 373-381 (1972).
  5. Ojalvo, I.U., “Origins and advantages of Lanczos vectors for large dynamic systems”, Proc. 6th Modal Analysis Conference (IMAC), Kissimmee, FL, 489-494 (1988).
  6. Cullum; Willoughby. Lanczos Algorithms for Large Symmetric Eigenvalue Computations 1. ISBN 0-8176-3058-9. 
  7. Yousef Saad. Numerical Methods for Large Eigenvalue Problems. ISBN 0-470-21820-7. 
  8. D. Calvetti, L. Reichel, and D.C. Sorensen (1994). «An Implicitly Restarted Lanczos Method for Large Symmetric Eigenvalue Problems». Electronic Transactions on Numerical Analysis 2: 1-21. 
  9. R. B. Lehoucq, D. C. Sorensen, and C. Yang (1998). ARPACK Users Guide: Solution of Large-Scale Eigenvalue Problems with Implicitly Restarted Arnoldi Methods. SIAM. doi:10.1137/1.9780898719628. 
  10. E. Kokiopoulou and C. Bekas and E. Gallopoulos (2004). «Computing smallest singular triplets with implicitly restarted Lanczos bidiagonalization». Appl. Numer. Math. 49: 39. doi:10.1016/j.apnum.2003.11.011. 
  11. Kesheng Wu and Horst Simon (2000). «Thick-Restart Lanczos Method for Large Symmetric Eigenvalue Problems». SIAM Journal on Matrix Analysis and Applications (SIAM) 22 (2): 602. doi:10.1137/S0895479898334605. 
  12. Kesheng Wu and Horst Simon (2001). . Archivado desde el original el 1 de julio de 2007. Consultado el 24 de noviembre de 2014. 
  13. Chen, HY; Atkinson, W.A.; Wortis, R. (julio de 2011). «Disorder-induced zero-bias anomaly in the Anderson-Hubbard model: Numerical and analytical calculations». Physical Review B 84 (4). doi:10.1103/PhysRevB.84.045113. 
  14. The Numerical Algorithms Group. «Keyword Index: Lanczos». NAG Library Manual, Mark 23. Consultado el 9 de febrero de 2012. 
  15. GraphLab el 14 de marzo de 2011 en Wayback Machine.

Enlaces externos

  • Golub and van Loan give very good descriptions of the various forms of Lanczos algorithms in their book Matrix Computations
  • Andrew Ng et al., an analysis of PageRank
  • B. A. LaMacchia and A. M. Odlyzko, Solving Large Sparse Linear Systems Over Finite Fields.


  •   Datos: Q366640

algoritmo, lanczos, algoritmo, lanczos, algoritmo, iterativo, creado, cornelius, lanczos, este, adaptación, métodos, iterativos, para, encontrar, valores, propios, más, útiles, vectores, propios, sistema, lineal, dimensión, displaystyle, realizando, número, op. El algoritmo de Lanczos es un algoritmo iterativo creado por Cornelius Lanczos 1 este es una adaptacion de los metodos iterativos para encontrar los valores propios mas utiles y vectores propios de un sistema lineal de dimension n n displaystyle n n realizando un numero de operaciones m displaystyle m donde m displaystyle m es mas pequeno que n displaystyle n Aunque computacionalmente eficiente en principio el metodo formulado inicialmente no era util debido a su inestabilidad numerica En 1970 Ojalvo y Newman mostraron como hacer el metodo numericamente estable 2 Esto se logro utilizando un metodo para la correccion de los vectores a cualquier grado de precision que cuando no se realiza produce una serie de vectores que estan altamente contaminados por los asociados con las frecuencias naturales mas bajas En su trabajo original estos autores tambien sugirieron como seleccionar un vector de partida utilizan un generador de numeros aleatorios para seleccionar cada elemento del vector de partida y propusieron un metodo determinado empiricamente para determinar m displaystyle m el reducido numero de vectores debe ser seleccionado para ser de aproximadamente 1 veces el numero de valores propios exactos que se desea Poco despues su trabajo fue seguido por mas articulos 3 4 que tambien proporciaron un analisis del error cometido En el ano 1988 Ojalvo 5 produjo una historia mas detallada de este algoritmo y una prueba de error eficiente para un valor propio Actualmente el metodo es ampliamente utilizado en una variedad de campos tecnicos y ha dado lugar una serie de variantes Indice 1 Metodo iterativo para encontrar valores propios 2 Metodo de Lanczos 2 1 El algoritmo 2 1 1 Definiciones 2 1 2 Iteracion 2 1 3 Encontrando valores y vectores propios 2 2 Estabilidad Numerica 3 Variantes 3 1 Kernel sobre un cuerpo finito 4 Aplicaciones 5 Implementaciones 6 Referencias 7 Enlaces externosMetodo iterativo para encontrar valores propios EditarEl metodo iterativo para encontrar el mayor valor propio de una matriz A displaystyle A puede resumirse senalando que si x 0 displaystyle x 0 es un vector aleatorio y x n 1 A x n displaystyle x n 1 Ax n entonces para un n displaystyle n grande limite x n x n displaystyle x n x n se acerca al vector propio normalizado correspondiente al valor propio mas grande Si A U diag s i U displaystyle A U operatorname diag sigma i U es la descomposicion en valores propios de una matriz de A displaystyle A entonces A n U diag s i n U displaystyle A n U operatorname diag sigma i n U Como n displaystyle n se hace grande la matriz diagonal de valores propios estara acotada por el valor propio mas grande despreciando el caso en que el valor mas grande este repetido Mientras x n 1 x n displaystyle x n 1 x n convergeran al mayor valor propio y x n x n displaystyle x n x n al vector propio asociado Si el mayor valor propio es multiple entonces x n displaystyle x n convergera a un vector en el subespacio generado por los vectores propios asociados con esos valores propios mas grandes Luego de haber encontrado el primer vector propio valor uno puede restringir sucesivamente el algoritmo para el espacio nulo kernel de los vectores propios conocidos para obtener el segundo mayor vector propio valores y asi sucesivamente En la practica este sencillo algoritmo no funciona muy bien para el calculo de muchos de los vectores propios ya que cualquier error de redondeo podria introducir ligeros cambios a los componentes de los vectores propios mas significativos de nuevo en el calculo degradando la exactitud del calculo Metodo de Lanczos EditarDurante el procedimiento de aplicacion del metodo al obtener el ultimo valor propio A n 1 v displaystyle A n 1 v tambien se obtiene una serie de vectores A j v j 0 1 n 2 displaystyle A j v j 0 1 cdots n 2 los cuales son descartados Como n displaystyle n es con frecuencia grande puede que se tenga una gran cantidad de informacion que no se utilice Los algoritmos mas avanzados Como el el algoritmo de Arnoldi el algoritmo de Lanczos guardan esta informacion y utilizan el proceso de Gram Schmidt o el algoritmo Householder para ortogonalizar nuevamente en una base que abarca el subespacio de Krylov correspondiente a la matriz A displaystyle A El algoritmo Editar El algoritmo de Lanczos puede ser visto como un sistema simplificado del algoritmo de Arnoldi que se aplica a matrices hermitianas El m e s i m o displaystyle m esimo paso del algoritmo transforma la matriz A displaystyle A en una matriz tridiagonal T m m displaystyle T mm cuando m displaystyle m es igual a la dimension de A displaystyle A T m m displaystyle T mm es semejante a A displaystyle A Definiciones Editar Se quiere calcular la matriz tridiagonal y simetrica T m m V m A V m displaystyle T mm V m AV m Los elementos de la diagonal se denotan por a j t j j displaystyle alpha j t jj Y los elementos fuera de la diagonal son denotados por b j t j 1 j displaystyle beta j t j 1 j Notar que t j 1 j t j j 1 displaystyle t j 1 j t j j 1 debido a la simetria de la matriz Iteracion Editar Nota siguiendo estos pasos solamente no se encontraran correctamente los valores y vectores propios Se deben tener en cuenta mas consideraciones para corregir errores numericos Ver la seccion Estabilidad numerica En principio hay cuatro maneras de escribir el procedimiento de iteracion Paige 1972 y otros trabajos muestran que el siguiente procedimiento es el mas estable numericamente 6 7 v 1 displaystyle v 1 leftarrow vector aleatorio con norma 1 v 0 0 displaystyle v 0 leftarrow 0 b 1 0 displaystyle beta 1 leftarrow 0 for j 1 2 m 1 displaystyle j 1 2 cdots m 1 w j A v j displaystyle w j leftarrow Av j a j w j v j displaystyle alpha j leftarrow w j cdot v j w j w j a j v j b j v j 1 displaystyle w j leftarrow w j alpha j v j beta j v j 1 b j 1 w j displaystyle beta j 1 leftarrow left w j right v j 1 w j b j 1 displaystyle v j 1 leftarrow w j beta j 1 endfor w m A v m displaystyle w m leftarrow Av m a m w m v m displaystyle alpha m leftarrow w m cdot v m return Aqui x y displaystyle x cdot y representa el producto escalar de vectores x displaystyle x y y displaystyle y Despues de la iteracion se obtiene la a j displaystyle alpha j and b j displaystyle beta j con los que se forma una matriz tridiagonal T m m a 1 b 2 0 b 2 a 2 b 3 b 3 a 3 b m 1 b m 1 a m 1 b m 0 b m a m displaystyle T mm begin pmatrix alpha 1 amp beta 2 amp amp amp amp 0 beta 2 amp alpha 2 amp beta 3 amp amp amp amp beta 3 amp alpha 3 amp ddots amp amp amp amp ddots amp ddots amp beta m 1 amp amp amp amp beta m 1 amp alpha m 1 amp beta m 0 amp amp amp amp beta m amp alpha m end pmatrix Los vectores v j displaystyle v j vectores de Lanczos generados sobre la marcha forman la matriz de transformacion V m v 1 v 2 v m displaystyle V m left v 1 v 2 cdots v m right que es util para el calculo de los vectores propios ver mas abajo En la practica se podria guardar en cada iteracion pero ocupa memoria o se podria recalcular cuando se necesite siempre y cuando se tenga el primer vector v 1 displaystyle v 1 En cada iteracion del algoritmo realiza una multiplicacion matriz vector y otras operaciones de punto flotantes Encontrando valores y vectores propios Editar Despues de que la matriz T m m displaystyle T mm es calculada se pueden encontrar sus valores propios l i m displaystyle lambda i m y sus correspondientes vectores propios u i m displaystyle u i m Por ejemplo usando el algoritmo QR o Multiple Relatively Robust Representations MRRR Los valores y vectores propios deT displaystyle T se pueden obtener en O m 2 displaystyle mathcal O m 2 usando MRRR si se quiere buscar solo los valores propios estos se calculan en O m 2 displaystyle mathcal O m 2 usando biseccion espectral Se puede demostrar que los valores propios son valores propios aproximados de la matriz original A displaystyle A Los vectores propios y i displaystyle y i de A displaystyle A se pueden calcular y i V m u i m displaystyle y i V m u i m donde V m displaystyle V m es la matriz de transformacion cuyos vectores columna son v 1 v 2 v m displaystyle v 1 v 2 cdots v m Estabilidad Numerica Editar Estabilidad significa cuanto se vera afectado el algoritmo es decir se encontrara un resultado aproximado cercano al original si hay pequenos errores numericos introducidos y acumulados Estabilidad numerica es el criterio central para juzgar la utilidad de una implementacion de un algoritmo en un ordenador con redondeo Para el algoritmo de Lanczos se puede demostrar que con una aritmetica exacta el conjunto de vectores v 1 v 2 v m 1 displaystyle v 1 v 2 cdots v m 1 forman una base ortonormal los valores y vectores propios encontrados son buenas aproximaciones a los de la matriz original Sin embargo en la practica como los calculos se realizan en aritmeticas de punto flotante donde la inexactitud es inevitable la ortogonalidad se pierde rapidamente y en algunos casos el nuevo vector incluso podria ser linealmente dependiente del conjunto que ya esta construido Como resultado algunos de los valores propios de la matriz tridiagonal resultante no son buenas aproximaciones para los de la matriz original Por lo que el algoritmo de Lanczos no es muy estable Los que usen el algoritmo deben ser capaz de encontrar y eliminar los valores propios con errores Las implementaciones practicas del algoritmo de Lanczos van en tres direcciones para luchar contra este problema de estabilidad 6 7 Prevenir la perdida de ortogonalidad Recuperar la ortogonalidad despues de que se genera la base Despues de identificar los valores propios con errores eliminarlos Variantes EditarExisten variantes en el algoritmo de Lanczos donde los vectores involucrados son vectores columnas matrices estrechas y las constantes de la normalizacion son pequenas matrices cuadradas Estos se llaman bloques y el algoritmo de Lanczos puede ser mucho mas rapido en computadoras con un gran numero de registros y tiempos de esfuerzo de memoria largos Muchas implementaciones del algoritmo de Lanczos reinician despues de un cierto numero de iteraciones Una de las variaciones del reinicio mas influyentes es el metodo de Lanczos con reinicio implicito 8 que se implementa enARPACK 9 Esto ha llevado a un numero de otras variantes de reinicio tales como reinicio bidiagonalizado de Lanczos 10 Otra variante de reinicio exitosa es el metodo Thick Restart de Lanczos 11 que se ha implementado en un paquete de software llamado TRLAN 12 Kernel sobre un cuerpo finito Editar En 1995 Peter Montgomery publico un algoritmo basado en el algoritmo de Lanczos para encontrar elementos del kernel de una gran matriz sparse sobre GF 2 ya que el conjunto de personas interesadas en matrices sparse de gran dimension sobre cuerpos finitos y el conjunto de personas interesadas en los problemas de los valores propios mas grandes tienen pocas personas en comun esto es a menudo tambien llamado el algoritmo de Lanczos por bloques Aplicaciones EditarLos algoritmos Lanczos son muy atractivos porque la multiplicacion por A displaystyle A es la unica operacion lineal a gran escala Dado que los motores de recuperacion de texto implementan esta operacion el algoritmo Lanczos se puede aplicar de manera eficiente a los documentos de texto ver indexacion semantica latente Los vectores propios son tambien importantes para los metodos de clasificacion a gran escala tales como el algoritmo HITS desarrollado por Jon Kleinberg o el PageRank algoritmo usado por Google Algoritmos de Lanczos tambien se utilizan en Fisica de la materia condensada como un metodo para resolver hamiltonianas de sistemas de electrones fuertemente correlacionados 13 Implementaciones EditarLa biblioteca NAG contiene varias metodos 14 para la solucion de sistemas lineales grandes y problemas de valores vectores propios que utilizan el algoritmo de Lanczos MATLAB y GNU Octave vienen con ARPACK incorporado Ambos analizan matrices usando la funcion eigs Matlab Octave La implementacion de Matlab del algoritmo de Lanczos nota problemas de precision esta disponible como parte de la Gaussian Belief Propagation Matlab Package El GraphLab 15 biblioteca de filtrado colaborativo incorpora una implementacion paralelizada del algoritmo de Lanczos en C para multinucleo La biblioteca PRIMME tambien implementa el algoritmo de Lanczos Referencias Editar Lanczos C An iteration method for the solution of the eigenvalue problem of linear differential and integral operators J Res Nat l Bur Std 45 225 282 1950 Ojalvo I U and Newman M Vibration modes of large structures by an automatic matrix reduction method AIAA J 8 7 1234 1239 1970 Paige C C The computation of eigenvalues and eigenvectors of very large sparse matrices the U of London Ph D thesis 1971 Paige C C Computational variants of the Lanczos method for the eigenproblem J Inst Maths Applics 10 373 381 1972 Ojalvo I U Origins and advantages of Lanczos vectors for large dynamic systems Proc 6th Modal Analysis Conference IMAC Kissimmee FL 489 494 1988 a b Cullum Willoughby Lanczos Algorithms for Large Symmetric Eigenvalue Computations 1 ISBN 0 8176 3058 9 a b Yousef Saad Numerical Methods for Large Eigenvalue Problems ISBN 0 470 21820 7 D Calvetti L Reichel and D C Sorensen 1994 An Implicitly Restarted Lanczos Method for Large Symmetric Eigenvalue Problems Electronic Transactions on Numerical Analysis 2 1 21 R B Lehoucq D C Sorensen and C Yang 1998 ARPACK Users Guide Solution of Large Scale Eigenvalue Problems with Implicitly Restarted Arnoldi Methods SIAM doi 10 1137 1 9780898719628 E Kokiopoulou and C Bekas and E Gallopoulos 2004 Computing smallest singular triplets with implicitly restarted Lanczos bidiagonalization Appl Numer Math 49 39 doi 10 1016 j apnum 2003 11 011 Kesheng Wu and Horst Simon 2000 Thick Restart Lanczos Method for Large Symmetric Eigenvalue Problems SIAM Journal on Matrix Analysis and Applications SIAM 22 2 602 doi 10 1137 S0895479898334605 Kesheng Wu and Horst Simon 2001 TRLan software package Archivado desde el original el 1 de julio de 2007 Consultado el 24 de noviembre de 2014 Chen HY Atkinson W A Wortis R julio de 2011 Disorder induced zero bias anomaly in the Anderson Hubbard model Numerical and analytical calculations Physical Review B 84 4 doi 10 1103 PhysRevB 84 045113 The Numerical Algorithms Group Keyword Index Lanczos NAG Library Manual Mark 23 Consultado el 9 de febrero de 2012 GraphLab Archivado el 14 de marzo de 2011 en Wayback Machine Enlaces externos EditarGolub and van Loan give very good descriptions of the various forms of Lanczos algorithms in their book Matrix Computations Andrew Ng et al an analysis of PageRank Lanczos and conjugate gradient methods B A LaMacchia and A M Odlyzko Solving Large Sparse Linear Systems Over Finite Fields Datos Q366640 Obtenido de https es wikipedia org w index php title Algoritmo de Lanczos amp oldid 123047146, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos