fbpx
Wikipedia

Álgebra lineal

El álgebra lineal es una rama de las matemáticas que estudia conceptos tales como vectores, matrices, espacio dual, sistemas de ecuaciones lineales y en su enfoque de manera más formal, espacios vectoriales y sus transformaciones lineales.

El espacio euclídeo tridimensional R3 es un espacio vectorial y las líneas y los planos que pasan por el origen son subespacios vectoriales de R3.

Dicho de otra forma, el Álgebra lineal es la rama de las matemáticas que se ocupa de las ecuaciones lineales como:

y aplicaciones lineales tales como:

y sus representaciones en espacios vectoriales y a través de matrices.[1][2][3]

El álgebra lineal es fundamental en casi todas las áreas de las matemáticas. Por ejemplo, el álgebra lineal es fundamental en las presentaciones modernas de la geometría, incluso para definir objetos básicos como líneas, planos y rotaciones. Además, el análisis funcional, una rama del análisis matemático, puede considerarse básicamente como la aplicación del álgebra lineal al espacios de funciones.

El álgebra lineal también se utiliza en la mayoría de las ciencias y campos de la ingeniería, porque permite modelar muchos fenómenos naturales, y computar eficientemente con dichos modelos. Para los sistemas no lineales, que no pueden ser modelados con el álgebra lineal, se utiliza a menudo para tratar la aproximaciones de primer orden, utilizando el hecho de que la diferencial de una 'función multivariante' en un punto es el mapa lineal que mejor aproxima la función cerca de ese punto así como el análisis funcional, las ecuaciones diferenciales, la investigación de operaciones, las gráficas por computadora, la ingeniería entre otras más.

La historia del álgebra lineal moderna se remonta a 1843, cuando William Rowan Hamilton (de quien proviene el uso del término vector) creó los cuaterniones inspirado en los números complejos;[4]​ y a 1844, cuando Hermann Grassmann publicó su libro Die lineare Ausdehnungslehre (La teoría lineal de extensión).

Historia

El procedimiento para resolver ecuaciones lineales simultáneas que ahora se denomina eliminación gaussiana aparece en el antiguo texto matemático chino Cálculo de barras#Sistema de ecuaciones lineales; Capítulo octavo: Matrices rectangulares de Los nueve capítulos sobre el arte matemático. Su uso se ilustra en dieciocho problemas, con dos a cinco ecuaciones.[5]

Los Sistemas de ecuaciones lineales surgieron en Europa con la introducción en 1637 por René Descartes de las coordenadas en la geometría. De hecho, en esta nueva geometría, ahora llamada geometría cartesiana, las líneas y los planos están representados por ecuaciones lineales, y calcular sus intersecciones equivale a resolver sistemas de ecuaciones lineales.

Los primeros métodos sistemáticos para resolver sistemas lineales utilizaban determinantes, considerados por primera vez por Leibniz en 1693. En 1750, Gabriel Cramer los utilizó para dar soluciones explícitas de sistemas lineales, lo que ahora se llama regla de Cramer. Más tarde, Gauss describió aún más el método de eliminación, que inicialmente fue catalogado como un avance en geodesia.[6]

En 1844 Hermann Grassmann publicó su "Teoría de la Extensión" que incluía nuevos temas fundacionales de lo que hoy se llama álgebra lineal. En 1848, James Joseph Sylvester introdujo el término matriz, que en latín significa vientre.

El álgebra lineal creció con las ideas anotadas en el plano complejo. Por ejemplo, dos números w y z en ℂ tienen una diferencia w - z, y los segmentos de línea   y   tienen la misma longitud y dirección. Los segmentos son equipolentes. El sistema cuatridimensional ℍ de cuaterniones se inició en 1843. El término vector fue introducido como v = x i + y j + z k representando un punto en el espacio. La diferencia de cuaterniones p - q también produce un segmento equipolente a la   Otros sistemas de números hipercomplejos también utilizaron la idea de un espacio lineal con una base.

Arthur Cayley introdujo la multiplicación matricial y la matriz inversa en 1856, haciendo posible el grupo lineal general. El mecanismo de representación de grupo se hizo disponible para describir los números complejos e hipercomplejos. Fundamentalmente, Cayley utilizó una sola letra para denotar una matriz, tratando así una matriz como un objeto agregado. También se dio cuenta de la conexión entre las matrices y los determinantes, y escribió "Habría muchas cosas que decir sobre esta teoría de las matrices que deberían, me parece, preceder a la teoría de los determinantes".[6]

Benjamin Peirce publicó su Álgebra lineal asociativa (1872), y su hijo Charles Sanders Peirce amplió el trabajo posteriormente.[7]

El telégrafo requería un sistema explicativo, y la publicación en 1873 de A Treatise on Electricity and Magnetism instituyó una teoría de campos de fuerzas y requirió la geometría diferencial para su expresión. El álgebra lineal es geometría diferencial plana y sirve en los espacios tangentes a los colectores. Las simetrías electromagnéticas del espaciotiempo se expresan mediante las transformaciones de Lorentzs, y gran parte de la historia del álgebra lineal es la historia de las transformaciones de Lorentz.

La primera definición moderna y más precisa de un espacio vectorial fue introducida por Peano en 1888;[6]​ en 1900 había surgido una teoría de las transformaciones lineales de los espacios vectoriales de dimensión finita. El álgebra lineal tomó su forma moderna en la primera mitad del siglo XX, cuando muchas ideas y métodos de siglos anteriores se generalizaron como álgebra abstracta. El desarrollo de los ordenadores hizo que aumentara la investigación de algoritmos eficientes para la eliminación gaussiana y las descomposiciones matriciales, y el álgebra lineal se convirtió en una herramienta esencial para la modelización y las simulaciones.[6]

Contexto general

De manera más formal, el álgebra lineal estudia conjuntos denominados espacios vectoriales, los cuales constan de un conjunto de vectores y un conjunto de escalares que tiene estructura de campo, con una operación de suma de vectores y otra de producto entre escalares y vectores que satisfacen ciertas propiedades (por ejemplo, que la suma es conmutativa).

Estudia también transformaciones lineales, que son funciones entre espacios vectoriales que satisfacen las condiciones de linealidad:

 

A diferencia del ejemplo desarrollado en la sección anterior, los vectores no necesariamente son n-adas de escalares, sino que pueden ser elementos de un conjunto cualquiera (de hecho, a partir de todo conjunto puede construirse un espacio vectorial sobre un campo fijo).

Finalmente, el álgebra lineal estudia también las propiedades que aparecen cuando se impone estructura adicional sobre los espacios vectoriales, siendo una de las más frecuentes la existencia de un producto interno (una especie de producto entre dos vectores) que permite introducir nociones como longitud de vectores y ángulo entre un par de los mismos.

Espacios vectoriales

Antecedentes

Hasta el siglo XIX, el álgebra lineal se presentaba a través de sistemas de ecuaciones lineales y matrices. En la matemática moderna, se prefiere generalmente la presentación a través de espacios vectoriales, ya que es más sintética, más general (no se limita al caso de dimensión finita) y conceptualmente más sencilla, aunque más abstracta.

Algunas operaciones básicas

Un espacio vectorial sobre un campo F, con frecuencia el campo de los números reales, es un Conjunto V dotado de dos operaciones binarias que satisfacen los siguientes axiomass. Los elementos de V se llaman vectores, y los elementos de F se llaman escalares.

La primera operación, la suma de vectores, se expresa de la siguiente manera: tómese dos vectores cualesquiera v y w; la suma tiene como resultado un tercer vector v + w.

La segunda operación, multiplicación escalar, se expresa de la siguiente manera: tómese cualquier escalar a y cualquier vector v y produce un nuevo vector av. Los axiomas que deben satisfacer la suma y la multiplicación escalar son los siguientes, siendo en la lista siguiente, u, v y w elementos arbitrarios de V; y a y b son escalares arbitrarios en el campo F.[8]

Axioma Significación
Asociativa de adición u + (v + w) = (u + v) + w
Conmutativa de adición u + v = v + u
Elemento neutro de adición Existe un elemento 0 en V, llamado el vector cero, o simplrmente cero, tal que v + 0 = v se cumple para todo v del conjunto V.
Elemento simétrico se adición Para todo v en V, existe un elemento v in V, llamado el aditivo inverso de v, tal que v + (−v) = 0
Distributividad de la multiplicación escalar con respecto a la suma vectorial   a(u + v) = au + av
Distributividad de la multiplicación escalar con respecto a la suma de campos (a + b)v = av + bv
Compatibilidad de la multiplicación escalar con la multiplicación de campos a(bv) = (ab)v [9]
Elemento de identidad de la multiplicación escalar 1v = v, donde 1 indica el elemento neutro de F.

Aplicaciones lineales

Las aplicaciones lineales son mapeos entre espacios vectoriales que preservan la estructura del espacio vectorial. Dados dos espacios vectoriales V y W sobre un campo F, un mapa lineal, también llamado en algunos contextos, transformación lineal o mapeo lineal, es un mapa o aplicación

 

que es compatible con la suma y la multiplicación escalar, es decir

 

para los vectores u,v in V y escaleres a en F.

Esto implica que para cualquier vector u, v en V y escalares a, b en F, se tiene

 

Donde V = W son el mismo espacio vectorial, un mapa lineal   también se conoce como un operador lineal en V.

Un mapa lineal biyectivo entre dos espacios vectoriales, es decir, cada vector del segundo espacio se asocia exactamente con uno en el primero, es un isomorfismo. Dado que un isomorfismo preserva la estructura lineal, dos espacios vectoriales isomorfos son "esencialmente iguales" desde el punto de vista del álgebra lineal, en el sentido de que no pueden distinguirse utilizando las propiedades del espacio vectorial. Una cuestión esencial en el álgebra lineal es probar si un mapa lineal es un isomorfismo o no, y, si no es un isomorfismo, encontrar su rango (o imagen) y el conjunto de elementos que son mapeados al vector cero, llamado el núcleo del mapa. Todas estas cuestiones pueden resolverse mediante el uso de la eliminación gaussiana o alguna variante de este algoritmo.

Subespacios, intervalo y base

El estudio de aquellos subconjuntos de espacios vectoriales que son en sí mismos espacios vectoriales bajo las operaciones inducidas es fundamental, al igual que para muchas estructuras matemáticas. Estos subconjuntos se denominan subespacios lineales. Más precisamente, un subespacio lineal de un espacio vectorial V sobre un campo F es un subconjunto de W of V tal que u + v y au están en W, para todo u, v en W, y todo a in F. Estas condiciones son suficientes para implicar que W es un espacio vectorial.

Por ejemplo, dado un campo lineal  , la imagen T(V) de V, y la imagen inversa T−1(0) de 0, llamada núcleo o kernel, son subespacios lineales de W y V, respectivamente.

Otra forma importante de formar un subespacio es considerar las combinaciones lineales de un conjunto S de vectores: el conjunto de todas las sumas

 

donde v1, v2, …, vk están en S, y a1, a2, ..., ak están en F forman un subespacio lineal llamado Sistema generador de S. El sistema generador de S es también la intersección de todos los subespacios lineales que contienen a S. En otras palabras, es el subespacio lineal, más pequeño para la relación de inclusión, que contiene a S.

Un conjunto de vectores es linealmente independiente si ninguno está en el intervalo de los demás. De manera equivalente, un conjunto S de vectores es linealmente independiente si la única forma de expresar el vector cero como una combinación lineal de elementos de S es tomar cero para cada coeficiente  

Un conjunto de vectores que abarca un espacio vectorial se denomina conjunto de expansión o sistema generador. Si un conjunto generador S es linealmente dependiente (que no es linealmente independiente), entonces algún elemento w de S es en el lapso de los otros elementos de S , y el lapso seguiría siendo el mismo si uno remove w de S. Se puede continuar eliminando elementos de S hasta obtener un conjunto de expansión linealmente independiente. Un conjunto linealmente independiente que abarca un espacio vectorial V se llama base de V. La importancia de las bases radica en el hecho de que hay juntos grupos electrógenos mínimos y grupos independientes máximos. Más precisamente, si S es un conjunto linealmente independiente y T es un conjunto de expansión tal que  , entonces hay una base B tal que  

Si dos bases cualesquiera de un espacio vectorial V tienen la misma cardinalidad que se llama dimensión; este es el Teorema de la dimensión de espacios vectoriales. Además, dos espacios vectoriales sobre el mismo campo F son isomorfos si y solo si tienen la misma dimensión. [10]

Si alguna base de V (y por lo tanto cada base) tiene un número finito de elementos, V es un espacio vectorial de dimensión finita. Si U es un subespacio de V, entonces dim U ≤ dim V. En el caso en el que V es de dimensión finita, la igualdad de las dimensiones implica que U = V.

Si U1 y U2 son subespacios de V , entonces

 

donde   denota el lapso de  [11]

Matrices

La matriz es una disposición rectangular de números, símbolos o expresiones, cuyas dimensiones son descritas en las cantidades de filas (usualmente m) por las de columnas (n) que poseen. Las disposiciones matriciales son particularmente estudiados por el álgebra lineal y son bastante usados en ciencias e ingeniería.

Las matrices permiten la manipulación explícita de espacios vectoriales de dimensión finita y mapas lineales . Por tanto, su teoría es una parte esencial del álgebra lineal.

Sea V un espacio vectorial de dimensión finita sobre un campo F, y (v1, v2, …, vm) es una base de V, por lo tanto m es ladimensión de V). Por definición, de una base, el mapa

 

es una biyección de   el conjunto de las secuencias de m elementos de V , sobre la V. Este es un isomorfismo de espacios vectoriales, si   está equipado con su estructura estándar de espacio vectorial, donde la suma de vectores y la multiplicación escalar se realizan componente por componente.

Este isomorfismo permite representar un vector por su imagen inversa bajo este isomorfismo, es decir por las componentes de un vector de coordenadas {\ Displaystyle (a_ {1}, \ ldots, a_ {m})}{\ Displaystyle (a_ {1}, \ ldots, a_ {m})}o por la matriz de columnas   o mediante la matriz vertical

 

Si W es otro espacio vectorial de dimensión finita (posiblemente el mismo), con una base  , un mapa lineal f de W a V está bien definido por sus valores en los elementos base, es decir {\ Displaystyle (f (\ mathbf {w} _ {1}), \ ldots, f (\ mathbf {w} _ {n})).}{\ Displaystyle (f (\ mathbf {w} _ {1}), \ ldots, f (\ mathbf {w} _ {n})).}Por tanto, f está bien representada por la lista de las matrices de columna correspondientes. Es decir, si

 

con j = 1, ..., n, entonces f viene representada por una matriz:

 

con m filas y n columnas.

La multiplicación de matrices se define de forma que el producto de dos matrices es la matriz de la composición de los mapas lineales correspondientes, y el producto de una matriz y una matriz columna es la matriz columna que representa el resultado de aplicar el mapa lineal representado al vector representado. Se deduce que la teoría de los espacios vectoriales de dimensión finita y la teoría de las matrices son dos lenguajes diferentes para expresar exactamente los mismos conceptos.

Dos matrices que codifican la misma transformación lineal en bases diferentes se llaman matrices similares. Se puede demostrar que dos matrices son similares si y sólo si se puede transformar una en la otra mediante operaciones elementales de filas y columnas. Para una matriz que representa un mapa lineal de W a V, las operaciones de fila corresponden a cambio de bases en V y las operaciones de columna corresponden a cambio de bases en W. Toda matriz es similar a una matriz identidad bordeada por filas y columnas nulas. En términos de espacios vectoriales, esto significa que, para cualquier mapa lineal de W a V, hay bases tales que una parte de la base de W se mapea biyectivamente en una parte de la base de V, y que los elementos restantes de la base de W, si los hay, se mapean a cero. La eliminación gaussiana es el algoritmo básico para encontrar estas operaciones elementales y demostrar estos resultados.

Sistemas lineales

Un conjunto finito de ecuaciones lineales en un conjunto finito de variables, por ejemplo   or   se llama sistema de ecuaciones lineales o sistema lineal .[12][13][14][15][16]

Los sistemas de ecuaciones lineales constituyen una parte fundamental del álgebra lineal. Históricamente, el álgebra lineal y la teoría de matrices se han desarrollado para resolver dichos sistemas. En la presentación moderna del álgebra lineal mediante espacios vectoriales y matrices, muchos problemas pueden interpretarse en términos de sistemas lineales.

Por ejemplo,

 

 

 

 

 

(S)

es un sistema lineal.

A dicho sistema se le puede asociar su matriz

 

y su vector de miembro derecho

 

Sea T la transformación lineal asociada a la matriz M. Una solución del sistema (S) es un vector

 

tal que

 

que es un elemento de la imagen inversa de v por T.

Sea (S') el sistema homogéneo asociado, donde los lados derechos de las ecuaciones se ponen a cero:


 

 

 

 

 

(S')

Las soluciones de (S') son exactamente los elementos del núcleo de T o, equivalentemente, M.

La eliminación gaussiana consiste en realizar operaciones elementales de filas en la matriz aumentada.

 

para ponerlo en forma escalonada reducida. Estas operaciones de fila no cambian el conjunto de soluciones del sistema de ecuaciones. En el ejemplo, la forma escalonada reducida es

 

mostrando

 

De esta interpretación matricial de los sistemas lineales se deduce que los mismos métodos pueden aplicarse para resolver sistemas lineales y para muchas operaciones sobre matrices y transformaciones lineales, que incluyen el cálculo del rangos, núcleos, y matriz inversa que el sistema (S) tiene la solución única

 

De esta interpretación matricial de los sistemas lineales se deduce que los mismos métodos pueden aplicarse para resolver sistemas lineales y para muchas operaciones sobre matrices y transformaciones lineales, que incluyen el cálculo del rangos, núcleos y matriz inversa.

Endomorfismos y matrices cuadradas

Un endomorfismo lineal es un mapa lineal que mapea un espacio vectorial V a sí mismo. Si V tiene una base de n elementos, tal endomorfismo se representa mediante una matriz cuadrada de tamaño n.

Con respecto a los mapas lineales generales, los endomorfismos lineales y las matrices cuadradas tienen algunas propiedades específicas que hacen que su estudio sea una parte importante del álgebra lineal, que se usa en muchas partes de las matemáticas, incluidas las transformaciones geométricas , los cambios de coordenadas, las formas cuadráticas y muchas otras. de las matemáticas.

Determinantes

El determinante de una matriz cuadrada A se define como[17]

 

donde

  •   es el grupo de todas las permutaciones de n elementos,
  •   es una permutación y
  • y   la paridad de la permutación.

Una matriz es invertible si y sólo si el determinante es invertible (es decir, distinto de cero si los escalares pertenecen a un campo).

La regla de Cramer es una expresión de forma cerrada, en términos de determinantes, de la solución de un sistema de n ecuaciones lineales en n incógnitas. La regla de Cramer es útil para razonar sobre la solución, pero, excepto para n = 2 o 3, rara vez se utiliza para calcular una solución, ya que la eliminación gaussiana es un algoritmo más rápido.

El determinante de un endomorfismo es el determinante de la matriz que representa el endomorfismo en términos de alguna base ordenada. Esta definición tiene sentido, ya que este determinante es independiente de la elección de la base.

Valores propios y vectores propios

Si f es un endomorfismo lineal de un espacio vectorial V sobre un campo F, un vector propio de f es un vector v de V no nulo tal que f(v) = av para algún escalar a en F. Este escalar a es un valor propio de f.

Si la dimensión de V es finita, y se ha elegido una base, f y v pueden representarse, respectivamente, por una matriz cuadrada M y una matriz de columnas z; la ecuación que define los vectores y valores propios se convierte en

 

Utilizando la matriz identidad I, cuyas entradas son todas cero, excepto las de la diagonal principal, que son iguales a uno, esto puede reescribirse

 

Como se supone que z es distinto de cero, esto significa que M - aI es una matriz singular, y por tanto que su determinante   es igual a cero. Los valores propios son, pues, la raíces del polinomio

 

Si V es de dimensión n, se trata de un polinomio mónico de grado n, llamado polinomio característico de la matriz (o del endomorfismo), y hay, como máximo, n valores propios.

Si existe una base que consiste sólo en vectores propios, la matriz de f en esta base tiene una estructura muy simple: es una matriz diagonal tal que las entradas en la diagonal principal son valores propios, y las otras entradas son cero. En este caso, se dice que el endomorfismo y la matriz son diagonalizable. De forma más general, un endomorfismo y una matriz también se dicen diagonalizables, si se convierten en diagonalizables después de extender el campo de escalares. En este sentido extendido, si el polinomio característico es square-free, entonces la matriz es diagonalizable.

Una matriz simétrica es siempre diagonalizable. Existen matrices no diagonalizables, siendo la más sencilla

 

(no puede ser diagonalizable ya que su cuadrado es la matriz cero, y el cuadrado de una matriz diagonal no nula nunca es cero).

Cuando un endomorfismo no es diagonalizable, hay bases en las que tiene una forma simple, aunque no tan simple como la forma diagonal. La forma normal de Frobenius no necesita extender el campo de escalares y hace que el polinomio característico sea inmediatamente legible sobre la matriz. La forma normal de Jordan requiere extender el campo de escalares para contener todos los valores propios, y difiere de la forma diagonal sólo por algunas entradas que están justo encima de la diagonal principal y son iguales a 1.

Dualidad

Una forma lineal es un mapa lineal desde un espacio vectorial   sobre un campo   al campo de escalares  , visto como un espacio vectorial sobre sí mismo. Equipadas por la adición puntual y la multiplicación por un escalar, las formas lineales forman un espacio vectorial, llamado espacio dual de  , y usualmente denotado  (Katznelson, Katznelson y 2008, p. 37 §2.1.3) o  .(Halmos y 1974, p. 20, §13)(Axler y 2015, p. 101, §3.94)

Mapa lineal de un espacio vectorial a su campo de escalares

Si   es una base de   (esto implica que V es de dimensión finita), entonces se puede definir, para i = 1, . .., n, un mapa lineal   tal que   y   si ji. Estos mapas lineales forman una base de   llamada la base dual de   (Si V no es de dimensión finita, los   pueden definirse de forma similar; son linealmente independientes, pero no forman una base).

Para   en  , el mapa

 

es una forma lineal en   Esto define el mapa lineal canónico de   en   el dual de   llamado el bidual of  . Este mapa canónico es un isomorfismo si   es finito-dimensional, y esto permite identificar   con su bidual.

Existe, pues, una simetría completa entre un espacio vectorial de dimensión finita y su dual. Esto motiva el uso frecuente, en este contexto, de la notación bra-ket

  para denotar  .

Mapa dual

Dejemos que

 

sea un mapa lineal. Para toda forma lineal h sobre W, la función compuesta hf es una forma lineal sobre V. Esto define un mapa lineal

 

entre los espacios duales, que se llama el dual o la transposición' de f.

Si V y W son de dimensión finita, y M es la matriz de f en términos de algunas bases ordenadas, entonces la matriz de   sobre las bases duales es la transposición   de M, obtenida intercambiando filas y columnas.

Si los elementos de los espacios vectoriales y sus duales se representan mediante vectores columna, esta dualidad puede expresarse en notación bra-ket mediante

 

Para resaltar esta simetría, los dos miembros de esta igualdad se escriben a veces

 

Espacios vectoriales de uso común

Dentro de los espacios vectoriales de dimensión finita, son de amplio uso los dos tipos siguientes de espacios vectoriales:

Vectores en Rn

Este espacio vectorial está formado por el conjunto de vectores de n dimensiones (es decir con n número de componentes). Podemos encontrar un ejemplo de ellos en los vectores R2, que son famosos por representar las coordenadas cartesianas: (2,3), (3,4),...

Espacio vectorial de polinomios en una misma variable

Un ejemplo de espacio vectorial está dado por todos los polinomios cuyo grado es menor o igual a 2 con coeficientes reales sobre una variable x.

Ejemplos de tales polinomios son:

 

La suma de dos polinomios cuyo grado no excede a 2 es otro polinomio cuyo grado no excede a 2:

 

El campo de escalares es naturalmente el de los números reales, y es posible multiplicar un número por un polinomio:

 

donde el resultado nuevamente es un polinomio (es decir, un vector).

Un ejemplo de transformación lineal es el operador derivada D, que asigna a cada polinomio el resultado de derivarlo:

 

El operador derivada satisface las condiciones de linealidad, y aunque es posible demostrarlo con rigor, simplemente lo ilustramos con un ejemplo la primera condición de linealidad:

 

y por otro lado:

 

Cualquier espacio vectorial tiene una representación en coordenadas similar a  , lo cual se obtiene mediante la elección de una base (álgebra) (es decir, un conjunto especial de vectores), y uno de los temas recurrentes en el álgebra lineal es la elección de bases apropiadas para que los vectores de coordenadas y las matrices que representan las transformaciones lineales tengan formas sencillas o propiedades específicas.

Generalización y temas relacionados

Puesto que el álgebra lineal es una teoría muy exitosa, sus métodos se han proliferado por otras áreas de la matemática: en la teoría de módulos, que remplaza al cuerpo en los escalares por un anillo; en el álgebra multilineal, uno lidia con 'múltiples variables' en un problema de mapeo lineal, en el que cada número de las diferentes variables se dirige al concepto de tensor, e incluso en el ámbito de la programación ya que hoy en día la indexación de páginas web se basa en métodos del álgebra lineal;[18]​ en la teoría del espectro de los operadores de control de matrices de dimensión infinita, aplicando el análisis matemático en una teoría que no es puramente algebraica. En todos estos casos las dificultades técnicas son mucho más grandes.

Relación con la geometría

Existe una fuerte relación entre el álgebra lineal y la geometría, que comenzó con la introducción por René Descartes, en 1637, de las coordenadas cartesianas. En esta nueva (en ese momento) geometría, ahora llamada geometría cartesiana, los puntos se representan mediante coordenadas cartesianas, que son secuencias de tres números reales (en el caso del espacio tridimensional habitual). Los objetos básicos de la geometría, que son las líneas y los planos se representan mediante ecuaciones lineales. Por tanto, calcular las intersecciones de líneas y planos equivale a resolver sistemas de ecuaciones lineales. Esta fue una de las principales motivaciones para desarrollar el álgebra lineal.

La mayoría de las transformaciones geométricas, como las traslaciones, rotaciones, reflexiones, movimientos rígidos, isometrías y proyecciones transforman líneas en líneas. De ello se deduce que se pueden definir, especificar y estudiar en términos de mapas lineales. Este es también el caso de las homografías y las transformaciones de Möbius, cuando se consideran como transformaciones de un espacio proyectivo.

Hasta finales del siglo XIX, los espacios geométricos se definían mediante axiomas que relacionaban puntos, líneas y planos (geometría sintética). Alrededor de esta fecha, apareció que también se pueden definir los espacios geométricos mediante construcciones que implican espacios vectoriales (véase, por ejemplo, Espacio proyectivo y Espacio afín). Se ha demostrado que los dos enfoques son esencialmente equivalentes.[19]​ En la geometría clásica, los espacios vectoriales implicados son espacios vectoriales sobre los reales, pero las construcciones pueden extenderse a espacios vectoriales sobre cualquier campo, permitiendo considerar la geometría sobre campos arbitrarios, incluyendo campos finitos.

Actualmente, la mayoría de los libros de texto introducen los espacios geométricos desde el álgebra lineal, y la geometría se presenta a menudo, a nivel elemental, como un subcampo del álgebra lineal.

Utilización y aplicaciones

El álgebra lineal se utiliza en casi todas las áreas de las matemáticas, por lo que es relevante en casi todos los ámbitos científicos que utilizan las matemáticas. Estas aplicaciones pueden dividirse en varias categorías amplias.

Geometría del espacio ambiental

El modelo del espacio ambiental se basa en la geometría. Las ciencias que se ocupan de este espacio utilizan ampliamente la geometría. Es el caso de la mecánica y la robótica, para describir la dinámica de cuerpos rígidos; la geodesia para describir la forma de la Tierra; la perspectiva, la Visión artificial y los gráficos por ordenador, para describir la relación entre una escena y su representación en el plano; y muchos otros dominios científicos.

En todas estas aplicaciones, la geometría sintética suele utilizarse para descripciones generales y un enfoque cualitativo, pero para el estudio de situaciones explícitas, hay que calcular con coordenadas. Esto requiere el uso intensivo del álgebra lineal.

Análisis funcional

El Análisis funcional estudia los espacios de funciones. Estos son espacios vectoriales con estructura adicional, como los espacios de Hilbert. El álgebra lineal es, por tanto, una parte fundamental del análisis funcional y sus aplicaciones, que incluyen, en particular, la mecánica cuántica (función de onda).

Estudio de sistemas complejos

La mayoría de los fenómenos físicos se modelan mediante ecuaciones diferenciales parciales. Para resolverlas, se suele descomponer el espacio en el que se buscan las soluciones en pequeñas células que interactúan entre sí. Para los sistemas lineales esta interacción implica función lineal. Para sistemas no lineales, esta interacción suele aproximarse mediante funciones lineales.[20]​ En ambos casos, suelen intervenir matrices muy grandes. Un ejemplo típico es la predicción meteorológica, en la que toda la atmósfera de la Tierra se divide en celdas de, por ejemplo, 100 km de ancho y 100 m de alto.

Cálculo científico

Casi todos los cálculos científicos implican álgebra lineal. En consecuencia, los algoritmos de álgebra lineal han sido altamente optimizados. Los BLAS y LAPACK son las implementaciones más conocidas. Para mejorar la eficiencia, algunas de ellas configuran los algoritmos automáticamente, en tiempo de ejecución, para adaptarlos a las especificidades del ordenador (cache tamaño, número de núcleos disponible, ...).

Algunos procesador, normalmente Unidad de procesamiento gráfico (GPU), están diseñados con una estructura matricial, para optimizar las operaciones de álgebra lineal.

Véase también

Referencias

  1. Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, Texts in Statistical Science (1st edición), Chapman and Hall/CRC, ISBN 978-1420095388 .
  2. Strang, Gilbert (July 19, 2005), Linear Algebra and Its Applications (4th edición), Brooks Cole, ISBN 978-0-03-010567-8 .
  3. Weisstein, Eric. «Linear Algebra». From MathWorld--A Wolfram Web Resource. Wolfram. Consultado el 16 April 2012. 
  4. Vázquez, Gutiérrez. «Hamilton: La liberación del álgebra». revistasuma.es. Consultado el 22 de enero de 2019. 
  5. Hart, Roger (2010). Las raíces chinas del álgebra lineal. JHU Press. ISBN 9780801899584. 
  6. Vitulli, Marie. . Universidad de Oregón. Archivado desde uoregon.edu/~vitulli/441.sp04/LinAlgHistory.html el original el 10 de septiembre de 2012. Consultado el 8 de julio de 2014. 
  7. Benjamin Peirce (1872) Álgebra asociativa lineal, litografía, nueva edición con correcciones, notas y un trabajo añadido de 1875 de Peirce, más notas de su hijo Charles Sanders Peirce, publicado en el American Journal of Mathematics v. 4, 1881, Universidad Johns Hopkins, pp. 221-226, Google Eprint y como extracto, D. Van Nostrand, 1882, Google Eprint.
  8. Roman (2005, ch. 1, p. 27)
  9. Este axioma no está afirmando la asociatividad de una operación, ya que hay dos operaciones en cuestión, la multiplicación escalar: bv; y la multiplicación de campos: ab.
  10. (Axler, 2015) p. 82, §3.59
  11. (Axler, 2015) p. 23, §1.45
  12. Anton (1987, p. 2)
  13. Beauregard y Fraleigh (1973, p. 65)
  14. Burden y Faires (1993, p. 324)
  15. Golub y Van Loan (1996, p. 87)
  16. Harper (1976, p. 57)
  17. Katznelson, Katznelson y 2008, pp. 76-77, § 4.4.1-4.4.6.
  18. «SIAM (Society for Industrial and Applied Mathematics)». epubs.siam.org. doi:10.1137/050623280. Consultado el 22 de enero de 2019. 
  19. Emil Artin (1957) Álgebra Geométrica Interscience Publishers
  20. Esto puede tener como consecuencia que se omitan algunas soluciones físicamente interesantes.

Fuentes principales

Bibliografía

Historia

  • Fearnley-Sander, Desmond, "Hermann Grassmann and the Creation of Linear Algebra", American Mathematical Monthly 86 (1979), pp. 809–817.
  • Grassmann, Hermann (1844), Die lineale Ausdehnungslehre ein neuer Zweig der Mathematik: dargestellt und durch Anwendungen auf die übrigen Zweige der Mathematik, wie auch auf die Statik, Mechanik, die Lehre vom Magnetismus und die Krystallonomie erläutert, Leipzig: O. Wigand .

Libros de texto introductorios

  • Anton, Howard (2005), Elementary Linear Algebra (Applications Version) (9th edición), Wiley International .
  • Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, Texts in Statistical Science (1st edición), Chapman and Hall/CRC, ISBN 978-1420095388 .
  • Bretscher, Otto (2004), Linear Algebra with Applications (3rd edición), Prentice Hall, ISBN 978-0-13-145334-0 .
  • Farin, Gerald; Hansford, Dianne (2004), Practical Linear Algebra: A Geometry Toolbox, AK Peters, ISBN 978-1-56881-234-2 .
  • Kolman, Bernard; Hill, David R. (2007), Elementary Linear Algebra with Applications (9th edición), Prentice Hall, ISBN 978-0-13-229654-0 .
  • Lay, David C. (2005), Linear Algebra and Its Applications (3rd edición), Addison Wesley, ISBN 978-0-321-28713-7 .
  • Leon, Steven J. (2006), Linear Algebra With Applications (7th edición), Pearson Prentice Hall, ISBN 978-0-13-185785-8, (requiere registro) .
  • Murty, Katta G. (2014) Computational and Algorithmic Linear Algebra and n-Dimensional Geometry, World Scientific Publishing, ISBN 978-981-4366-62-5}}. Chapter 1: Systems of Simultaneous Linear Equations
  • Poole, David (2010), Linear Algebra: A Modern Introduction (3rd edición), Cengage – Brooks/Cole, ISBN 978-0-538-73545-2 .
  • Ricardo, Henry (2010), A Modern Introduction To Linear Algebra (1st edición), CRC Press, ISBN 978-1-4398-0040-9 .
  • Sadun, Lorenzo (2008), Applied Linear Algebra: the decoupling principle (2nd edición), AMS, ISBN 978-0-8218-4441-0 .
  • Strang, Gilbert (2016), Introduction to Linear Algebra (5th edición), Wellesley-Cambridge Press, ISBN 978-09802327-7-6 .
  • The Manga Guide to Linear Algebra (2012), by Shin Takahashi, Iroha Inoue and Trend-Pro Co., Ltd.,

    Libros de texto avanzados

    • Bhatia, Rajendra (November 15, 1996), Matrix Analysis, Graduate Texts in Mathematics, Springer, ISBN 978-0-387-94846-1 .
    • Demmel, James W. (August 1, 1997), Applied Numerical Linear Algebra, SIAM, ISBN 978-0-89871-389-3 .
    • Dym, Harry (2007), Linear Algebra in Action, AMS, ISBN 978-0-8218-3813-6 .
    • Gantmacher, Felix R. (2005), Applications of the Theory of Matrices, Dover Publications, ISBN 978-0-486-44554-0 .
    • Gantmacher, Felix R. (1990), Matrix Theory Vol. 1 (2nd edición), American Mathematical Society, ISBN 978-0-8218-1376-8 .
    • Gantmacher, Felix R. (2000), Matrix Theory Vol. 2 (2nd edición), American Mathematical Society, ISBN 978-0-8218-2664-5 .
    • Gelfand, Israel M. (1989), Lectures on Linear Algebra, Dover Publications, ISBN 978-0-486-66082-0 .
    • Glazman, I. M.; Ljubic, Ju. I. (2006), Finite-Dimensional Linear Analysis, Dover Publications, ISBN 978-0-486-45332-3 .
    • Golan, Johnathan S. (January 2007), The Linear Algebra a Beginning Graduate Student Ought to Know (2nd edición), Springer, ISBN 978-1-4020-5494-5 .
    • Golan, Johnathan S. (August 1995), Foundations of Linear Algebra, Kluwer, ISBN 0-7923-3614-3 .
    • Greub, Werner H. (October 16, 1981), Linear Algebra, Graduate Texts in Mathematics (4th edición), Springer, ISBN 978-0-8018-5414-9 .
    • Hoffman, Kenneth; Kunze, Ray (1971), Linear algebra (2nd edición), Englewood Cliffs, N.J.: Prentice-Hall, Inc., MR 0276251 .
    • Halmos, Paul R. (August 20, 1993), Finite-Dimensional Vector Spaces, Undergraduate Texts in Mathematics, Springer, ISBN 978-0-387-90093-3 .
    • Friedberg, Stephen H.; Insel, Arnold J.; Spence, Lawrence E. (September 7, 2018), Linear Algebra (5th edición), Pearson, ISBN 978-0-13-486024-4 .
    • Horn, Roger A.; Johnson, Charles R. (February 23, 1990), Matrix Analysis, Cambridge University Press, ISBN 978-0-521-38632-6 .
    • Horn, Roger A.; Johnson, Charles R. (June 24, 1994), Topics in Matrix Analysis, Cambridge University Press, ISBN 978-0-521-46713-1 .
    • Lang, Serge (March 9, 2004), Linear Algebra, Undergraduate Texts in Mathematics (3rd edición), Springer, ISBN 978-0-387-96412-6 .
    • Marcus, Marvin; Minc, Henryk (2010), A Survey of Matrix Theory and Matrix Inequalities, Dover Publications, ISBN 978-0-486-67102-4 .
    • Meyer, Carl D. (February 15, 2001), , Society for Industrial and Applied Mathematics (SIAM), ISBN 978-0-89871-454-8, archivado desde el original el October 31, 2009 .
    • Mirsky, L. (1990), An Introduction to Linear Algebra, Dover Publications, ISBN 978-0-486-66434-7 .
    • Shafarevich, I. R.; Remizov, A. O (2012), Linear Algebra and Geometry, Springer, ISBN 978-3-642-30993-9 .
    • Shilov, Georgi E. (June 1, 1977), Linear algebra, Dover Publications, ISBN 978-0-486-63518-7 .
    • Shores, Thomas S. (December 6, 2006), Applied Linear Algebra and Matrix Analysis, Undergraduate Texts in Mathematics, Springer, ISBN 978-0-387-33194-2 .
    • Smith, Larry (28 de mayo de 1998), Linear Algebra, Undergraduate Texts in Mathematics, Springer, ISBN 978-0-387-98455-1 .
    • Trefethen, Lloyd N.; Bau, David (1997), Numerical Linear Algebra, SIAM, ISBN 978-0-898-71361-9 .

    Enlaces externos

    •   Wikimedia Commons alberga una categoría multimedia sobre Álgebra lineal.
    • por Elmer G. Wiens (en inglés)
    • Álgebra Lineal: Conceptos Básicos
    • Introducción al Álgebra Lineal en Contexto por José Arturo Barreto
    • Álgebra Lineal por René A Hernández-Toledo, 2008
    • MIT Linear Algebra Video Lectures,
    • International Linear Algebra Society
    • Hazewinkel, Michiel, ed. (2001), «Linear algebra», Encyclopaedia of Mathematics (en inglés), Springer, ISBN 978-1556080104 .
    • Linear Algebra on MathWorld
    • Matrix and Linear Algebra Terms on Earliest Known Uses of Some of the Words of Mathematics
    • Earliest Uses of Symbols for Matrices and Vectors on Earliest Uses of Various Mathematical Symbols
    • Essence of linear algebra, a video presentation from 3Blue1Brown of the basics of linear algebra, with emphasis on the relationship between the geometric, the matrix and the abstract points of view
    •   Datos: Q82571
    •   Multimedia: Linear algebra
    •   Libros y manuales: Matemáticas/Álgebra Lineal
    •   Recursos didácticos: Curso de Álgebra Lineal

Álgebra, lineal, álgebra, lineal, rama, matemáticas, estudia, conceptos, tales, como, vectores, matrices, espacio, dual, sistemas, ecuaciones, lineales, enfoque, manera, más, formal, espacios, vectoriales, transformaciones, lineales, espacio, euclídeo, tridime. El algebra lineal es una rama de las matematicas que estudia conceptos tales como vectores matrices espacio dual sistemas de ecuaciones lineales y en su enfoque de manera mas formal espacios vectoriales y sus transformaciones lineales El espacio euclideo tridimensional R3 es un espacio vectorial y las lineas y los planos que pasan por el origen son subespacios vectoriales de R3 Dicho de otra forma el Algebra lineal es la rama de las matematicas que se ocupa de las ecuaciones lineales como a 1 x 1 a n x n b displaystyle a 1 x 1 cdots a n x n b y aplicaciones lineales tales como x 1 x n a 1 x 1 a n x n displaystyle x 1 ldots x n mapsto a 1 x 1 cdots a n x n y sus representaciones en espacios vectoriales y a traves de matrices 1 2 3 El algebra lineal es fundamental en casi todas las areas de las matematicas Por ejemplo el algebra lineal es fundamental en las presentaciones modernas de la geometria incluso para definir objetos basicos como lineas planos y rotaciones Ademas el analisis funcional una rama del analisis matematico puede considerarse basicamente como la aplicacion del algebra lineal al espacios de funciones El algebra lineal tambien se utiliza en la mayoria de las ciencias y campos de la ingenieria porque permite modelar muchos fenomenos naturales y computar eficientemente con dichos modelos Para los sistemas no lineales que no pueden ser modelados con el algebra lineal se utiliza a menudo para tratar la aproximaciones de primer orden utilizando el hecho de que la diferencial de una funcion multivariante en un punto es el mapa lineal que mejor aproxima la funcion cerca de ese punto asi como el analisis funcional las ecuaciones diferenciales la investigacion de operaciones las graficas por computadora la ingenieria entre otras mas La historia del algebra lineal moderna se remonta a 1843 cuando William Rowan Hamilton de quien proviene el uso del termino vector creo los cuaterniones inspirado en los numeros complejos 4 y a 1844 cuando Hermann Grassmann publico su libro Die lineare Ausdehnungslehre La teoria lineal de extension Indice 1 Historia 2 Contexto general 3 Espacios vectoriales 3 1 Antecedentes 3 2 Algunas operaciones basicas 3 3 Aplicaciones lineales 3 4 Subespacios intervalo y base 4 Matrices 5 Sistemas lineales 6 Endomorfismos y matrices cuadradas 6 1 Determinantes 6 2 Valores propios y vectores propios 7 Dualidad 7 1 Mapa lineal de un espacio vectorial a su campo de escalares 7 2 Mapa dual 8 Espacios vectoriales de uso comun 8 1 Vectores en Rn 8 2 Espacio vectorial de polinomios en una misma variable 9 Generalizacion y temas relacionados 10 Relacion con la geometria 11 Utilizacion y aplicaciones 11 1 Geometria del espacio ambiental 11 2 Analisis funcional 11 3 Estudio de sistemas complejos 11 4 Calculo cientifico 12 Vease tambien 13 Referencias 14 Fuentes principales 15 Bibliografia 15 1 Historia 15 2 Libros de texto introductorios 15 3 Libros de texto avanzados 16 Enlaces externosHistoria EditarEl procedimiento para resolver ecuaciones lineales simultaneas que ahora se denomina eliminacion gaussiana aparece en el antiguo texto matematico chino Calculo de barras Sistema de ecuaciones lineales Capitulo octavo Matrices rectangulares de Los nueve capitulos sobre el arte matematico Su uso se ilustra en dieciocho problemas con dos a cinco ecuaciones 5 Los Sistemas de ecuaciones lineales surgieron en Europa con la introduccion en 1637 por Rene Descartes de las coordenadas en la geometria De hecho en esta nueva geometria ahora llamada geometria cartesiana las lineas y los planos estan representados por ecuaciones lineales y calcular sus intersecciones equivale a resolver sistemas de ecuaciones lineales Los primeros metodos sistematicos para resolver sistemas lineales utilizaban determinantes considerados por primera vez por Leibniz en 1693 En 1750 Gabriel Cramer los utilizo para dar soluciones explicitas de sistemas lineales lo que ahora se llama regla de Cramer Mas tarde Gauss describio aun mas el metodo de eliminacion que inicialmente fue catalogado como un avance en geodesia 6 En 1844 Hermann Grassmann publico su Teoria de la Extension que incluia nuevos temas fundacionales de lo que hoy se llama algebra lineal En 1848 James Joseph Sylvester introdujo el termino matriz que en latin significa vientre El algebra lineal crecio con las ideas anotadas en el plano complejo Por ejemplo dos numeros w y z en ℂ tienen una diferencia w z y los segmentos de linea w z displaystyle overline wz y 0 w z displaystyle overline 0 w z tienen la misma longitud y direccion Los segmentos son equipolentes El sistema cuatridimensional ℍ de cuaterniones se inicio en 1843 El termino vector fue introducido como v x i y j z k representando un punto en el espacio La diferencia de cuaterniones p q tambien produce un segmento equipolente a la p q displaystyle overline pq Otros sistemas de numeros hipercomplejos tambien utilizaron la idea de un espacio lineal con una base Arthur Cayley introdujo la multiplicacion matricial y la matriz inversa en 1856 haciendo posible el grupo lineal general El mecanismo de representacion de grupo se hizo disponible para describir los numeros complejos e hipercomplejos Fundamentalmente Cayley utilizo una sola letra para denotar una matriz tratando asi una matriz como un objeto agregado Tambien se dio cuenta de la conexion entre las matrices y los determinantes y escribio Habria muchas cosas que decir sobre esta teoria de las matrices que deberian me parece preceder a la teoria de los determinantes 6 Benjamin Peirce publico su Algebra lineal asociativa 1872 y su hijo Charles Sanders Peirce amplio el trabajo posteriormente 7 El telegrafo requeria un sistema explicativo y la publicacion en 1873 de A Treatise on Electricity and Magnetism instituyo una teoria de campos de fuerzas y requirio la geometria diferencial para su expresion El algebra lineal es geometria diferencial plana y sirve en los espacios tangentes a los colectores Las simetrias electromagneticas del espaciotiempo se expresan mediante las transformaciones de Lorentzs y gran parte de la historia del algebra lineal es la historia de las transformaciones de Lorentz La primera definicion moderna y mas precisa de un espacio vectorial fue introducida por Peano en 1888 6 en 1900 habia surgido una teoria de las transformaciones lineales de los espacios vectoriales de dimension finita El algebra lineal tomo su forma moderna en la primera mitad del siglo XX cuando muchas ideas y metodos de siglos anteriores se generalizaron como algebra abstracta El desarrollo de los ordenadores hizo que aumentara la investigacion de algoritmos eficientes para la eliminacion gaussiana y las descomposiciones matriciales y el algebra lineal se convirtio en una herramienta esencial para la modelizacion y las simulaciones 6 Contexto general EditarDe manera mas formal el algebra lineal estudia conjuntos denominados espacios vectoriales los cuales constan de un conjunto de vectores y un conjunto de escalares que tiene estructura de campo con una operacion de suma de vectores y otra de producto entre escalares y vectores que satisfacen ciertas propiedades por ejemplo que la suma es conmutativa Estudia tambien transformaciones lineales que son funciones entre espacios vectoriales que satisfacen las condiciones de linealidad T u v T u T v T r u r T u displaystyle T u v T u T v qquad T r cdot u r cdot T u A diferencia del ejemplo desarrollado en la seccion anterior los vectores no necesariamente son n adas de escalares sino que pueden ser elementos de un conjunto cualquiera de hecho a partir de todo conjunto puede construirse un espacio vectorial sobre un campo fijo Finalmente el algebra lineal estudia tambien las propiedades que aparecen cuando se impone estructura adicional sobre los espacios vectoriales siendo una de las mas frecuentes la existencia de un producto interno una especie de producto entre dos vectores que permite introducir nociones como longitud de vectores y angulo entre un par de los mismos Espacios vectoriales EditarArticulo principal Espacio vectorial Antecedentes Editar Hasta el siglo XIX el algebra lineal se presentaba a traves de sistemas de ecuaciones lineales y matrices En la matematica moderna se prefiere generalmente la presentacion a traves de espacios vectoriales ya que es mas sintetica mas general no se limita al caso de dimension finita y conceptualmente mas sencilla aunque mas abstracta Algunas operaciones basicas Editar Un espacio vectorial sobre un campo F con frecuencia el campo de los numeros reales es un Conjunto V dotado de dos operaciones binarias que satisfacen los siguientes axiomass Los elementos de V se llaman vectores y los elementos de F se llaman escalares La primera operacion la suma de vectores se expresa de la siguiente manera tomese dos vectores cualesquiera v y w la suma tiene como resultado un tercer vector v w La segunda operacion multiplicacion escalar se expresa de la siguiente manera tomese cualquier escalar a y cualquier vector v y produce un nuevo vector av Los axiomas que deben satisfacer la suma y la multiplicacion escalar son los siguientes siendo en la lista siguiente u v y w elementos arbitrarios de V y a y b son escalares arbitrarios en el campo F 8 Axioma SignificacionAsociativa de adicion u v w u v wConmutativa de adicion u v v uElemento neutro de adicion Existe un elemento 0 en V llamado el vector cero o simplrmente cero tal que v 0 v se cumple para todo v del conjunto V Elemento simetrico se adicion Para todo v en V existe un elemento v in V llamado el aditivo inverso de v tal que v v 0Distributividad de la multiplicacion escalar con respecto a la suma vectorial a u v au avDistributividad de la multiplicacion escalar con respecto a la suma de campos a b v av bvCompatibilidad de la multiplicacion escalar con la multiplicacion de campos a bv ab v 9 Elemento de identidad de la multiplicacion escalar 1v v donde 1 indica el elemento neutro de F Aplicaciones lineales Editar Articulo principal Aplicacion lineal Las aplicaciones lineales son mapeos entre espacios vectoriales que preservan la estructura del espacio vectorial Dados dos espacios vectoriales V y W sobre un campo F un mapa lineal tambien llamado en algunos contextos transformacion lineal o mapeo lineal es un mapa o aplicacion T V W displaystyle T V to W que es compatible con la suma y la multiplicacion escalar es decir T u v T u T v T a v a T v displaystyle T mathbf u mathbf v T mathbf u T mathbf v quad T a mathbf v aT mathbf v para los vectores u v in V y escaleres a en F Esto implica que para cualquier vector u v en V y escalares a b en F se tiene T a u b v T a u T b v a T u b T v displaystyle T a mathbf u b mathbf v T a mathbf u T b mathbf v aT mathbf u bT mathbf v Donde V W son el mismo espacio vectorial un mapa lineal T V V displaystyle T V to V tambien se conoce como un operador lineal en V Un mapa lineal biyectivo entre dos espacios vectoriales es decir cada vector del segundo espacio se asocia exactamente con uno en el primero es un isomorfismo Dado que un isomorfismo preserva la estructura lineal dos espacios vectoriales isomorfos son esencialmente iguales desde el punto de vista del algebra lineal en el sentido de que no pueden distinguirse utilizando las propiedades del espacio vectorial Una cuestion esencial en el algebra lineal es probar si un mapa lineal es un isomorfismo o no y si no es un isomorfismo encontrar su rango o imagen y el conjunto de elementos que son mapeados al vector cero llamado el nucleo del mapa Todas estas cuestiones pueden resolverse mediante el uso de la eliminacion gaussiana o alguna variante de este algoritmo Subespacios intervalo y base Editar Articulos principales Subespacio vectorial Sistema generadory Base algebra El estudio de aquellos subconjuntos de espacios vectoriales que son en si mismos espacios vectoriales bajo las operaciones inducidas es fundamental al igual que para muchas estructuras matematicas Estos subconjuntos se denominan subespacios lineales Mas precisamente un subespacio lineal de un espacio vectorial V sobre un campo F es un subconjunto de W of V tal que u v y au estan en W para todo u v en W y todo a in F Estas condiciones son suficientes para implicar que W es un espacio vectorial Por ejemplo dado un campo lineal T V W displaystyle T V to W la imagen T V de V y la imagen inversa T 1 0 de 0 llamada nucleo o kernel son subespacios lineales de W y V respectivamente Otra forma importante de formar un subespacio es considerar las combinaciones lineales de un conjunto S de vectores el conjunto de todas las sumas a 1 v 1 a 2 v 2 a k v k displaystyle a 1 mathbf v 1 a 2 mathbf v 2 cdots a k mathbf v k donde v1 v2 vk estan en S y a1 a2 ak estan en F forman un subespacio lineal llamado Sistema generador de S El sistema generador de S es tambien la interseccion de todos los subespacios lineales que contienen a S En otras palabras es el subespacio lineal mas pequeno para la relacion de inclusion que contiene a S Un conjunto de vectores es linealmente independiente si ninguno esta en el intervalo de los demas De manera equivalente un conjunto S de vectores es linealmente independiente si la unica forma de expresar el vector cero como una combinacion lineal de elementos de S es tomar cero para cada coeficiente a i displaystyle a i Un conjunto de vectores que abarca un espacio vectorial se denomina conjunto de expansion o sistema generador Si un conjunto generador S es linealmente dependiente que no es linealmente independiente entonces algun elemento w de S es en el lapso de los otros elementos de S y el lapso seguiria siendo el mismo si uno remove w de S Se puede continuar eliminando elementos de S hasta obtener un conjunto de expansion linealmente independiente Un conjunto linealmente independiente que abarca un espacio vectorial V se llama base de V La importancia de las bases radica en el hecho de que hay juntos grupos electrogenos minimos y grupos independientes maximos Mas precisamente si S es un conjunto linealmente independiente y T es un conjunto de expansion tal que S T displaystyle S subseteq T entonces hay una base B tal que S B T displaystyle S subseteq B subseteq T Si dos bases cualesquiera de un espacio vectorial V tienen la misma cardinalidad que se llama dimension este es el Teorema de la dimension de espacios vectoriales Ademas dos espacios vectoriales sobre el mismo campo F son isomorfos si y solo si tienen la misma dimension 10 Si alguna base de V y por lo tanto cada base tiene un numero finito de elementos V es un espacio vectorial de dimension finita Si U es un subespacio de V entonces dim U dim V En el caso en el que V es de dimension finita la igualdad de las dimensiones implica que U V Si U1 y U2 son subespacios de V entonces dim U 1 U 2 dim U 1 dim U 2 dim U 1 U 2 displaystyle dim U 1 U 2 dim U 1 dim U 2 dim U 1 cap U 2 donde U 1 U 2 displaystyle U 1 U 2 denota el lapso de U 1 U 2 displaystyle U 1 cup U 2 11 Matrices EditarArticulo principal Matriz matematicas La matriz es una disposicion rectangular de numeros simbolos o expresiones cuyas dimensiones son descritas en las cantidades de filas usualmente m por las de columnas n que poseen Las disposiciones matriciales son particularmente estudiados por el algebra lineal y son bastante usados en ciencias e ingenieria Las matrices permiten la manipulacion explicita de espacios vectoriales de dimension finita y mapas lineales Por tanto su teoria es una parte esencial del algebra lineal Sea V un espacio vectorial de dimension finita sobre un campo F y v1 v2 vm es una base de V por lo tanto m es ladimension de V Por definicion de una base el mapa a 1 a m a 1 v 1 a m v m F m V displaystyle begin aligned a 1 ldots a m amp mapsto a 1 mathbf v 1 cdots a m mathbf v m F m amp to V end aligned es una biyeccion de F m displaystyle F m el conjunto de las secuencias de m elementos de V sobre la V Este es un isomorfismo de espacios vectoriales si F m displaystyle F m esta equipado con su estructura estandar de espacio vectorial donde la suma de vectores y la multiplicacion escalar se realizan componente por componente Este isomorfismo permite representar un vector por su imagen inversa bajo este isomorfismo es decir por las componentes de un vector de coordenadas Displaystyle a 1 ldots a m Displaystyle a 1 ldots a m o por la matriz de columnas a 1 a m displaystyle a 1 ldots a m o mediante la matriz vertical a 1 a m displaystyle begin bmatrix a 1 vdots a m end bmatrix Si W es otro espacio vectorial de dimension finita posiblemente el mismo con una base w 1 w n displaystyle mathbf w 1 ldots mathbf w n un mapa lineal f de W a V esta bien definido por sus valores en los elementos base es decir Displaystyle f mathbf w 1 ldots f mathbf w n Displaystyle f mathbf w 1 ldots f mathbf w n Por tanto f esta bien representada por la lista de las matrices de columna correspondientes Es decir si f w j a 1 j v 1 a m j v m displaystyle f w j a 1 j v 1 cdots a m j v m con j 1 n entonces f viene representada por una matriz a 1 1 a 1 n a m 1 a m n displaystyle begin bmatrix a 1 1 amp cdots amp a 1 n vdots amp ddots amp vdots a m 1 amp cdots amp a m n end bmatrix con m filas y n columnas La multiplicacion de matrices se define de forma que el producto de dos matrices es la matriz de la composicion de los mapas lineales correspondientes y el producto de una matriz y una matriz columna es la matriz columna que representa el resultado de aplicar el mapa lineal representado al vector representado Se deduce que la teoria de los espacios vectoriales de dimension finita y la teoria de las matrices son dos lenguajes diferentes para expresar exactamente los mismos conceptos Dos matrices que codifican la misma transformacion lineal en bases diferentes se llaman matrices similares Se puede demostrar que dos matrices son similares si y solo si se puede transformar una en la otra mediante operaciones elementales de filas y columnas Para una matriz que representa un mapa lineal de W a V las operaciones de fila corresponden a cambio de bases en V y las operaciones de columna corresponden a cambio de bases en W Toda matriz es similar a una matriz identidad bordeada por filas y columnas nulas En terminos de espacios vectoriales esto significa que para cualquier mapa lineal de W a V hay bases tales que una parte de la base de W se mapea biyectivamente en una parte de la base de V y que los elementos restantes de la base de W si los hay se mapean a cero La eliminacion gaussiana es el algoritmo basico para encontrar estas operaciones elementales y demostrar estos resultados Sistemas lineales EditarArticulo principal Sistema de ecuaciones lineales Un conjunto finito de ecuaciones lineales en un conjunto finito de variables por ejemplo x 1 x 2 x n displaystyle x 1 x 2 ldots x n or x y z displaystyle x y ldots z se llama sistema de ecuaciones lineales o sistema lineal 12 13 14 15 16 Los sistemas de ecuaciones lineales constituyen una parte fundamental del algebra lineal Historicamente el algebra lineal y la teoria de matrices se han desarrollado para resolver dichos sistemas En la presentacion moderna del algebra lineal mediante espacios vectoriales y matrices muchos problemas pueden interpretarse en terminos de sistemas lineales Por ejemplo 2 x y z 8 3 x y 2 z 11 2 x y 2 z 3 displaystyle begin alignedat 7 2x amp amp amp amp y amp amp amp amp z amp amp amp amp 8 3x amp amp amp amp y amp amp amp amp 2z amp amp amp amp 11 2x amp amp amp amp y amp amp amp amp 2z amp amp amp amp 3 end alignedat S es un sistema lineal A dicho sistema se le puede asociar su matriz M 2 1 1 3 1 2 2 1 2 displaystyle M left begin array rrr 2 amp 1 amp 1 3 amp 1 amp 2 2 amp 1 amp 2 end array right y su vector de miembro derecho v 8 11 3 displaystyle mathbf v begin bmatrix 8 11 3 end bmatrix Sea T la transformacion lineal asociada a la matriz M Una solucion del sistema S es un vector X x y z displaystyle mathbf X begin bmatrix x y z end bmatrix tal que T X v displaystyle T mathbf X mathbf v que es un elemento de la imagen inversa de v por T Sea S el sistema homogeneo asociado donde los lados derechos de las ecuaciones se ponen a cero 2 x y z 0 3 x y 2 z 0 2 x y 2 z 0 displaystyle begin alignedat 7 2x amp amp amp amp y amp amp amp amp z amp amp amp amp 0 3x amp amp amp amp y amp amp amp amp 2z amp amp amp amp 0 2x amp amp amp amp y amp amp amp amp 2z amp amp amp amp 0 end alignedat S Las soluciones de S son exactamente los elementos del nucleo de T o equivalentemente M La eliminacion gaussiana consiste en realizar operaciones elementales de filas en la matriz aumentada M v 2 1 1 8 3 1 2 11 2 1 2 3 displaystyle left begin array c c M amp mathbf v end array right left begin array rrr r 2 amp 1 amp 1 amp 8 3 amp 1 amp 2 amp 11 2 amp 1 amp 2 amp 3 end array right para ponerlo en forma escalonada reducida Estas operaciones de fila no cambian el conjunto de soluciones del sistema de ecuaciones En el ejemplo la forma escalonada reducida es M v 1 0 0 2 0 1 0 3 0 0 1 1 displaystyle left begin array c c M amp mathbf v end array right left begin array rrr r 1 amp 0 amp 0 amp 2 0 amp 1 amp 0 amp 3 0 amp 0 amp 1 amp 1 end array right mostrando x 2 y 3 z 1 displaystyle begin aligned x amp 2 y amp 3 z amp 1 end aligned De esta interpretacion matricial de los sistemas lineales se deduce que los mismos metodos pueden aplicarse para resolver sistemas lineales y para muchas operaciones sobre matrices y transformaciones lineales que incluyen el calculo del rangos nucleos y matriz inversa que el sistema S tiene la solucion unica x 2 y 3 z 1 displaystyle begin aligned x amp 2 y amp 3 z amp 1 end aligned De esta interpretacion matricial de los sistemas lineales se deduce que los mismos metodos pueden aplicarse para resolver sistemas lineales y para muchas operaciones sobre matrices y transformaciones lineales que incluyen el calculo del rangos nucleos y matriz inversa Endomorfismos y matrices cuadradas EditarArticulo principal Matriz cuadrada Un endomorfismo lineal es un mapa lineal que mapea un espacio vectorial V a si mismo Si V tiene una base de n elementos tal endomorfismo se representa mediante una matriz cuadrada de tamano n Con respecto a los mapas lineales generales los endomorfismos lineales y las matrices cuadradas tienen algunas propiedades especificas que hacen que su estudio sea una parte importante del algebra lineal que se usa en muchas partes de las matematicas incluidas las transformaciones geometricas los cambios de coordenadas las formas cuadraticas y muchas otras de las matematicas Determinantes Editar Articulo principal Determinante matematica El determinante de una matriz cuadrada A se define como 17 s S n 1 s a 1 s 1 a n s n displaystyle sum sigma in S n 1 sigma a 1 sigma 1 cdots a n sigma n donde S n displaystyle S n es el grupo de todas las permutaciones de n elementos s displaystyle sigma es una permutacion y y 1 s displaystyle 1 sigma la paridad de la permutacion Una matriz es invertible si y solo si el determinante es invertible es decir distinto de cero si los escalares pertenecen a un campo La regla de Cramer es una expresion de forma cerrada en terminos de determinantes de la solucion de un sistema de n ecuaciones lineales en n incognitas La regla de Cramer es util para razonar sobre la solucion pero excepto para n 2 o 3 rara vez se utiliza para calcular una solucion ya que la eliminacion gaussiana es un algoritmo mas rapido El determinante de un endomorfismo es el determinante de la matriz que representa el endomorfismo en terminos de alguna base ordenada Esta definicion tiene sentido ya que este determinante es independiente de la eleccion de la base Valores propios y vectores propios Editar Articulo principal Vector propio y valor propio Si f es un endomorfismo lineal de un espacio vectorial V sobre un campo F un vector propio de f es un vector v de V no nulo tal que f v av para algun escalar a en F Este escalar a es un valor propio de f Si la dimension de V es finita y se ha elegido una base f y v pueden representarse respectivamente por una matriz cuadrada M y una matriz de columnas z la ecuacion que define los vectores y valores propios se convierte en M z a z displaystyle Mz az Utilizando la matriz identidad I cuyas entradas son todas cero excepto las de la diagonal principal que son iguales a uno esto puede reescribirse M a I z 0 displaystyle M aI z 0 Como se supone que z es distinto de cero esto significa que M aI es una matriz singular y por tanto que su determinante det M a I displaystyle det M aI es igual a cero Los valores propios son pues la raices del polinomio det x I M displaystyle det xI M Si V es de dimension n se trata de un polinomio monico de grado n llamado polinomio caracteristico de la matriz o del endomorfismo y hay como maximo n valores propios Si existe una base que consiste solo en vectores propios la matriz de f en esta base tiene una estructura muy simple es una matriz diagonal tal que las entradas en la diagonal principal son valores propios y las otras entradas son cero En este caso se dice que el endomorfismo y la matriz son diagonalizable De forma mas general un endomorfismo y una matriz tambien se dicen diagonalizables si se convierten en diagonalizables despues de extender el campo de escalares En este sentido extendido si el polinomio caracteristico es square free entonces la matriz es diagonalizable Una matriz simetrica es siempre diagonalizable Existen matrices no diagonalizables siendo la mas sencilla 0 1 0 0 displaystyle begin bmatrix 0 amp 1 0 amp 0 end bmatrix no puede ser diagonalizable ya que su cuadrado es la matriz cero y el cuadrado de una matriz diagonal no nula nunca es cero Cuando un endomorfismo no es diagonalizable hay bases en las que tiene una forma simple aunque no tan simple como la forma diagonal La forma normal de Frobenius no necesita extender el campo de escalares y hace que el polinomio caracteristico sea inmediatamente legible sobre la matriz La forma normal de Jordan requiere extender el campo de escalares para contener todos los valores propios y difiere de la forma diagonal solo por algunas entradas que estan justo encima de la diagonal principal y son iguales a 1 Dualidad EditarArticulo principal Espacio dual Una forma lineal es un mapa lineal desde un espacio vectorial V displaystyle V sobre un campo F displaystyle F al campo de escalares F displaystyle F visto como un espacio vectorial sobre si mismo Equipadas por la adicion puntual y la multiplicacion por un escalar las formas lineales forman un espacio vectorial llamado espacio dual de V displaystyle V y usualmente denotado V displaystyle V Katznelson Katznelson y 2008 p 37 2 1 3 o V displaystyle V Halmos y 1974 p 20 13 Axler y 2015 p 101 3 94 Mapa lineal de un espacio vectorial a su campo de escalares Editar Si v 1 v n displaystyle mathbf v 1 ldots mathbf v n es una base de V displaystyle V esto implica que V es de dimension finita entonces se puede definir para i 1 n un mapa lineal v i displaystyle v i tal que v i e i 1 displaystyle v i mathbf e i 1 y v i e j 0 displaystyle v i mathbf e j 0 si j i Estos mapas lineales forman una base de V displaystyle V llamada la base dual de v 1 v n displaystyle mathbf v 1 ldots mathbf v n Si V no es de dimension finita los v i displaystyle v i pueden definirse de forma similar son linealmente independientes pero no forman una base Para v displaystyle mathbf v en V displaystyle V el mapa f f v displaystyle f to f mathbf v es una forma lineal en V displaystyle V Esto define el mapa lineal canonico de V displaystyle V en V displaystyle V el dual de V displaystyle V llamado el bidual of V displaystyle V Este mapa canonico es un isomorfismo si V displaystyle V es finito dimensional y esto permite identificar V displaystyle V con su bidual Existe pues una simetria completa entre un espacio vectorial de dimension finita y su dual Esto motiva el uso frecuente en este contexto de la notacion bra ket f x displaystyle langle f mathbf x rangle para denotar f x displaystyle f mathbf x Mapa dual Editar Dejemos que f V W displaystyle f V to W sea un mapa lineal Para toda forma lineal h sobre W la funcion compuesta h f es una forma lineal sobre V Esto define un mapa lineal f W V displaystyle f W to V entre los espacios duales que se llama el dual o la transposicion de f Si V y W son de dimension finita y M es la matriz de f en terminos de algunas bases ordenadas entonces la matriz de f displaystyle f sobre las bases duales es la transposicion M T displaystyle M mathsf T de M obtenida intercambiando filas y columnas Si los elementos de los espacios vectoriales y sus duales se representan mediante vectores columna esta dualidad puede expresarse en notacion bra ket mediante h T M v h T M v displaystyle langle h mathsf T M mathbf v rangle langle h mathsf T M mathbf v rangle Para resaltar esta simetria los dos miembros de esta igualdad se escriben a veces h T M v displaystyle langle h mathsf T mid M mid mathbf v rangle Espacios vectoriales de uso comun EditarDentro de los espacios vectoriales de dimension finita son de amplio uso los dos tipos siguientes de espacios vectoriales Vectores en Rn Editar Este espacio vectorial esta formado por el conjunto de vectores de n dimensiones es decir con n numero de componentes Podemos encontrar un ejemplo de ellos en los vectores R2 que son famosos por representar las coordenadas cartesianas 2 3 3 4 Espacio vectorial de polinomios en una misma variable Editar Un ejemplo de espacio vectorial esta dado por todos los polinomios cuyo grado es menor o igual a 2 con coeficientes reales sobre una variable x Ejemplos de tales polinomios son 4 x 2 5 x 1 2 x 2 7 3 8 x 4 5 displaystyle 4x 2 5x 1 quad frac 2x 2 7 3 quad 8x 4 quad 5 La suma de dos polinomios cuyo grado no excede a 2 es otro polinomio cuyo grado no excede a 2 3 x 2 5 x 1 4 x 8 3 x 2 x 7 displaystyle 3x 2 5x 1 4x 8 3x 2 x 7 El campo de escalares es naturalmente el de los numeros reales y es posible multiplicar un numero por un polinomio 5 2 x 3 10 x 15 displaystyle 5 cdot 2x 3 10x 15 donde el resultado nuevamente es un polinomio es decir un vector Un ejemplo de transformacion lineal es el operador derivada D que asigna a cada polinomio el resultado de derivarlo D 3 x 2 5 x 7 6 x 5 displaystyle D 3x 2 5x 7 6x 5 El operador derivada satisface las condiciones de linealidad y aunque es posible demostrarlo con rigor simplemente lo ilustramos con un ejemplo la primera condicion de linealidad D 4 x 2 5 x 3 x 2 x 1 D 5 x 2 4 x 4 10 x 4 displaystyle D 4x 2 5x 3 x 2 x 1 D 5x 2 4x 4 10x 4 y por otro lado D 4 x 2 5 x 3 D x 2 x 1 8 x 5 2 x 1 10 x 4 displaystyle D 4x 2 5x 3 D x 2 x 1 8x 5 2x 1 10x 4 Cualquier espacio vectorial tiene una representacion en coordenadas similar a R n displaystyle mathbb R n lo cual se obtiene mediante la eleccion de una base algebra es decir un conjunto especial de vectores y uno de los temas recurrentes en el algebra lineal es la eleccion de bases apropiadas para que los vectores de coordenadas y las matrices que representan las transformaciones lineales tengan formas sencillas o propiedades especificas Generalizacion y temas relacionados EditarPuesto que el algebra lineal es una teoria muy exitosa sus metodos se han proliferado por otras areas de la matematica en la teoria de modulos que remplaza al cuerpo en los escalares por un anillo en el algebra multilineal uno lidia con multiples variables en un problema de mapeo lineal en el que cada numero de las diferentes variables se dirige al concepto de tensor e incluso en el ambito de la programacion ya que hoy en dia la indexacion de paginas web se basa en metodos del algebra lineal 18 en la teoria del espectro de los operadores de control de matrices de dimension infinita aplicando el analisis matematico en una teoria que no es puramente algebraica En todos estos casos las dificultades tecnicas son mucho mas grandes Relacion con la geometria EditarExiste una fuerte relacion entre el algebra lineal y la geometria que comenzo con la introduccion por Rene Descartes en 1637 de las coordenadas cartesianas En esta nueva en ese momento geometria ahora llamada geometria cartesiana los puntos se representan mediante coordenadas cartesianas que son secuencias de tres numeros reales en el caso del espacio tridimensional habitual Los objetos basicos de la geometria que son las lineas y los planos se representan mediante ecuaciones lineales Por tanto calcular las intersecciones de lineas y planos equivale a resolver sistemas de ecuaciones lineales Esta fue una de las principales motivaciones para desarrollar el algebra lineal La mayoria de las transformaciones geometricas como las traslaciones rotaciones reflexiones movimientos rigidos isometrias y proyecciones transforman lineas en lineas De ello se deduce que se pueden definir especificar y estudiar en terminos de mapas lineales Este es tambien el caso de las homografias y las transformaciones de Mobius cuando se consideran como transformaciones de un espacio proyectivo Hasta finales del siglo XIX los espacios geometricos se definian mediante axiomas que relacionaban puntos lineas y planos geometria sintetica Alrededor de esta fecha aparecio que tambien se pueden definir los espacios geometricos mediante construcciones que implican espacios vectoriales vease por ejemplo Espacio proyectivo y Espacio afin Se ha demostrado que los dos enfoques son esencialmente equivalentes 19 En la geometria clasica los espacios vectoriales implicados son espacios vectoriales sobre los reales pero las construcciones pueden extenderse a espacios vectoriales sobre cualquier campo permitiendo considerar la geometria sobre campos arbitrarios incluyendo campos finitos Actualmente la mayoria de los libros de texto introducen los espacios geometricos desde el algebra lineal y la geometria se presenta a menudo a nivel elemental como un subcampo del algebra lineal Utilizacion y aplicaciones EditarEl algebra lineal se utiliza en casi todas las areas de las matematicas por lo que es relevante en casi todos los ambitos cientificos que utilizan las matematicas Estas aplicaciones pueden dividirse en varias categorias amplias Geometria del espacio ambiental Editar El modelo del espacio ambiental se basa en la geometria Las ciencias que se ocupan de este espacio utilizan ampliamente la geometria Es el caso de la mecanica y la robotica para describir la dinamica de cuerpos rigidos la geodesia para describir la forma de la Tierra la perspectiva la Vision artificial y los graficos por ordenador para describir la relacion entre una escena y su representacion en el plano y muchos otros dominios cientificos En todas estas aplicaciones la geometria sintetica suele utilizarse para descripciones generales y un enfoque cualitativo pero para el estudio de situaciones explicitas hay que calcular con coordenadas Esto requiere el uso intensivo del algebra lineal Analisis funcional Editar El Analisis funcional estudia los espacios de funciones Estos son espacios vectoriales con estructura adicional como los espacios de Hilbert El algebra lineal es por tanto una parte fundamental del analisis funcional y sus aplicaciones que incluyen en particular la mecanica cuantica funcion de onda Estudio de sistemas complejos Editar La mayoria de los fenomenos fisicos se modelan mediante ecuaciones diferenciales parciales Para resolverlas se suele descomponer el espacio en el que se buscan las soluciones en pequenas celulas que interactuan entre si Para los sistemas lineales esta interaccion implica funcion lineal Para sistemas no lineales esta interaccion suele aproximarse mediante funciones lineales 20 En ambos casos suelen intervenir matrices muy grandes Un ejemplo tipico es la prediccion meteorologica en la que toda la atmosfera de la Tierra se divide en celdas de por ejemplo 100 km de ancho y 100 m de alto Calculo cientifico Editar Casi todos los calculos cientificos implican algebra lineal En consecuencia los algoritmos de algebra lineal han sido altamente optimizados Los BLAS y LAPACK son las implementaciones mas conocidas Para mejorar la eficiencia algunas de ellas configuran los algoritmos automaticamente en tiempo de ejecucion para adaptarlos a las especificidades del ordenador cache tamano numero de nucleos disponible Algunos procesador normalmente Unidad de procesamiento grafico GPU estan disenados con una estructura matricial para optimizar las operaciones de algebra lineal Vease tambien Editar Portal Matematica Contenido relacionado con Matematica Referencias Editar Banerjee Sudipto Roy Anindya 2014 Linear Algebra and Matrix Analysis for Statistics Texts in Statistical Science 1st edicion Chapman and Hall CRC ISBN 978 1420095388 Strang Gilbert July 19 2005 Linear Algebra and Its Applications 4th edicion Brooks Cole ISBN 978 0 03 010567 8 Weisstein Eric Linear Algebra From MathWorld A Wolfram Web Resource Wolfram Consultado el 16 April 2012 Vazquez Gutierrez Hamilton La liberacion del algebra revistasuma es Consultado el 22 de enero de 2019 Hart Roger 2010 Las raices chinas del algebra lineal JHU Press ISBN 9780801899584 a b c d Vitulli Marie Una breve historia del algebra lineal y de la teoria matricial Universidad de Oregon Archivado desde uoregon edu vitulli 441 sp04 LinAlgHistory html el original el 10 de septiembre de 2012 Consultado el 8 de julio de 2014 Benjamin Peirce 1872 Algebra asociativa lineal litografia nueva edicion con correcciones notas y un trabajo anadido de 1875 de Peirce mas notas de su hijo Charles Sanders Peirce publicado en el American Journal of Mathematics v 4 1881 Universidad Johns Hopkins pp 221 226 Google Eprint y como extracto D Van Nostrand 1882 Google Eprint Roman 2005 ch 1 p 27 Este axioma no esta afirmando la asociatividad de una operacion ya que hay dos operaciones en cuestion la multiplicacion escalar bv y la multiplicacion de campos ab Axler 2015 p 82 3 59 Axler 2015 p 23 1 45 Anton 1987 p 2 Beauregard y Fraleigh 1973 p 65 Burden y Faires 1993 p 324 Golub y Van Loan 1996 p 87 Harper 1976 p 57 Katznelson Katznelson y 2008 pp 76 77 4 4 1 4 4 6 SIAM Society for Industrial and Applied Mathematics epubs siam org doi 10 1137 050623280 Consultado el 22 de enero de 2019 Emil Artin 1957 Algebra Geometrica Interscience Publishers Esto puede tener como consecuencia que se omitan algunas soluciones fisicamente interesantes Fuentes principales EditarAnton Howard 1987 Elementary Linear Algebra 5th edicion New York Wiley ISBN 0 471 84819 0 Axler Sheldon 2015 Linear Algebra Done Right Undergraduate Texts in Mathematics 3rd edicion Springer Publishing ISBN 978 3 319 11079 0 Beauregard Raymond A Fraleigh John B 1973 A First Course In Linear Algebra with Optional Introduction to Groups Rings and Fields Boston Houghton Mifflin Company ISBN 0 395 14017 X requiere registro Burden Richard L Faires J Douglas 1993 Numerical Analysis 5th edicion Boston Prindle Weber and Schmidt ISBN 0 534 93219 3 requiere registro Golub Gene H Van Loan Charles F 1996 Matrix Computations Johns Hopkins Studies in Mathematical Sciences 3rd edicion Baltimore Johns Hopkins University Press ISBN 978 0 8018 5414 9 Halmos Paul Richard 1974 Finite Dimensional Vector Spaces Undergraduate Texts in Mathematics 1958 2nd edicion Springer Publishing ISBN 0 387 90093 4 Harper Charlie 1976 Introduction to Mathematical Physics New Jersey Prentice Hall ISBN 0 13 487538 9 Katznelson Yitzhak Katznelson Yonatan R 2008 A Terse Introduction to Linear Algebra American Mathematical Society ISBN 978 0 8218 4419 9 Roman Steven March 22 2005 Advanced Linear Algebra Graduate Texts in Mathematics 2nd edicion Springer ISBN 978 0 387 24766 3 Bibliografia EditarHistoria Editar Fearnley Sander Desmond Hermann Grassmann and the Creation of Linear Algebra American Mathematical Monthly 86 1979 pp 809 817 Grassmann Hermann 1844 Die lineale Ausdehnungslehre ein neuer Zweig der Mathematik dargestellt und durch Anwendungen auf die ubrigen Zweige der Mathematik wie auch auf die Statik Mechanik die Lehre vom Magnetismus und die Krystallonomie erlautert Leipzig O Wigand Libros de texto introductorios Editar Anton Howard 2005 Elementary Linear Algebra Applications Version 9th edicion Wiley International Banerjee Sudipto Roy Anindya 2014 Linear Algebra and Matrix Analysis for Statistics Texts in Statistical Science 1st edicion Chapman and Hall CRC ISBN 978 1420095388 Bretscher Otto 2004 Linear Algebra with Applications 3rd edicion Prentice Hall ISBN 978 0 13 145334 0 Farin Gerald Hansford Dianne 2004 Practical Linear Algebra A Geometry Toolbox AK Peters ISBN 978 1 56881 234 2 Kolman Bernard Hill David R 2007 Elementary Linear Algebra with Applications 9th edicion Prentice Hall ISBN 978 0 13 229654 0 Lay David C 2005 Linear Algebra and Its Applications 3rd edicion Addison Wesley ISBN 978 0 321 28713 7 Leon Steven J 2006 Linear Algebra With Applications 7th edicion Pearson Prentice Hall ISBN 978 0 13 185785 8 requiere registro Murty Katta G 2014 Computational and Algorithmic Linear Algebra and n Dimensional Geometry World Scientific Publishing ISBN 978 981 4366 62 5 Chapter 1 Systems of Simultaneous Linear Equations Poole David 2010 Linear Algebra A Modern Introduction 3rd edicion Cengage Brooks Cole ISBN 978 0 538 73545 2 Ricardo Henry 2010 A Modern Introduction To Linear Algebra 1st edicion CRC Press ISBN 978 1 4398 0040 9 Sadun Lorenzo 2008 Applied Linear Algebra the decoupling principle 2nd edicion AMS ISBN 978 0 8218 4441 0 Strang Gilbert 2016 Introduction to Linear Algebra 5th edicion Wellesley Cambridge Press ISBN 978 09802327 7 6 The Manga Guide to Linear Algebra 2012 by Shin Takahashi Iroha Inoue and Trend Pro Co Ltd A este 978 1 59327 413 9 o seccion le faltan los identificadores ej ISBN o ISSN para las obras que figuran en el Por favor facilita la realizacion de investigaciones incluyendo los identificadores Libros de texto avanzados Editar Bhatia Rajendra November 15 1996 Matrix Analysis Graduate Texts in Mathematics Springer ISBN 978 0 387 94846 1 Demmel James W August 1 1997 Applied Numerical Linear Algebra SIAM ISBN 978 0 89871 389 3 Dym Harry 2007 Linear Algebra in Action AMS ISBN 978 0 8218 3813 6 Gantmacher Felix R 2005 Applications of the Theory of Matrices Dover Publications ISBN 978 0 486 44554 0 Gantmacher Felix R 1990 Matrix Theory Vol 1 2nd edicion American Mathematical Society ISBN 978 0 8218 1376 8 Gantmacher Felix R 2000 Matrix Theory Vol 2 2nd edicion American Mathematical Society ISBN 978 0 8218 2664 5 Gelfand Israel M 1989 Lectures on Linear Algebra Dover Publications ISBN 978 0 486 66082 0 Glazman I M Ljubic Ju I 2006 Finite Dimensional Linear Analysis Dover Publications ISBN 978 0 486 45332 3 Golan Johnathan S January 2007 The Linear Algebra a Beginning Graduate Student Ought to Know 2nd edicion Springer ISBN 978 1 4020 5494 5 Golan Johnathan S August 1995 Foundations of Linear Algebra Kluwer ISBN 0 7923 3614 3 Greub Werner H October 16 1981 Linear Algebra Graduate Texts in Mathematics 4th edicion Springer ISBN 978 0 8018 5414 9 Hoffman Kenneth Kunze Ray 1971 Linear algebra 2nd edicion Englewood Cliffs N J Prentice Hall Inc MR 0276251 Halmos Paul R August 20 1993 Finite Dimensional Vector Spaces Undergraduate Texts in Mathematics Springer ISBN 978 0 387 90093 3 Friedberg Stephen H Insel Arnold J Spence Lawrence E September 7 2018 Linear Algebra 5th edicion Pearson ISBN 978 0 13 486024 4 Horn Roger A Johnson Charles R February 23 1990 Matrix Analysis Cambridge University Press ISBN 978 0 521 38632 6 Horn Roger A Johnson Charles R June 24 1994 Topics in Matrix Analysis Cambridge University Press ISBN 978 0 521 46713 1 Lang Serge March 9 2004 Linear Algebra Undergraduate Texts in Mathematics 3rd edicion Springer ISBN 978 0 387 96412 6 Marcus Marvin Minc Henryk 2010 A Survey of Matrix Theory and Matrix Inequalities Dover Publications ISBN 978 0 486 67102 4 Meyer Carl D February 15 2001 Matrix Analysis and Applied Linear Algebra Society for Industrial and Applied Mathematics SIAM ISBN 978 0 89871 454 8 archivado desde el original el October 31 2009 Mirsky L 1990 An Introduction to Linear Algebra Dover Publications ISBN 978 0 486 66434 7 Shafarevich I R Remizov A O 2012 Linear Algebra and Geometry Springer ISBN 978 3 642 30993 9 Shilov Georgi E June 1 1977 Linear algebra Dover Publications ISBN 978 0 486 63518 7 Shores Thomas S December 6 2006 Applied Linear Algebra and Matrix Analysis Undergraduate Texts in Mathematics Springer ISBN 978 0 387 33194 2 Smith Larry 28 de mayo de 1998 Linear Algebra Undergraduate Texts in Mathematics Springer ISBN 978 0 387 98455 1 Trefethen Lloyd N Bau David 1997 Numerical Linear Algebra SIAM ISBN 978 0 898 71361 9 Enlaces externos Editar Wikimedia Commons alberga una categoria multimedia sobre Algebra lineal Algebra lineal por Elmer G Wiens en ingles Algebra Lineal Conceptos Basicos Introduccion al Algebra Lineal en Contexto por Jose Arturo Barreto Algebra Lineal por Rene A Hernandez Toledo 2008 MIT Linear Algebra Video Lectures International Linear Algebra Society Hazewinkel Michiel ed 2001 Linear algebra Encyclopaedia of Mathematics en ingles Springer ISBN 978 1556080104 Linear Algebra on MathWorld Matrix and Linear Algebra Terms on Earliest Known Uses of Some of the Words of Mathematics Earliest Uses of Symbols for Matrices and Vectors on Earliest Uses of Various Mathematical Symbols Essence of linear algebra a video presentation from 3Blue1Brown of the basics of linear algebra with emphasis on the relationship between the geometric the matrix and the abstract points of view Datos Q82571 Multimedia Linear algebra Libros y manuales Matematicas Algebra Lineal Recursos didacticos Curso de Algebra LinealObtenido de https es wikipedia org w index php title Algebra lineal amp oldid 138218310, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos