fbpx
Wikipedia

Tensor

En matemáticas, un tensor es un objeto algebraico que describe una relación multilineal entre conjuntos de objetos algebraicos relacionados con un espacio vectorial. Los objetos entre los que los tensores pueden mapear incluyen vectores y escalares, e incluso otros tensores. Hay muchos tipos de tensores, incluidos escalares y vectores (que son los tensores más simples), vectores duales, mapas multilineales entre espacios vectoriales e incluso algunas operaciones como el producto escalar. Los tensores se definen independientemente de cualquier base, aunque a menudo se hace referencia a ellos por sus componentes en una base relacionada con un sistema de coordenadas particular.

El tensor de tensiones de Cauchy de segundo orden() describe las fuerzas de tensión experimentadas por un material en un punto dado. El producto del tensor de tensiones y el vector unidad , que apunta en una determinada dirección, es un vector que describe las fuerzas de tensión experimentadas por el material en el punto descripto por el tensor de tensiones, en un plano perpendicular a . La imagen muestra los vectores de tensiones a lo largo de tres sirecciones perpendiculares, cada una de ellas representada por una cara del cubo. Dado que el tensor de tensiones describe un mapeo que toma un vector como entrada, y provee un vector como resultado, es que es un tensor de segundo orden.

Los tensores se han vuelto importantes en física porque proporcionan un marco matemático conciso para formular y resolver problemas de física en áreas como la mecánica (tensión, elasticidad, mecánica de fluidos, momento de inercia entre otros), electrodinámica (tensor electromagnético, tensor de Maxwell, permitividad, susceptibilidad magnética), o relatividad general (tensor tensión-energía, tensor de curvatura, ...) y otros. En las aplicaciones, es común estudiar situaciones en las que puede ocurrir un tensor diferente en cada punto de un objeto; por ejemplo, la tensión dentro de un objeto puede variar de un lugar a otro. Esto conduce al concepto de campo tensorial. En algunas áreas, los campos tensoriales son tan omnipresentes que a menudo se les llama simplemente "tensores".

Tullio Levi-Civita y Gregorio Ricci-Curbastro popularizaron los tensores en 1900, continuando el trabajo anterior de Bernhard Riemann y Elwin Bruno Christoffel y otros, como parte del cálculo diferencial absoluto. El concepto permitió una formulación alternativa de la geometría diferencial intrínseca de una variedad en la forma del tensor de curvatura de Riemann.[1]

Definición

Aunque aparentemente diferentes, los diversos enfoques para definir tensores describen el mismo concepto geométrico utilizando un lenguaje diferente y en diferentes niveles de abstracción. Por ejemplo, los tensores se definen y analizan para aplicaciones estadísticas y de aprendizaje automático.[2]

Como matrices multidimensionales

Un tensor puede representarse como una matriz (potencialmente multidimensional). Así como un vector en un espacio n-dimensional está representado por una matriz unidimensional con n componentes con respecto a una determinada base, cualquier tensor con respecto a una base está representado por una matriz multidimensional. Por ejemplo, un operador lineal se representa sobre una base como una matriz bidimensional cuadrada n × n. Los números en la matriz multidimensional se conocen como los componentes escalares del tensor o simplemente sus componentes. Se indican mediante índices que dan su posición en la matriz, como subíndices y superíndices, siguiendo el nombre simbólico del tensor. Por ejemplo, los componentes de un tensor T de orden 2 podría ser denotado Tij , donde i y j son índices que van de 1 a n , o también por Ti
j
. El hecho de que un índice se muestre como superíndice o subíndice depende de las propiedades de transformación del tensor, que se describen a continuación. Así, mientras que Tij y Ti
j
ambos pueden expresarse por matrices de n x n, y están relacionados numéricamente a través de sus índices, la diferencia en sus leyes de transformación indica que sería incorrecto sumarlos. El número total de índices necesarios para identificar cada componente de forma única es igual a la dimensión de la matriz y se denomina orden, grado o rango del tensor. Sin embargo, el término "rango" generalmente tiene otro significado en el contexto de matrices y tensores.

Así como las componentes de un vector cambian cuando cambiamos la base del espacio vectorial, las componentes de un tensor también cambian bajo tal transformación. Cada tipo de tensor viene equipado con una ley de transformación que detalla cómo los componentes del tensor responden a un cambio de base. Los componentes de un vector pueden responder de dos formas distintas a un cambio de base (ver covarianza y contravarianza de vectores ), donde los nuevos vectores base  } se expresan en términos de los vectores base antiguos   como,

 

Aquí R ji son las entradas de la matriz de cambio de base, y en la expresión más a la derecha se suprimió el signo de suma: esta es la convención de suma de Einstein, que se utilizará a lo largo de este artículo. [3]​ Los componentes vi de un vector columna v se transforman con la inversa de la matrizR,

 

donde el sombrero denota los componentes de la nueva base. Esto se llama ley de transformación contravariante, porque los componentes del vector se transforman por el inverso del cambio de base. En contraste, los componentes, wi, de un covector (o vector fila), w se transforman con la matriz R misma,

 

Esto se denomina ley de transformación covariante, porque los componentes del covector se transforman mediante la misma matriz que la matriz de cambio de base. Los componentes de un tensor más general se transforman mediante alguna combinación de transformaciones covariantes y contravariantes, con una ley de transformación para cada índice. Si la matriz de transformación de un índice es la matriz inversa de la transformación base, entonces el índice se llama contravariante y se denota convencionalmente con un índice superior (superíndice). Si la matriz de transformación de un índice es la transformación de base en sí, entonces el índice se llama covariante y se denota con un índice más bajo (subíndice).

Como ejemplo simple, la matriz de un operador lineal con respecto a una base es un arreglo rectangular   que se transforma bajo una matriz de cambio de base   por  . Para las entradas individuales de la matriz, esta ley de transformación tiene la forma   por lo que el tensor correspondiente a la matriz de un operador lineal tiene un índice covariante y uno contravariante: es de tipo (1,1).

Las combinaciones de componentes covariantes y contravariantes con el mismo índice nos permiten expresar invariantes geométricas. Por ejemplo, el hecho de que un vector sea el mismo objeto en diferentes sistemas de coordenadas puede ser capturado por las siguientes ecuaciones, usando las fórmulas definidas anteriormente:

 ,

donde   es la delta de Kronecker, que funciona de manera similar a la matriz identidad, y tiene el efecto de renombrar a los ídices (j en k en este ejemplo).Esto muestra varias características de la notación de componentes: la capacidad de reorganizar los términos a voluntad (conmutatividad), la necesidad de usar diferentes índices cuando se trabaja con varios objetos en la misma expresión, la capacidad de cambiar el nombre de los índices y la forma en que la contravariante y los tensores covariantes se combinan para que todas las instancias de la matriz de transformación y su inversa se cancelen, de modo que expresiones como   inmediatamente se puede ver que es geométricamente idéntica en todos los sistemas de coordenadas..

De manera similar, un operador lineal, visto como un objeto geométrico, en realidad no depende de una base: es solo un mapa lineal que acepta un vector como argumento y produce otro vector. La ley de transformación de cómo la matriz de componentes de un operador lineal cambia con la base es consistente con la ley de transformación para un vector contravariante, de modo que la acción de un operador lineal sobre un vector contravariante se representa en coordenadas como el producto matricial de su respectivas representaciones de coordenadas. Es decir, los componentes   son dadas por  . Estos componentes se transforman de forma contravariante, ya que

 

La ley de transformación para un tensor de orden p + q con p índices contravariantes y q índices covariantes queda expresada como,

     

Aquí, los índices con comilla denotan componentes en las nuevas coordenadas, y los índices sin comilla denotan las componentes en las coordenadas antiguas. Se dice que tal tensor es de orden o tipo (p, q) . Los términos "orden", "tipo", "rango", "valencia" y "grado" se utilizan a veces para el mismo concepto. Aquí, el término "orden" u "orden total" se utilizará para la dimensión total de la matriz (o su generalización en otras definiciones), p + q en el ejemplo anterior, y el término "tipo" para el par que da el número de índices contravariantes y covariantes. Un tensor de tipo (p, q) también es denominado un tensor (p, q) en forma abreviada.

Como mapas multilineales

Una desventaja de la definición de un tensor utilizando el enfoque de matriz multidimensional es que no es evidente a partir de la definición que el objeto definido sea de hecho independiente de la base, como se espera de un objeto intrínsecamente geométrico. Aunque es posible demostrar que las leyes de transformación de hecho garantizan la independencia de la base, a veces se prefiere una definición más intrínseca. Un enfoque que es común en la geometría diferencial es definir tensores en relación con un espacio vectorial fijo (de dimensión finita) V , que generalmente se considera un espacio vectorial particular de algún significado geométrico como el espacio tangente a una variedad. [4]​ En este enfoque, un tipo de tensor T (p, q) se define como un mapa multilineal,

 

donde V es el correspondiente espacio dual de covectores, que es lineal en cada uno de sus argumentos. Lo anterior supone que V es un espacio vectorial sobre los números reales, . De manera más general, V se puede tomar sobre cualquier campo F (por ejemplo los números complejos), con F reemplazando a como el codominio de los mapas multilineales.

Aplicando un mapa multilineal T del tipo (p, q) a una base {ej} paraV y una cobasis canónica {εi} para V,

 

se obtiene un arreglo (p + q)-dimensional de componentes. Una elección diferente de base producirá componentes diferentes. Pero, debido a que T es lineal en todos sus argumentos, los componentes satisfacen la ley de transformación del tensor utilizada en la definición de matriz multilineal. La matriz multidimensional de componentes de T por lo tanto forma un tensor de acuerdo con esa definición. Además, tal matriz se puede realizar como los componentes de algún mapa T multilineal. Esto motiva a ver los mapas multilineales como los objetos intrínsecos subyacentes a los tensores.

En la visualización de un tensor como un mapa multilineal, es convencional para identificar la doble dual V ** del espacio vectorial V , es decir, el espacio de funcionales lineales en el espacio dual vector V * , con el espacio vectorial V . Siempre hay un mapa lineal naturales de V a su doble dual, dado mediante la evaluación de una forma lineal en V * en contra de un vector en V . Este mapeo lineal es un isomorfismo en dimensiones finitas y, a menudo, es conveniente identificar V con su doble dual.

Usando productos tensoriales

Para algunas aplicaciones matemáticas, a veces es útil un enfoque más abstracto. Esto se puede lograr definiendo tensores en términos de elementos de productos tensoriales de espacios vectoriales, que a su vez se definen mediante una propiedad universal. Un tensor de tipo ( p , q ) se define en este contexto como un elemento del producto tensorial de espacios vectoriales,[5][6]

 

Una base vi de V y la base wj de W naturalmente induce una base viwj del producto de tensores VW. Los componentes de un tensor T son los coeficientes del tensor con respecto a la base obtenida de una base {ei} para V y su base dual {ε j}, o sea.

 

Usando las propiedades del producto tensorial, se puede demostrar que estos componentes satisfacen la ley de transformación para un tensor de tipo (p, q). Por otra parte, la propiedad universal del producto tensorial da una correspondencia 1-a-1 entre tensores definidos de esta manera y tensores definidos como funciones multilineales.

Esta correspondencia 1 a 1 se puede archivar de la siguiente manera, porque en el caso de dimensión finita existe un isomorfismo canónico entre un espacio vectorial y su doble dual:

 

La última línea usa la propiedad universal del producto tensorial, que existe una correspondencia de 1 a 1 entre los mapas de   and  .[7]

Los productos tensoriales se pueden definir con gran generalidad, por ejemplo, que involucran módulos arbitrarios sobre un anillo. En principio, se podría definir un "tensor" simplemente como un elemento de cualquier producto tensorial. Sin embargo, la literatura matemática generalmente reserva el término tensor para un elemento de un producto tensorial de cualquier número de copias de un solo espacio vectorial V y su dual, como se indicó anteriormente.

Tensores en infinitas dimensiones

Esta discusión de los tensores hasta ahora asume una dimensionalidad finita de los espacios involucrados, donde los espacios de los tensores obtenidos por cada una de estas construcciones son naturalmente isomórficos.[8]​ Las construcciones de espacios de tensores basadas en el producto tensorial y los mapeos multilineales se pueden generalizar, esencialmente sin modificación, a haces de vectores o poleas coherentes.[9]​ Para espacios vectoriales de dimensión infinita, las topologías inequivalentes conducen a nociones inequivalentes de tensor, y estos diversos isomorfismos pueden o no ser válidos dependiendo de lo que se signifique exactamente por un tensor (ver producto de tensor topológico). En algunas aplicaciones, es el producto tensorial de los espacios de Hilbert.es decir, cuyas propiedades son las más similares al caso de dimensión finita. Una visión más moderna es que es la estructura de los tensores como una categoría monoidal simétrica la que codifica sus propiedades más importantes, en lugar de los modelos específicos de esas categorías.[10]

Campos tensor

En muchas aplicaciones, especialmente en geometría diferencial y física, es natural considerar un tensor con componentes que son funciones del punto en un espacio. Este fue el escenario de la obra original de Ricci. En la terminología matemática moderna, tal objeto se denomina campo tensor, a menudo denominado simplemente tensor.[1]

En este contexto, a menudo se elige una base de coordenadas para el espacio vectorial tangente. La ley de transformación puede entonces expresarse en términos de derivadas parciales de las funciones de coordenadas,

 

definir una transformación de coordenadas, [1]

 

Aplicaciones

Una aplicación de los tensores es la biblioteca TensorFlow desarrollada por Google en 2015. Esta biblioteca está diseñada para construir y entrenar redes neuronales donde los nodos son ecuaciones matemáticas y las aristas son tensores. Entonces, en estas redes neuronales se realizan operaciones matemáticas sobre tensores o arreglos multidimensionales.

El uso de TensorFlow está principalmente dirigido a las redes neuronales de tipo Deep Learning donde se tienen múltiples capas escondidas de operaciones intermedias antes de entregar una salida, para lo cual Google sigue siendo uno de las principales empresas que hacen uso de la tecnología. También es de notar que TensorFlow es más eficiente en máquinas de tipo cluster, donde un nodo maestro reparte el cálculo correspondiente al TensorFlow entre varias máquinas, de tal forma que el cálculo sea más eficiente y rápido; esto es conocido como TensorFlow distribuido.

Referencias

  1. Kline, Morris (March 1990). Mathematical Thought From Ancient to Modern Times: Volume 3. Oxford University Press, USA. ISBN 978-0-19-506137-6. 
  2. Bi, Xuan; Tang, Xiwei; Yuan, Yubai; Zhang, Yanqing; Qu, Annie (2021). «Tensors in Statistics.». Annual Review of Statistics and Its Application 8 (1): annurev. Bibcode:2021AnRSA...842720B. doi:10.1146/annurev-statistics-042720-020816. 
  3. The Einstein summation convention, in brief, requires the sum to be taken over all values of the index whenever the same symbol appears as a subscript and superscript in the same term. For example, under this convention  
  4. Lee, John (2000), Introduction to smooth manifolds, Springer, p. 173, ISBN 978-0-387-95495-0 .
  5. Dodson, CTJ; Poston, T (1991), Tensor geometry, Graduate Texts in Mathematics 130, Springer, p. 105 .
  6. Hazewinkel, Michiel, ed. (2001), «Affine tensor», Encyclopaedia of Mathematics (en inglés), Springer, ISBN 978-1556080104 .
  7. https://math.stackexchange.com/users/568204/peek-a-boo (June 5, 2021). «Why are Tensors (Vectors of the form a⊗b...⊗z) multilinear maps?». Mathematics Stackexchange.  Parámetro desconocido |url-status= ignorado (ayuda)
  8. The double duality isomorphism, for instance, is used to identify V with the double dual space V∗∗, which consists of multilinear forms of degree one on V. It is typical in linear algebra to identify spaces that are naturally isomorphic, treating them as the same space.
  9. Bourbaki, N. (3 August 1998). «3». Algebra I: Chapters 1-3. Springer Science & Business Media. ISBN 978-3-540-64243-5.  where the case of finitely generated projective modules is treated. The global sections of sections of a vector bundle over a compact space form a projective module over the ring of smooth functions. All statements for coherent sheaves are true locally.
  10. Joyal, André; Street, Ross (1993), «Braided tensor categories», Advances in Mathematics 102: 20-78, doi:10.1006/aima.1993.1055  Parámetro desconocido |doi-access= ignorado (ayuda).

Enlaces externos

  •   Wikimedia Commons alberga una categoría multimedia sobre Tensor.
  • Weisstein, Eric W. «Tensor». En Weisstein, Eric W, ed. MathWorld (en inglés). Wolfram Research. 
  • Ray M. Bowen and C. C. Wang (1976). Introduction to Vectors and Tensors, Vol 1: Linear and Multilinear Algebra. New York, NY.: Plenum Press. 
  • Ray M. Bowen and C. C. Wang (2006). Introduction to Vectors and Tensors, Vol 2: Vector and Tensor Analysis. 
  • by Joseph C. Kolecki, Glenn Research Center, Cleveland, Ohio, released by NASA
  • Foundations of Tensor Analysis for Students of Physics and Engineering With an Introduction to the Theory of Relativity by Joseph C. Kolecki, Glenn Research Center, Cleveland, Ohio, released by NASA
  • Sharipov, Ruslan (2004). «Quick introduction to tensor analysis». arXiv:math.HO/0403252. 
  • Richard Feynman's lecture on tensors.
  • Vázquez Torres, Gabriel (14 de noviembre de 2017). «Qué es Deep Learning». Consultado el 11 de septiembre de 2021. 
  • Mayo, Matthew (2018). «WTF is a Tensor?!?» (en inglés). Consultado el 10 de septiembre de 2021. 
  • Silvester, Minat (28 de marzo de 2020). «What are tensors? How are they used in Machine Learning.» (en inglés). Consultado el 18 de septiembre de 2021. 
  •   Datos: Q188524
  •   Multimedia: Tensors

tensor, matemáticas, tensor, objeto, algebraico, describe, relación, multilineal, entre, conjuntos, objetos, algebraicos, relacionados, espacio, vectorial, objetos, entre, tensores, pueden, mapear, incluyen, vectores, escalares, incluso, otros, tensores, mucho. En matematicas un tensor es un objeto algebraico que describe una relacion multilineal entre conjuntos de objetos algebraicos relacionados con un espacio vectorial Los objetos entre los que los tensores pueden mapear incluyen vectores y escalares e incluso otros tensores Hay muchos tipos de tensores incluidos escalares y vectores que son los tensores mas simples vectores duales mapas multilineales entre espacios vectoriales e incluso algunas operaciones como el producto escalar Los tensores se definen independientemente de cualquier base aunque a menudo se hace referencia a ellos por sus componentes en una base relacionada con un sistema de coordenadas particular El tensor de tensiones de Cauchy de segundo orden T displaystyle mathbf T describe las fuerzas de tension experimentadas por un material en un punto dado El producto T v displaystyle mathbf T cdot mathbf v del tensor de tensiones y el vector unidad v displaystyle mathbf v que apunta en una determinada direccion es un vector que describe las fuerzas de tension experimentadas por el material en el punto descripto por el tensor de tensiones en un plano perpendicular a v displaystyle mathbf v La imagen muestra los vectores de tensiones a lo largo de tres sirecciones perpendiculares cada una de ellas representada por una cara del cubo Dado que el tensor de tensiones describe un mapeo que toma un vector como entrada y provee un vector como resultado es que es un tensor de segundo orden Los tensores se han vuelto importantes en fisica porque proporcionan un marco matematico conciso para formular y resolver problemas de fisica en areas como la mecanica tension elasticidad mecanica de fluidos momento de inercia entre otros electrodinamica tensor electromagnetico tensor de Maxwell permitividad susceptibilidad magnetica o relatividad general tensor tension energia tensor de curvatura y otros En las aplicaciones es comun estudiar situaciones en las que puede ocurrir un tensor diferente en cada punto de un objeto por ejemplo la tension dentro de un objeto puede variar de un lugar a otro Esto conduce al concepto de campo tensorial En algunas areas los campos tensoriales son tan omnipresentes que a menudo se les llama simplemente tensores Tullio Levi Civita y Gregorio Ricci Curbastro popularizaron los tensores en 1900 continuando el trabajo anterior de Bernhard Riemann y Elwin Bruno Christoffel y otros como parte del calculo diferencial absoluto El concepto permitio una formulacion alternativa de la geometria diferencial intrinseca de una variedad en la forma del tensor de curvatura de Riemann 1 Indice 1 Definicion 1 1 Como matrices multidimensionales 1 2 Como mapas multilineales 1 3 Usando productos tensoriales 1 4 Tensores en infinitas dimensiones 1 5 Campos tensor 2 Aplicaciones 3 Referencias 4 Enlaces externosDefinicion EditarAunque aparentemente diferentes los diversos enfoques para definir tensores describen el mismo concepto geometrico utilizando un lenguaje diferente y en diferentes niveles de abstraccion Por ejemplo los tensores se definen y analizan para aplicaciones estadisticas y de aprendizaje automatico 2 Como matrices multidimensionales Editar Un tensor puede representarse como una matriz potencialmente multidimensional Asi como un vector en un espacio n dimensional esta representado por una matriz unidimensional con n componentes con respecto a una determinada base cualquier tensor con respecto a una base esta representado por una matriz multidimensional Por ejemplo un operador lineal se representa sobre una base como una matriz bidimensional cuadrada n n Los numeros en la matriz multidimensional se conocen como los componentes escalares del tensor o simplemente sus componentes Se indican mediante indices que dan su posicion en la matriz como subindices y superindices siguiendo el nombre simbolico del tensor Por ejemplo los componentes de un tensor T de orden 2 podria ser denotado Tij donde i y j son indices que van de 1 a n o tambien por T ij El hecho de que un indice se muestre como superindice o subindice depende de las propiedades de transformacion del tensor que se describen a continuacion Asi mientras que Tij y T ij ambos pueden expresarse por matrices de n x n y estan relacionados numericamente a traves de sus indices la diferencia en sus leyes de transformacion indica que seria incorrecto sumarlos El numero total de indices necesarios para identificar cada componente de forma unica es igual a la dimension de la matriz y se denomina orden grado o rango del tensor Sin embargo el termino rango generalmente tiene otro significado en el contexto de matrices y tensores Asi como las componentes de un vector cambian cuando cambiamos la base del espacio vectorial las componentes de un tensor tambien cambian bajo tal transformacion Cada tipo de tensor viene equipado con una ley de transformacion que detalla como los componentes del tensor responden a un cambio de base Los componentes de un vector pueden responder de dos formas distintas a un cambio de base ver covarianza y contravarianza de vectores donde los nuevos vectores base e i displaystyle mathbf hat e i se expresan en terminos de los vectores base antiguos e j displaystyle mathbf e j como e i j 1 n e j R i j e j R i j displaystyle mathbf hat e i sum j 1 n mathbf e j R i j mathbf e j R i j Aqui Rji son las entradas de la matriz de cambio de base y en la expresion mas a la derecha se suprimio el signo de suma esta es la convencion de suma de Einstein que se utilizara a lo largo de este articulo 3 Los componentes vi de un vector columna v se transforman con la inversa de la matrizR v i R 1 j i v j displaystyle hat v i left R 1 right j i v j donde el sombrero denota los componentes de la nueva base Esto se llama ley de transformacion contravariante porque los componentes del vector se transforman por el inverso del cambio de base En contraste los componentes wi de un covector o vector fila w se transforman con la matriz R misma w i w j R i j displaystyle hat w i w j R i j Esto se denomina ley de transformacion covariante porque los componentes del covector se transforman mediante la misma matriz que la matriz de cambio de base Los componentes de un tensor mas general se transforman mediante alguna combinacion de transformaciones covariantes y contravariantes con una ley de transformacion para cada indice Si la matriz de transformacion de un indice es la matriz inversa de la transformacion base entonces el indice se llama contravariante y se denota convencionalmente con un indice superior superindice Si la matriz de transformacion de un indice es la transformacion de base en si entonces el indice se llama covariante y se denota con un indice mas bajo subindice Como ejemplo simple la matriz de un operador lineal con respecto a una base es un arreglo rectangular T displaystyle T que se transforma bajo una matriz de cambio de base R R i j displaystyle R left R i j right por T R 1 T R displaystyle hat T R 1 TR Para las entradas individuales de la matriz esta ley de transformacion tiene la forma T j i R 1 i i T j i R j j displaystyle hat T j i left R 1 right i i T j i R j j por lo que el tensor correspondiente a la matriz de un operador lineal tiene un indice covariante y uno contravariante es de tipo 1 1 Las combinaciones de componentes covariantes y contravariantes con el mismo indice nos permiten expresar invariantes geometricas Por ejemplo el hecho de que un vector sea el mismo objeto en diferentes sistemas de coordenadas puede ser capturado por las siguientes ecuaciones usando las formulas definidas anteriormente v v i e i R 1 j i v j e k R i k R 1 j i R i k v j e k d j k v j e k v k e k v i e i displaystyle mathbf v hat v i mathbf hat e i left left R 1 right j i v j right left mathbf e k R i k right left left R 1 right j i R i k right v j mathbf e k delta j k v j mathbf e k v k mathbf e k v i mathbf e i donde d j k displaystyle delta j k es la delta de Kronecker que funciona de manera similar a la matriz identidad y tiene el efecto de renombrar a los idices j en k en este ejemplo Esto muestra varias caracteristicas de la notacion de componentes la capacidad de reorganizar los terminos a voluntad conmutatividad la necesidad de usar diferentes indices cuando se trabaja con varios objetos en la misma expresion la capacidad de cambiar el nombre de los indices y la forma en que la contravariante y los tensores covariantes se combinan para que todas las instancias de la matriz de transformacion y su inversa se cancelen de modo que expresiones como v i e i displaystyle v i mathbf e i inmediatamente se puede ver que es geometricamente identica en todos los sistemas de coordenadas De manera similar un operador lineal visto como un objeto geometrico en realidad no depende de una base es solo un mapa lineal que acepta un vector como argumento y produce otro vector La ley de transformacion de como la matriz de componentes de un operador lineal cambia con la base es consistente con la ley de transformacion para un vector contravariante de modo que la accion de un operador lineal sobre un vector contravariante se representa en coordenadas como el producto matricial de su respectivas representaciones de coordenadas Es decir los componentes T v i displaystyle Tv i son dadas por T v i T j i v j displaystyle Tv i T j i v j Estos componentes se transforman de forma contravariante ya que T v i T j i v j R 1 i i T j i R j j R 1 j j v j R 1 i i T v i displaystyle left widehat Tv right i hat T j i hat v j left left R 1 right i i T j i R j j right left left R 1 right j j v j right left R 1 right i i Tv i La ley de transformacion para un tensor de orden p q con p indices contravariantes y q indices covariantes queda expresada como T j 1 j q i 1 i p R 1 i 1 i 1 R 1 i p i p displaystyle hat T j 1 ldots j q i 1 ldots i p left R 1 right i 1 i 1 cdots left R 1 right i p i p T j 1 j q i 1 i p displaystyle T j 1 ldots j q i 1 ldots i p R j 1 j 1 R j q j q displaystyle R j 1 j 1 cdots R j q j q Aqui los indices con comilla denotan componentes en las nuevas coordenadas y los indices sin comilla denotan las componentes en las coordenadas antiguas Se dice que tal tensor es de orden o tipo p q Los terminos orden tipo rango valencia y grado se utilizan a veces para el mismo concepto Aqui el termino orden u orden total se utilizara para la dimension total de la matriz o su generalizacion en otras definiciones p q en el ejemplo anterior y el termino tipo para el par que da el numero de indices contravariantes y covariantes Un tensor de tipo p q tambien es denominado un tensor p q en forma abreviada Uno o varios wikipedistas estan trabajando actualmente en este articulo o seccion Es posible que a causa de ello haya lagunas de contenido o deficiencias de formato Si quieres puedes ayudar y editar pero antes de realizar correcciones mayores contactalos en sus paginas de discusion o en la del articulo para poder coordinar la redaccion Como mapas multilineales Editar Una desventaja de la definicion de un tensor utilizando el enfoque de matriz multidimensional es que no es evidente a partir de la definicion que el objeto definido sea de hecho independiente de la base como se espera de un objeto intrinsecamente geometrico Aunque es posible demostrar que las leyes de transformacion de hecho garantizan la independencia de la base a veces se prefiere una definicion mas intrinseca Un enfoque que es comun en la geometria diferencial es definir tensores en relacion con un espacio vectorial fijo de dimension finita V que generalmente se considera un espacio vectorial particular de algun significado geometrico como el espacio tangente a una variedad 4 En este enfoque un tipo de tensor T p q se define como un mapa multilineal T V V p copias V V q copias R displaystyle T underbrace V times dots times V p text copias times underbrace V times dots times V q text copias rightarrow mathbf R donde V es el correspondiente espacio dual de covectores que es lineal en cada uno de sus argumentos Lo anterior supone que V es un espacio vectorial sobre los numeros reales ℝ De manera mas general V se puede tomar sobre cualquier campo F por ejemplo los numeros complejos con F reemplazando a ℝ como el codominio de los mapas multilineales Aplicando un mapa multilineal T del tipo p q a una base ej paraV y una cobasis canonica ei para V T j 1 j q i 1 i p T e i 1 e i p e j 1 e j q displaystyle T j 1 dots j q i 1 dots i p equiv T left boldsymbol varepsilon i 1 ldots boldsymbol varepsilon i p mathbf e j 1 ldots mathbf e j q right se obtiene un arreglo p q dimensional de componentes Una eleccion diferente de base producira componentes diferentes Pero debido a que T es lineal en todos sus argumentos los componentes satisfacen la ley de transformacion del tensor utilizada en la definicion de matriz multilineal La matriz multidimensional de componentes de T por lo tanto forma un tensor de acuerdo con esa definicion Ademas tal matriz se puede realizar como los componentes de algun mapa T multilineal Esto motiva a ver los mapas multilineales como los objetos intrinsecos subyacentes a los tensores En la visualizacion de un tensor como un mapa multilineal es convencional para identificar la doble dual V del espacio vectorial V es decir el espacio de funcionales lineales en el espacio dual vector V con el espacio vectorial V Siempre hay un mapa lineal naturales de V a su doble dual dado mediante la evaluacion de una forma lineal en V en contra de un vector en V Este mapeo lineal es un isomorfismo en dimensiones finitas y a menudo es conveniente identificar V con su doble dual Usando productos tensoriales Editar Para algunas aplicaciones matematicas a veces es util un enfoque mas abstracto Esto se puede lograr definiendo tensores en terminos de elementos de productos tensoriales de espacios vectoriales que a su vez se definen mediante una propiedad universal Un tensor de tipo p q se define en este contexto como un elemento del producto tensorial de espacios vectoriales 5 6 T V V p copias V V q copias displaystyle T in underbrace V otimes dots otimes V p text copias otimes underbrace V otimes dots otimes V q text copias Una base vi de V y la base wj de W naturalmente induce una base vi wj del producto de tensores V W Los componentes de un tensor T son los coeficientes del tensor con respecto a la base obtenida de una base ei para V y su base dual e j o sea T T j 1 j q i 1 i p e i 1 e i p e j 1 e j q displaystyle T T j 1 dots j q i 1 dots i p mathbf e i 1 otimes cdots otimes mathbf e i p otimes boldsymbol varepsilon j 1 otimes cdots otimes boldsymbol varepsilon j q Usando las propiedades del producto tensorial se puede demostrar que estos componentes satisfacen la ley de transformacion para un tensor de tipo p q Por otra parte la propiedad universal del producto tensorial da una correspondencia 1 a 1 entre tensores definidos de esta manera y tensores definidos como funciones multilineales Esta correspondencia 1 a 1 se puede archivar de la siguiente manera porque en el caso de dimension finita existe un isomorfismo canonico entre un espacio vectorial y su doble dual U V U V U V Hom 2 U V F displaystyle U otimes V cong left U right otimes left V right cong left U otimes V right cong operatorname Hom 2 left U times V mathbb F right La ultima linea usa la propiedad universal del producto tensorial que existe una correspondencia de 1 a 1 entre los mapas de Hom 2 U V F displaystyle operatorname Hom 2 left U times V mathbb F right and Hom U V F displaystyle operatorname Hom left U otimes V mathbb F right 7 Los productos tensoriales se pueden definir con gran generalidad por ejemplo que involucran modulos arbitrarios sobre un anillo En principio se podria definir un tensor simplemente como un elemento de cualquier producto tensorial Sin embargo la literatura matematica generalmente reserva el termino tensor para un elemento de un producto tensorial de cualquier numero de copias de un solo espacio vectorial V y su dual como se indico anteriormente Tensores en infinitas dimensiones Editar Esta discusion de los tensores hasta ahora asume una dimensionalidad finita de los espacios involucrados donde los espacios de los tensores obtenidos por cada una de estas construcciones son naturalmente isomorficos 8 Las construcciones de espacios de tensores basadas en el producto tensorial y los mapeos multilineales se pueden generalizar esencialmente sin modificacion a haces de vectores o poleas coherentes 9 Para espacios vectoriales de dimension infinita las topologias inequivalentes conducen a nociones inequivalentes de tensor y estos diversos isomorfismos pueden o no ser validos dependiendo de lo que se signifique exactamente por un tensor ver producto de tensor topologico En algunas aplicaciones es el producto tensorial de los espacios de Hilbert es decir cuyas propiedades son las mas similares al caso de dimension finita Una vision mas moderna es que es la estructura de los tensores como una categoria monoidal simetrica la que codifica sus propiedades mas importantes en lugar de los modelos especificos de esas categorias 10 Campos tensor Editar En muchas aplicaciones especialmente en geometria diferencial y fisica es natural considerar un tensor con componentes que son funciones del punto en un espacio Este fue el escenario de la obra original de Ricci En la terminologia matematica moderna tal objeto se denomina campo tensor a menudo denominado simplemente tensor 1 En este contexto a menudo se elige una base de coordenadas para el espacio vectorial tangente La ley de transformacion puede entonces expresarse en terminos de derivadas parciales de las funciones de coordenadas x i x 1 x n displaystyle bar x i left x 1 ldots x n right definir una transformacion de coordenadas 1 T j 1 j q i 1 i p x 1 x n x i 1 x i 1 x i p x i p x j 1 x j 1 x j q x j q T j 1 j q i 1 i p x 1 x n displaystyle hat T j 1 dots j q i 1 dots i p left bar x 1 ldots bar x n right frac partial bar x i 1 partial x i 1 cdots frac partial bar x i p partial x i p frac partial x j 1 partial bar x j 1 cdots frac partial x j q partial bar x j q T j 1 dots j q i 1 dots i p left x 1 ldots x n right Aplicaciones EditarUna aplicacion de los tensores es la biblioteca TensorFlow desarrollada por Google en 2015 Esta biblioteca esta disenada para construir y entrenar redes neuronales donde los nodos son ecuaciones matematicas y las aristas son tensores Entonces en estas redes neuronales se realizan operaciones matematicas sobre tensores o arreglos multidimensionales El uso de TensorFlow esta principalmente dirigido a las redes neuronales de tipo Deep Learning donde se tienen multiples capas escondidas de operaciones intermedias antes de entregar una salida para lo cual Google sigue siendo uno de las principales empresas que hacen uso de la tecnologia Tambien es de notar que TensorFlow es mas eficiente en maquinas de tipo cluster donde un nodo maestro reparte el calculo correspondiente al TensorFlow entre varias maquinas de tal forma que el calculo sea mas eficiente y rapido esto es conocido como TensorFlow distribuido Referencias Editar a b c Kline Morris March 1990 Mathematical Thought From Ancient to Modern Times Volume 3 Oxford University Press USA ISBN 978 0 19 506137 6 Bi Xuan Tang Xiwei Yuan Yubai Zhang Yanqing Qu Annie 2021 Tensors in Statistics Annual Review of Statistics and Its Application 8 1 annurev Bibcode 2021AnRSA 842720B doi 10 1146 annurev statistics 042720 020816 The Einstein summation convention in brief requires the sum to be taken over all values of the index whenever the same symbol appears as a subscript and superscript in the same term For example under this convention B i C i B 1 C 1 B 2 C 2 B n C n displaystyle B i C i B 1 C 1 B 2 C 2 cdots B n C n Lee John 2000 Introduction to smooth manifolds Springer p 173 ISBN 978 0 387 95495 0 Dodson CTJ Poston T 1991 Tensor geometry Graduate Texts in Mathematics 130 Springer p 105 Hazewinkel Michiel ed 2001 Affine tensor Encyclopaedia of Mathematics en ingles Springer ISBN 978 1556080104 https math stackexchange com users 568204 peek a boo June 5 2021 Why are Tensors Vectors of the form a b z multilinear maps Mathematics Stackexchange Parametro desconocido url status ignorado ayuda The double duality isomorphism for instance is used to identify V with the double dual space V which consists of multilinear forms of degree one on V It is typical in linear algebra to identify spaces that are naturally isomorphic treating them as the same space Bourbaki N 3 August 1998 3 Algebra I Chapters 1 3 Springer Science amp Business Media ISBN 978 3 540 64243 5 where the case of finitely generated projective modules is treated The global sections of sections of a vector bundle over a compact space form a projective module over the ring of smooth functions All statements for coherent sheaves are true locally Joyal Andre Street Ross 1993 Braided tensor categories Advances in Mathematics 102 20 78 doi 10 1006 aima 1993 1055 Parametro desconocido doi access ignorado ayuda Enlaces externos Editar Wikimedia Commons alberga una categoria multimedia sobre Tensor Weisstein Eric W Tensor En Weisstein Eric W ed MathWorld en ingles Wolfram Research Ray M Bowen and C C Wang 1976 Introduction to Vectors and Tensors Vol 1 Linear and Multilinear Algebra New York NY Plenum Press Ray M Bowen and C C Wang 2006 Introduction to Vectors and Tensors Vol 2 Vector and Tensor Analysis An Introduction to Tensors for Students of Physics and Engineering by Joseph C Kolecki Glenn Research Center Cleveland Ohio released by NASA Foundations of Tensor Analysis for Students of Physics and Engineering With an Introduction to the Theory of Relativity by Joseph C Kolecki Glenn Research Center Cleveland Ohio released by NASA A discussion of the various approaches to teaching tensors and recommendations of textbooks Sharipov Ruslan 2004 Quick introduction to tensor analysis arXiv math HO 0403252 Richard Feynman s lecture on tensors Vazquez Torres Gabriel 14 de noviembre de 2017 Que es Deep Learning Consultado el 11 de septiembre de 2021 Mayo Matthew 2018 WTF is a Tensor en ingles Consultado el 10 de septiembre de 2021 Silvester Minat 28 de marzo de 2020 What are tensors How are they used in Machine Learning en ingles Consultado el 18 de septiembre de 2021 Datos Q188524 Multimedia Tensors Obtenido de https es wikipedia org w index php title Tensor amp oldid 140675704, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos