关于高阶张量的秩-(Lr,1,1)分解方法
- 格式:pdf
- 大小:1.33 MB
- 文档页数:6
第四章 张量代数§4.1 张量的基本运算一、加法阶数相同、指标的结构和次序相同的诸张量可以加。
张量的代数和,就是将对应的同名分量相加。
1、 张量加法满足交换律和结合律。
2、 张量加法对坐标变换是不变的。
二、乘法对任何阶与结构的张量都可施行乘法。
用第一个张量的每一个分量乘以第二个张量中的每一个分量。
由这些乘积所组成的集合仍是一个张量,即两个张量的乘积。
j i A ⋅与m kl B ⋅ 乘 mkl j i jm kl i B A C ⋅⋅⋅⋅⋅=为一个五阶张量。
1、 张量乘法是不可交换的。
2、 张量乘法对坐标变换是不变的。
3、 乘积张量的阶数等于因子张量阶数之和。
三、连并与缩并连并:当两个张量相乘时,如果一个张量的上标和另一个张量的下标相同,则按哑标求和,结果仍为一个张量。
这种乘积运算称为连并。
缩并:对于同一个张的某个上标和某个下标取为相同的标号,则对哑标求和,其结果仍为张量,称为缩并。
缩并只能对二阶以上的混变张量进行。
四、指标的上升与下降指标的上升和下降通过度量张量与张量的连并来进行。
度量张量的逆变分量可以提升指标。
度量张量的协变分量可以下降指标。
kij ijl klT T g ⋅⋅= i j km likl im T T g g =⋅ 五、对称化和反对称化1、对称化对于任意一个n 阶张量中的某些上标或某些下标中的r 个指标的对称化,就是把这r 个指标按不同次序排列所得到的!r 个同份异构张量求和,并除以!r 的算术平均值的运算。
其结果关于所参与的r 个指标对称,也即所得张量与对称化指标的位置元素,称为关于该r 个指标的对称张量。
一般把参与对称化的指标用( )括起来,未参与对称化的指标用一对竖线分开。
)(!21)(ji ij ij T T T +=)(!31)(ilkjm ljki m jikl m jlki m likj m ijkl m l k ij m T T T T T T T ⋅⋅⋅⋅⋅⋅⋅+++++=2、反对称化反对称化就是将参与反对称化的r 个上标或下标,通过指标的交换构成!r 个同份异构张量。
矩阵奇异值分解具体计算过程解释说明以及概述1. 引言1.1 概述矩阵奇异值分解(Singular Value Decomposition,简称SVD)是一种重要的矩阵分解方法,广泛应用于数据降维、图像处理、推荐系统和信号处理等领域。
通过将一个矩阵分解为三个独特的部分,即原始矩阵的奇异向量和奇异值,SVD 可以提供有关原始数据的宝贵信息。
本文旨在详细介绍矩阵奇异值分解的具体计算过程,并对其应用领域以及算法优化和改进方向进行探讨。
首先,我们将给出该方法的定义和基本原理,并描述其计算方法和数学推导。
接着,我们将深入探究矩阵奇异值分解在图像压缩与降维、推荐系统和数据挖掘以及信号处理和模式识别等方面的应用。
然后,我们将讨论近似求解算法、加速技术以及大规模矩阵奇异值分解算法的最新进展。
最后,我们还将探索结合其他矩阵分解技术发展方向。
1.2 文章结构本文共包含五个主要部分。
第一部分是引言,主要概述了本文的目的和结构。
第二部分将详细介绍矩阵奇异值分解的具体计算过程,包括定义、基本原理、计算方法和数学推导。
第三部分将解释说明矩阵奇异值分解在不同领域中的应用,如图像压缩与降维、推荐系统和数据挖掘以及信号处理和模式识别。
第四部分将讨论矩阵奇异值分解算法的优化和改进方向,包括近似求解算法、加速技术以及结合其他矩阵分解技术的发展方向。
最后一部分是结论,总结文章的主要内容和贡献,并对未来研究方向进行展望。
1.3 目的本文旨在通过详细讲解矩阵奇异值分解的具体计算过程,深入理解其原理和应用,并探讨其改进方向。
通过对该方法进行全面系统地介绍,希望能够增加读者对矩阵奇异值分解有关知识的了解,并为相关领域的研究者提供参考和启示。
同时,本文也为后续相关领域深入研究和应用提供了理论基础和开发方向。
2. 矩阵奇异值分解具体计算过程2.1 矩阵奇异值分解定义和基本原理矩阵奇异值分解(Singular Value Decomposition,简称SVD)是一种常用的矩阵分解方法。
矩阵的奇异值分解高等代数知识点详解矩阵的奇异值分解(Singular Value Decomposition,简称SVD)是一种重要的矩阵分解方法,它在高等代数中具有广泛应用。
本文将详细介绍矩阵的奇异值分解原理、性质以及在实际问题中的应用。
一、奇异值分解的原理奇异值分解是将一个复杂的矩阵分解为三个简单矩阵的乘积,其基本原理可以用以下公式表示:A = UΣV^T在公式中,A是一个m×n的实数矩阵,U是一个m×m的正交矩阵,Σ是一个m×n的对角矩阵,V^T是一个n×n的正交矩阵,其中^T表示转置。
二、奇异值分解的性质1.奇异值在奇异值分解中,Σ是一个对角矩阵,对角线上的元素称为奇异值。
奇异值是非负实数,按照大小排列,通常用σ1 ≥ σ2 ≥ ... ≥ σr来表示。
其中r是矩阵A的秩。
2.奇异向量在奇异值分解中,U的列向量称为左奇异向量,V的列向量称为右奇异向量。
左奇异向量和右奇异向量都是单位向量,且对应不同的奇异值。
3.特征值与奇异值对于一个方阵A,奇异值与它的特征值有一定的联系。
若A是一个n×n的方阵,那么它的非零奇异值是A^T × A的非零特征值的平方根。
三、奇异值分解的应用奇异值分解在数据降维、图像压缩、推荐系统等领域具有广泛的应用。
1.数据降维在高维数据分析中,经常需要将高维数据转化为低维,以便于可视化和分析。
奇异值分解可以对数据矩阵进行降维,得到矩阵的主要特征。
通过保留较大的奇异值和对应的奇异向量,可以实现对数据的有效降维。
2.图像压缩奇异值分解可以对图像进行压缩,将原始图像表示为几个主要特征的叠加。
通过保留较大的奇异值和对应的奇异向量,可以在减小图像存储空间的同时,尽可能地保留图像的主要信息。
3.推荐系统在推荐系统中,奇异值分解可以对用户-物品评分矩阵进行分解,得到用户和物品的隐含特征。
通过计算用户-物品评分的近似矩阵,可以预测用户对未评分物品的评分,从而实现个性化推荐。
分布式的增量式张量Tucker分解方法一、概述随着大数据和人工智能的兴起,张量分解作为一种重要的数据分析方法,具有越来越广泛的应用。
张量Tucker分解是其中一种经典的张量分解方法,它能够将高维张量进行低维近似表示,从而帮助我们更好地理解和处理数据。
然而,传统的Tucker分解方法在处理大规模数据时速度缓慢,因此研究人员提出了分布式的增量式张量Tucker分解方法,以适应大规模数据的需求。
二、传统的张量Tucker分解1. 张量的定义在介绍Tucker分解方法前,我们先来了解一下张量的基本概念。
张量是一种多维数组,可以看作是矩阵在高维空间的推广。
在数据分析中,我们常常会遇到高维数据,而张量可以很好地用来表示和处理这些数据。
2. Tucker分解的原理Tucker分解是将一个高阶张量表示为一组低阶张量的乘积的过程。
具体来说,对于一个三阶张量A,Tucker分解可以表示为A = G x1 U x2 V x3 W,其中G是核张量,U、V、W分别是模式1、模式2和模式3的矩阵。
通过Tucker分解,我们可以用较低的维度来表示原始张量,从而实现数据的降维和压缩。
3. 传统Tucker分解的局限性尽管Tucker分解在数据分析中具有重要意义,但传统的Tucker分解方法在处理大规模数据时存在速度较慢、内存消耗较大的问题。
这主要是因为传统方法需要一次性加载整个张量数据,并在单机上进行分解,无法很好地应对大规模数据的需求。
三、分布式的增量式张量Tucker分解方法1. 分布式计算框架针对传统Tucker分解方法的局限性,研究人员提出了分布式的增量式张量Tucker分解方法。
该方法基于分布式计算框架,通过将张量分解任务分配给多台计算机进行并行处理,实现了对大规模数据的高效处理。
2. 增量式分解与传统的一次性加载整个张量数据并进行分解不同,增量式张量Tucker分解方法可以逐步处理张量数据。
具体地,它可以将原始张量分解为若干小块的子张量,并在每个子张量上进行分解计算。
概括张量奇异值分解-概述说明以及解释1.引言1.1 概述概述部分的内容可以描述张量奇异值分解的基本概念和重要性。
张量奇异值分解是将一个张量表示为多个部分的乘积的方法,类似于矩阵的奇异值分解。
通过这种分解,我们可以更好地理解张量的内在结构,并利用奇异值分解的性质进行数据降维、特征提取和信息压缩等操作。
张量奇异值分解在多领域中有着广泛的应用,包括图像处理、语音识别、推荐系统等,因此对于深入理解和应用张量奇异值分解具有重要的意义。
本文将对张量奇异值分解的原理和应用进行详细介绍,旨在帮助读者更好地理解和应用这一重要的数学工具。
1.2 文章结构文章结构部分的内容:本文共分为三个部分,分别是引言、正文和结论。
在引言部分,将会对张量奇异值分解进行概述,介绍文章的结构和目的。
在正文部分,将会详细讨论张量的基本概念、奇异值分解的原理以及张量奇异值分解的应用。
最后在结论部分,将会总结张量奇异值分解的重要性,展望未来的研究方向,并得出结论。
整篇文章将会全面深入地介绍张量奇异值分解的相关知识和应用。
1.3 目的文章旨在通过对张量奇异值分解的深入研究,探讨其在数据分析和机器学习领域的重要性和应用。
通过对张量和奇异值分解的基本概念和原理进行讲解,希望能够帮助读者更好地理解张量奇异值分解的内在机制和操作方法。
同时,通过介绍张量奇异值分解在实际问题中的应用,展示其在解决高维数据分析、图像处理、推荐系统和其他领域中的重要作用。
最终,本文旨在激发读者的兴趣,进一步深入研究张量奇异值分解,并展望未来在该领域的研究方向和应用前景。
2.正文2.1 张量的基本概念在数学和物理学中,张量是一个多重线性映射的代数对象,它可以表示在向量、标量和其他张量上的线性函数。
张量可以用来描述物体在各个方向上的应力和变形,也可以用来表示物理场的强度和方向。
在工程、物理、计算机科学和机器学习等领域中,张量都有广泛的应用。
张量的概念最早是由黎曼引入的,张量的定义要依靠对线性映射的理解。
矩阵schur分解-回复什么是矩阵的Schur分解?如何进行Schur分解的计算?Schur分解有什么应用?矩阵Schur分解相关定理是什么?这些问题将在本文中一一回答。
首先,什么是矩阵的Schur分解?Schur分解是一种将一个矩阵分解为三个矩阵乘积的方法,即将矩阵表示为上三角矩阵、单位正交矩阵以及其转置矩阵的乘积。
具体而言,对于一个n×n的复数矩阵A,Schur分解将其表示为A = U*T*U^H,其中U是单位正交矩阵,T是上三角矩阵(T的主对角线上的元素是A的特征值),U^H是U的共轭转置。
接下来,我们来看一下如何进行Schur分解的计算。
由于Schur分解中需要用到矩阵的特征值和特征向量,我们先来了解如何计算矩阵的特征值和特征向量。
对于一个给定的n×n的矩阵A,它的特征值是满足方程det(A-λI)=0的λ的值,其中I是单位矩阵。
求解这个方程就可以得到矩阵A的特征值λ。
接下来,对于每个特征值λ,我们要求解方程(A-λI)x=0,其中x是特征向量。
将特征值代入方程中,我们可以解出对应的特征向量。
重复这个过程,我们可以求得矩阵A的所有特征值和特征向量。
得到矩阵A的特征值和特征向量后,我们就可以进行Schur分解的计算。
首先,选取一组特征向量构成矩阵U。
由于特征向量是线性无关的,所以它们可以形成一个酉矩阵,即U*U^H=U^H*U=I。
接下来,我们构造一个与矩阵A相似的上三角矩阵T。
具体而言,T的主对角线上的元素是矩阵A的特征值,其余元素为零。
最后,我们得到矩阵A的Schur分解表示为A = U*T*U^H。
那么,矩阵Schur分解有什么应用呢?Schur分解是矩阵理论中的重要工具,具有广泛的应用。
首先,我们可以利用Schur分解来计算矩阵的指数函数、对数函数和幂函数。
通过Schur分解,我们可以将这些函数的计算转化为对上三角矩阵的操作,进而简化计算过程。
此外,Schur分解还在信号处理、量子计算和系统控制等领域中具有重要应用。
高等代数矩阵降维公式高等代数中,矩阵降维是指将一个高维矩阵表示为一个低维矩阵的过程。
这个过程有时也被称为矩阵压缩或矩阵分解。
矩阵降维在数据分析、机器学习和模式识别等领域中广泛应用。
在本文中,我们将介绍几种常见的矩阵降维公式。
奇异值分解是一种常见的矩阵降维方法。
对于一个m行n列的矩阵A,其奇异值分解表示为A=UΣV^T。
其中,U是一个m行m列的正交矩阵,Σ是一个m行n列的矩阵,V是一个n行n列的正交矩阵。
奇异值分解的核心思想是将原始矩阵A分解为三个部分,分别表示为U、Σ和V。
U中的列向量称为左奇异向量,V中的列向量称为右奇异向量,Σ是一个对角矩阵,其对角线上的元素称为奇异值。
奇异值分解的主要思想是通过选择较大的奇异值和对应的奇异向量来实现矩阵的降维。
主成分分析是一种常用的无监督学习降维方法。
PCA通过线性变换将原始数据映射到新的坐标系中,新的坐标系中保留了原始数据中的大部分方差。
通过选择最主要的成分,可以实现降维目的。
假设有一个m行n列的数据矩阵X,其中每一行为一个样本,每一列为一个特征。
PCA的目标是找到一个转换矩阵W,将原始数据X映射到新的坐标系Y中,即Y=WX。
其中Y是一个m行k列的矩阵,k<<n,即Y是原始数据的降维表示。
PCA的关键步骤是计算协方差矩阵,然后通过对协方差矩阵进行特征分解,得到特征值和特征向量。
特征值表示新坐标系中的方差,特征向量表示新坐标系的基向量。
通过选择最大的k个特征值对应的特征向量,可以得到转换矩阵W,从而实现降维。
独立成分分析是一种常用的盲源分离方法,也可以用作矩阵降维。
ICA的核心思想是通过寻找一个投影矩阵,将原始数据中的各个独立成分分离出来。
假设有一个m行n列的数据矩阵X,其中每一行为一个样本,每一列为一个特征。
ICA的目标是找到一个n行n列的矩阵A,将原始数据X映射到新的坐标系Y中,即Y=AX。
其中Y是一个m行n列的矩阵,n<=m。
通过选择合适的投影矩阵A,可以将原始数据中的各个独立成分分离出来,从而实现降维。
矩阵的满秩分解## 简介矩阵的满秩分解(Full Rank Decomposition,FRD)是矩阵分解的一种,它将矩阵分解为两个或更多满秩矩阵的乘积。
FRD可用来求解非奇异(non-singular)非对称矩阵(asymmetric matrix)。
FRD可以将矩阵分解成多个较小的矩阵,这可以提高矩阵求解的速度和准确度。
## 原理矩阵的满秩分解可以将非奇异非对称矩阵A分解成多个满秩矩阵的乘积,即A=UL,其中L和U既不是行手乘以列向量,也不是列手乘以行向量,而是一个L矩阵和一个U矩阵的乘积。
L矩阵是下三角矩阵,U矩阵是上三角矩阵,两者都具有单位对角线,另外,L和U具有相同的秩,并且都是正定的满秩矩阵,而A是它们的乘积,因此A也是满秩矩阵。
求解满秩分解矩阵的一般过程是:先进行LU分解,将矩阵A分解为两个单位对角线的满秩矩阵L和U;接着求解A的列空间的基,即求解A的列块的空间;最后再从A的行空间中求解A的行块的空间。
LU分解的算法的时间复杂度主要以A的维度D(即A的行数和列数)为关键,因此矩阵FRD分解的时间复杂度也主要以D为关键。
在计算机编程中,可以采用不同的算法来实现FRD,比如基于LU分解的矩阵FRD算法,和基于Gauss消元法的矩阵FRD算法。
## 应用矩阵的满秩分解具有广泛的应用,既可以用来解决矩阵求解问题,还可以用来分解多项式。
例如,可以用矩阵FRD分解将矩阵A分解成多个满秩矩阵的乘积,以求解线性方程组的系数矩阵,或者用于求解最小二乘问题;另外,可以用FRD分解将一个多项式分解成多个单项式,以求解多项式函数的数值解或其他曲线拟合问题。
同时,矩阵的满秩分解还可以用于图像处理,如图像中的边缘检测、图像去噪等。
张量的分解与应用张量是现代数学和物理学中的重要概念,它在各个领域都有着广泛的应用。
张量的分解是将一个复杂的张量表示为若干个简单的张量的乘积的过程,它在数据分析、图像处理、机器学习等领域中具有重要的意义。
让我们了解一下张量是什么。
张量可以被看作是多维数组或矩阵的推广。
在数学上,张量的定义涉及到线性代数和多线性代数的概念。
在物理学中,张量是描述物理量在空间中的变化和转换规律的数学工具。
张量的阶数表示了它的维度,例如,一阶张量是一个向量,二阶张量是一个矩阵,三阶张量是一个立方体。
张量的分解是将一个复杂的张量表示为若干个简单的张量的乘积的过程。
这种分解可以使得原始的张量表示更加简洁和易于处理。
其中最著名的分解方法之一是奇异值分解(Singular Value Decomposition,简称SVD)。
奇异值分解将一个矩阵分解为三个矩阵的乘积:一个包含了原始矩阵的所有信息的对角矩阵,一个包含了原始矩阵的列空间的正交矩阵,和一个包含了原始矩阵的行空间的正交矩阵。
奇异值分解在数据分析和图像处理中有着广泛的应用。
在数据分析领域,张量的分解可以用于降维和特征提取。
通过将一个高维的数据张量分解为若干个低维的张量的乘积,我们可以减少数据的维度,并且保留数据中的重要特征。
这在处理大规模数据和高维数据时非常有用,可以帮助我们更好地理解数据和发现数据中的模式。
在图像处理领域,张量的分解可以用于图像压缩和图像恢复。
通过将一个图像张量分解为若干个低秩的张量的乘积,我们可以减少图像的存储空间和传输带宽。
同时,通过对这些低秩张量进行逆向分解,我们可以恢复原始的图像,尽可能地减少信息的损失。
这在图像传输和存储中非常有用,可以提高图像的传输速度和节约存储空间。
在机器学习领域,张量的分解可以用于矩阵分解和张量分解的模型。
这些模型可以用于推荐系统、社交网络分析、文本挖掘等任务。
通过将一个高维的数据张量分解为若干个低秩的张量的乘积,我们可以在保持模型准确性的同时,减少模型的复杂度和参数量。
矩阵的极分解数学研究及其应用中,矩阵是一个重要的概念。
它可以用来表示线性变化,以及用来解决线性方程组等问题。
由于矩阵的重要性,研究者们常常尝试对矩阵进行分析。
其中最重要的一种分析方法就是矩阵的极分解。
矩阵的极分解,是对矩阵的一种分解方法,又称为矩阵特征值分解。
矩阵特征值分解允许我们将一个复杂的矩阵A分解为A=P D P-1,其中P是一个矩阵,D是一个对角矩阵。
由此可以看出,矩阵极分解的意义在于,可以将一个复杂的矩阵分解为简单的矩阵的乘积。
矩阵的极分解是建立在对矩阵A的正交变换上的,即找到一个矩阵P,使得P A P-1一个对称矩阵。
为了实现这一正交变换,需要解决的问题是-找到一个正交变换P,使得它把矩阵A变换成对称矩阵P A P-1 。
找到这样一个矩阵P,可以使用斯特林法则(斯特林矩阵),斯特林矩阵是一个对称正定矩阵,它的特征值就是矩阵A的特征值,而特征向量就是P-1(即矩阵P的逆矩阵)。
矩阵特征值分解有许多应用,其中之一就是用于数值分析。
在数值分析中,矩阵极分解是一种有效的工具,可以用来快速解决线性方程组。
此外,它也可以用来分析矩阵的特性,比如对称性、正定性等。
另外,矩阵极分解也被广泛应用于控制系统、信号处理、图像处理等领域。
例如,在控制系统中,矩阵特征值分解可以用来确定系统的稳定性、传递函数以及其他参数。
此外,在信号处理中,也可以使用矩阵极分解来进行数据压缩,以及对信号进行分析。
综上,矩阵极分解是一种有用的矩阵分析方法,可用于探索和解决矩阵的特性和数学关系。
它的应用也非常广泛,从数值分析到控制系统,从信号处理到图像处理,都有着重要的应用。
因此,矩阵极分解是一门重要的数学理论,需要进一步研究和发展。
对矩阵分解及其应用矩阵分解是指将一个矩阵表示为结构简单或具有特殊性质若干矩阵之积或之和,大体分为三角分解、QR分解、满秩分解和奇异值分解。
矩阵的分解是很重要的一部分内容,在线性代数中时常用来解决各种复杂的问题,在各个不同的专业领域也有重要的作用。
秩亏网平差是测量数据处理中的一个难点,不仅表现在原理方面,更表现在计算方面,而应用矩阵分解来得到未知数的估计数大大简化了求解过程和难度。
1.矩阵的三角分解如果方阵A可表示为一个下三角矩阵L和一个上三角矩阵U之积,即A二LU,则称A可作三角分解。
矩阵三角分解是以Gauss消去法为根据导出的,因此矩阵可以进行三角分解的条件也与之相同,即矩阵A的前n-1个顺序主子式都不为0,即为工0.所以在对矩阵A进行三角分解的着手的第一步应该是判断是否满足这个前提条件,否则怎么分解都没有意义。
矩阵的三角分解不是唯一的,但是在一定的前提下,A=LDU的分解可以是唯一的,其中D是对角矩阵。
矩阵还有其他不同的三角分解,比如Doolittle分解和Crout分解,它们用待定系数法来解求A的三角分解,当矩阵阶数较大的时候有其各H的优点,使算法更加简单方便。
矩阵的三角分解可以用来解线性方程组Ax二b。
由于A=LU,所以Ax二b可以变换成LUx-b,即有如下方程组:/Ly=b[Ux=y先由Ly=b依次递推求得yi,y2,……,y n,再由方程Ux=y依次递推求得x n,X n-P9x l-必须指出的是,当可逆矩阵A不满足AkHO时,应该用置换矩阵P左乘A以便使PA的n个顺序主子式全不为零,此时有:[Ly=pb[Ux=y这样,应用矩阵的三角分解,线性方程组的解求就可以简单很多了。
2.矩阵的QR分解矩阵的QR分解是指,如果实非奇异矩阵A可以表示为A=QR,其中Q为正交矩阵,R为实非奇异上三角矩阵。
QR分解的实际算法各种各样,有Schmidt正交方法、Givens方法和Householder方法,而且各有优点和不足。
列主元素消去法列主元素消去法(Gauss-Jordan 消元法)是一种线性代数中常用的消元方法,用于求解线性方程组的解。
这种方法的基本思想是,将线性方程组的增广矩阵通过一系列的初等变换,化为一个阶梯矩阵或行简化阶梯矩阵,从而得到线性方程组的解。
具体步骤如下:构造增广矩阵,即将系数矩阵和常数矩阵组合成一个矩阵。
将增广矩阵转化为一个上三角矩阵(也叫阶梯矩阵)。
反向消元,将阶梯矩阵转化为一个行简化阶梯矩阵。
根据简化矩阵求解方程组。
这种方法的优点是计算简单、容易理解,且可避免误差的积累。
但是,如果矩阵的规模较大,运算量会很大,计算时间较长。
此时可以使用更高效的算法,如LU分解、QR分解等。
假设有一个 $n$ 个未知量和 $n$ 个方程的线性方程组,可以写成矩阵形式如下:$Ax = b$其中,$A$ 是一个 $n \times n$ 的系数矩阵,$x$ 是一个 $n \times 1$ 的未知量向量,$b$ 是一个 $n \times 1$ 的常数向量。
为了求解 $x$,可以将方程组的增广矩阵表示如下:$\begin{bmatrix} a_{11} & a_{12} & a_{13} & \cdots & a_{1n} & b_{1} \ a_{21} & a_{22} & a_{23} & \cdots & a_{2n} & b_{2} \ \vdots & \vdots & \vdots & \ddots & \vdots & \vdots \ a_{n1} & a_{n2} & a_{n3} & \cdots & a_{nn} & b_{n} \end{bmatrix}$ 其中,$a_{ij}$ 表示矩阵的第 $i$ 行第 $j$ 列的元素。
张量张量是用来描述矢量、标量和其他张量之间线性关系的几何对象。
这种关系最基本的例子就是点积、叉积和线性映射。
矢量和标量本身也是张量。
张量可以用多维数值阵列来表示。
张量的阶(也称度或秩)表示阵列的维度,也表示标记阵列元素的指标值。
例如,线性映射可以用二位阵列--矩阵来表示,因此该阵列是一个二阶张量。
矢量可以通过一维阵列表示,所以其是一阶张量。
标量是单一数值,它是0阶张量。
张量可以描述几何向量集合之间的对应关系。
例如,柯西应力张量T 以v 方向为起点,在垂直于v 终点方向产生应力张量T(v),因此,张量表示了这两个 向量之间的关系,如右图所示。
因为张量表示了矢量之间的关系,所以张量必 须避免坐标系出现特殊情况这一问题。
取一组坐标 系的基向量或者是参考系,这种情况下的张量就可 以用一系列有序的多维阵列来表示。
张量的坐标以 “协变”(变化规律)的形式独立,“协变”把一种 坐标下的阵列和另一种坐标下的阵列联系起来。
这 种变化规律演化成为几何或物理中的张量概念,其 精确形式决定了张量的类型或者是值。
张量在物理学中十分重要,因为在弹性力学、流体力学、广义相对论等领域中,张量提供了一种简洁的数学模型来建立或是解决物理问题。
张量的概念首先由列维-奇维塔和格莱格里奥-库尔巴斯特罗提出,他们延续了黎曼、布鲁诺、克里斯托费尔等人关于绝对微分学的部分工作。
张量的概念使得黎曼曲率张量形式的流形微分几何出现了替换形式。
历史现今张量分析的概念源于卡尔•弗里德里希•高斯在微分几何的工作,概念的制定更受到19世纪中叶代数形式和不变量理论的发展[2]。
“tensor ”这个单词在1846年被威廉·罗恩·哈密顿[3]提及,这并不等同于今天我们所说的张量的意思。
[注1]当代的用法是在1898年沃尔德马尔·福格特提出的[4]。
“张量计算”这一概念由格雷戈里奥·里奇·库尔巴斯特罗在1890年《绝对微分几何》中发展而来,最初由里奇在1892年提出[5]。