特征值和特征向量的物理意义
- 格式:docx
- 大小:32.22 KB
- 文档页数:4
刚度矩阵特征值和特征向量的物理意义在结构力学中,刚度矩阵是一个非常重要的概念,它描述了结构体系中各个节点之间的刚度关系。
刚度矩阵的特征值和特征向量则是刚度矩阵的两个重要性质,它们具有重要的物理意义。
刚度矩阵的特征值代表了结构体系的刚度大小。
刚度矩阵是一个对称正定矩阵,它的特征值都是正数。
特征值越大,代表结构体系的刚度越大,反之亦然。
因此,通过计算刚度矩阵的特征值,可以对结构体系的刚度进行评估和比较。
在实际工程中,刚度矩阵的特征值可以用来判断结构体系的稳定性和安全性,以及进行结构优化设计。
刚度矩阵的特征向量代表了结构体系的振动模态。
特征向量是一个列向量,它的每个元素代表了结构体系中一个节点的振动位移。
通过计算刚度矩阵的特征向量,可以得到结构体系的振动模态,即不同频率下的振动形态。
这对于结构体系的动力响应分析和振动控制具有重要意义。
例如,在地震工程中,可以通过计算结构体系的振动模态,来评估结构体系在地震作用下的响应情况,以及进行结构抗震设计。
刚度矩阵的特征值和特征向量是结构力学中非常重要的概念,它们具有重要的物理意义。
通过计算刚度矩阵的特征值和特征向量,可以对结构体系的刚度和振动模态进行评估和分析,为结构优化设计
和动力响应分析提供了重要的工具和方法。
特征值和特征向量特征值和特征向量是线性代数中非常重要的概念,在数学和工程领域中广泛应用。
它们与矩阵与向量的关系密切相关,可以用于解决许多实际问题。
一、特征值与特征向量的定义特征值和特征向量是矩阵的固有性质,它们描述了矩阵在线性变换下的特殊性质。
特征值(eigenvalue)是一个数,表示矩阵变换后的向量与原向量方向相等或反向。
特征向量(eigenvector)则是与特征值对应的向量。
对于一个n维矩阵A和一个n维向量x,如果满足以下等式:Ax = λx其中λ为标量,称为特征值,x称为特征向量。
我们可以将这个等式分解为(A-λI)x=0,其中I为单位矩阵,如果矩阵A存在一个非零向量x使得等式成立,则说明λ为矩阵A的特征值,x为对应的特征向量。
特征值和特征向量总是成对出现,一个特征值可能对应多个特征向量。
二、特征值与特征向量的求解为了求解矩阵的特征值与特征向量,我们可以使用特征值问题的基本公式:det(A-λI) = 0其中,det表示行列式求值。
解这个方程可以得到矩阵A的特征值λ。
然后,我们将每个特征值代入方程(A-λI)x = 0,求解得到对应的特征向量x。
三、特征值与特征向量的意义特征值和特征向量在许多应用中起着重要的作用,它们可以帮助我们理解矩阵的几何性质和变换规律。
在线性代数中,特征值和特征向量有以下几个重要意义:1. 几何意义:特征向量表示了矩阵变换后不改变方向的向量。
特征值表示了特征向量在变换中的缩放因子。
通过分析特征向量和特征值,我们可以了解变换对向量空间的拉伸、压缩、旋转等操作。
2. 矩阵对角化:如果矩阵A有n个线性无关的特征向量,我们可以将这些特征向量组成一个矩阵P,并将其逆矩阵P^{-1}乘以A和AP^{-1},就可以得到一个对角矩阵D,D的对角线上的元素就是矩阵A的特征值。
这个过程称为矩阵的对角化,可以简化矩阵的运算和分析。
3. 矩阵的奇异值分解:特征值和特征向量也与矩阵的奇异值分解密切相关。
特征值与特征向量特征值与特征向量是线性代数中的重要概念,广泛应用于数学、物理学、工程学等领域。
它们在矩阵理论和特征分析中有着重要的地位和作用。
本文将介绍特征值与特征向量的定义、性质以及它们在实际问题中的应用。
一、特征值与特征向量的定义特征值与特征向量是矩阵理论中的两个重要概念。
给定一个n阶方阵A,如果存在一个非零向量x,使得Ax=λx,其中λ是一个常数,则称λ为矩阵A的特征值,称x为矩阵A对应于特征值λ的特征向量。
特征值与特征向量通常以特定的顺序排列。
特征值和特征向量的求解是一个典型的特征值问题,可通过求解矩阵的特征多项式来获得。
具体方法包括对矩阵进行特征分解、通过特征子空间进行求解等。
二、特征值与特征向量的性质1. 特征值和特征向量的性质特征值与特征向量的性质包括:(1)特征值和特征向量的存在性:对于n阶方阵A,一般情况下存在n个特征值和n个特征向量。
(2)特征值的重数:特征多项式在λ=k处有重根,且k是特征值的充要条件是一阶Jordan块的个数等于λ=k的代数重数。
(3)若矩阵A是对称矩阵,则特征值都是实数。
2. 特征值与特征向量的关系特征值与特征向量之间存在着密切的关系:(1)特征值的求解可以得到特征向量,同时特征向量可以确定对应的特征值。
(2)特征值和特征向量是成对出现的,特征值λ对应的特征向量x组成一个特征对。
(3)特征向量可以通过相似变换保持不变。
三、特征值与特征向量的应用特征值与特征向量在很多领域都有广泛的应用,如物理学、工程学、计算机科学等。
1. 物理学中的应用特征值与特征向量在量子力学、振动理论、电路分析等物理问题中具有重要意义。
在量子力学中,波函数满足薛定谔方程,特征值和特征向量可以描述量子态及其能量。
在振动理论中,物体的振动与其特征值和特征向量相关,可以通过特征值和特征向量来分析和描述振动的特性。
2. 工程学中的应用特征值与特征向量在工程学中的应用广泛。
例如,在结构动力学中,可以通过特征值和特征向量来分析结构体的振动特性,对于工程结构的优化设计起到重要作用。
[1. 特征的数学意义]我们先考察一种线性变化,例如x,y坐标系的椭圆方程可以写为x^2/a^2+y^2/b^2=1,那么坐标系关于原点做旋转以后,椭圆方程就要发生变换。
我们可以把原坐标系的(x,y)乘以一个矩阵,得到一个新的(x',y')的表示形式,写为算子的形式就是(x,y)*M=(x',y')。
这里的矩阵M代表一种线性变换:拉伸,平移,旋转。
那么,有没有什么样的线性变换b(b是一个向量),使得变换后的结果,看起来和让(x,y)*b像是一个数b乘以了一个数字m*b? 换句话说,有没有这样的矢量b,使得矩阵A*b这样的线性变换相当于A在矢量b上面的投影m*b? 如果有,那么b就是A的一个特征向量,m 就是对应的一个特征值。
一个矩阵的特征向量可以有很多个。
特征值可以用特征方程求出,特征向量可以有特征值对应的方程组通解求出,反过来也一样。
例如,设A为3阶实对称矩阵,a1=(a,-a,1)T是Ax=0的解,a2=(a,1,-a)T是(A+E)x=0的解,a≠2,则常数a=? 因为a1=(a,-a,1)T是Ax=0的解,说明a1=(a,-a,1)T是A的属于0的特征向量,a2=(a,1,-a)T是(A+E)x=0的解,说明a2=(a,1,-a)T是A的属于-1的特征向量。
实对称矩阵属于不同特征值的特征向量式正交的,所以a^2-a-a=0,a≠2,所以a=0。
还是太抽象了,具体的说,求特征向量的关系,就是把矩阵A所代表的空间,进行正交分解,使得A的向量集合可以表示为每个向量a在各个特征向量上面的投影长度。
例如A是m*n的矩阵,n>m,那么特征向量就是m个(因为秩最大是m),n个行向量在每个特征向量E上面有投影,其特征值v就是权重。
那么每个行向量现在就可以写为Vn=(E1*v1n,E2*v2n...Em*vmn),矩阵变成了方阵。
如果矩阵的秩更小,矩阵的存储还可以压缩。
特征值与特征向量是高等数学中一个重要且广泛应用的概念。
它们在线性代数、微分方程、物理学等领域都扮演着重要的角色。
通过对特征值与特征向量的分析,我们可以更深入地了解矩阵和变换的性质,为问题的求解提供更有效的方法。
首先,我们来介绍一下特征向量和特征值。
特征向量是指在线性变换中没有改变方向的向量,即在经过线性变换后,该向量方向保持不变。
特征值则是与特征向量对应的常数,表示在进行线性变换时特征向量所伸缩的比例。
具体来说,对于一个n阶方阵A,如果存在一个非零向量x使得Ax=kx,其中k是一个常数,则k称为A的特征值,而向量x称为A对应于特征值k的特征向量。
特征值和特征向量的分析可以帮助我们解决很多实际问题。
例如,在线性代数中,我们可以通过求解特征值和特征向量来寻找变换矩阵的性质。
在物理学中,特征值和特征向量的应用更加广泛。
在量子力学中,波函数的特征值和特征向量可以告诉我们系统的能量和动态变化;在振动问题中,特征值和特征向量可以帮助我们求解系统的固有频率和振动模式。
在实际应用中,我们需要求解特征值和特征向量的具体方法。
一种常用的方法是使用特征多项式。
我们可以根据矩阵A的特征值的定义,得到特征值λ满足的方程式为|A-λI|=0,其中I是单位矩阵。
通过求解这个方程,我们可以得到A的所有特征值。
然后,我们可以代入特征值,将方程组(A-λI)x=0进行求解,从而得到对应于特征值的特征向量。
另外,特征值和特征向量在对角化方面的应用也是广泛的。
如果一个矩阵A可以被相似变换对角化,那么我们可以通过特征值和特征向量来快速计算A的幂次,从而简化计算过程。
此外,特征值和特征向量还可以帮助我们解决线性方程组和微分方程等问题。
通过对矩阵的特征值和特征向量的分析,我们可以求解系统的稳定性和动态行为。
总之,高等数学中的特征值与特征向量分析是一项重要的工具和技术。
通过对特征值和特征向量进行分析,我们可以深入理解矩阵和变换的性质,为问题的求解提供更有效的方法。
特征值和特征向量物理意义特征值和特征向量是线性代数中的重要概念,它们在物理学、工程学等各个领域都有着广泛的应用。
特征值和特征向量可以帮助我们理解和描述线性变换的特性和行为,对于解决实际问题具有重要的意义。
我们来了解一下特征值和特征向量的物理意义。
特征值是表示线性变换对某个方向的伸缩程度的数值,而特征向量则是表示在该方向上的空间变换不发生改变的向量。
可以这样理解,特征向量是线性变换不改变方向的“方向标志”,而特征值则是线性变换对这个“方向标志”的伸缩程度。
在物理学中,特征向量和特征值的概念被广泛应用于力学、电磁学、量子力学等领域。
以力学为例,我们知道物体在受力作用下会发生形变,而特征向量可以描述这种形变的方向,特征值则可以描述这种形变的程度。
在电磁学中,特征向量可以表示电场和磁场的方向,特征值则可以表示电场和磁场的强度。
在量子力学中,特征向量可以表示粒子的波函数,特征值则可以表示粒子的能量。
在工程学中,特征值和特征向量的应用也是非常广泛的。
以结构工程为例,我们知道在受力作用下,建筑物或桥梁等结构会发生振动。
特征向量可以描述这种振动的模式,特征值则可以描述这种振动的频率。
通过求解特征值和特征向量,我们可以得到结构物的固有振动频率和振动模态,从而评估结构物的稳定性和安全性。
在图像处理和模式识别中,特征值和特征向量也被广泛应用于图像压缩、人脸识别等领域。
特征值和特征向量的求解方法有很多种,其中最常用的是特征值分解和奇异值分解。
特征值分解是将线性变换矩阵分解为特征值和特征向量的形式,而奇异值分解则是将任意矩阵分解为奇异值和特征向量的形式。
这些分解方法为我们分析和解决实际问题提供了有效的数学工具。
总结起来,特征值和特征向量在物理学、工程学等领域中具有重要的物理意义。
它们可以帮助我们理解和描述线性变换的特性和行为,对于解决实际问题具有重要的意义。
特征值和特征向量的应用范围非常广泛,涉及到力学、电磁学、量子力学、结构工程、图像处理、模式识别等多个领域。
特征值特征向量物理含义《特征值特征向量的物理含义》特征值和特征向量是线性代数中重要的概念,它们在物理学中有着广泛的应用和深刻的物理含义。
特征值(eigenvalue)是矩阵运算中的一个概念,它用来描述在特定的变换下,向量发生的拉伸或压缩程度。
对于一个n阶方阵A,如果存在一个非零向量v,使得Av=λv,其中λ是一个常数,则称λ为矩阵A的特征值,v为对应的特征向量。
特征值告诉我们向量在变换下的缩放程度,而特征向量确定了该缩放所发生的方向。
在物理学中,特征值和特征向量的概念被广泛应用于量子力学和振动问题的研究中。
在量子力学中,波函数可以被看作是特征向量,其对应的特征值则表示测量得到的物理量。
特征值告诉我们量子系统的能量级别,而特征向量则表示能量对应的波函数形状。
以振动问题为例,当一个物体受到外力作用时,它会产生振动。
在某些情况下,振动问题可以转化为矩阵的特征值问题。
通过求解特征值和特征向量,我们可以得到系统的固有频率和对应的振动模式。
特征值告诉我们固有频率的大小,而特征向量则表示振动的形状和方向。
另外,特征值和特征向量还可以用于分析矩阵的稳定性和受力分布。
在力学问题中,矩阵可以表示材料的刚度矩阵或效应矩阵。
通过求解特征值和特征向量,我们可以确定结构的稳定性和受力分布。
特征值告诉我们系统的稳定性,而特征向量则表示力的传递路径和受力方向。
总而言之,特征值和特征向量在物理学中具有重要的意义和广泛的应用。
它们不仅能够描述物理量的测量结果和系统的固有特性,还可以用于分析振动问题、结构稳定性和力的传递路径。
通过深入理解特征值和特征向量的物理含义,我们可以更好地理解和解决物理问题。
探究特征值与特征向量在线性代数中的重要性线性代数是数学中一个重要的分支,探究它的意义和应用已经成为一个热门话题。
在线性代数中,特征值与特征向量是两个重要的概念。
本文将探究这两个概念在线性代数中的重要性。
首先,特征向量是一个非零向量,它在一个线性变换下的方向不发生改变,只是乘上一个系数。
具体来说,对于一个n阶方阵A,如果存在一个非零向量x和一个标量λ,使得Ax=λx,则x称为A的特征向量,λ称为A的特征值。
探究特征向量和特征值的重要性,我们可以从不同角度来剖析。
一个重要的应用是在物理上的本征值问题。
在经典力学和量子力学中,许多问题都需要使用特征值和特征向量。
例如,量子力学中,可观测量的本征值对应着物理量的测量结果,而本征向量则代表着物理量所在的位置空间。
本征值问题在物理学中有非常广泛的应用,特别是在量子化学中,本征向量和本征值是对于分子和化学反应进行研究的必备工具。
另一个应用领域是图像处理和计算机视觉中。
通过计算机视觉技术,我们可以处理图像、视频、三维模型等不同类型的数据,使其更适用于计算。
特征向量和特征值在这个领域中也有着重要的应用。
通过特征值分解(EVD, Eigen Value Decomposition)和奇异值分解(SVD, Singular Value Decomposition)等技术,可以实现对于图像的压缩、去噪、重构等功能。
此外,特征值和特征向量也广泛应用于机器学习的领域。
在机器学习中,特征向量和特征值可以用来研究一些数据之间的相似性,帮助我们分类和识别图像、语音、文本等数据类型。
特别是在深度学习的领域中,卷积神经网络(CNNs,Convolutional Neural Networks)中常会使用特征向量和特征值来对图像进行卷积和池化等处理,并实现物体的识别和检测功能。
特征向量和特征值还有许多其他的应用,例如流体力学领域、信号处理、音乐分析等。
在这些领域中,特征向量通常表示对象的主要特性或属性,特征值则表示这些私人辨别特征的程度。
矩阵的特征值和特征向量的计算矩阵的特征值和特征向量是线性代数中比较重要的概念。
在机器学习、信号处理、图像处理等领域都有着广泛的应用。
本文将会介绍矩阵的特征值和特征向量的概念、意义以及计算方法。
一、特征值和特征向量的定义对于一个n阶方阵A,如果存在一个n维向量v和一个常数λ,使得下面的等式成立:Av=λv那么称λ为矩阵A的特征值,v为矩阵A的特征向量。
特征向量是非零向量,因为如果v为0向量,等式就无法成立。
另外,特征向量不唯一,如果v是A的特征向量,k是任意一个非零常数,那么kv也是A的特征向量。
但特征值是唯一的。
二、特征值和特征向量的意义矩阵的特征值和特征向量有着重要的物理和数学含义。
对于一个矩阵A,它的特征向量v和特征值λ描述的是矩阵A对向量v的作用和量变化。
当一个向量v与矩阵A相乘时,向量v的方向可能会发生变化,而特征向量v就是那些方向不变的向量,仅仅发生了缩放,这个缩放的倍数就是特征值λ。
也就是说,特征向量v在被矩阵A作用后仍保持了原来的方向,并且只发生了缩放。
从物理角度理解,矩阵的特征值和特征向量可以描述线性系统的固有特性。
在某些情况下,如机械振动、电路等自然界现象中,系统本身就带有某种特有的振动频率或固有响应。
而这些系统在一些特殊的情况下可以通过线性代数描述,正是因为它们具有特征值和特征向量。
三、特征值和特征向量的计算矩阵的特征值和特征向量可以通过求解特征方程来计算。
特征方程的形式为det(A-λI)=0,其中det(A-λI)表示A-λI的行列式,I是单位矩阵。
求解特征方程可以得到矩阵A的n个特征值λ1,λ2,…,λn。
接下来,针对每个特征值λi,都可以通过求解线性方程组(A-λiI)v=0来得到一个特征向量vi。
需要注意的是,一个矩阵的特征值和特征向量并不一定都能够求出来,只有在某些情况下才可以求出。
例如,对于一个非方阵,就不存在特征值和特征向量。
另外,如果矩阵的特征值出现重复,那么对应于这些特征值的特征向量可能无法确定,可以使用广义特征向量来处理。
相同特征值对应的特征向量特征值和特征向量是线性代数中的重要概念,它们在矩阵和向量的运算中起到了关键的作用。
特征值和特征向量的性质和应用广泛存在于各个领域,如物理学、工程学、计算机科学等。
特征向量是指在线性变换中,不被变换方向改变的向量。
换句话说,特征向量在经过线性变换后,只发生缩放而不改变方向。
特征向量通常用来表示具有某种特性的系统状态或物体的特征。
特征向量是由特征值所确定的。
特征值是一个标量,表示特征向量在线性变换中的缩放比例。
在物理学中,特征值和特征向量常常用来描述物理系统的稳定性和振动模式。
例如,在量子力学中,波函数的特征向量和特征值可以用来描述粒子的位置和动量。
在工程学中,特征值和特征向量常常用来分析系统的稳定性和动态响应。
例如,在结构工程中,通过分析特征值和特征向量可以确定结构的固有频率和振动模态,从而避免共振和结构破坏。
在计算机科学中,特征值和特征向量常常用来进行图像处理和模式识别。
例如,在人脸识别系统中,通过提取图像的特征向量,并计算特征向量之间的相似性,可以实现人脸的自动识别。
特征值和特征向量还广泛应用于数据降维和矩阵分解等领域。
通过将高维数据投影到特征向量所张成的子空间中,可以实现数据的降维和特征提取,从而简化计算和分析过程。
特征值和特征向量还在数学中具有重要的意义。
通过求解特征值和特征向量,可以解决线性方程组和矩阵的特征分解等问题。
特征值和特征向量也与矩阵的奇异值分解和正交矩阵等相关。
在数学建模和优化问题中,特征值和特征向量可以帮助我们理解系统的特性和优化目标。
总结一下,特征值和特征向量是线性代数中的重要概念,在各个领域都有广泛的应用。
通过特征值和特征向量的计算和分析,可以帮助我们理解和解决各种复杂的问题。
特征值和特征向量的研究不仅为理论研究提供了基础,也为实际应用提供了有力的工具。
在未来的发展中,特征值和特征向量的研究将继续深入,为我们解决更加复杂的问题提供更加有效的方法。
ABSTRACT:
特征向量:它经过这种特定的变换后保持方向不变。
只是进行长度上的伸缩而已。
特征值:一个变换(矩阵)可由它的所有特征向量完全表示,而每一个向量所对应的特征值,就代表了矩阵在这一向量上的贡献率——说的通俗一点就是能量(power)。
内积:内积可以简单的理解为两个函数的相似程度,内积值越大表示两个函数相似程度越大,内积为零表示完全不相似。
两个函数内积为零则两个函数正交,在三维空间中它们的夹角为90度,在三维以上不是这样的。
CONTENT
矩阵(既然讨论特征向量的问题。
当然是方阵。
这里不讨论广义特征向量的概念)乘以一个向量的结果仍是同维数的一个向量。
因此。
矩阵乘法对应了一个变换。
把一个向量变成同维数的另一个向量。
那么变换的效果是什么呢?这当然与方阵的构造有密切关系。
比如可以取适当的二维方阵。
使得这个变换的效果就是将平面上的二维向量逆时针旋转30度。
这时我们可以问一个问题。
有没有向量在这个变换下不改变方向呢?可以想一下。
除了零向量。
没有其他向量可以在平面上旋转30度而不改变方向的。
所以这个变换对应的矩阵(或者说这个变换自身)没有特征向量(注意:特征向量不能是零向量)。
所以一个变换的特征向量是这样一种向量。
它经过这种特定的变换后保持方向不变。
只是进行长度上的伸缩而已(再想想特征向量的原始定义Ax= cx。
你就恍然大悟了。
看到了吗?cx是方阵A 对向量x进行变换后的结果。
但显然cx和x的方向相同)。
而且x是特征向量的话。
ax也是特征向量(a是标量且不为零)。
所以所谓的特征向量不是一个向量而是一个向量族。
另外。
特征值只不过反映了特征向量在变换时的伸缩倍数而已。
对一个变换而言。
特征向量指明的方向才是很重要的。
特征值不是那么重要。
虽然我们求这两个量时先求出特征值。
但特征向量才是更本质的东西!
比如平面上的一个变换。
把一个向量关于横轴做镜像对称变换。
即保持一个向量的横坐标不变。
但纵坐标取相反数。
把这个变换表示为矩阵就是[1 0;0 -1]。
其中分号表示换行。
显然[1 0;0 -1]*[a b]'=[a –b]'。
其中上标' 表示取转置。
这正是我们想要的效果。
那么现在可以猜一下了。
这个矩阵的特征向量是什么?想想什么向量在这个变换下保持方向不变。
显然,横轴上的向量在这个变换下保持方向不变(记住这个变换是镜像对称变换。
那镜子表面上(横轴上)的向量当然不会变化)。
所以可以直接猜测其特征向量是[a 0]'(a不为0)。
还有其他的吗?有。
那就是纵轴上的向量。
这时经过变换后。
其方向反向。
但仍在同一条轴上。
所以也被认为是方向没有变化。
当我们引用了Spectral theorem(谱定律)的时候,情况就不一样了。
Spectral theorem的核心内容如下:一个线性变换A(用矩阵乘法表示)可表示为它的所
写成公式就是:
T(x)=(V1。
x)λ1V1+(V2。
x)λ2V2+(V3。
x)λ3V3+。
其中,V1 V2 V3等表示特征向量,λ1 λ2 λ3等表示特征值,V表示输入向量,
T(x)即变换后的向量。
从这里我们可以看出,一个变换(矩阵)可由它的所有特征向量完全表示(即T(x)=Ax)。
而每一个向量所对应的特征值,就代表了矩阵在这一向量上的贡献率——说的通俗一点就是能量(power),这种贡献是一种整体上的贡献率,对于单个向量来说还要考虑特征向量V与输入向量x的点积,即dot(V,x)部分。
也就是说,即使λ1相比其它特征值来说很大,使得V1的贡献率很高,但是(V1。
x)=0,T(x)在V1上也没有任何表现。
我们知道,一个变换可由一个矩阵乘法表示,那么一个空间坐标系也可视作一个矩阵,而这个坐标系就可由这个矩阵的所有特征向量表示,用图来表示的话,可以想象就是一个空间张开的各个坐标角度,这一组向量可以完全表示一个矩阵表示的空间的―特征‖,而他们的特征值就表示了各个角度上的能量(可以想象成从各个角度上伸出的长短,越长的轴就越可以代表这个空间,它的―特征‖就越强,或者说显性,而短轴自然就成了隐性特征),因此,通过特征向量/值可以完全描述某一几何空间这一特点,使得特征向量与特征值在几何(特别是空间几何)及其应用中得以发挥。
---
案例学习:二维空间直角坐标系下,有一向量x=[1 1]',求通过变换矩阵
A=[1 2;3 4]后的向量。
步骤1:题目中之所以强调直角坐标系,是因为想让大家清楚,日常生活中所默认的这种坐标系的变换矩阵为A0=[1 0; 0 1],其对应的2组特征值和特征向量为:横坐标即λ1=1,V1=[1 0]'; 纵坐标即λ2=1,V2=[0 1]'。
V1和V2
也可以称为二维空间的一组基。
你可以发现T(x)=A0x=[1 0; 0 1] *[1 1]'=[1 1]'。
根据谱定理也有:T(x)=(V1。
x)λ1V1+(V2。
x)λ2V2=dot(V1,x)* λ1*V1+dot(V2,x)* λ2*V2=[1 1]'。
步骤2:下面看一下题目中的变换矩阵A=[1 2;3 4],其对应的特征值和特征向量为:λ1=-0。
3723,V1=[-0。
8246 0。
5658]'; λ2=5。
3723,V2=[-0。
4160 -0。
9094]'。
如果不假思索直接得到T(x)=Ax=[3 7]',当然结果正确,但本案例旨在说明这个结果的意义和背后的故事。
首先需要明白结果[3 3]'仍然是
在直角坐标系下,即基为[1 0]'和[0 1]'。
根据谱定理也有:T(x)=(V1。
x)λ1V1+(V2。
x)λ2V2=dot(V1,x)* λ1*V1+dot(V2,x)* λ2*V2=[2。
8824 6。
5294]'≈[3 7]'。
将x变换前后的在直角坐标系中的向量图表示如下,图中得出:A对x的作用是旋转和缩放。
步骤3:更换直角坐标系的基,由原来的[1 0]'和[0 1]'变为由A的特征向量[-0。
8246 0。
5658]'和[-0。
4160 -0。
9094]'组成的一对正交基。
将x映射到此正交基构成的坐标系中,得到[-0。
2588 -1。
3254]'(变换前的x)和 [1。
4867 -7。
6136](变换后的x)。
下图给出了坐标系变换前后的对比图,图中可得:更换正交基是对整个坐标系进行旋转和缩放。