线性代数之线性变换的解释
- 格式:docx
- 大小:22.07 KB
- 文档页数:9
第6章线性变换和特征值线性变换是线性代数中的重要概念,它是指一个向量空间V到另一个向量空间W之间的映射,满足线性性质。
线性变换在实际应用中有着广泛的应用,特别是在计算机图形学、信号处理、物理学等领域中。
在进行线性变换时,我们通常会对向量进行一系列的操作,如旋转、缩放、投影等。
这些操作可以通过矩阵来表示,因为矩阵可以将一些向量操作统一起来,从而方便计算。
线性变换可以用一个矩阵A表示,对于输入向量x,其变换结果y=Ax。
线性变换的一个重要性质是保持向量的线性组合。
即对于任意的向量x1, x2和标量a,b,有T(ax1 + bx2) = aT(x1) + bT(x2)。
这一性质在实际应用中非常有用,它保证了线性变换的结果仍然是向量空间中的向量。
在线性代数中,我们研究的是向量空间的特征,即向量空间中的一些特殊向量。
对于一个线性变换T,其特征向量是满足T(v)=λv的非零向量v,其中λ是一个标量,称为特征值。
特征向量和特征值可以用来描述线性变换对向量的“拉伸”和“旋转”效果。
特征值和特征向量的计算是线性代数中的关键问题。
一般来说,我们可以通过求解线性变换对应矩阵的特征方程来求解特征值和特征向量。
特征方程是一个关于特征值λ的方程,其形式为det(A - λI) = 0,其中A是线性变换对应的矩阵,I是单位矩阵。
特征值和特征向量在实际应用中有着广泛的应用。
例如,在计算机图形学中,特征值和特征向量可以用来描述3D模型的形状变化。
在信号处理中,特征值和特征向量可以用来解决滤波和降噪问题。
除了特征值和特征向量,线性变换还有一些重要的性质。
例如,对于矩阵为A的线性变换T和标量c,有T(cA)=cT(A),称为线性变换的齐次性质。
此外,线性变换的核是指所有使得T(v)=0的向量v的集合,而像是指线性变换T的所有可能输出向量的集合。
总结起来,线性变换是线性代数中的重要概念,它可以用矩阵来表示,并且具有许多重要的性质。
特征值和特征向量是线性变换的重要度量指标,可以用来描述线性变换的效果。
第 7章 线性变换7.1知识点归纳与要点解析一.线性变换的概念与判别 1.线性变换的定义数域P 上的线性空间V 的一个变换σ称为线性变换,如果对V 中任意的元素,αβ和数域P 中的任意数k ,都有:()()()σαβσασβ+=+,()()k k σασα=。
注:V 的线性变换就是其保持向量的加法与数量乘法的变换。
2.线性变换的判别设σ为数域P 上线性空间V 的一个变换,那么:σ为V 的线性变换⇔()()()k l k l ,,V ,k,l P σαβσασβαβ+=+∀∈∀∈ 3.线性变换的性质设V 是数域P 上的线性空间,σ为V 的线性变换,12s ,,,,V αααα∀∈。
性质1. ()()00,σσαα==-; 性质2. 若12s ,,,ααα线性相关,那么()()()12s ,,,σασασα也线性相关。
性质3. 设线性变换σ为单射,如果12s ,,,ααα线性无关,那么()()()12s ,,,σασασα也线性无关。
注:设V 是数域P 上的线性空间,12,,,m βββ,12,,,s γγγ是V 中的两个向量组,如果:11111221221122221122s ss s m m m ms sc c c c c c c c c βγγγβγγγβγγγ=+++=+++=+++记:()()1121112222121212,,,,,,m m m s s s ms c c c c c c c c c βββγγγ⎛⎫ ⎪ ⎪= ⎪⎪⎝⎭于是,若()dim V n =,12,,,n ααα是V 的一组基,σ是V 的线性变换, 12,,,m βββ是V 中任意一组向量,如果:()()()11111221221122221122n n n n m m m mn nb b b b b b b b b σβααασβααασβααα=+++=+++=+++记:()()()()()1212,,,,m m σβββσβσβσβ=那么:()()1121112222121212,,,,,,m m m n n n mn b b c b b c b b c σβββααα⎛⎫⎪ ⎪= ⎪⎪⎝⎭设112111222212m m n n mn b b c b b c B b b c ⎛⎫⎪⎪= ⎪⎪⎝⎭,12,,,m ηηη是矩阵B 的列向量组,如果12,,,r i i i ηηη是12,,,m ηηη的一个极大线性无关组,那么()()()12,ri i iσβσβσβ就是()()()12,m σβσβσβ的一个极大线性无关组,因此向量组()()()12,m σβσβσβ的秩等于秩()B 。
线性代数线性变换分析线性代数线性变换分析线性代数是数学中的一个重要分支,研究向量空间、线性映射、线性方程组等概念和性质。
其中,线性变换是线性代数中的一个重要概念,也是线性代数的核心内容之一。
本文将对线性变换进行深入分析。
一、线性变换的定义线性变换是指将一个向量空间的元素映射到另一个向量空间的元素,同时满足两个条件:保持加法运算和标量乘法运算的线性性。
换句话说,对于任意向量a和b,以及任意标量c,线性变换T满足以下等式:1. T(a+b) = T(a) + T(b)2. T(c * a) = c * T(a)二、线性变换的矩阵表示线性变换可以使用矩阵来表示,具体方法如下:设有一个线性变换T,原向量空间为V,目标向量空间为W。
若V中的一个向量a经过线性变换T后得到目标向量空间W中的向量b,可以表示为T(a) = b。
若选定了V和W的一组基,可以得到V和W的坐标系,进而可以得到向量a和b在各自坐标系中的坐标。
设V的基为{v_1, v_2, ..., v_n},W的基为{w_1, w_2, ..., w_m},则线性变换T可以表示为一个m x n的矩阵A,使得:[T(a)]_W = A * [a]_V其中,[a]_V表示向量a在坐标系V中的坐标,[a]_W表示向量b在坐标系W中的坐标。
三、线性变换的性质线性变换具有以下几个重要的性质:1. 线性变换保持直线的性质:线性变换对原空间中的直线进行映射后,得到的是目标空间中的直线。
这是因为直线上的任意两点经过线性变换后仍然是目标空间中的两点,同时线性变换保持加法运算,所以线性变换对直线的保持是自然的。
2. 线性变换对原点的保持:线性变换将原点映射到目标空间的原点。
这是因为线性变换对加法运算的保持,所以线性变换将原点映射到目标空间中的零点是必然的。
3. 线性变换对向量的放缩:线性变换对向量的放缩具有可加性,即T(c * a) = c * T(a)。
这是因为线性变换对标量乘法运算的保持,所以线性变换对向量的放缩也是保持的。
最近想知道特征值、特征值到底有什么物理意义,搜到了这篇文章,共享一下。
来源:孙哲的日志[1. 特征的数学意义]我们先考察一种线性变化,例如x,y坐标系的椭圆方程可以写为x^2/a^2+y^2/b^2=1,那么坐标系关于原点做旋转以后,椭圆方程就要发生变换。
我们可以把原坐标系的(x,y)乘以一个矩阵,得到一个新的(x',y')的表示形式,写为算子的形式就是(x,y)*M=(x',y')。
这里的矩阵M代表一种线性变换:拉伸,平移,旋转。
那么,有没有什么样的线性变换b(b是一个向量),使得变换后的结果,看起来和让(x,y)*b像是一个数b乘以了一个数字m*b? 换句话说,有没有这样的矢量b,使得矩阵A*b这样的线性变换相当于A在矢量b上面的投影m*b? 如果有,那么b就是A的一个特征向量,m就是对应的一个特征值。
一个矩阵的特征向量可以有很多个。
特征值可以用特征方程求出,特征向量可以有特征值对应的方程组通解求出,反过来也一样。
例如,设A为3阶实对称矩阵,a1=(a,-a,1)T是Ax=0的解,a2=(a,1,-a)T是(A+E)x=0的解,a≠2,则常数a=? 因为a1=(a,-a,1)T 是Ax=0的解,说明a1=(a,-a,1)T是A的属于0的特征向量,a2=(a,1,-a)T是(A+E)x=0的解,说明a2=(a,1,-a)T是A的属于-1的特征向量。
实对称矩阵属于不同特征值的特征向量式正交的,所以a^2-a-a=0,a≠2,所以a=0。
还是太抽象了,具体的说,求特征向量的关系,就是把矩阵A所代表的空间,进行正交分解,使得A的向量集合可以表示为每个向量a在各个特征向量上面的投影长度。
例如A是m*n的矩阵,n>m,那么特征向量就是m个(因为秩最大是m),n个行向量在每个特征向量E 上面有投影,其特征值v就是权重。
那么每个行向量现在就可以写为Vn=(E1*v1n,E2*v2n...Em*vmn),矩阵变成了方阵。
线性变换知识点总结一、引言线性变换是线性代数中的重要概念,它是在向量空间中的一种特殊映射。
线性变换具有许多重要的性质和应用,因此研究线性变换对于理解线性代数和应用数学有着重要的意义。
本文将从线性变换的基本概念、性质和应用进行总结,希望能够帮助读者对线性变换有更深入的理解。
二、线性变换的定义线性变换是向量空间之间的一种映射,具体来说,设V和W是两个向量空间,f:V→W是从V到W的映射。
如果对于V中的任意向量u、v和任意标量a,b,都有f(au+bv)=af(u)+bf(v)那么f称为一个线性变换。
三、线性变换的矩阵表示线性变换可以用矩阵来表示,假设V和W是n维向量空间,我们选择V和W的基,那么可以得到V和W中的向量可以用n维列向量表示。
设f:V→W是一个线性变换,选择V和W的基分别为{v1,v2,...,vn}和{w1,w2,...,wn},那么f的矩阵表示为[f]=(f(v1) f(v2) ... f(vn))其中f(vi)表示w中的基向量wi在f映射下的像,也就是f(vi)对应的列向量。
根据线性变换的定义,我们可以得到映射f的矩阵表示满足下列关系f(av1+bv2)=af(v1)+bf(v2)等价于[f](av1+bv2)=a[f]v1+b[f]v2其中[f]v1和[f]v2为f(v1)和f(v2)的列向量表示。
四、线性变换的性质1. 线性变换的保直性线性变换f:V→W将V中的任意向量线性映射到W中,这种映射保持向量之间的直线性质,即通过f映射后的图像仍然是一条直线。
这是线性变换的一个重要性质,它保证了线性变换后的图像具有一些有用的性质,比如直线上的点在f映射后仍然在同一条直线上。
2. 线性变换的局部性线性变换f:V→W保持向量之间的“相对位置”不变,即如果向量v1和v2之间的相对位置关系在V中是一定的,那么在映射f下,向量f(v1)和f(v2)之间的相对位置关系也是一定的。
这一性质对于理解线性变换的几何意义有着重要的作用,它意味着线性变换可以保持向量之间的某些几何性质。
理解线性变换本质线性变换是线性代数中一个重要的概念,它在数学和应用领域都有广泛的应用。
理解线性变换的本质对于深入掌握线性代数理论以及解决实际问题具有重要意义。
一、线性变换的定义和性质线性变换可以理解为一种向量空间之间的变换,它保持向量的线性关系。
设V和W是两个向量空间,f是从V到W的映射,如果对于任意的向量x和y,以及标量a和b,满足以下两个条件:1. f(ax + by) = af(x) + bf(y),称为线性性质;2. f(0) = 0,称为零性质。
则称f为从V到W的线性变换。
线性变换具有以下重要性质:1. 线性变换保持向量的线性组合:即对于任意的向量x1, x2, ..., xn和标量c1, c2, ..., cn,有f(c1x1 + c2x2 + ... + cnxn) = c1f(x1) + c2f(x2)+ ... + cnf(xn)。
2. 线性变换保持向量的加法和乘法运算:即对于任意的向量x和y,有f(x + y) = f(x) + f(y),以及对于任意的标量a,有f(ax) = af(x)。
3. 线性变换的零空间:线性变换的零空间是指使得f(x) = 0成立的向量x的集合,记为ker(f),它是V的子空间。
4. 线性变换的像空间:线性变换的像空间是指所有可能的f(x)的向量的集合,记为im(f),它是W的子空间。
二、线性变换的本质理解线性变换的本质需要从几何和代数两个角度进行考虑。
从几何角度看,线性变换可以将向量空间中的向量变换为另一个向量空间中的向量,而保持向量之间的关系。
例如,平移、旋转和缩放等几何变换,都可以使用线性变换来表示。
线性变换可以改变向量的方向、长度和位置,但不会改变向量的线性关系。
从代数角度看,线性变换可以用矩阵来表示,矩阵中的每个元素表示了向量在变换后的位置。
线性变换可以通过矩阵乘法来实现,变换后的向量可以用原始向量和变换矩阵的线性组合来表示。
线性变换的本质在于它可以将向量的运算转化为矩阵的乘法运算,从而简化了向量的计算和操作。
第七章 线性变换一. 内容概述1. 线性变换的概念设n V 是n 维线性空间,T 是n 维线性空间n V 中的变换,且满足1) 对任意向量n V ∈βα,,有 )()()(βαβαT T T +=+ 2) 对任意向量F k V n ∈∈,α,有)()(ααkT k T =则称为中的线性变换。
2. 线性变换的性质及运算1)0)0(=T )()(ααT T -=-2) )()()()(22112211n n n n T k T k T k k k k T αααααα+++=+++ΛΛ3)设向量组n ααα,,,21Λ线性相关,则向量组)(),(),(21n T T T αααΛ也线性相关。
线性变换的和:)()())((2121αααT T T T +=+ 线性变换的积:))(())((2121ααT T T T = 数乘变换:)())((αλαλT T = 线性变换T 可逆时,逆变换1-T都是线性变换。
线性变换的多项式:0111)(a a a a f m m m m ++++=--σσσσΛ 3. 线性变换的矩阵设σ是V 的一个线性变换,n εεε,,,21Λ是V 的一个基,且n n a a a εεεεσ12211111)(+++=Λn n a a a εεεεα22221122)(+++=ΛΛΛΛΛn nn n n n a a a εεεεσΛ++=2211)(记))(),(),((),,,(2121n n εσεσεσεεεσΛΛ=A n n n ),,,())(,),(),((),,,(212121εεεεσεσεσεεεσΛΛΛ== 则称A 为线性变换σ在基n εεε,,,21Λ下的矩阵。
4. 设n εεε,,,21Λ是数域P 上n 维线性空间V 的一组基,在这组基下,每个线性变换按公式)(*对应一个n n ⨯矩阵,这个对应具有以下性质:1) 线性变换的和对应与矩阵的和; 2) 线性变换的积对应与矩阵的积;3) 线性变换的数量乘积对应与矩阵的数量乘积;4) 可逆的线性变换与可逆矩阵对应,且逆变换对于与逆矩阵。
最近想知道特征值、特征值到底有什么物理意义,搜到了这篇文章,共享一下。
来源:孙哲的日志[1. 特征的数学意义]我们先考察一种线性变化,例如x,y坐标系的椭圆方程可以写为x^2/a^2+y^2/b^2=1,那么坐标系关于原点做旋转以后,椭圆方程就要发生变换。
我们可以把原坐标系的(x,y)乘以一个矩阵,得到一个新的(x',y')的表示形式,写为算子的形式就是(x,y)*M=(x',y')。
这里的矩阵M代表一种线性变换:拉伸,平移,旋转。
那么,有没有什么样的线性变换b(b是一个向量),使得变换后的结果,看起来和让(x,y)*b像是一个数b乘以了一个数字m*b? 换句话说,有没有这样的矢量b,使得矩阵A*b这样的线性变换相当于A在矢量b上面的投影m*b? 如果有,那么b就是A的一个特征向量,m就是对应的一个特征值。
一个矩阵的特征向量可以有很多个。
特征值可以用特征方程求出,特征向量可以有特征值对应的方程组通解求出,反过来也一样。
例如,设A为3阶实对称矩阵,a1=(a,-a,1)T是Ax=0的解,a2=(a,1,-a)T是(A+E)x=0的解,a≠2,则常数a=? 因为a1=(a,-a,1)T 是Ax=0的解,说明a1=(a,-a,1)T是A的属于0的特征向量,a2=(a,1,-a)T是(A+E)x=0的解,说明a2=(a,1,-a)T是A的属于-1的特征向量。
实对称矩阵属于不同特征值的特征向量式正交的,所以a^2-a-a=0,a≠2,所以a=0。
还是太抽象了,具体的说,求特征向量的关系,就是把矩阵A所代表的空间,进行正交分解,使得A的向量集合可以表示为每个向量a在各个特征向量上面的投影长度。
例如A是m*n的矩阵,n>m,那么特征向量就是m个(因为秩最大是m),n个行向量在每个特征向量E 上面有投影,其特征值v就是权重。
那么每个行向量现在就可以写为Vn=(E1*v1n,E2*v2n...Em*vmn),矩阵变成了方阵。
如果矩阵的秩更小,矩阵的存储还可以压缩。
再: 由于这些投影的大小代表了A在特征空间各个分量的投影,那么我们可以使用最小2乘法,求出投影能量最大的那些分量,而把剩下的分量去掉,这样最大限度地保存了矩阵代表的信息,同时可以大大降低矩阵需要存储的维度,简称PCA 方法。
举个例子,对于x,y平面上的一个点(x,y),我对它作线性变换,(x,y)*[1,0;0,-1],分号代表矩阵的换行,那么得到的结果就是(x,-y),这个线性变换相当于关于横轴x做镜像。
我们可以求出矩阵[1,0;0,-1]的特征向量有两个,[1,0]和[0,1],也就是x轴和y轴。
什么意思呢? 在x轴上的投影,经过这个线性变换,没有改变。
在y轴上的投影,乘以了幅度系数-1,并没有发生旋转。
两个特征向量说明了这个线性变换矩阵对于x轴和y轴这两个正交基是线性不变的。
对于其他的线性变换矩阵,我们也可以找到类似的,N个对称轴,变换后的结果,关于这N个对称轴线性不变。
这N个对称轴就是线性变换A的N个特征向量。
这就是特征向量的物理含义所在。
所以,矩阵A等价于线性变换A。
对于实际应用的矩阵算法中,经常需要求矩阵的逆:当矩阵不是方阵的时候,无解,这是需要用到奇异值分解的办法,也就是A=PSQ,P 和Q是互逆的矩阵,而S是一个方阵,然后就可以求出伪逆的值。
同时,A=PSQ可以用来降低A的存储维度,只要P是一个是瘦长形矩阵,Q是宽扁型矩阵。
对于A非常大的情况可以降低存储量好几个数量级。
[2. 物理意义]特征向量有什么具体的物理意义? 例如一个驻波通过一条绳子,绳子上面的每个点组成一个无穷维的向量,这个向量的特征向量就是特征函数sin(t),因为是时变的,就成了特征函数。
每个点特征值就是每个点在特定时刻的sin(x+t)取值。
再如,从太空中某个角度看地球自转,虽然每个景物的坐标在不断的变换,但是这种变换关于地球的自传轴有对称性,也就是关于此轴的平移和拉伸的坐标变换不敏感。
所以地球自转轴,是地球自转这种空间变换的一个特征向量。
Google 的PageRank,就是对www链接关系的修正邻接矩阵的,主要特征向量的投影分量,给出了页面平分。
有什么特性呢? AB和BA有相同的特征向量----设AB的特征向量为x,对应的特征值为b,则有(AB)x = bx,将上式两边左乘矩阵B,得B(AB)x = (BA)(Bx) = b(Bx),故b 为BA的特征值,对应的特征向量为Bx。
反之亦然。
什么是特征矩阵和特征值?我们用整体论来考虑,假设P(A)=(1,2,3)是A的3个特征向量。
那么P(A^2)就是(1^2,2^2,3^2),P可以看作是一种算子。
当然,算子的特性是需要用部分/细节详细证明的。
一旦证明,就可以作为整体的特征。
特征值有什么特性?说明矩阵可以分解成N维特征向量的投影上面,这N个特征值就是各个投影方向上的长度。
由于n*n矩阵A可以投影在一个正交向量空间里面,那么任何N维特征向量组成的矩阵都可以是线性投影变换矩阵,那么I就是一个同用的线性变换投影矩阵。
所以对于特征值m,一定有是够成了一个没有线性无关向量的矩阵Aa=ma两边同乘以I得到Aa=maI,所以(A-mI)a=0有非0解,那么|A-mI|=0(可以用反正法,如果这个行列式不是0,那么N个向量线性无关,在N维空间中只能相交于原点,不可能有非0解)。
所以可以推出一些很有用的性质,例如A=[1/2,1,1;0,1/3,1;0,0,1/5],那么只要满足|A- mI|=0的值就是特征值,显然特征值数组立即可以得到(1/2,1/3,1/5)。
一个n*n的矩阵A,秩=1,那么最大线性无关组=1组,特征向量=1个,任意n 维非零向量都是A的特征向量。
特征向量本身不是定死的,这就好比坐标系可以旋转一样。
一旦特征向量的各个方向确定了,那么特征值向量也就确定了。
求特征值的过程就是用特征方程:|A-mE|=0,P(1/A)=1/P(A),可以证明。
有什么物理含义呢?一个N 维线性无关的向量,去掉其中的一维,那么就有至少两个向量是线性相关的了,所以行列式=0。
特征矩阵有什么作用?把矩阵变化为正定矩阵,也就是A=P^-1BP,这样的变换,A是对角阵。
线性代数的研究,是把向量和矩阵作为一个整体,从部分的性质出发,推到出整体的性质,再由整体的性质得到各种应用和物理上的概念。
当矩阵A是一个符号的时候,它的性质会和实数a有很多相似的地方。
科学的定理看起来总是递归着的。
再举一个例子,高数的基本概念有微分,积分,倒数,那么我立刻可以想到中值定理就应该有3个,形式上分别是微分,积分和倒数。
[3. 应用的场景]线性变换的缺点:线性变换PCA可以用来处理图像(可以搜一下百度有详细的介绍)。
如2维的人像识别:1. 我们把图像A看成矩阵,进一步看成线性变换矩阵,把这个训练图像的特征矩阵求出来(假设取了n个能量最大的特征向量)。
用A乘以这个n个特征向量,得到一个n维矢量a,也就是A在特征空间的投影。
2. 今后在识别的时候同一类的图像(例如,来自同一个人的面部照片),认为是A的线性相关图像,它乘以这个特征向量,得到n个数字组成的一个矢量b,也就是B在特征空间的投影。
那么a和b之间的距离就是我们判断B是不是A的准则。
不过,PCA有天生的缺点,就是线性矢量的相关性考察有"平移无关性"优点的同时,也完全忽略了,2维图形中,矢量分量之间的顺序是有意义的,顺序不同可以代表完全不同的信息。
还有,就是图像B 必须是A的某种伸缩(由特征向量空间决定的),才能被很好的投影到A的特征向量空间里面,如果B包含了A中的某种旋转因素,那么PCA可以彻底失效。
所以实际应用中PCA的方法做图像识别,识别率并不高,它要求图像有某种严格的方向对齐和归一化。
所以PCA一般不用来做直接的特征提取而是用来做特征矩阵的降维。
当然,降维的结果用于分类并不理想,我们可以进一步做最小二承法拉开类间距离的Fisher变换。
但是Fisher变换会引入新的弱点,那就是对于训练类别的数据变得更敏感了,分类效果上升的代价是通用性下降,当类型数量急剧膨胀的时候,分类效果的函数仍然是直线下降的----但是还是比直接PCA的分类效果好得多。
PCA"主观"的认为,一个类型的第N+1个矩阵可以由之前已知的[1,N]个矩阵通过拉成向量来线性表出。
显然这只是一个美好的主观愿望,因为即使新的输入矩阵是原有矩阵作了一些行列的初等变换如交换等,这种拉直以后的线性表出也可能根本就不存在(2维的PCA同样无法克服这个客观不存在的设定),于是,当应用到实际的时候,只能试图做优化没,用最小二乘距离来判定,"认为"那个矩阵就是属于某个分类。
由于PCA训练的特征矩阵是一个类别一个矩阵,这些矩阵构成的子空间之间又无法保证正交,于是投影的结果也不具有根本意义上的分类特性。
这个算法是个实用的算法,但是理论上根本就是无解。
K-L变换是PCA的一个应用形式。
假设图像类型C有N个图像,那么把每个图像拉直成一个向量,N个图像的向量组成一个矩阵,求矩阵的特征向量(列向量)。
那么用原来的N个图像乘以这些列向量求出平均值,就是我们的特征图像。
可以看到特征图像和原图像有相似的地方,但是去掉了和拉伸,平移相关的一些形变信息。
在得到了鲁棒性的同时,牺牲了很多精确性。
所以它比较适合特定范围图像的Verification工作,也就是判断图像P是不是属于类型C。
对比一下神经网络:说白了把函数y=f(x)的映射,变成了[y]=[f(x)]的向量映射。
输入输出的点(entry)是固定的。
而真实的神经系统,并没有明显的内部处理和外部接口的区分。
所以所有的神经网络理论,名字上是神经网络,实质上,差得很远。
[4. 关于谱]什么是"谱"(Spectrum)? 我们知道音乐是一个动态的过程,但是乐谱却是在纸上的,静态的存在。
对于数学分析工具,研究时变函数的工具,可以研究傅立叶变换对应的频率谱;对于概率问题,虽然每次投色子的结果不一样,但是可以求出概率分布的功率谱密度。
数学作为一种形而上学工具,研究的重点,就是这个变化世界当中那些不变的规律。
[5. 能用于分类吗]所谓的特征矩阵,就是原矩阵如何与一个x维的数量矩阵相似。
Lamda(i)说明了相似投影与一个x维线性空间的第i维坐标轴,Lamda(i)是放缩比例。
Lamda(i)之间的顺序是不重要的,因为坐标轴之间的交换是初等线性变换,不影响代数拓扑的性质。
特征向量xi 表明A如何把线性组合投影到一个坐标轴上。
所谓的特征向量,就是一组正交基集合。
在图像处理的问题域中,把图像看成矩阵本身,那么图像的分类问题就是同类矩阵被认为有相同或者代数近似的"不变量"。