实验报告(五)
院(系)课程名称:数学模型日期:年月日
班级学号实验室506 专业数学教育姓名计算机号F08 实验
名称
矩阵运算、分解和特征值成绩评定
所用
软件
MATLAB 7.0 指导教师
实验目的1.矩阵的基本运算。
2.矩阵的LU、QR和Cholesky分解。3.矩阵的特征向量和特征值。
实验内容问题1:求线性方程组
1234
124
234
1234
258
369
225
4760
x x x x
x x x
x x x
x x x x
+-+=
?
?--=
?
?
-+=-
?
?+-+=
?
的解。问题2:
(1)求矩阵
123
456
780
A
??
?
= ?
?
??
的LU分解。
(2)求矩阵
123
456
789
101112
A
??
?
?
=
?
?
??
的QR分解。
(3)求5阶pascal矩阵的Cholesky分解。
问题3:
(1)求矩阵
31
13
A
-
??
= ?
-
??
的特征值和特征向量。
(2)求矩阵
23
45
84
A
??
?
= ?
?
??
的奇异值分解。
实验过程问题1:A=[2,1,-5,1;1,-3,0,-6;0,2,-1,2;1,4,-7,6];
>> inv(A)
ans =
1.3333 -0.6667 0.3333 -1.0000
-0.0741 0.2593 1.1481 -0.1111
0.3704 -0.2963 0.2593 -0.4444
0.2593 -0.4074 -0.5185 -0.1111
ans=[1.3333,-0.6667,0.3333,-1.0000;-0.0741,0.2593,1.1481,-0.1111;0.3704,-0. 2963,0.2593,-0.4444;0.2593,-0.4074,-0.5185,-0.1111];
>> B=[8;9;-5;0];
>> ans*B
ans =
2.9996
-3.9996
-1.0000
1.0003
所以线性方程的解x=[ 2.9996,-3.9996,-1.0000,1.0003]
问题2:1、A=[1,2,3;4,5,6;7,8,0];
>> [L,U]=lu(A)
L =
0.1429 1.0000 0
0.5714 0.5000 1.0000
1.0000 0 0
U =
7.0000 8.0000 0
0 0.8571 3.0000
0 0 4.5000
2、A=[1,2,3;4,5,6,;7,8,9;10,11,12];
>> [Q,R]=qr(A)
Q =
-0.0776 -0.8331 0.5456 -0.0478
-0.3105 -0.4512 -0.6919 0.4704
-0.5433 -0.0694 -0.2531 -0.7975
-0.7762 0.3124 0.3994 0.3748
R =
-12.8841 -14.5916 -16.2992
0 -1.0413 -2.0826
0 0 -0.0000
0 0 0
3、
pascal(5)
ans =
1 1 1 1 1 1
2
3
4
5 1 3
6 10 15 1 4 10 20 35 1 5 15 35 70 问题3:1、A=[3,-1;-1,3];
>> [X,D]=eig(A)
X =
-0.7071 -0.7071
-0.7071 0.7071
D =
2 0
0 4
2、A=[2,3;4,5;8,4];
>> [U,S,V]=svd(A)
U =
-0.3011 -0.4694 -0.8301 -0.5491 -0.6263 0.5534 -0.7796 0.6224 -0.0692 S =
11.2889 0
0 2.5612
0 0
V =
-0.8004 0.5995
-0.5995 -0.8004
心得体会这次试验就是套公式,但是主要是初次熟悉矩阵的解,而且每次的英语字符都需注意,线性方程组的知识也要复习才能更好的应付以后的数学建模实验。
注:实验报告用A4纸双面打印,篇幅不要超过一页。
特征值:一矩阵A作用与一向量a,结果只相当与该向量乘以一常数λ。即A*a=λa,则a 为该矩阵A的特征向量,λ为该矩阵A的特征值。 奇异值:设A为m*n阶矩阵,A H A的n个特征值的非负平方根叫作A的奇异值。记 (A) 为σ i 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有关的应用背景。奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,而且带个黑框的眼镜,这样寥寥的几个特征,就让别人脑海里面就有一个较为清楚的认识,实际上,人脸上的特征是有着无数种的,之所以能这么描述,是因为人天生就有着非常好的抽取重要特征的能力,让机器学会抽取重要的特征,SVD是一个重要的方法。 在机器学习领域,有相当多的应用与奇异值都可以扯上关系,比如做feature reduction的PCA,做数据压缩(以图像压缩为代表)的算法,还有做搜索引擎语义层次检索的LSI(Latent Semantic Indexing) 另外在这里抱怨一下,之前在百度里面搜索过SVD,出来的结果都是俄罗斯的一种狙击枪(AK47同时代的),是因为穿越火线这个游戏里面有一把狙击枪叫做 SVD,而在Google上面搜索的时候,出来的都是奇异值分解(英文资料为主)。想玩玩战争游戏,玩玩COD不是非常好吗,玩山寨的CS有神马意思啊。国内的网页中的话语权也被这些没有太多营养的帖子所占据。真心希望国内的气氛能够更浓一点,搞游戏的人真正是喜欢制作游戏,搞Data Mining的人是真正喜欢挖数据的,都不是仅仅为了混口饭吃,这样谈超越别人才有意义,中文文章中,能踏踏实实谈谈技术的太少了,改变这个状况,从我自己做起吧。 前面说了这么多,本文主要关注奇异值的一些特性,另外还会稍稍提及奇异值的计算,不过本文不准备在如何计算奇异值上展开太多。另外,本文里面有部分不算太深的线性代数的知识,如果完全忘记了线性代数,看本文可能会有些困难。 一、奇异值与特征值基础知识: 特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。先谈谈特征值分解吧:
第9章矩阵特征值问题的数值 方法 9.1 特征值与特征向量 9.2 Hermite矩阵特征值问题 9.3 Jacobi方法 9.4 对分法 9.5 乘幂法 9.6 反幂法 9.7 QR方法
9.1 特征值与特征向量设A是n阶矩阵,x是非零列向量. 如果有数λ存在,满足, (1) 那么,称x是矩阵A关于特征值λ的特征向量.
如果把(1)式右端写为 ,那么(1)式又可写为: x λ ()0 I A x λ-=||0 I A λ-=即1110 ()||...n n n f I A a a a λλλλλ--=-=++++记 它是关于参数λ的n 次多项式,称为矩阵A 的特 征多项式, 其中a 0=(-1)n |A |. (2)
显然,当λ是A的一个特征值时,它必然 是的根. 反之,如果λ是的根,那么齐次方程组(2)有非零解向量x,使(1)式 成立. 从而,λ是A的一个特征值. A的特征值也称为A的特征根 . ()0 fλ= ()0 fλ=
矩阵特征值和特征向量有如下主要性质: 定理9.1.1 n阶矩阵A是降秩矩阵的充分必要 条件是A有零特征值. 定理9.1.2 设矩阵A与矩阵B相似,那么它们 有相同的特征值. 定理9.1.3 n阶矩阵A与A T有相同的特征值. 定理9.1.4 设λ ≠λj是n阶矩阵A的两个互异特 i 征值,x、y分别是其相应的右特征向 量和左特征向量,那么,x T y=0 .
9.2 Hermite矩阵特征值问题?设A为n阶矩阵,其共轭转置矩阵记为A H. 如果A=A H,那么,A称为Hermite矩阵.
求矩阵特征值算法及程序简介 1.幂法 1、幂法规范化算法 (1)输入矩阵A、初始向量( 0),误差eps; (2) k 1; (3)计算V(k)A(k 1); (4)m k max(V(k)) ,m k1max( V ( k 1)); (5) (k)V(k)/m k; (6)如果m k m k 1eps,则显示特征值1和对应的特征向量x(1) ),终止; (7)k k 1, 转(3) 注:如上算法中的符号max(V )表示取向量V 中绝对值最大的分量。本算法使用了数据规范化处理技术以防止计算过程中出现益出错误。 2、规范化幂法程序 Clear[a,u,x]; a=Input[" 系数矩阵A="]; u=Input[" 初始迭代向量u(0)="]; n=Length[u]; eps=Input[" 误差精度eps ="]; nmax=Input[" 迭代允许最大次数nmax="]; fmax[x_]:=Module[{m=0,m1,m2}, Do[m1=Abs[x[[k]]]; If[m1>m,m2=x[[k]];m=m1], {k,1,Length[x]}]; m2] v=a.u; m0=fmax[u]; m1=fmax[v]; t=Abs[m1-m0]//N; k=0; While[t>eps&&k 实验报告(五) 院(系)课程名称:数学模型日期:年月日 班级学号实验室506 专业数学教育姓名计算机号F08 实验 名称 矩阵运算、分解和特征值成绩评定 所用 软件 MATLAB 7.0 指导教师 实验目的1.矩阵的基本运算。 2.矩阵的LU、QR和Cholesky分解。3.矩阵的特征向量和特征值。 实验内容问题1:求线性方程组 1234 124 234 1234 258 369 225 4760 x x x x x x x x x x x x x x +-+= ? ?--= ? ? -+=- ? ?+-+= ? 的解。问题2: (1)求矩阵 123 456 780 A ?? ? = ? ? ?? 的LU分解。 (2)求矩阵 123 456 789 101112 A ?? ? ? = ? ? ?? 的QR分解。 (3)求5阶pascal矩阵的Cholesky分解。 问题3: (1)求矩阵 31 13 A - ?? = ? - ?? 的特征值和特征向量。 (2)求矩阵 23 45 84 A ?? ? = ? ? ?? 的奇异值分解。 实验过程问题1:A=[2,1,-5,1;1,-3,0,-6;0,2,-1,2;1,4,-7,6]; >> inv(A) ans = 1.3333 -0.6667 0.3333 -1.0000 -0.0741 0.2593 1.1481 -0.1111 0.3704 -0.2963 0.2593 -0.4444 0.2593 -0.4074 -0.5185 -0.1111 ans=[1.3333,-0.6667,0.3333,-1.0000;-0.0741,0.2593,1.1481,-0.1111;0.3704,-0. 2963,0.2593,-0.4444;0.2593,-0.4074,-0.5185,-0.1111]; >> B=[8;9;-5;0]; >> ans*B ans = 2.9996 -3.9996 -1.0000 1.0003 所以线性方程的解x=[ 2.9996,-3.9996,-1.0000,1.0003] 问题2:1、A=[1,2,3;4,5,6;7,8,0]; >> [L,U]=lu(A) L = 0.1429 1.0000 0 0.5714 0.5000 1.0000 1.0000 0 0 U = 7.0000 8.0000 0 0 0.8571 3.0000 0 0 4.5000 2、A=[1,2,3;4,5,6,;7,8,9;10,11,12]; >> [Q,R]=qr(A) Q = -0.0776 -0.8331 0.5456 -0.0478 -0.3105 -0.4512 -0.6919 0.4704 -0.5433 -0.0694 -0.2531 -0.7975 -0.7762 0.3124 0.3994 0.3748 R = -12.8841 -14.5916 -16.2992 0 -1.0413 -2.0826 0 0 -0.0000 0 0 0 9 矩阵特征值计算 在实际的工程计算中,经常会遇到求n 阶方阵 A 的特征值(Eigenvalue)与特征向量(Eigenvector)的问题。对于一个方阵A,如果数值λ使方程组 Ax=λx 即(A-λI n )x=0 有非零解向量(Solution Vector)x,则称λ为方阵A的特征值,而非零向量x为特征值λ所对应的特征向量,其中I n 为n阶单位矩阵。 由于根据定义直接求矩阵特征值的过程比较复杂,因此在实际计算中,往往采取一些数值方法。本章主要介绍求一般方阵绝对值最大的特征值的乘幂(Power)法、求对称方阵特征值的雅可比法和单侧旋转(One-side Rotation)法以及求一般矩阵全部特征值的QR 方法及一些相关的并行算法。 1.1 求解矩阵最大特征值的乘幂法 1.1.1 乘幂法及其串行算法 在许多实际问题中,只需要计算绝对值最大的特征值,而并不需要求矩阵的全部特征值。乘幂法是一种求矩阵绝对值最大的特征值的方法。记实方阵A的n个特征值为λi i=(1,2, …,n),且满足: │λ1 │≥│λ2 │≥│λ3 │≥…≥│λn │ 特征值λi 对应的特征向量为x i 。乘幂法的做法是:①取n维非零向量v0 作为初始向量;②对于 k=1,2, …,做如下迭代: 直至u k+1 ∞ - u k u k =Av k-1 v k = u k /║u k ║∞ <ε为止,这时v k+1 就是A的绝对值最大的特征值λ1 所对应的特征向∞ 量x1 。若v k-1 与v k 的各个分量同号且成比例,则λ1 =║u k ║∞;若v k-1 与v k 的各个分量异号且成比例,则λ1 = -║u k ║∞。若各取一次乘法和加法运算时间、一次除法运算时间、一次比较运算时间为一个单位时间,则因为一轮计算要做一次矩阵向量相乘、一次求最大元操作和一次规格化操作,所以下述乘幂法串行算法21.1 的一轮计算时间为n2+2n=O(n2 )。 算法21.1 单处理器上乘幂法求解矩阵最大特征值的算法 输入:系数矩阵A n×n ,初始向量v n×1 ,ε 输出:最大的特征值m ax Begin while (│diff│>ε) do (1)for i=1 to n do (1.1)sum=0 (1.2)for j= 1 to n do sum=sum+a[i,j]*x[j] end for 第六章 矩阵特征值问题及二次型 6.1 求下列矩阵的特征值与特征向量: 1); 2); 3); ????????4221?????????????6123020663???? ????????3202300054); 5). ??????????422242224????????????? ?00011000010000106.2 设,证明:和有完全相同的特征值。 n n A A ×=T A A 6.3 设12=λ为方阵的特征值,求满足的关系式。 ???? ?????????=a b A 4417447b a ,6.4 设,证明:若有一个常数项不为零的多项式n n A A ×=)(x ?使得0)(=A ?,则的特征值必全不为零。 A 6.5 设λ为阶可逆方阵的特征值,证明:n A 12 +?? ????λA 是()I A +?2的特征值。 6.6 设21,λλ是方阵的两个互异的特征值,A 21,ξξ分别是的属于特征值A 21,λλ的特征向量,证明:21ξξ+不是的特征向量。 A 6.7 设321,,λλλ是方阵的三个互异的特征值,A 321,,ξξξ分别是的属于特征值A 321,,λλλ的特征向量,证明:321ξξξ++不是的特征向量。 A 6.8 设均为阶方阵且可逆,证明:~ B A ,n A AB .BA 6.9 设;求. ????????? ?????=163053064A 10A 6.10 设为2阶实方阵,且A 0trA ,则相似于对角阵A 第八章 矩阵的特征值与特征向量的数值解法 某些工程计算涉及到矩阵的特征值与特征向量的求解。如果从原始矩阵出发,先求出特征多项式,再求特征多项式的根,在理论上是无可非议的。但一般不用这种方法,因为了这种算法往往不稳定.常用的方法是迭代法或变换法。本章介绍求解特征值与特征向量的一些方法。 §1 乘幂法 乘幂法是通过求矩阵的特征向量来求特征值的一种迭代法,它适用于求矩阵的按模最大的特征值及对应的特征向量。 定理8·1 设矩阵An ×n 有n 个线性无关的特征向量X i(i=1,2,…,n),其对应的特征值λi (i =1,2,…,n)满足 |λ1|>|λ2|≧…≧|λn | 则对任何n维非零初始向量Z 0,构造Zk = AZ k-1 11()lim ()k j k k j Z Z λ→∞ -= (8·1) 其中(Zk )j表示向量Z k 的第j个分量。 证明 : 只就λi是实数的情况证明如下。 因为A 有n 个线性无关的特征向量X i ,(i = 1,2,…,n)用X i(i = 1,2,…,n)线性表示,即Z 0=α1X 1 + α2X2 +用A 构造向量序列{Z k }其中 ? 21021010, ,k k k Z AZ Z AZ A Z Z AZ A Z -=====, (8.2) 由矩阵特征值定义知AXi =λi X i (i=1,2, …,n),故 ? 0112211122211121k k k k k n n k k k n n n k n k i i i i Z A Z A X A X A X X X X X X ααααλαλαλλλααλ===++ +=+++???? ??=+ ?????? ? ∑ (8.3) 同理有 1 1 11 1121k n k i k i i i Z X X λλααλ---=? ? ????=+ ????? ? ? ∑ (8.4) 将(8.3)与(8.4)所得Zk 及Z k-1的第j 个分量相除,设α1≠0,并且注意到 |λi |<|λ1|(i=1,2,…,n )得 第3章 矩阵特征值与特征向量的计算 一些工程技术问题需要用数值方法求得矩阵的全部或部分特征值及相关的特征向量。 3.1 特征值的估计 较粗估计ρ(A )≤ ||A || 欲将复平面上的特征值一个个用圆盘围起来。 3.1.1盖氏图 定义3.1-1 设A = [a ij ]n ?n ,称由不等式∑≠=≤-n i j j ij ii a a z 1 所确定的复区域为A 的第i 个盖氏图, 记为G i ,i = 1,2,…,n 。 >≤-=<∑≠=}:{1n i j j ij ii i a a z z G 定理3.1-1 若λ为A 的特征值,则 n i i G 1 =∈ λ 证明:设Ax = λx (x ≠ 0),若k 使得∞ ≤≤==x x x i n i k 1max 因为 k n j j kj x x a λ=∑=1 ?∑≠= -n k j j kj k kk x a x a )(λ ?∑∑∑ ≠=≠=≠≤≤= -n k j j kj n k j j k j kj n k j k j kj kk a x x a x x a a 11λ ? n i i k G G 1 =? ∈λ 例1 估计方阵????? ?? ?????----=41.03.02.05.013.012.01.035.03.02.01.01A 特征值的X 围 解: G 1 = {z :|z – 1|≤ 0.6};G 2 = {z :|z – 3|≤ 0.8}; G 3 = {z :|z + 1|≤ 1.8};G 4 = {z :|z + 4|≤ 0.6}。 注:定理称A 的n 个特征值全落在n 个盖氏圆上,但未说明每个圆盘内都有一个特征值。 3.1.2盖氏圆的连通部分 称相交盖氏圆之并构成的连通部分为连通部分。 孤立的盖氏圆本身也为一个连通部分。 定理3.1-2若由A 的k 个盖氏圆组成的连通部分,含且仅含A 的k 个特征值。 证明: 令D = diag(a 11,a 12,…,a nn ),M = A –D ,记 )10(00 0)(212211122211≤≤?? ?? ? ? ? ??+??????? ??=+=εεεε n n n n nn a a a a a a a a a M D A 则显然有A (1) = A ,A (0) = D ,易知A (ε)的特征多项式的系数是ε的多项式,从而A (ε)的特征 值λ1(ε),λ2(ε),…,λn (ε)为ε的连续函数。 A (ε)的盖氏圆为:)10(,}||||:{)(11≤≤?=≤ -=∑∑≠=≠=εεεεi n i j j ij n i j j ij ii i G a a a z z G 因为A (0) = D 的n 个特征值a 11,a 12,…,a nn ,恰为A 的盖氏圆圆心,当ε由0增大到1时,λi (ε)画出一条以λi (0) = a ii 为始点,λi (1) = λi 为终点的连续曲线,且始终不会越过G i ; 不失一般性,设A 开头的k 个圆盘是连通的,其并集为S ,它与后n –k 个圆盘严格分离,显然,A (ε)的前k 个盖氏圆盘与后n –k 个圆盘严格分离。 当ε = 0时,A (0) = D 的前k 个特征值刚好落在前k 个圆盘G 1,…,G k 中,而另n –k 个特征值则在区域S 之外,ε从0变到1时, k i i G 1 )(=ε与 n k i i G 1 )(+=ε始终分离(严格) 。连续曲线始终在S 中,所以S 中有且仅有A 的k 个特征值。 注:1) 每个孤立圆中恰有一个特征值。 2) 例1中G 2,G 4为仅由一个盖氏圆构成的连通部分,故它们各有一个特征值,而G 1,G 3构 PCA(协方差矩阵和奇异值分解两种方法求特征值特征向量) 2015-12-30 10:43 1157人阅读评论(0) 收藏举报 分类: 模式识别(1) 1.问题描述 在许多领域的研究与应用中,往往需要对反映事物的多个变量进行大量的观测,收集大量数据以便进行分析寻找规律。多变量大样本无疑会为研究和应用提供了丰富的信息,但也在一定程度上增加了数据采集的工作量,更重要的是在大多数情况下,许多变量之间可能存在相关性,从而增加了问题分析的复杂性,同时对分析带来不便。如果分别对每个指标进行分析,分析往往是孤立的,而不是综合的。盲目减少指标会损失很多信息,容易产生错误的结论。 2.过程 主成分分析法是一种数据转换的技术,当我们对一个物体进行衡量时,我们将其特征用向量 (a1,a2,a3,...an)进行表示,每一维都有其对应的variance(表示在其均值附近离散的程度);其所有维的variance之和,我们叫做总的variance;我们 对物体进行衡量时,往往其特征值之间是correlated 的,比如我们测量飞行员时,有两个指标一个是飞行技术(x1),另一个是对飞行的喜好程度(x2),这两者之间是有关联的,即correlated的。我们进行PCA (主成分分析时),我们并没有改变维数,但是我们却做了如下变换,设新的特征为(x1,x2,x3...,xn); 其中 1)x1的variance占总的variance比重最大; 2)除去x1,x2的variance占剩下的variance比重最大; .... 依次类推; 最后,我们转换之后得到的(x1,x2,...xn)之间都是incorrelated,我们做PCA时,仅取(x1,x2,....xk),来表示我们测量的物体,其中,k要小于n。主成分的贡献率就是某主成分的方差在全部方差中的比值。这个值越大,表明该主成分综合X1,X2,…,XP信息的能力越强。如果前k个主成分的贡献率达到85%,表明取前k个主成分基本包含了全部测量指标所具有的 特征值分解及奇异值分解在数字图像中的应用 摘要:目前,随着科学技术的高速发展,现实生活中有大量的信息用数字进行存储、处理和传送。而传输带宽、速度和存储器容量等往往有限制,因此数据压缩就显得十分必要。数据压缩技术已经是多媒体发展的关键和核心技术。图像文件的容量一般都比较大,所以它的存储、处理和传送会受到较大限制,图像压缩就显得极其重要。当前对图像压缩的算法有很多,特点各异,类似JPEG 等许多标准都已经得到了广泛的应用。本文在简单阐述了矩阵特征值的数值求解理论之后,介绍了几种常用的求解矩阵特征值的方法,并最终将特征值计算应用到图像压缩中。以及奇异值分解(Singular Value Decomposition ,SVD) 。奇异值分解是一种基于特征向量的矩阵变换方法,在信号处理、模式识别、数字水印技术等方面都得到了应用。由于图像具有矩阵结构,有文献提出将奇异值分解应用于图像压缩[2],并取得了成功,被视为一种有效的图像压缩方法。本文在奇异值分解的基础上进行图像压缩。 关键词:特征值数值算法;奇异值分解;矩阵压缩;图像处理 引言 矩阵的特征值计算虽然有比较可靠的理论方法,但是,理论方法只适合于矩阵规模很小或者只是在理论证明中起作用,而实际问题的数据规模都比较大,不太可能采用常规的理论解法。计算机擅长处理大量的数值计算,所以通过适当的数值计算理论,写成程序,让计算机处理,是一种处理大规模矩阵的方法,而且是一种好的方法。常用的特征值数值方法包括幂法、反幂法、雅克比方法、QR 分解法等。其中,幂法适用于求解矩阵绝对值最大的特征值,反幂法适合求解矩阵的逆矩阵的特征值,雅克比方法适合求解对称矩阵的特征值,QR分解法主要使用于求中小型矩阵以及对称矩阵的全部特征值。矩阵乘以一个向量的结果仍是同维数的一个向量。因此,矩阵乘法对应了一个变换,把一个向量变成同维数的另一个向量,变换的效果当然与方阵的构造有密切关系。图像压缩处理就是通过矩阵理论减少表示数字图像时需要的数据量,从而达到有效压缩。数字图像的质量很大程度上取决于取样和量化的取样数和灰度级。取样和量化的结果是一个实际的矩阵。图像压缩是数据压缩技术在数字图像上的应用,它的目的是减少图像数据中的冗余信息从而用更加高效的格式存储和传输数据。图像数据之所以能被压缩,就是因为数据中存在着冗余。图像数据的冗余主要表现为:图像中相邻像素间的相关性引起的空冗余;图像序列中不同帧之间存在相关性引起的时间冗矩阵运算、分解和特征值
并行计算-矩阵特征值计算--
矩阵特征值问题及二次型
第八章矩阵的特征值与特征向量的数值解法
3矩阵特征值及特征向量的计算
PCA(协方差矩阵和奇异值分解两种方法求特征值特征向量)
特征值分解及奇异值分解在数字图像中的应用