当前位置:文档之家› 一种局部化的线性流形自组织映射

一种局部化的线性流形自组织映射

一种局部化的线性流形自组织映射
一种局部化的线性流形自组织映射

降维方法

国内当前流行的文本分类算法有最大熵(MaximumEntropy,ME),K近邻法(KNN),朴素贝叶斯法(NB),支持向量机法(SVM),线性最小平分拟合法(LLSF),神经网络法(Nnet)等,其中KNN、NB和SVM的分类效果相对较好。 文本分类由文本表示,特征降维和分类器训练组成,分类算法只是其中的一个环节,另外两个环节也非常重要。目前普遍采用向量空间模型来表示文本,常见的特征词加权方法有:布尔权重、词频权重、TF—IDF权重等,常见的特征选择方法有文档频率,互信息和统计等。 基于机器学习文本分类的基础技术由文本的表示(representation) 、分类方法及效果(effectiveness)评估3 部分组成。Sebastiani对文本分类发展历程及当时的技术进行了总结,主要内容包括: (1)文本关于项(term)或特征的向量空间表示模型(VSM)及特征选择 (selection)与特征提取(extraction)两种表示空间降维(dimensionality reduction)策略,讨论了χ2,IG,MI,OR 等用于特征过滤的显著性统计量及项聚类和隐含语义索引(LSI)等特征提取方法; (2) 当时较成熟的分类模型方法,即分类器的归纳构造(inductive construction)或模型的挖掘学习过程; (3) 分类效果评估指标,如正确率(precision) 召回率(recall) 均衡点(BEP) F β(常用F1)和精度(accuracy)等,以及之前报道的在Reuters 等基准语料上的效果参考比较。 1、中文评论语料的采集 利用DOM 构建网页结构树,对结构树的分析实现了中文评论的自动采集的方

第一章线性空间与线性变换

第一章 线性空间与线性变换 线性空间与线性变换是学习现代矩阵论时经常用到的两个极其重要的概念.本章先简要地论述这两个概念及其有关理论,然后再讨论两个特殊的线性空间,这就是Euclid 空间和酉空间. §1.1 线性空间 线性空间是线性代数最基本的概念之一,也是学习现代矩阵论的重要基础,所考虑的数域是实数域(记为R )和复数域(记为C ),统称数域F . 一、线性空间的定义及性质 定义1 设V 是一个非空集合,F 是一数域.如果存在一种规则,叫做V 的加法运算:对于V 中任意两个元素,αβ,总有V 中一个确定的元素γ与之对应.γ称为αβ与的和,记为γαβ=+.另有一种规则,叫做V 对于F 的数乘运算:对于F 中的任意数k 及V 中任意元素α,总有V 中一个确定的元素σ与之对应,σ叫做k 与α的数乘,记为k σα=.而且,以上两种运算还具有如下的性质: 对于任意α,β,V γ∈及k ,l F ∈,有 1)αββα+=+; 2)()()αβγαβγ++=++; 3)V 中存在零元素0,对于任何V α∈,恒有0αα+=; 4)对于任何V α∈,都有α的负元素V β∈,使0αβ+=; 5)1αα=; 6)()()k l kl αα=;(式中kl 是通常的数的乘法) 7)()k l k l ααα+=+;(式中k l +是通常的数的加法) 8)()k k k αβαβ+=+. 则称V 为数域F 上的一个线性空间,也称向量空间. V 中所定义的加法及数乘运算统称为线性运算,其中数乘又称数量乘 法.在不致产生混淆时,将数域F 上的线性空间简称为线性空间. 需要指出,不管V 的元素如何,当F 为实数域R 时,则称V 为实线性空间;当F 为复数域C 时,就称V 为复线性空间.

数据降维方法分析与研究_吴晓婷

收稿日期:2008211226;修回日期:2009201224 基金项目:国家自然科学基金资助项目(60372071);中国科学院自动化研究所复杂系统与智能科学重点实验室开放课题基金资助项目(20070101);辽宁省教育厅高等学校科学研究基金资助项目(2004C031) 作者简介:吴晓婷(19852),女(蒙古族),内蒙古呼伦贝尔人,硕士研究生,主要研究方向为数据降维、模式识别等(xiaoting wu85@hot m ail . com );闫德勤(19622),男,博士,主要研究方向为模式识别、数字水印和数据挖掘等. 数据降维方法分析与研究 3 吴晓婷,闫德勤 (辽宁师范大学计算机与信息技术学院,辽宁大连116081) 摘 要:全面总结现有的数据降维方法,对具有代表性的降维方法进行了系统分类,详细地阐述了典型的降维方法,并从算法的时间复杂度和优缺点两方面对这些算法进行了深入的分析和比较。最后提出了数据降维中仍待解决的问题。 关键词:数据降维;主成分分析;局部线性嵌入;等度规映射;计算复杂度 中图分类号:TP301 文献标志码:A 文章编号:100123695(2009)0822832204 doi:10.3969/j .jssn .100123695.2009.08.008 Analysis and research on method of data dimensi onality reducti on WU Xiao 2ting,Y AN De 2qin (School of Co m puter &Infor m ation Technology,L iaoning N or m al U niversity,D alian L iaoning 116081,China ) Abstract:This paper gave a comp rehensive su mmarizati on of existing di m ensi onality reducti on methods,as well as made a classificati on t o the rep resentative methods systematically and described s ome typ ical methods in detail.Further more,it deep ly analyzed and compared these methods by their computati onal comp lexity and their advantages and disadvantages .Finally,it p r oposed the crucial p r oble m s which needed t o be res olved in future work in data di m ensi onality reducti on . Key words:data di m ensi onality reducti on;p rinci pal component analysis (PCA );l ocally linear e mbedding (LLE );is ometric mapp ing;computati onal comp lexity 近年来,数据降维在许多领域起着越来越重要的作用。通过数据降维可以减轻维数灾难和高维空间中其他不相关属性,从而促进高维数据的分类、可视化及压缩。所谓数据降维是指通过线性或非线性映射将样本从高维空间映射到低维空间,从而获得高维数据的一个有意义的低维表示的过程。数据降维的数学描述如下:a )X ={x i }N i =1是D 维空间中的一个样本集, Y ={y i }N i =1是d (d <

§3 分式线性映射

装订线 §3分式线性映射 ((分式线性映射是共形映射中比较简单的但又很重要的一类映射)) 1、定义:由分式线性函数 az b w cz d + = + (,,, a b c d为复常数且0 ad bc -≠) ……(6.4) 构成的映射,称为分式线性映射。 注意:任何分式线性映射总可以分解成下面函数的复合: w z b =+,0i w zeθ =,(0) w rz r =>, 1 w z = 因为:当0 c=时,(6.4)式变为az b a b w z d d d + ==+ ,可以看做(0) w rz r =>和w z b =+的复合. 当0 c≠时,(6.4)式变为 () az b c az b ad ad acz ad bc ad a bc ad w +++-++-- ====+ 它可以看作w z b =+,(0) w rz r =>, 1 w z =参与的复合。 ((由于任何分式线性映射总可以分解成上述四个函数的复合,所以只须对这四种映射进行讨论,就可以了解分式线性映射的特点)) (1)平移映射:w z b =+, ( b为复数) ((从z,b的实部和虚部解释,也可以用向量的平行四边形法则解释))

装 订线 同样将曲线C进行旋转 θ角度。 (3)相似映射:(0) w rz r => (4)反演映射: 1 w z = 当点z在单位圆外部时,此时||1 z>,故||1 w<,即w位于单位圆内部。 当点z在单位圆内部时,此时||1 z<,故||1 w>,即w位于单位圆外部。 所以反演映射的特点是:将单位圆内部映射到单位圆外部,将单位圆外部映射到单位圆内部。 规定:反演映射 1 w z =将0 z=映射成w=∞,将z=∞映射成0 w=。 2、分式线性映射的性质 1)保形性

四大机器学习降维算法:PCA、LDA、LLE、Laplacian Eigenmaps

机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。 目前大部分降维算法处理向量表达的数据,也有一些降维算法处理高阶张量表达的数据。之所以使用降维后的数据表示是因为在原始的高维空间中,包含有冗余信息以及噪音信息,在实际应用例如图像识别中造成了误差,降低了准确率;而通过降维,我们希望减少冗余信息所造成的误差,提高识别(或其他应用)的精度。又或者希望通过降维算法来寻找数据内部的本质结构特征。 在很多算法中,降维算法成为了数据预处理的一部分,如PCA。事实上,有一些算法如果没有降维预处理,其实是很难得到很好的效果的。 主成分分析算法(PCA) Principal Component Analysis(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。 通俗的理解,如果把所有的点都映射到一起,那么几乎所有的信息(如点和点之间的距离关系)都丢失了,而如果映射后方差尽可能的大,那么数据点则会分散开来,以此来保留更多的信息。可以证明,PCA是丢失原始数据信息最少的一种线性降维方式。(实际上就是最接近原始数据,但是PCA并不试图去探索数据内在结构) 设n维向量w为目标子空间的一个坐标轴方向(称为映射向量),最大化数据映射后的方差,有:

第二节 分式线性变换(映射)

第二节 分式线性变换(映射) 本节以及下一节,我们将介绍保形变换中两类基本的保形变换---分式线性变换和某些初等解析函数构成的保形变换---及其简单的应用. 一、分式线性变换及其分解 (一)分式线性变换 形如:az b w cz d +=+(其中0a b ad bc c d =-≠)的变换称为分式线性变换,简记为L()w z =. 注:10 分式线性变换中,系数满足的条件不可少,否则, 0a b ad bc c d =-=,即 a b k c d = ,必将导致L()z k ≡为常数,显然它不可能构成保形变换. 20 为研究的方便,在扩充平面上,我们对分式线性变换L()w z =补充定义如下: (·)当0c ≠时,补充定义L()d c -=∞,L()a c ∞=; (··)当0c =时,补充定义L()∞=∞. 则分式线性变换就成为整个扩充平面上线性变换. 30 补充定义后,分式线性变换成为整个扩充z 平面与整个扩充w 平面之间的一一变换,即它在整个扩充z 平面上是单叶的,换言之,它将扩充z 平面单叶地变成扩充w 平面. 事实上,在扩充平面上,分式线性变换L()az b w z cz d +==+具有单值的逆变换dw b z cw a -+= -.

40 根据保域性定理(定理1)的推广,分式线性变换L()w z =在扩充平面上具有保域性. 50 易知,分式线性变换与分式线性变换的复合仍为分式线性变换. (二)分式线性变换的分解(分式线性变换的四种基本形式) 分式线性变换L()w z =总可以分解成下面四种简单变换的复合: (Ⅰ)i w e z θ= ------------------ 称为旋转变换; (Ⅱ)w r z =? ------------------ 称为伸缩变换; (Ⅲ)w z h =+ ------------------ 称为平移变换; (Ⅳ)1w z = ------------------ 称为反演变换. 事实上,当0c =时,分式线性变换变为a b w z d d =+, 记i a re d θ=,它又变为 ()i b w r e z d θ=+ , 显然,它是由下面三个形如(Ⅰ)(Ⅱ)(Ⅲ)的变换 i e z θξ=,r ηξ= 和 b w d η=+ , 复合而成. 当0c ≠时,分式线性变换可变形为 2 1()1()1 az b c az b a cz d bc ad a bc ad w d cz d c cz d c cz d c c z c ++++--= =?=?=+? ++++, 记 2i bc ad re c θ-=,它还可变形为 2 11()i a bc ad a w r e d d c c c z z c c θ-=+?=+?++. 显然,它是由下面五个形如(Ⅰ)(Ⅱ)(Ⅲ)(Ⅳ)的变换

第九章 降维

第九章 降维 9.1k 近邻学习 k 近邻( k -Nearest Neighbor ,简称KNN )学习是一种常用的监督学习方法,其工作机制非常简单:给定测试样本,基于某种距离度量找出训练集中与其靠近的k 个训练样本,然后基于k 个“邻居”的信息来进行预测。在分类任务中一般使用“投票法”,在回归任务中使用 “简单平均法”。还可以基于距离使用加权平均或加权投票。 9.2 低维嵌入 最近邻学习的一个重要建设:任意测试样本附近任意小的距离范围内总能找到一个训练样本,即训练样本的采样密度足够大。然而,这个假设在现实任务中通常很难满足。在低维数空间进行采样还比较容易满足一定条件,而在维数很高时,距离计算有时都面临困难。在高维情况下出现的数据样本稀疏、距离计算困难等问题,是所有机器学习共同面临的障碍, 被称为“维数灾难”。 缓解维数灾难的一个重要途径是降维(dimension reduction ),亦称“维数简约”,即通过 某种数学变换将原始高维属性空间转变为一个低维“子空间”,在这个子空间中样本的密度大幅增高,距离计算也变得容易。为什么能降维?这是因为在很多时候,人们观测或收集到的数据样本虽是高维的,但与学习任务密切相关的也许是某个低维分布,即高维空间中的一个低维嵌入。 若要求原始空间中样本之间的距离在低维空间中得以保持,即得到“多维缩放”(Multiple Dimensional Scaling ,简称MDS )[Cox ,2001]这样一种经典的降维方法。 假定m 个样本在原始空间的距离矩阵为m m R D ?∈,其元素ij d 表示样本i x 与j x 之间的 距离,原始空间的维数为d 。目标是获得样本在d '维空间的表示d d R Z m d ≤'∈?' ,,且任意两个样本在d '维空间中的欧式距离等于原始空间中的距离,即ij j i d z z =-。 令m m T R Z Z B ?∈=,其中B 为降维后样本的内积矩阵,j T i ij z z b =,有 j T i j i ij z z z z d 22 2 2-+= ij jj ii b b b 2-+= (1) 为了便于讨论,令降维后的样本Z 被中心化,即01=∑ =m i i z 。显然矩阵B 的行与列之和 均为零,即 ∑∑====m j m i ij bij b 110。易知 jj m i ij mb B tr d +=∑=)(1 2 (2) ii m j ij mb B tr d +=∑=)(1 2 (3)

分式线性变换--很好很强大

§2 分式线性变换 一、教学目标或要求:理解分式线性变换的映射性质及应用 二、教学内容(包括基本内容、重点、难点): 基本内容:分式线性变换的映射性质,例题 重点:分式线性变换 难点:应用 三、教学手段与方法: 讲授、练习 四、思考题、讨论题、作业与练习:4-11 §2 分式线性变换 1、 分式线性变换及其分解 分式线性变换的概念 称变换 d cz b az w ++= (7.3) 为分式线性变换或M?bius 变换,其中的d c b a ,,,为复常数,且0≠-bc ad .记 为 。 规定 时, , 时, 。 线性变换将扩充平面一一变换为扩充平面,逆变换 也 是线性变换。 线性变换 可分解为以下二种类型变换的复合 (Ⅰ) 整线性变换 (当时,)

(Ⅱ)反演变换 (当时,) (Ⅰ)型变换的几何意义——整线性变换下,原象与象是不改变图形方向的相似变换。 (Ⅱ)型变换的几何意义。 其中 具有性质: ,并且对称点 都在过单位圆心 的同一射线 上。把平面上的单位圆周映成 平面上的单位圆周,并把单位圆周内(外)部映成单位圆外(内)部。规定圆心 与 为关于单位圆周的对称点。 线性变换的复合仍是线性变换。 几个初等函数的映射性质 1.h z w += (h 为常数)的映射性质: (1)是一个平移变换. (2)在复平面处处是保角的.这是因为,在复平面上处处有01≠='w . (3)将圆周映射为圆周. 2.kz w = (k 为常数,且0≠k )的映射性质: (1)是旋转与伸长(或缩短)变换的叠加. (2)在复平面上处处是保角的.这是因为,0≠='k w 在复平面上处处成立. 3.z w 1 = 的映射性质: (1)该映射称为反演变换或倒数变换,它是相继施行两个对称变换的结果,一是关于实轴对称,二是关于单位圆周对称. (2)在复平面上除0=z 外,处处是保角的.

降维算法

第五部分:降维方法 线性降维方法:PCA ICA LDA LFA LPP(LE的线性表示) 基于核函数的非线性降维方法:KPCA KICA KDA 基于特征值的非线性降维方法(流型学习):ISOMAPLLE LE LPP LTSA MVU LLE(Locally Linear Embedding)算法(局部线性嵌入):每一个数据点都可以由其近邻点的线性加权组合构造得到。 算法的主要步骤分为三步: (1)寻找每个样本点的k个近邻点(k是一个预先给定的值); (2)由每个样本点的近邻点计算出该样本点的局部重建权值矩阵; (3)由该样本点的局部重建权值矩阵和其近邻点计算出该样本点的输出值,定义一个误差函数。

机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。 目前大部分降维算法处理向量表达的数据,也有一些降维算法处理高阶张量表达的数据。之所以使用降维后的数据表示是因为在原始的高维空间中,包含有冗余信息以及噪音信息,在实际应用例如图像识别中造成了误差,降低了准确率;而通过降维,我们希望减少冗余信息所造成的误差,提高识别(或其他应用)的精度。又或者希望通过降维算法来寻找数据内部的本质结构特征。 在很多算法中,降维算法成为了数据预处理的一部分,如PCA。事实上,有一些算法如果没有降维预处理,其实是很难得到很好的效果的。 主成分分析算法(PCA) Principal Component Analysis(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。 通俗的理解,如果把所有的点都映射到一起,那么几乎所有的信息(如点和点之间的距离关系)都丢失了,而如果映射后方差尽可能的大,那么数据点则会分散开来,以此来保留更多的信息。可以证明,PCA是丢失原始数据信息最少的一

1-1线性空间

第一专题 线性空间和线性变换 矩阵是研究线性模型最基本的工具之一。根据本书的性质,我们假定读者已具备了这方面的基础知识。本书的目的是对本科《线性代数》教材中没有论及或讨论不够充分,而在线性模型讨论中经常用到的一些矩阵知识,给予系统而扼要地叙述。 §1 线性空间 一、线性空间的概念与性质 线性空间是由具体的几何平面和空间的特征经过抽象提炼出来的一个数学概念。粗略地说,在一个非空集合上定义了线性运算,并且这种运算满足一定的规则,那么这个非空集合就成为一个线性空间。因此,一个线性空间必须有由线性运算规定的代数结构(由集合与满足一定运算规律的一些代数运算合在一起组成的系统),以便于用数学方法对它研究。为了说明它的来源,在引入定义之前,先看几个熟知的例子。 例1 在解析几何中,我们讨论过三维空间中的向量。向量的基本属性是可以按平行四边形规律相加,也可以与实数作数量乘法。我们看到,不少几何和力学对象的性质是可以通过向量的这两种运算来描述的。 例 2 为了解线性方程组,我们讨论过以n 元有序数组)(21n ,a ,,a a 作为元素的n 维向量空间。对于它们,也有加法和数量乘法,那就是: ),()()(22112121n n n n b ,a ,b ,a b a ,b ,,b b ,a ,,a a ).()(2121n n ,ka ,,ka ka ,a ,,a a k 从这些例子中我们可以看到,所考虑的对象虽然不同,但它们有一个共同点,那就是它们都有加法和数量乘法这两种运算。抽取它们的共同点,把它们统一起来加以研究,我们可以引入线

性空间的概念。 在第一个例子中,我们用实数和向量相乘。在第二个例子中用什么数和向量相乘,就要看具体情况。例如,在有理数域中解线性方程组时,用有理数去作数量乘法就足够了,而在复数域中解线性方程组时,就需要用复数去作运算。可见,不同的对象与不同的数域相联系。当我们引入抽象的线性空间的概念时,也必须选定一个确定的数域作为基础。 定义1 设F 是一个数集,其中包含0和1。如果F 中任意两个数(它们可以相同)的和、差、积、商(除数不是0)仍是F 中的数,那么称F 为数域。 显然,全体实数集R 、全体复数集C 、全体有理数集Q 等都是数域。而全体正实数集 R ,全体整数集Z 等都不是数域。 定义2 设V 是一非空集合,F 是数域(本书特指实数域),对V 中任意两个元 ,,定义一个加法运算,记为“+”:V (元 称为 与 的和);定义一个数乘运算:F k V k , (元 k 称为k 与 的数积)。这两种运算(也称为V 的线性运算),满足下列规则,则称V 为数域F 上的线性空间(或向量空间)。 加法满足下面四条规则: (1) ; (2) )()( ; (3) 在V 中存在零元素0;对任何V ,都有 0; (4) 对任何V ,都有 的负元素V ,使0 ,记 ; 数量乘法满足下面两条规则: (5) 1; (6) αα)()( ; 数量乘法与加法满足下面两条规则;

第一章 线性空间与线性变换

第一章 线性空间与线性变换 §1 线性空间的概念 定义1 如果复数的一个非空集合P 含有非零的数,且其中任意两数的和、差、积、商(除数不为零)仍属于该集合,则称数集P 为一个数域。 数域有一个简单性质,即所有的数域都包含有理数域作为它的一部分。特别地,每个数域都包含整数0和1。 定义1-1 设V 是一个非空集合,P 是一个数域。如果 (1)在集合V 上定义了一个二元运算“+”(通常称为加法),使得,V ∈?y x ,,都有 V ∈+y x ; (2)在数域P 的元素与集合V 的元素之间还定义了数量乘法运算,使得V P ∈∈?x ,λ有 V ∈x λ; (3)上述两个运算满足下列八条规则: 1) V ∈?y x ,,都有x y y x +=+; 2) V ∈?z y x ,,,有)()(z y x z y x ++=++; 3) V 中存在零元素,记为θ,对于V ∈?x ,都有x x =+θ; 4) V ∈?x ,都有V ∈y ,使得θ=+y x 。y 称为x 的负元素; 5) V ∈?x ,都有x x =1; P ∈,?μλ,V ∈?y x ,,下列三条成立: 6) x x )()(λμμλ=; 7) x x x νλμλ+=+)(; 8) y x y x λλλ+=+)(, 则集合V 叫做数域P 上的线性空间或向量空间。当P 是实数域时,V 叫实线性空间;当P 是复数域时,V 叫复线性空间。 例1-1 若P 是数域,V 是分量属于P 的n 元有序数组的集合 }|),,,{(21P x x x x V i n ∈?= , 若对于V 中任两元素 ),,,(21n x x x X =,),,,(21n y y y Y = 及每个P k ∈(记作P k ∈?),定义加法及数量乘法为 ),,,(2211n n y x y x y x Y X +++=+ ,),,,(21n kx kx kx kX = 则容易验证,集合V 构成数域P 上的线性空间。这个线性空间记为n P 。 例1-2 所有元素属于数域P 的n m ?矩阵组成的集合,按通常定义的矩阵加法及数与

线性代数教案-第一章 线性空间

第一章线性空间 一、教学目标与基本要求 数学的特点之一是抽象.从实数、复数、实值函数、无穷级数、向量等数学对象中,可以抽象出它们的共同特点:同一集合中的元素彼此可以相加,可与数相乘,这些运算还遵从一些共同规律.本章讨论的线性空间,就是针对上述特点建立的一种一般性的数学概念.它包括了所有前面提到的实例,另有许多数学对象也可归属其中. 数学中所谓空间,就是具有某些特性的集合.所谓线性空间,概言之就是这样一个集合:在其上定 义了称为加法和数乘的两种运算,并可在该集合上实施(准确的定义见后详述).在此,既不强调集合元素的本来属性,又不规定这两种运算是如何实施的,只规定运算具有称为公理的某些性质. 1 线性空间的定义及例 定义1.1.1设V是一个非空集合,其元素用x、y、z等表示.V被称为一个线性空间,如果它满足以下被分为三组由10条公理构成的公理体系: 1.1.1封闭公理 公理1(加法封闭公理)在V中定义了加法运算:对于V中任意两个元素x和y,有唯一的V中的元素与之对应并被称为x与y的和,记为x+y. 公理2(数乘封闭公理)在V中定义了实数乘法(简称数乘)运算:对于V中任意元素x和任意实数a,有唯一的V中的元素与之对应并被称为a与x的积,记为a x. 加法运算和数乘运算合称线性运算. 1.1.2加法公理 公理3 (交换律)对于任意x,y∈V,有 x+ +. = x y y 公理4(结合律) 对于任意x,y,z∈V,有 + x+ = +. + y ) ) z (z ( y x 公理5 (零元素存在性)V中存在一个记为θ的零元素,对于任意x∈V,有 +. x= x θ -的x的负元素,使公理6 (负元素存在性)对于任意x∈V,V中存在记为x +) - (. θ x= x 1.1.3数乘公理 公理7(结合律)对于任意x∈V,任意实数a和b,有 b (ab a=. x) x ( )

第七讲 分式线性变换

第七讲 分式线性变换 形如()(,,,0)az b f z a b c d ad bc cz d +=∈-≠+ 且的分式函数,即等价于 :f → ,az b z w cz d +→= +为分式线性变换 . f 是 上的双射. 设()az b w f z cz d +== +,1()b dw z f w z cw a --=?=-,即1()dw b f w cw a --+=- . 1f -也是分式线性变换 . 特别地, 11(0)()lim (0)()lim z z b f d az b a f cz d c b f a dw b d f cw a c →∞--→∞?=??+?∞==?+??=-??-+?∞==--? 1 反演变换 形如1w z =的变换,称为反演变换(如图7.1). 2 相似变换 (1)平移变换:(),()f z z h h =+∈ (如图 7.2). (2)旋转变换:(),()i f z e z θθ=?∈ (如图7.3). (3)伸缩变换:(),(0)f z rz r =>(如图 7.4).

综上:相似变换统一写成arg ()()i k f z kz h k e z h =+=?+. 引理1 形如()(,,,0)az b f z a b c d ad bc cz d +=∈-≠+ 且的分式线性变换必是一系列相似变换与反演变换的复合;反过来,相似变换与反演变换的复合也是某个分式 线性变换. 证明:(?) case1:0()az b a b c f z z d d d +=?==+是相似变换. case2:10()bc ad a c f z c cz d c -≠?=?++,即如下复合: 111bc ad bc ad a z cz d cz d c cz d c cz d c --→+→ →?→?++++ (?) 设''()'' a z b g z c z d +=+,要证()gf z 也是分式线性变换.经过计算,得 ('')('')()('')('') aa cb z ba db gf z ac bd z bc db +++= +++ 为分式线性变换.证毕. 反演变换的性质 保圆周性 定理2 分时线性变换()az b f z cz d +=+将圆周(或直线)映为圆周(或直线). 证:(方法一) ()az b f z cz d +=+是1w z =和w kz h =+的复合而成的 ∴只需讨论1w z =或w kz h =+的形式,其中,后一情形显然.只讨论1w z =的情形. 圆周曲线的方程为 0Azz Bz Bz C +++=

相关主题
文本预览
相关文档 最新文档