当前位置:文档之家› 人脸识别实验

人脸识别实验

人脸识别实验
人脸识别实验

matlab实现基于PCA的人脸识别算法

实验者:guodw3

一、问题描述

在一个yale人脸库中,有15个人,每人有11幅图像。要求选定每一个人的若干幅图像组成样本库,由样本库得到特征库。再任取yale图像库的一张图片,识别它的身份。

对于一幅图像可以看作一个由像素值组成的矩阵,也可以扩展开,看成一个矢量。如一幅N*N象素的图像可以视为长度为N2的矢量,这样就认为这幅图像是位于N2维空间中的一个点,这种图像的矢量表示就是原始的图像空间,但是这个空间仅是可以表示或者检测图像的许多个空间中的一个。不管子空间的具体形式如何,这种方法用于图像识别的基本思想都是一样的,首先选择一个合适的子空间,图像将被投影到这个子空间上,然后利用对图像的这种投影间的某种度量来确定图像间的相似度,最常见的就是各种距离度量。因此,本次采用PCA算法确定一个子空间,最后使用最小距离法进行识别,并用matlab实现。

二、PCA原理和人脸识别方法

1)K-L变换

K-L变换以原始数据的协方差矩阵的归一化正交特征矢量构成的正交矩阵作为变换矩阵,对原始数据进行正交变换,在变换域上实现数据压缩。它具有去相关性、能量集中等特性,属于均方误差测度下,失真最小的一种变换,是最能去除原始数据之间相关性的一种变换。

PCA则是选取协方差矩阵前k个最大的特征值的特征向量构成K-L变换矩阵。2)主成分的数目的选取

保留多少个主成分取决于保留部分的累积方差在方差总和中所占百分比(即累计贡献率),它标志着前几个主成分概括信息之多寡。实践中,粗略规定一个百分比便可决定保留几个主成分;如果多留一个主成分,累积方差增加无几,便不再多留。

3)人脸空间建立

假设一幅人脸图像包含N个像素点,它可以用一个N维向量Γ表示。这样,训练样本库就可以用Γi(i=1,...,M)表示。协方差矩阵C的正交特征向量就是组成人脸空间的基向量,即特征脸。

将特征值由大到小排列:λ

1≥λ

2

≥...≥λ

r

,其对应的特征向量为μ

k

。这样

每一幅人脸图像都可以投影到由u

1,u

2

,...,u

r

张成的子空间中。因此,每一幅人

脸图像对应于子空间中的一点。同样,子空间的任意一点也对应于一幅图像。

4)人脸识别

有了这样一个由"特征脸"张成的降维子空间,任何一幅人脸图像都可以向其投影得到一组坐标系数,这组系数表明了该图像在子空间中的位置,从而可以作为人脸识别的依据。计算数据库中每张图片在子空间中的坐标,得到一组坐标,作为下一步识别匹配的搜索空间。

计算新输入图片在子空间中的坐标,采用最小距离法,遍历搜索空间,得到与其距离最小的坐标向量,该向量对应的人脸图像即为识别匹配的结果。

三、实验步骤

1)每人选取4幅共60幅作为训练样本,将每一幅图像(128*128)写成列向量

形式X i(16384*1)排列成数据矩阵

X = (X1,X2,…,X n) (n=60)

2)求均值向量

μ=1

n ∑X i n

i

中心化后数据矩阵

C=(X1-μ,X2-μ,…,X n-μ)

协方差矩阵

∑=1

n

CC T

3)通过求C T C来求协方差矩阵特征值,选取最大的k个,求出特征向量(特征

脸)e i,将k个这样的特征向量按列排成变换矩阵(16384*k)

W=(e1,e2,…,e k)

4)计算每幅图像的投影(k维列向量)

Y i=W T(X i-μ)

5)计算待识别人脸的投影(k维列向量),设待识别人脸为Z

ch Z=W T(Z-μ)

6)遍历搜索进行匹配

Y j=min||Y i-ch Z||

那么Z就是第j个人

四、实验结果与分析

matlab界面效果如下所示

图1 用户使用界面图2选择图片

图3图片选择后图4识别后

由于利用了标准库,并且识别的人数不是很多,也没有选择有大块左阴影和右阴影的人作为训练集以及测试,所以最终的结果还是非常不错的,识别率可达100%。

但是选择有较大阴影的人做测试,则会出现识别错误,所以PCA算法还是存在一定的局限性。

图5识别错误

附录——matlab源码

function pushbutton1_Callback(hObject, eventdata, handles)

% hObject handle to pushbutton1 (see GCBO)

% eventdata reserved - to be defined in a future version of MATLAB % handles structure with handles and user data (see GUIDATA)

% read image to be recognize

global im;

[filename, pathname] = uigetfile({'*.bmp'},'choose photo');

str = [pathname, filename];

im = imread(str);

axes( handles.axes1);

imshow(im);

% --- Executes on button press in pushbutton2.

function pushbutton2_Callback(hObject, eventdata, handles)

% hObject handle to pushbutton2 (see GCBO)

% eventdata reserved - to be defined in a future version of MATLAB % handles structure with handles and user data (see GUIDATA)

global im

global reference

global W

global imgmean

global col_of_data

global pathname

global img_path_list

% 预处理新数据

im = double(im(:));

objectone = W'*(im - imgmean);

distance = 100000000;

% 最小距离法,寻找和待识别图片最为接近的训练图片

for k = 1:col_of_data

temp = norm(objectone - reference(:,k));

if(distance>temp)

aimone = k;

distance = temp;

aimpath = strcat(pathname, '/', img_path_list(aimone).name);

axes( handles.axes2 )

imshow(aimpath)

end

end

% 显示测试结果

% aimpath = strcat(pathname, '/', img_path_list(aimone).name);

% axes( handles.axes2 )

% imshow(aimpath)

% --- Executes on button press in pushbutton3.

function pushbutton3_Callback(hObject, eventdata, handles)

% hObject handle to pushbutton3 (see GCBO)

% eventdata reserved - to be defined in a future version of MATLAB % handles structure with handles and user data (see GUIDATA)

global reference

global W

global imgmean

global col_of_data

global pathname

global img_path_list

% 批量读取指定文件夹下的图片128*128

pathname = uigetdir;

img_path_list = dir(strcat(pathname,'\*.bmp'));

img_num = length(img_path_list);

imagedata = [];

if img_num >0

for j = 1:img_num

img_name = img_path_list(j).name;

temp = imread(strcat(pathname, '/', img_name));

temp = double(temp(:));

imagedata = [imagedata, temp];

end

end

col_of_data = size(imagedata,2);

% 中心化& 计算协方差矩阵

imgmean = mean(imagedata,2);

for i = 1:col_of_data

imagedata(:,i) = imagedata(:,i) - imgmean;

end

covMat = imagedata'*imagedata;

[COEFF, latent, explained] = pcacov(covMat);

% 选择构成95%能量的特征值

i = 1;

proportion = 0;

while(proportion < 95)

proportion = proportion + explained(i);

i = i+1;

end

p = i - 1;

% 特征脸

W = imagedata*COEFF; % N*M阶

W = W(:,1:p); % N*p阶

% 训练样本在新座标基下的表达矩阵p*M

reference = W'*imagedata;

人脸识别实验报告

人脸识别——特征脸方法 贾东亚12346046 一、实验目的 1、学会使用PCA主成分分析法。 2、初步了解人脸识别的特征法。 3、更熟练地掌握matlab的使用。 二、原理介绍 1、PCA(主成分分析法介绍) 引用一个网上的例子。假设有一份对遥控直升机操作员的调查,用x1(i)表示飞行员i的 飞行技能,x2(i)表示飞行员i喜欢飞行的程度。通常遥控直升飞机是很难操作的,只有那些 非常坚持而且真正喜欢驾驶的人才能熟练操作。所以这两个属性x1(i)和x2(i)相关性是非常强的。我们可以假设两者的关系是按正比关系变化的。如下图里的任意找的向量u1所示,数据散布在u1两侧,有少许噪声。 现在我们有两项数据,是二维的。那么如何将这两项变量转变为一个来描述飞行员呢?由图中的点的分布可知,如果我们找到一个方向的U,所有的数据点在U的方向上的投影之 和最大,那么该U就能表示数据的大致走向。而在垂直于U的方向,各个数据点在该方向的投影相对于在U上的投影如果足够小,那么我们可以忽略掉各数据在该方向的投影,这样我们就把二维的数据转化成了在U方向上的一维数据。 为了将u选出来,我们先对数据进行预处理。先求出所有数据的平均值,然后用数据与平均值的偏差代替数据本身。然后对数据归一化以后,再代替数据本身。 而我们求最大的投影和,其实就是求各个数据点在U上的投影距离的方差最大。而XT u 就是投影的距离。故我们要求下式的最大值: 1 m ∑(x(i)T u)2=u T( 1 m ∑x(i)x(i)T m i=1 ) m i=1 u 按照u是单位向量来最大化上式,就是求1 m ∑x(i)x(i)T m i=1的特征向量。而此式是数据集的 协方差矩阵。

人脸识别技术的应用背景及研究现状

1.人脸识别技术的应用 随着社会的不断进步以及各方面对于快速有效的自动身份验证的迫切要求,生物特征识别技术在近几十年中得到了飞速的发展。作为人的一种内在属性,并且具有很强的自身稳定性及个体差异性,生物特征成为了自动身份验证的最理想依据。当前的生物特征识别技术主要包括有:指纹识别,视网膜识别,虹膜识别,步态识别,静脉识别,人脸识别等。与其他识别方法相比,人脸识别由于具有直接,友好,方便的特点,使用者无任何心理障碍,易于为用户所接受,从而得到了广泛的研究与应用。除此之外,我们还能够对人脸识别的结果作进一步的分析,得到有关人的性别,表情,年龄等诸多额外的丰富信息,扩展了人脸识别的应用前景。当前的人脸识别技术主要被应用到了以下几个方面:(1)刑侦破案公安部门在档案系统里存储有嫌疑犯的照片,当作案现场或通过其他途径获得某一嫌疑犯的照片或其面部特征的描述之后,可以从数据库中迅速查找确认,大大提高了刑侦破案的准确性和效率。 (2)证件验证在许多场合(如海口,机场,机密部门等)证件验证是检验某人身份的一种常用手段,而身份证,驾驶证等很多其他证件上都有照片,使用人脸识别技术,就可以由机器完成验证识别工作,从而实现自动化智能管理。 (3)视频监控在许多银行,公司,公共场所等处都设有24小时的视频监控。当有异常情况或有陌生人闯入时,需要实时跟踪,监控,识别和报警等。这需要对采集到的图像进行具体分析,且要用到人脸的检测,跟踪和识别技术。 (4)入口控制入口控制的范围很广,既包括了在楼宇,住宅等入口处的安全检查,也包括了在进入计算机系统或情报系统前的身份验证。 (5)表情分析根据人脸图像中的面部变化特征,识别和分析人的情感状态,如高兴,生气等。此外,人脸识别技术还在医学,档案管理,人脸动画,人脸建模,视频会议等方面也有着巨大的应用前景。 2.人脸识别技术在国外的研究现状 当前很多国家展开了有关人脸识别的研究,主要有美国,欧洲国家,日本等,著名的研究机构有美国MIT的Media lab,AI lab,CMU的Human-Computer I nterface Institute,Microsoft Research,英国的Department of Engineerin g in University of Cambridge等。综合有关文献,目前的方法主要集中在以下几个方面: (1)模板匹配 主要有两种方法,固定模板和变形模板。固定模板的方法是首先设计一个或几个参考模板,然后计算测试样本与参考模板之间的某种度量,以是否大于阈值来判断测试样本是否人脸。这种方法比较简单,在早期的系统中采用得比较

数字图像处理实验报告实验三

中南大学 数字图像处理实验报告实验三数学形态学及其应用

实验三 数学形态学及其应用 一.实验目的 1.了解二值形态学的基本运算 2.掌握基本形态学运算的实现 3.了解形态操作的应用 二.实验基本原理 腐蚀和膨胀是数学形态学最基本的变换,数学形态学的应用几乎覆盖了图像处理的所有领域,给出利用数学形态学对二值图像处理的一些运算。 膨胀就是把连接成分的边界扩大一层的处理。而收缩则是把连接成分的边界点去掉从而缩小一层的处理。 二值形态学 I(x,y), T(i,j)为 0/1图像Θ 腐蚀:[]),(&),(),)((),(0,j i T j y i x I AND y x T I y x E m j i ++=Θ== 膨胀:[]),(&),(),)((),(0 ,j i T j y i x I OR y x T I y x D m j i ++=⊕== 灰度形态学T(i,j)可取10以外的值 腐蚀: []),(),(min ),)((),(1 ,0j i T j y i x I y x T I y x E m j i -++=Θ=-≤≤ 膨胀: []),(),(max ),)((),(1 ,0j i T j y i x I y x T I y x D m j i +++=⊕=-≤≤ 1.腐蚀Erosion: {}x B x B X x ?=Θ: 1B 删两边 2B 删右上 图5-1 剥去一层(皮) 2.膨胀Dilation: {}X B x B X x ↑⊕:= 1B 补两边 2B 补左下 图5-2 添上一层(漆) 3.开运算open :

B B X ⊕Θ=)(X B 4.闭close :∨ Θ⊕=B B X X B )( 5.HMT(Hit-Miss Transform:击中——击不中变换) 条件严格的模板匹配 ),(21T T T =模板由两部分组成。1T :物体,2T :背景。 {} C x x i X T X T X T X ??=?21, 图5-3 击不中变换示意图 性质: (1)φ=2T 时,1T X T X Θ=? (2))()()(21T X T X T X C Θ?Θ=? C T X T X )()(21Θ?Θ= )/()(21T X T X ΘΘ= 6.细化/粗化 (1)细化(Thin ) C T X X T X XoT )(/??=?= 去掉满足匹配条件的点。 图5-4 细化示意图 系统细化{}n B oB XoB T Xo ))(((21=, i B 是1-i B 旋转的结果(90?,180?,270?)共8种情况 适于细化的结构元素 1111000d d I = d d d L 10110 0= (2)粗化(Thick ) )(T X X T X ??=? 用(){}0,01=T (){}0,12=T 时,X X X T X =?=? X 21 1 1 2 3 T ? XoT X ? X X ?T X ΘT T ⊕

模式识别第二次上机实验报告

北京科技大学计算机与通信工程学院 模式分类第二次上机实验报告 姓名:XXXXXX 学号:00000000 班级:电信11 时间:2014-04-16

一、实验目的 1.掌握支持向量机(SVM)的原理、核函数类型选择以及核参数选择原则等; 二、实验内容 2.准备好数据,首先要把数据转换成Libsvm软件包要求的数据格式为: label index1:value1 index2:value2 ... 其中对于分类来说label为类标识,指定数据的种类;对于回归来说label为目标值。(我主要要用到回归) Index是从1开始的自然数,value是每一维的特征值。 该过程可以自己使用excel或者编写程序来完成,也可以使用网络上的FormatDataLibsvm.xls来完成。FormatDataLibsvm.xls使用说明: 先将数据按照下列格式存放(注意label放最后面): value1 value2 label value1 value2 label 然后将以上数据粘贴到FormatDataLibsvm.xls中的最左上角单元格,接着工具->宏执行行FormatDataToLibsvm宏。就可以得到libsvm要求的数据格式。将该数据存放到文本文件中进行下一步的处理。 3.对数据进行归一化。 该过程要用到libsvm软件包中的svm-scale.exe Svm-scale用法: 用法:svmscale [-l lower] [-u upper] [-y y_lower y_upper] [-s save_filename] [-r restore_filename] filename (缺省值:lower = -1,upper = 1,没有对y进行缩放)其中,-l:数据下限标记;lower:缩放后数据下限;-u:数据上限标记;upper:缩放后数据上限;-y:是否对目标值同时进行缩放;y_lower为下限值,y_upper为上限值;(回归需要对目标进行缩放,因此该参数可以设定为–y -1 1 )-s save_filename:表示将缩放的规则保存为文件save_filename;-r restore_filename:表示将缩放规则文件restore_filename载入后按此缩放;filename:待缩放的数据文件(要求满足前面所述的格式)。缩放规则文件可以用文本浏览器打开,看到其格式为: y lower upper min max x lower upper index1 min1 max1 index2 min2 max2 其中的lower 与upper 与使用时所设置的lower 与upper 含义相同;index 表示特征序号;min 转换前该特征的最小值;max 转换前该特征的最大值。数据集的缩放结果在此情况下通过DOS窗口输出,当然也可以通过DOS的文件重定向符号“>”将结果另存为指定的文件。该文件中的参数可用于最后面对目标值的反归一化。反归一化的公式为: (Value-lower)*(max-min)/(upper - lower)+lower 其中value为归一化后的值,其他参数与前面介绍的相同。 建议将训练数据集与测试数据集放在同一个文本文件中一起归一化,然后再将归一化结果分成训练集和测试集。 4.训练数据,生成模型。 用法:svmtrain [options] training_set_file [model_file] 其中,options(操作参数):可用的选项即表示的涵义如下所示-s svm类型:设置SVM 类型,默

人工智能YOLO V2 图像识别实验报告材料

第一章前言部分 1.1课程项目背景与意义 1.1.1课程项目背景 视觉是各个应用领域,如制造业、检验、文档分析、医疗诊断,和军事等领域中各种智能/自主系统中不可分割的一部分。由于它的重要性,一些先进国家,例如美国把对计算机视觉的研究列为对经济和科学有广泛影响的科学和工程中的重大基本问题,即所谓的重大挑战。计算机视觉的挑战是要为计算机和机器人开发具有与人类水平相当的视觉能力。机器视觉需要图象信号,纹理和颜色建模,几何处理和推理,以及物体建模。一个有能力的视觉系统应该把所有这些处理都紧密地集成在一起。作为一门学科,计算机视觉开始于60年代初,但在计算机视觉的基本研究中的许多重要进展是在80年代取得的。计算机视觉与人类视觉密切相关,对人类视觉有一个正确的认识将对计算机视觉的研究非常有益。 计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。这里所指的信息指Shannon定义的,可以用来帮助做一个“决定”的信息。因为感知可以看作是从感官信号中提取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中“感知”的科学。 科学技术的发展是推动人类社会进步的主要原因之一,未来社会进一步地朝着科技化、信息化、智能化的方向前进。在信息大爆炸的今天,充分利用这些信息将有助于社会的现代化建设,这其中图像信息是目前人们生活中最常见的信息。利用这些图像信息的一种重要方法就是图像目标定位识别技术。不管是视频监控领域还是虚拟现实技术等都对图像的识别有着极大的需求。一般的图像目标定位识别系统包括图像分割、目标关键特征提取、目标类别分类三个步骤。 深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习的概念由Hinton等人于2006年提出。基于深度置信网络提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。

模式识别实验报告

模式识别实验报告

————————————————————————————————作者:————————————————————————————————日期:

实验报告 实验课程名称:模式识别 姓名:王宇班级: 20110813 学号: 2011081325 实验名称规范程度原理叙述实验过程实验结果实验成绩 图像的贝叶斯分类 K均值聚类算法 神经网络模式识别 平均成绩 折合成绩 注:1、每个实验中各项成绩按照5分制评定,实验成绩为各项总和 2、平均成绩取各项实验平均成绩 3、折合成绩按照教学大纲要求的百分比进行折合 2014年 6月

实验一、 图像的贝叶斯分类 一、实验目的 将模式识别方法与图像处理技术相结合,掌握利用最小错分概率贝叶斯分类器进行图像分类的基本方法,通过实验加深对基本概念的理解。 二、实验仪器设备及软件 HP D538、MATLAB 三、实验原理 概念: 阈值化分割算法是计算机视觉中的常用算法,对灰度图象的阈值分割就是先确定一个处于图像灰度取值范围内的灰度阈值,然后将图像中每个像素的灰度值与这个阈值相比较。并根据比较的结果将对应的像素划分为两类,灰度值大于阈值的像素划分为一类,小于阈值的划分为另一类,等于阈值的可任意划分到两类中的任何一类。 最常用的模型可描述如下:假设图像由具有单峰灰度分布的目标和背景组成,处于目标和背景内部相邻像素间的灰度值是高度相关的,但处于目标和背景交界处两边的像素灰度值有较大差别,此时,图像的灰度直方图基本上可看作是由分别对应于目标和背景的两个单峰直方图混合构成。而且这两个分布应大小接近,且均值足够远,方差足够小,这种情况下直方图呈现较明显的双峰。类似地,如果图像中包含多个单峰灰度目标,则直方图可能呈现较明显的多峰。 上述图像模型只是理想情况,有时图像中目标和背景的灰度值有部分交错。这时如用全局阈值进行分割必然会产生一定的误差。分割误差包括将目标分为背景和将背景分为目标两大类。实际应用中应尽量减小错误分割的概率,常用的一种方法为选取最优阈值。这里所谓的最优阈值,就是指能使误分割概率最小的分割阈值。图像的直方图可以看成是对灰度值概率分布密度函数的一种近似。如一幅图像中只包含目标和背景两类灰度区域,那么直方图所代表的灰度值概率密度函数可以表示为目标和背景两类灰度值概率密度函数的加权和。如果概率密度函数形式已知,就有可能计算出使目标和背景两类误分割概率最小的最优阈值。 假设目标与背景两类像素值均服从正态分布且混有加性高斯噪声,上述分类问题可以使用模式识别中的最小错分概率贝叶斯分类器来解决。以1p 与2p 分别表示目标与背景的灰度分布概率密度函数,1P 与2P 分别表示两类的先验概率,则图像的混合概率密度函数可用下式表示为

人脸识别实验报告解读

人脸识别——特征脸方法 贾东亚12346046 一、实验目的 1、学会使用PCA主成分分析法。 2、初步了解人脸识别的特征法。 3、更熟练地掌握matlab的使用。 二、原理介绍 1、PCA(主成分分析法介绍) 引用一个网上的例子。假设有一份对遥控直升机操作员的调查,用表示飞行员i的 飞行技能,表示飞行员i喜欢飞行的程度。通常遥控直升飞机是很难操作的,只有那些 非常坚持而且真正喜欢驾驶的人才能熟练操作。所以这两个属性和相关性是非常强的。我们可以假设两者的关系是按正比关系变化的。如下图里的任意找的向量u1所示,数据散布在u1两侧,有少许噪声。 现在我们有两项数据,是二维的。那么如何将这两项变量转变为一个来描述飞行员呢?由图中的点的分布可知,如果我们找到一个方向的U,所有的数据点在U的方向上的投影之和最大,那么该U就能表示数据的大致走向。而在垂直于U的方向,各个数据点在该方向 的投影相对于在U上的投影如果足够小,那么我们可以忽略掉各数据在该方向的投影,这 样我们就把二维的数据转化成了在U方向上的一维数据。 为了将u选出来,我们先对数据进行预处理。先求出所有数据的平均值,然后用数据与平均值的偏差代替数据本身。然后对数据归一化以后,再代替数据本身。 而我们求最大的投影和,其实就是求各个数据点在U上的投影距离的方差最大。而X T u 就是投影的距离。故我们要求下式的最大值: 按照u是单位向量来最大化上式,就是求的特征向量。而此式是数据集的协方差矩阵。

在实际应用中,我们不止面临二维的数据。因此不能使用几何的形式呈现,但原理也是一样。就是找到一组相互正交的单位向量,然后根据贡献率考虑选择其中的部分作为考量的维数,这也就实现了数据的降维。 三、实验步骤 1、将库里的400张照片分成两组。一组作为训练,一组作为库。每个人的前五张照片作为 训练,后五张作为库。训练的照片按照顺序的数字重命名。库的照片名字不变。 2、库照片处理。 ①将每一张库的照片转化成N维的向量。(库里的照片是112*92,故将转化成的矩阵按列或行展开,就是个10304维的向量)我们稍后要对如此多维的向量用PCA进行降维。然后把这些向量存入一个矩阵里。而我是将这200个向量以列的形式存在了矩阵里。 即 ,,, ②将这200个向量的每个元素相加起来求出平均值。再用Z里的每一个向量减去这个平均值得到每个的偏差。 平均值,每个向量的偏差 即最后 ,,, ③接下来我们就要针对这些预处理后的数据进行降维。我们要求的N个相互正交的向量就是协方差矩阵的特征向量,而对应的特征值就是各个向量所占的比重。但是Z是个10304*200的矩阵,那么就是个10304*10304的矩阵。使用matlab直接求其特征值与特征向量不太实际。 所以我们考虑一个简单的运算方法: 协方差矩阵的秩受到训练图像的限制:如果有N个训练样本,则最多有N? 1 个对应非零特征值的特征向量,其他的特征向量对应的特征值都是0。如果训练样本的数目比图像的维数低,则可以通过如下方法简化主成份的计算。 设 Z是预处理图像的矩阵,每一列对应一个减去均值图像之后的图像。则,协方差矩阵为,并且对S的特征值分解为

数字图像处理实验报告(图像边缘检测)

实验报告 实验名称实验三图像边缘检测 课程名称数字图像处理 姓名成绩 班级学号 备注: (1)了解并掌握使用微分算子进行图像边缘检测得基本原理; (2)编写程序使用Laplacian 算子(二阶导数算子)实现图像锐化,进一步理解图像 锐化得实质; (3)掌握使用不同梯度算子(一阶导数算子)进行图像边缘检测得原理、方法,根据 实验结果分析各种算子得工作效果; (4)总结实验过程(实验报告,左侧装订):方案、编程、调试、结果、分析、结论。 2、实验环境 (1)Windows XP/7 (2)Matlab 7、1/7、14 3、实验方法 本次实验要求对256×256大小,256级灰度得数字图像lena、img进行处理。(1)对该图像进行锐化处理,要求采用Laplacian算子进行锐化,分α=1与α=2两种情况,按如下不同情况进行处理: ①g1(m,n)=f(m,n)-α?f ②g2(m,n)=4αf(m,n)-α[f(m-1,n)+f(m+1,n)+f(m,n-1)+f(m,n+1)] I、要对图像进行处理,要先读取该图像,实验代码如下: closeall; clear all; fid=fopen(’lena、img',’r'); image=fread(fid,[256,256],’uint8'); fclose(fid); II、读取图像后,对该图像得每一像素(不考虑图像得边界部分)进行遍历,根据公

式①(公式①相当于做差分)对每一灰度进行计算,将所得得结果存入一矩阵g1中(矩阵g1初始化为该图像得矩阵),代码如下(仅以ɑ=1为例): g1=image; a=1; [x,y]=size(image); fori=2:(x-1) for j=2:(y—1)?????g1(i,j)=(1+4*a)*image(i,j)-a *(image(i+1,j)+image(i-1,j)+image(i,j+1)+image(i,j—1)); end end III、根据公式②对图像得每一个像素(不考虑图像得边界部分)进行计算,将所得之存入矩阵g2中(g2初始化值为该图像得矩阵值),具体方法与上一步类似,代码如下(仅以ɑ=1为例): g2=image; a=1; [x,y]=size(image); fori=2:(x-1) for j=2:(y-1) ?g2(i,j)=4*a*image(i,j)—a*(image(i+1,j)+image(i-1,j)+im age(i,j+1)+image(i,j-1)); end end (2)分别利用Roberts、Prewitt与Sobel边缘检测算子,对原图像进行边缘检测,显 示处理前、后图像。 I、同(1)中I,不再赘述。 II、对图像进行边缘检测,要对图像得每一像素(不考虑图像得边界部分)得灰度进行遍历,分别用公式对图像得水平与垂直方向得边缘进行检测,并分别存储,在进行合成。采用不同得算子时,变换得公式有所不同。在合成时可以采用三种算法(街区法、棋盘法、欧式几何法),本次实验中均又采用,所以得到三层图像。代码如下(仅以街区法得Roberts 算子为例): [x,y]=size(image); g1=image; gh1=image; gv1=image; for i=2:(x-1) for j=2:(y-1) gh1(i,j)=image(i,j)-image(i-1,j—1); gv1(i,j)=image(i,j-1)-image(i—1,j); g1(i,j)=abs(gh1(i,j))+abs(gv1(i,j)); end end 4、实验结果分析 (1)、图像锐化

人脸识别实验报告

人脸识别——特征脸方法 贾东亚 一、 实验目的 1、学会使用PCA 主成分分析法。 2、初步了解人脸识别的特征法。 3、更熟练地掌握matlab 的使用。 二、 原理介绍 1、 PCA (主成分分析法介绍) 引用一个网上的例子。假设有一份对遥控直升机操作员的调查,用x 1(i ) 表示飞行员i 的 飞行技能,x 2(i )表示飞行员i 喜欢飞行的程度。通常遥控直升飞机是很难操作的,只有那些非常坚持而且真正喜欢驾驶的人才能熟练操作。所以这两个属性x 1(i )和x 2(i )相关性是非常强的。我们可以假设两者的关系是按正比关系变化的。如下图里的任意找的向量u1所示,数据散布在u1两侧,有少许噪声。 现在我们有两项数据,是二维的。那么如何将这两项变量转变为一个来描述飞行员呢由图中的点的分布可知,如果我们找到一个方向的U ,所有的数据点在U 的方向上的投影之和最大,那么该U 就能表示数据的大致走向。而在垂直于U 的方向,各个数据点在该方向的投影相对于在U 上的投影如果足够小,那么我们可以忽略掉各数据在该方向的投影,这样我们就把二维的数据转化成了在U 方向上的一维数据。

为了将u选出来,我们先对数据进行预处理。先求出所有数据的平均值,然后用数据与平均值的偏差代替数据本身。然后对数据归一化以后,再代替数据本身。 而我们求最大的投影和,其实就是求各个数据点在U上的投影距离的方差最大。而X T u 就是投影的距离。故我们要求下式的最大值: 1 m ∑(x(i)T u)2=u T( 1 m ∑x(i)x(i)T m i=1 ) m i=1 u 按照u是单位向量来最大化上式,就是求1 m ∑x(i)x(i)T m i=1 的特征向量。而此式是数据集 的协方差矩阵。 在实际应用中,我们不止面临二维的数据。因此不能使用几何的形式呈现,但原理也是一样。就是找到一组相互正交的单位向量u k,然后根据贡献率考虑选择其中的部分作为考量的维数,这也就实现了数据的降维。 三、实验步骤 1、将库里的400张照片分成两组。一组作为训练,一组作为库。每个人的前五张照片作为 训练,后五张作为库。训练的照片按照顺序的数字重命名。库的照片名字不变。 2、库照片处理。 ①将每一张库的照片转化成N维的向量。(库里的照片是112*92,故将转化成的矩阵按列或行展开,就是个10304维的向量)我们稍后要对如此多维的向量用PCA进行降维。然后把这些向量存入一个矩阵里。而我是将这200个向量以列的形式存在了矩阵里。 即 Z={Γ1,Γ2,Γ3,Γ4 (200)

KL变换应用于人脸识别

基于K-L 变换的人脸识别 一、基本要求 从网上下载人脸图像,构建人脸训练数据库和测试数据库,采用K-L 变换进行特征脸提取,并实现人脸识别。通过K-L 变换在人脸识别中的应用,加深对所学内容的理解和感性认识。 1、或者从网上下载其它数据库,编程实现K-L 变换。 2、课堂报告、并提交实验报告及相应程序。 二、实验原理 1、K-L 变换:就是以样本特征向量在特征空间分布为原始数据,通过变换,找 到维数较少的组合特征,达到降维的目的。 K-L 变换是一种正交变换,即将一个向量X ,在某一种坐标系统中的描述,转换成用另一种基向量组成的坐标系表示。这组基向量是正交的,其中每个坐标 基向量用j u 表示,∞=,2,1 , j ,因此,一个向量X 可表示成 ∑∞ == 1 j j j u c X 如果我们将由上式表示的无限多维基向量坐标系统改成有限维坐 标系近似,即 ∑=∧ =d j j j u c X 1 表示X 的近似值或估计量,我们希望在同样维数条件下,使向量X 的估计量误差最小。确切地说是使所引起的均方误差: )]?()?[(X X X X E T --=ξ 为最小。K-L 变换可以实现这个目的。 因为 ?? ?≠==i j i j u u i T j 0 1

将 ∑∞ +=∧ = -1 d j j j u c X X 带入到)]?()?[(X X X X E T --=ξ中可得到 ][ 1 2 ∑∞ ==j j c E ξ 容易看到 X u c T j j = 因此 ][ 1 ∑∞ +=d j T T j u XX u E ξ 由于j u 是确定性向量,因此上式可改写为 [] ∑∞ +== 1 d j j T T j u XX E u ξ 令 [] T XX E =ψ 则 ∑∞ +== 1 d j j T j u u ψξ 用拉格朗日乘子法,可以求出在满足正交条件下,ξ取极值的坐标系统,即用函数 ∑∑∞ +=∞ +=-- =1 1 ]1[d j j T j j d j j T j j u u u u u g λψ) ( 对j u ,∞+=,,1 d j 求导数,因此有 ∞+==,,1,0- d j u I j j )(λψ 我们令0=d ,从而可得到以下的结论: 以矩阵ψ的本征向量座位坐标轴来展开X 时,其截断均方误差具有极值性质,且当取d 个d j u j ,,2,1 =,来逼近X 时,其均方误差 ∑∞ +== 1 d j j λ ξ 式中j λ是矩阵ψ的相应本征值。 可以证明,当取d 个与矩阵ψ的d 个最大本征值对应的本征向量来展开X

面部表情识别实验报告分析

面部表情识别实验 实验报告 小组成员: 面部表情识别实验 西南大学重庆 400715

摘要:情绪认知是一种复杂的过程,它包含观察、分析、判断、推理等,是借助于许多线索,特别是借助面部那些活动性更大的肌肉群的运动而实现的。所以,情绪认知的准确度受多种因素的影响。 当我们与他人相互交往的时候,不管是不是面对面。我们都正在不断的表达着情绪,同时又正在观察,解释着的对方做出的表情,在人际交往过程中,情绪的表达和认知是十分的迅速和及时,那么人是借助于哪些表情来认知他人的情绪的呢?情绪识别实际上并不是针对表情本身的,而是针对这它背后的意义。例如:皱眉可能是一种情绪的表现,我们见到这种面部表情就试图解释潜在于它背后的情绪。尖锐,短促,声音嘶哑可能是一种情绪表现,我们听到这种语言表情就试图解释潜在于它背后的情绪捶胸,顿足可能是一种情绪的表现,我们见到这种动作表情就是试图解释潜在于它背后的情绪。对于这个复杂的问题,心理学家曾经做过许多的研究。 面部表情认知的研究可分为两个步骤:第一步是面部表情刺激物的制作或选择,这可以用专门拍摄(录像)或图示来描画,也可以用完全装扮出的活生生的表情或自发的表情等。第二步时对表情进行识别评定。也可以用多种方法,如自由评定法,即让被试自由地对表情给出情绪词汇;或限制评定法,即向被试提供各种提供各种情绪词汇或情绪情境,要求被试只能根据所提供的情绪词汇或者情绪情境进行分类或者匹配等;或参照自由评定法,即向被试提供参考线索(如情境,人格特征等),让其说出所表达的情绪的词汇等。 关键词:情绪表情认知线索

1 前言 传统心理学把情绪列为心理现象的三大方面之一。情绪也是心理学理论体系中一个不可缺少的研究环节。情绪(emotion)是体验,又是反应;是冲动,又是行为;它是有机体的一种复合状态。情绪的表现有和缓的和激动的,细微的和强烈的,轻松的和紧张的等诸多形式,广泛地同其他心理过程相联系。自古以来,科学家们十分注意探讨情绪之奥妙,但与情绪的重要性不相适应的是,长期以来情绪研究一直是心理学尤其是实验心理学研究中的一个薄弱环节。造成这一现象的最主要原因是情绪所特有的复杂性以及由此衍生出来的情绪研究方法学上的困难。我国心理学家孟昭兰(1987)将理论认为面部表情是传递具体信息的外显行为面部表情是提供人们在感情上互相了解的鲜明标记。情绪过程既包括情绪体验,也包括情绪表现,而表情既是情绪的外部表现,也是情绪体验的发生机制;既是最敏锐的情绪发生器,也是最有效的情绪显示器。这就从机制上说明了以面部肌肉运动模式作为情绪标志的根据。 面部表情(facial expression_r)的发生是有其客观的物质基础的:表情按面部不同部位的肌肉运动而模式化,面部反应模式携带着心理学的意义,那就是或快乐、或悲伤等具体情绪。但是,对表情进行测量的原则在于:所要测量的是面孔各部位的肌肉运动本身,而不是面部所给予观察者的情绪信息。该实验将14名被试分为两组进行表情认知的实验,实验目的在于通过实验了解面部表情认知的基本

数字图像处理图像变换实验报告.

实验报告 实验名称:图像处理 姓名:刘强 班级:电信1102 学号:1404110128

实验一图像变换实验——图像点运算、几何变换及正交变换一、实验条件 PC机数字图像处理实验教学软件大量样图 二、实验目的 1、学习使用“数字图像处理实验教学软件系统”,能够进行图像处理方面的 简单操作; 2、熟悉图像点运算、几何变换及正交变换的基本原理,了解编程实现的具体 步骤; 3、观察图像的灰度直方图,明确直方图的作用和意义; 4、观察图像点运算和几何变换的结果,比较不同参数条件下的变换效果; 5、观察图像正交变换的结果,明确图像的空间频率分布情况。 三、实验原理 1、图像灰度直方图、点运算和几何变换的基本原理及编程实现步骤 图像灰度直方图是数字图像处理中一个最简单、最有用的工具,它描述了一幅图像的灰度分布情况,为图像的相关处理操作提供了基本信息。 图像点运算是一种简单而重要的处理技术,它能让用户改变图像数据占据的灰度范围。点运算可以看作是“从象素到象素”的复制操作,而这种复制操作是通过灰度变换函数实现的。如果输入图像为A(x,y),输出图像为B(x,y),则点运算可以表示为: B(x,y)=f[A(x,y)] 其中f(x)被称为灰度变换(Gray Scale Transformation,GST)函数,它描述了输入灰度值和输出灰度值之间的转换关系。一旦灰度变换函数确定,该点运算就完全确定下来了。另外,点运算处理将改变图像的灰度直方图分布。点运算又被称为对比度增强、对比度拉伸或灰度变换。点运算一般包括灰度的线性变换、阈值变换、窗口变换、灰度拉伸和均衡等。 图像几何变换是图像的一种基本变换,通常包括图像镜像变换、图像转置、图像平移、图像缩放和图像旋转等,其理论基础主要是一些矩阵运算,详细原理可以参考有关书籍。 实验系统提供了图像灰度直方图、点运算和几何变换相关内容的文字说明,用户在操作过程中可以参考。下面以图像点运算中的阈值变换为例给出编程实现的程序流程图,如下:

面部表情识别与面孔身份识别的独立加工与交互作用机制_汪亚珉

心理科学进展 2005,13(4):497~516 Advances in Psychological Science 面部表情识别与面孔身份识别的 独立加工与交互作用机制* 汪亚珉1,2 傅小兰1 (1中国科学院心理研究所,脑与认知国家重点实验室,北京 100101)(2中国科学院研究生院,北京 100039) 摘 要面孔识别功能模型认为,面部表情识别与面孔身份识别是两条独立的并行路径。以往诸多研究者都认可并遵循二者分离的原则。但近期研究表明,面部表情识别与面孔身份识别存在交互作用。首先总结和分析已有的面部表情识别的研究成果,评述神经心理学与认知神经科学研究中的论争,然后介绍人脸知觉的分布式神经机制以及相关的实验证据,最后提出面部表情识别与面孔身份识别的多级整合模型,并展望研究前景。 关键词面孔身份识别,面部表情识别,面孔识别功能模型,人脸知觉的分布式神经模型,多级整合模型。分类号 B842 面孔识别一直备受研究者关注。20世纪70年代,Ekman和Frisen系统地研究了人脸基本表情的文化普遍性,并从解剖学角度提出了6种基本的面部表情[1]。20世纪80年代,Bruce和Young系统地研究了人对面孔的识别及其影响因素,提出了经典的面孔识别功能模型[2]。自此,面孔识别成为认知科学研究领域中的热点问题之一。 人能轻易地从不同表情中识别出同一个人的面孔(即面孔身份识别,facial identity recognition),也能从不同人的面孔上识别出同一种表情(即面部表情识别,facial expression recognition),识别得如此精巧,以至众多研究者相信,识别面孔与识别表情 收稿日期:2005-04-24 * 本研究得到中国科技部973项目(2002CB312103)、国家自然科学基金重点项目(60433030)和面上项目 (30270466)、中国科学院心理研究所创新重点项目 (0302037)经费支持。 通讯作者:傅小兰,E-mail: fuxl@https://www.doczj.com/doc/652642858.html, 两者相互独立,互不干扰[2~7]。那么,这种分离识别究竟是如何实现的?面孔身份识别与面部表情识别究竟是彼此独立的还是相互作用的?这已成为认知科学(尤其是计算机视觉)面孔识别研究领域中亟待解决的一个重要问题。 在过去开展的大量研究中,对面孔身份识别问题的探讨相对比较深入,而对面部表情识别的研究则囿于经典功能模型,并未能取得实质性进展。近年来随着脑认知研究技术的发展,面部表情识别的研究也在不断深入,研究者对面部表情识别与面孔身份识别间的关系也提出了新的阐释。本文在综述已有研究的基础上,试图进一步探讨面部表情识别与面孔身份识别之间的独立加工与交互作用机制。首先,基于经典面孔识别功能模型,分析传统的面孔身份识别与面部表情识别的并行分离加工观点,以及行为学、神经心理学与认知神经科学的研究发现;其

基于深度学习的人脸表情识别研究与实现

西南科技大学硕士研究生学位论文第I页 目录 1绪论 (1) 1.1研究背景及意义 (1) 1.2国内外研究现状及趋势 (2) 1.3本文的研究内容与章节安排 (6) 2人脸表情识别预处理及相关技术 (8) 2.1人脸表情数据集 (8) 2.1.1严格数据集 (8) 2.1.2非严格数据集 (9) 2.2数据筛选 (10) 2.2.1基于某种概率分布的筛选策略 (10) 2.2.2 基于图模型的筛选策略 (11) 2.3人工神经网络 (12) 2.3.1正向传播 (13) 2.3.2反向传播 (14) 2.4自编码器神经网络 (16) 2.5卷积神经网络 (18) 2.5.1局部感受野 (18) 2.5.2权值共享 (19) 2.5.3池化(pooling) (19) 2.6循环神经网络 (20) 2.7人脸检测 (22) 2.8人脸关键点检测与对齐 (23) 2.9本章小结 (25) 3基于降噪自编码器的表情识别研究与实现 (26) 3.1堆栈式降噪自编码器 (26) 3.2Dropout (27) 3.3降噪自编码器表情识别网络 (28) 3.4实验与分析 (29) 3.5本章小结 (32) 4基于卷积神经网络的表情识别研究与实现 (33) 4.1一种轻量级CNN人脸表情识别模型 (33)

西南科技大学硕士研究生学位论文第II页 4.2利用bottleneck特征训练CNN表情识别网络 (38) 4.3微调(fine turn)训练CNN表情识别网络 (40) 4.4本章小结 (41) 5基于循环神经网络的表情识别研究与实现 (43) 5.1图像序列筛选 (43) 5.2CNN+LSTM表情识别方法 (44) 5.3实验结果分析 (45) 5.4本章小结 (46) 总结和展望 (47) 致谢 (49) 参考文献 (50) 攻读硕士期间获取得的研究成果 (55)

图像处理边缘提取与分割实验报告附源码

边缘提取与图像分割 理论、算法、源码与实例 1)理论 一、边缘检测的基本方法: 各种差分算子,主要有: 差分边缘检测方法 Roberts梯度模算子 前两种对垂直,水平,对角检测好。 Prewitt算子,Robinson算子(算八个方向的梯度最大值) Sobel算子(利用上下左右加权,可平滑噪声); Kirsch算子 Rosenfeld算子 Laplace算子(二阶导数算子,一般不用于检测,用于之后判别暗区与明区。) LOG算子,(高斯平滑后求导提取边界。) 主要思路用高斯函数对图像平滑滤波,然后再对图像进行拉普拉斯运算,算得的值等于零的点认为是边界点。 该算法高斯函数方差取值很重要,过大会导至精度不高。还容易产生虚假边界。但可以用一些准备去除虚假边界。对于灰度渐变图的效果也不太好。但大部份图片边缘提取效果还好。Canny边界检测算子 二、拟合曲面求导提取边界。 主要思路为在点的邻域各点拟合一个曲面,由曲面的求导代替离散点求差分,这种方法对于噪声比较不敏感。 三、统计判决法提取边界 以误判概率最小化设置门限,对边界检测算子作用后的每个像点判别/。统计判决法依赖于先验知识。 四、分裂—合并算法 按一定的均一化标准,将图片分成子图。合并满足均一性准则的子图。

五、跟踪技术 1)区域跟踪,基于区域的图像分割方法。 应用于直接提取区域。检测满足跟踪准则的点,找到这样的点,检测其所有邻点,把满足跟踪准则的任合邻点合并再重复。直到没有邻点满足检测准则。 2)曲线跟踪,基于边界的图像分割方法。 对整幅图扫描,对所有“现在点”的邻点检测,周围没有满足跟踪条件的点时,返回到上一个最近的分支处,取出另一个满足跟踪原则的现在点。重复根踪。 六、模型化与统计检验法检测边界 开始步骤为对图像划分成多块子图,每块子图进行曲面拟合。并应用误差的分析,构造F 统计量,判断此区域是否有边界的存在。 七、匹配检测技术 基于区域的一种分割方法。 1)归一化互相关测度匹配 类似于求相关系数。但是这种方法实用时不太理想,因为匹配模板的尺寸跟图上的尺寸差异,造成操作很难。 2)匹配滤波器 基于最大信噪比准则。 用一个滤波器对图像子图作卷积,当滤波器为子图旋转180度后的K倍时,功能与相关系数一样。此时称为匹配滤波器。 3)线检测 用匹配滤波器可以设计一些线检测器。对直线检测效果好。 八、利用模式识别某些技术进行图像分割 对每个像素提取特征,提取一个n维特征,如果特效果好,那么在特征空间里,像素点会表现出类聚。一般来说,特征是区域性的,一般是征对邻域或图像的各个子图提取特征。通常特征包含,灰度,空间关系(梯度,像素小块邻域平均灰度,纹理参数,颜色)等。 九、基于活动轮廓模型的边界提取算法 不同于经典的基于求导自下而上过程,而是一种基于总体和局部的自上而下和自下而上的处理过程。借助一些物理概念构造一个描述轮廓状态指标,将图像灰度分布,灰度梯度及轮廓形状约束等信息作为“外能”和“内能”构造活运轮廓的能量函数。将一个初始轮廓放在感兴趣的图像区域中,轮廓在外力和内力作用下变形,外力推动活动轮廓向着物体的边缘运动,而内力要使活动轮廓趋于光滑和保持其拓朴性。在达到平衡时,对应的能量最小,此时的活动轮廓即为要检测的边界。 十、基于视觉特性的边界提取方法 ——线性加权函数(LWF)在边界检测中的应用 视觉系统对亮度对比度的感知可以转化为数学中的微分算子的特征值问题,视觉的感觉响应类似于高斯函数与其拉普拉斯变换之和。基于生理学和数学导出的线性加权函数(LWF)是高斯函数与它的二阶导数的线性组合. 视觉处理过程是图像与一系列不同方差的高斯函数及其二阶导数的卷积过程。

模式识别实验报告(一二)

信息与通信工程学院 模式识别实验报告 班级: 姓名: 学号: 日期:2011年12月

实验一、Bayes 分类器设计 一、实验目的: 1.对模式识别有一个初步的理解 2.能够根据自己的设计对贝叶斯决策理论算法有一个深刻地认识 3.理解二类分类器的设计原理 二、实验条件: matlab 软件 三、实验原理: 最小风险贝叶斯决策可按下列步骤进行: 1)在已知 ) (i P ω, ) (i X P ω,i=1,…,c 及给出待识别的X 的情况下,根据贝叶斯公式计 算出后验概率: ∑== c j i i i i i P X P P X P X P 1 ) ()() ()()(ωωωωω j=1,…,x 2)利用计算出的后验概率及决策表,按下面的公式计算出采取i a ,i=1,…,a 的条件风险 ∑== c j j j i i X P a X a R 1 )(),()(ωω λ,i=1,2,…,a 3)对(2)中得到的a 个条件风险值) (X a R i ,i=1,…,a 进行比较,找出使其条件风险最小的 决策k a ,即()() 1,min k i i a R a x R a x == 则 k a 就是最小风险贝叶斯决策。 四、实验内容 假定某个局部区域细胞识别中正常(1ω)和非正常(2ω)两类先验概率分别为 正常状态:P (1ω)=; 异常状态:P (2ω)=。 现有一系列待观察的细胞,其观察值为x : 已知先验概率是的曲线如下图:

)|(1ωx p )|(2ωx p 类条件概率分布正态分布分别为(-2,)(2,4)试对观察的结果 进行分类。 五、实验步骤: 1.用matlab 完成分类器的设计,说明文字程序相应语句,子程序有调用过程。 2.根据例子画出后验概率的分布曲线以及分类的结果示意图。 3.最小风险贝叶斯决策,决策表如下: 结果,并比较两个结果。 六、实验代码 1.最小错误率贝叶斯决策 x=[ ] pw1=; pw2=; e1=-2; a1=; e2=2;a2=2; m=numel(x); %得到待测细胞个数 pw1_x=zeros(1,m); %存放对w1的后验概率矩阵 pw2_x=zeros(1,m); %存放对w2的后验概率矩阵

相关主题
文本预览
相关文档 最新文档