当前位置:文档之家› 模式识别上机实验报告汇总

模式识别上机实验报告汇总

模式识别上机实验报告汇总
模式识别上机实验报告汇总

实验一、二维随机数的产生

1、实验目的

(1) 学习采用Matlab 程序产生正态分布的二维随机数 (2) 掌握估计类均值向量和协方差矩阵的方法

(3) 掌握类间离散度矩阵、类内离散度矩阵的计算方法

(4) 熟悉matlab 中运用mvnrnd 函数产生二维随机数等matlab 语言

2、实验原理

多元正态分布概率密度函数:

11

()()2

/21/2

1()(2)||T X X d p X e

μμπ---∑-=

其中:μ是d 维均值向量:T

d E X μμμμ=={}[,,...,]12

Σ是d ×d 维协方差矩阵:T E X X μμ∑=--[()()]

(1)估计类均值向量和协方差矩阵的估计 各类均值向量1i

i X i

m X N ω

=

∑ 各类协方差矩阵1()()i

T

i i

i

X i

X X N ω

μμ∈

∑=

--∑

(2)类间离散度矩阵、类内离散度矩阵的计算

类内离散度矩阵:()()i

T

i i

i

X S X m X m ω

=

--∑, i=1,2

总的类内离散度矩阵:12W S S S =+ 类间离散度矩阵:1212()()T b S m m m m =--

3、实验内容及要求

产生两类均值向量、协方差矩阵如下的样本数据,每类样本各50个。

1[2,2]μ=--,11001??

∑=?

?

??

,2[2,2]μ=,21004??∑=???? (1)

画出样本的分布图;

(2) 编写程序,估计类均值向量和协方差矩阵;

(3) 编写程序,计算类间离散度矩阵、类内离散度矩阵; (4)

每类样本数增加到500个,重复(1)-(3)

4、实验结果(1)、样本的分布图

(2)、类均值向量、类协方差矩阵

根据matlab 程序得出的类均值向量为:

N=50 : m1=[-1.7160 -2.0374] m2=[2.1485 1.7678] N=500: m1=[-2.0379 -2.0352] m2=[2.0428 2.1270] 根据matlab 程序得出的类协方差矩阵为:

N=50: ]

0628.11354.01354.06428.1[1=∑

∑--2]5687.40624.00624

.08800.0[

N=500:

∑--1]0344

.10162.00162

.09187.0[

∑2]9038

.30211.00211

.09939.0[

(3)、类间离散度矩阵、类内离散度矩阵

根据matlab 程序得出的类间离散度矩阵为:

N=50: ]4828

.147068.147068

.149343.14[=b S

N=500: ]3233

.179843.169843

.166519.16[

b =S

根据matlab 程序得出的类内离散度矩阵为:

N=50:]0703.533088.73088.71052.78[

1=S ]7397.2253966.13966.18975.42[2--=S ]8100

.2789123.59123

.50026.121[=W S

N=500: ]5964

.5167490.87490.86203.458[1--=S ]8.19438420.78420.70178.496[2=S ]

4.24609071.09071

.06381.954[--=W S

5、结论

由mvnrnd 函数产生的结果是一个N*D 的一个矩阵,在本实验中D 是2,N 是50和500.

根据实验数据可以看出,当样本容量变多的时候,两个变量的总体误差变小,观测变量各个取值之间的差异程度减小。

6、实验程序

clc;close all ;clear all ; %parameter N = 50; N_1 = 500; mu_1 = [-2,-2]; Sigma_1 = [1,0;0,1];

r_1 = mvnrnd(mu_1,Sigma_1,N); r_11 = mvnrnd(mu_1,Sigma_1,N_1);

mu_2 = [2,2];

Sigma_2 = [1,0;0,4];

r_2 = mvnrnd(mu_2,Sigma_2,N);

r_22 = mvnrnd(mu_2,Sigma_2,N_1);

%figures

figure(1);

plot(r_1(:,1),r_1(:,2),'.');%将矩阵r_1的第一列当成横坐标,第二列当作纵坐标。title('样本数为50时的第一类样本分布图');

figure(2);

plot(r_2(:,1),r_2(:,2),'.');

title('样本数为50时的第二类样本分布图');

figure(3);

plot(r_11(:,1),r_11(:,2),'.');

title('样本数为500时的第一类样本分布图');

figure(4);

plot(r_22(:,1),r_22(:,2),'.');

title('样本数为500时的第二类样本分布图');

%类均值向量和类协方差矩阵

m_1 = mean(r_1);%样本数为50时第一类类均值向量

m_2 = mean(r_2);%样本数为50时第二类类均值向量

m_11 = mean(r_11);%样本数为500时第一类类均值向量

m_22 = mean(r_22);%样本数为500时第二类类均值向量

sum1 = [0,0;0,0];

for n = 1:N

sum1 =sum1 + (r_1(n,:)-mu_1)'*(r_1(n,:)-mu_1);

end

E_1 = sum1/N;%样本数为50时,第一类类协方差矩阵

sum2 = [0,0;0,0];

for n = 1:N

sum2 =sum2 + (r_2(n,:)-mu_2)'*(r_2(n,:)-mu_2);

end

E_2 = sum2/N;%样本数为50时,第二类类协方差矩阵

sum3 = [0,0;0,0];

for n = 1:N_1

sum3 =sum3 + (r_11(n,:)-mu_1)'*(r_11(n,:)-mu_1);

end

E_11 = sum3/N_1;%样本数为500时,第一类类协方差矩阵

sum4 = [0,0;0,0];

for n = 1:N_1

sum4 =sum4 + (r_22(n,:)-mu_2)'*(r_22(n,:)-mu_2);

end

E_22 = sum4/N_1;%样本数为500时,第二类类协方差矩阵

%计算类间离散度和类内离散度

Sb_1 = (m_1 - m_2)'*(m_1 - m_2);%样本数为50时的,类间离散度矩阵

Sb_2 = (m_11 - m_22)'*(m_11 - m_22);%样本数为500时的,类间离散度矩阵

S_1 = [0,0;0,0];

S_2 = [0,0;0,0];

for n = 1:N

S_1 = S_1 + (r_1(n,:) - m_1)'*(r_1(n,:) - m_1);

S_2 = S_2 + (r_2(n,:) - m_2)'*(r_2(n,:) - m_2);

end

SW1 = S_1 + S_2;%样本数为50时的,总的类内离散度矩阵

S_11 = [0,0;0,0];

S_22 = [0,0;0,0];

for n = 1:N_1

S_11 = S_11 + (r_11(n,:) - m_11)'*(r_11(n,:) - m_11);

S_22 = S_22 + (r_22(n,:) - m_22)'*(r_22(n,:) - m_22);

end

SW2 = S_11 + S_22;%样本数为500时的,总的类内离散度矩阵

实验二、Fisher 线性分类器的设计

1、实验目的

(1) 掌握Fisher 线性判别方法

(2) 掌握Bayes 决策的错误率的计算 (3) 掌握分类器错误率的估算方法 (4) 对模式识别有一个初步的理解

2、实验原理

Fisher 准则基本原理:

如果在二维空间中一条直线能将两类样本分开,或者错分类很少,则同一类别样本数据在该直线的单位法向量上的投影的绝大多数都应该超过某一值。而另一类数据的投影都应该小于(或绝大多数都小于)该值,则这条直线就有可能将两类分开。

准则:向量W 的方向选择应能使两类样本投影的均值之差尽可能大些,而使类内样本的离散程度尽可能小。这就是Fisher 准则函数的基本思路。 y=W

T X+W0

评价投影方向W 的函数 :()T b F T

W W S W

J W W S W

=

最佳W 值的确定:求取使J F

达极大值时的 w*:*1

12()W W S m m -=-

向量*

W 就是使Fisher 准则函数)(W J F 达极大值的解,也就是按Fisher 准则将d 维X 空间投影到一维Y 空间的最佳投影方向,该向量*

W 的各分量值是对原d 维特征向量求加权和的权值。 w0确定 :012

2

m m W +=-

当W 0确定之后,则可按以下规则分类,

2

010ωω∈→->∈→->X w X W X w X W T

T

使用Fisher 准则方法确定最佳线性分界面的方法是一个著名的方法,尽管提出该方法的时间比较早,仍见有人使用。

3、实验内容及要求

考虑Fisher 线性判别方法,利用实验1中程序产生的数据(分别在各类样本数均为50及500时),计算:

1) 求解最优投影方向W ;

2) 画出表示最优投影方向的直线,并且标记出投影后的点在直线上的位置; 3) 计算投影后的阈值权;

4) 计算分类器的各类错误率及总的平均错误率;

5) 计算按最小错误率Bayes 决策的错误率(各类先验概率相同)

4、实验结果

上图可以看出在N=50时的情况下绿色的点是第一类样本点,蓝色的*给出了第二类样本点,红色的直线是最优投影方向的直线,+标出的点是W0点,直线上不同颜色代表了不同类样本点所投影的点的位置。

N=50时,类一的错误概率为0 类二的错误概率为 8% 平均错误概率为 1%

Bayes 决策错误率为0%

最佳投影方向]1432.00311.0[*

-=W

5、结论

通过对实验结果的探究,可以得出当样本数比较大的时候类错误概率会上升。W 的比例因子对于Fisher 判别函数没有影响的原因:

在本实验中,最重要的是W 的方向,或者说是在此方向上数据的投影,所以W 的比例因子,即它是单位向量的多少倍长就没那么重要了,不管比例因子大小是多少,在最后求投影时都会被消掉。

6、实验程序

N = 50;%样本数为50时 mu_1 = [-2,-2];

Sigma_1 = [1,0;0,1];

r_1 = mvnrnd(mu_1,Sigma_1,N);

mu_2 = [2,2];

Sigma_2 = [1,0;0,4];

r_2 = mvnrnd(mu_2,Sigma_2,N);

m_1 = mean(r_1);

m_2 = mean(r_2);

S_1 = [0,0;0,0];

S_2 = [0,0;0,0];

for n = 1:N

S_1 = S_1 + (r_1(n,:) - m_1)'*(r_1(n,:) - m_1); S_2 = S_2 + (r_2(n,:) - m_2)'*(r_2(n,:) - m_2); end

SW1 = S_1 + S_2;

W_0 = -(m_1+m_2)/2;

w = (m_1-m_2)*inv(SW1);%投影向量S

k = w(:,2)/w(:,1);%最优投影方向直线的斜率。

x=[-7:0.01:7];

y = k*(x-W_0(:,1)) + W_0(:,2);%最优投影方向直线

figure(3);

plot(r_1(:,1),r_1(:,2),'g.');

title('样本数为50时的样本分布图');

hold on;

plot(r_2(:,1),r_2(:,2),'*');

plot(W_0(1),W_0(2),'+');

plot(x,y,'r');%画出最优投影方向直线

A0=[k -1;1 k];

X0=zeros(2,N);

for n=1:N

b=[k*W_0(:,1)-W_0(:,2) r_1(n,1)+k*r_1(n,2)]';

X0(:,n)=inv(A0)*b;

end

A1=[k -1;1 k];

X1=zeros(2,N);

for n=1:N

b1=[k*W_0(:,1)-W_0(:,2) r_2(n,1)+k*r_2(n,2)]';

X1(:,n)=inv(A1)*b1;

end

plot(X0(1,:),X0(2,:),'g');

plot(X1(1,:),X1(2,:),'b');

hold off;

en1=0;en2=0;

for m=1:N

if X0(1,m) > W_0(:,1)

en1=en1+1;

end

if X1(1,m) < W_0(:,1)

en2=en2+1;

end

end

p1=en1/N; % 类一错误率

p2=en2/N; % 类二错误率

p0=(en1+en2)/(2*N); % 平均错误率

Pw1=0.5;Pw2=0.5;

Pbayes1=Pw1*p1+Pw2*p2; %Bayes决策错误率

实验三、最近邻分类器的设计

1、 实验目的

(1) 掌握最近邻分类算法 (2) 掌握k 近邻分类算法

(3) 掌握分类器错误率的估算方法

2、实验原理

(1)近邻法原理及其决策规则

最小距离分类器:将各类训练样本划分成若干子类,并在每个子类中确定代表点。测试样本的类别则以其与这些代表点距离最近作决策。该法的缺点:所选择的代表点并不一定能很好地代表各类,其后果将使错误率增加。

以全部训练样本作为“代表点”,计算测试样本与这些“代表点”,即所有样本的距离,并以最近邻者的类别作为决策。

最近邻法决策规则:将与测试样本最近邻样本的类别作为决策的方法称为最近邻法。 对一个C 类别问题,每类有Ni 个样本,i =1,…,C ,则第i 类ωi 的判别函数

()||||

1,2,...,min k i i i k

g X X X k N =-=

判别函数的决策规则:

若:()()

1,2,...,max i

j k

g X g X i C =

= ;则:X ∈ωj

k i X 表示是ωi 类的第k 个样本

(2)k-近邻法决策规则

在所有N 个样本中找到与测试样本的k 个最近邻者,其中各类别所占个数表示成ki,i =1,…,c 。 则决策规划是:

如果:()()

1,2,...,max i

j k

K X K X i C ==

则:X ∈ωj

3验内容及要求

还是利用实验1的程序,计算

(1) 每类产生50个样本作为训练样本;每类产生100个样本作为考试样本; (2) 按最近邻法用训练样本对考试样本分类,计算平均错误率;

(3) 按最k 近邻法(k=10)用训练样本对考试样本分类,计算平均错误率;

4、实验结果

-4

-3-2-101234

-6-4

-2

2

4

6

8

训练样本分布图

-5

-4-3-2-1012345

-6-4

-2

2

4

6

8

测试样本分布图

最近邻分类法错误率 =0.0150; K 紧邻分类法错误率=0.0050

5、结论

最近邻分类方法相对于K近邻分类方法来说,错误率高,其分类错误率受样本个数的影响小,K值越大,错分率应该越低,当K趋向于样本总个数时错误率应该最低,但此时计算量大。在计算量方面,K近邻分类的计算量比最近邻分类法大。

6、实验程序

N1=100;

N2=50;

miu1=[-2;-2];

miu2=[2;2];

x1=random('normal',-2,1,1,N1);

x2=random('normal',-2,1,1,N1);

x3=random('normal',2,1,1,N1);

x4=random('normal',2,2,1,N1);

y1=random('normal',-2,1,1,N2);

y2=random('normal',-2,1,1,N2);

y3=random('normal',2,1,1,N2);

y4=random('normal',2,2,1,N2);

X1=[x1;x2]; %测试样本1

X2=[x3;x4]; %测试样本2

Y1=[y1;y2]; %训练样本1

Y2=[y3;y4]; %训练样本2

figure

plot(X1(1,:),X1(2,:),'*'); %测试样本1

hold on

plot(X2(1,:),X2(2,:),'*r'); %测试样本2

title('测试样本分布图')

figure

plot(Y1(1,:),Y1(2,:),'*'); %训练样本1

hold on

plot(Y2(1,:),Y2(2,:),'*r'); %训练样本2

title('训练样本分布图')

distance1=zeros(N1,2*N2);

distance2=zeros(N1,2*N2);

%%最近邻

erro1=0;

erro2=0;

for i=1:N1

for j=1:N2

distance1(i,j)=sqrt((X1(1,i)-Y1(1,j))^2+(X1(2,i)-Y1(2,j))^2);

distance1(i,j+N2)=sqrt((X1(1,i)-Y2(1,j))^2+(X1(2,i)-Y2(2,j))^2);

end

zuixiao=min(distance1(i,:));

for j=1:2*N2

if distance1(i,j)==zuixiao

if j>N2

erro1=erro1+1;

end

end

end

end

for i=1:N1

for j=1:N2

distance2(i,j)=sqrt((X2(1,i)-Y1(1,j))^2+(X2(2,i)-Y1(2,j))^2);

distance2(i,j+N2)=sqrt((X2(1,i)-Y2(1,j))^2+(X2(2,i)-Y2(2,j))^2);

end

zuixiao=min(distance2(i,:));

for j=1:2*N2

if distance2(i,j)==zuixiao

if j

erro2=erro2+1;

end

end

end

end

erro_pingjun=(erro1+erro2)/(2*N1)

%%k近邻

k=10;

number11=zeros(N1,1);number12=zeros(N1,1);

MAX=1e5;

k_erro1=0;

for ii=1:N1

for i=1:k

zuixiao=min(distance1(ii,:));

for j=1:2*N2

if distance1(ii,j)==zuixiao

if j<=N2

number11(ii)=number11(ii)+1;

else

number12(ii)=number12(ii)+1;

end

distance1(ii,j)=MAX;

end

end

end

if number11(ii)

k_erro1=k_erro1+1;

end

end

number21=zeros(N1,1);number22=zeros(N1,1);

k_erro2=0;

for ii=1:N1

for i=1:k

zuixiao=min(distance2(ii,:));

for j=1:2*N2

if distance2(ii,j)==zuixiao

if j<=N2

number21(ii)=number21(ii)+1;

else

number22(ii)=number22(ii)+1;

end

distance2(ii,j)=MAX;

end

end

end

if number21(ii)>number22(ii)

k_erro2=k_erro2+1;

end

end

k_erro_pingjun=(k_erro1+k_erro2)/(2*N1)

操作系统上机实验报告(西电)

操作系统上机题目 一、题目 实验1:LINUX/UNIX Shell部分 (一)系统基本命令 1.登陆系统,输入whoami 和pwd ,确定自己的登录名和当前目录; 登录名yuanye ,当前目录/home/yuanye 2.显示自己的注册目录?命令在哪里? a.键入echo $HOME,确认自己的主目录;主目录为/home/yuanye b.键入echo $PA TH,记下自己看到的目录表;/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games c.键入which abcd,看看得到的错误信息; 再键入which ls 和which vi,对比刚刚得到的结果的目录是否在a.、b. 两题看到的目录表中; /bin/ls /usr/bin/vi 3.ls 和cd 的使用: a.键入ls,ls -l ,ls -a ,ls -al 四条命令,观察输出,说明四种不同使用方式的区别。 1. examples.desktop 公共的模板视频图片文档音乐桌面; 总计32 2.-rw-r--r-- 1 yuanye yuanye 357 2011-03-22 22:15 examples.desktop drwxr-xr-x 2 yuanye yuanye 4096 2011-03-22 23:25 公共的 drwxr-xr-x 2 yuanye yuanye 4096 2011-03-22 23:25 模板 drwxr-xr-x 2 yuanye yuanye 4096 2011-03-22 23:25 视频 drwxr-xr-x 2 yuanye yuanye 4096 2011-03-22 23:25 图片 drwxr-xr-x 2 yuanye yuanye 4096 2011-03-22 23:25 文档 drwxr-xr-x 2 yuanye yuanye 4096 2011-03-22 23:25 音乐 drwxr-xr-x 2 yuanye yuanye 4096 2011-03-22 23:25 桌面 3. . .fontconfig .local .Xauthority .. .gconf .mozilla .xsession-errors .bash_logout .gconfd .nautilus 公共的 .bashrc .gksu.lock .profile 模板 .cache .gnome2 .pulse 视频 .chewing .gnome2_private .pulse-cookie 图片 .config .gnupg .recently-used.xbel 文档 .dbus .gstreamer-0.10 .scim 音乐 .dmrc .gtk-bookmarks .sudo_as_admin_successful 桌面 .esd_auth .gvfs .update-manager-core

模式识别实验报告

模式识别实验报告

————————————————————————————————作者:————————————————————————————————日期:

实验报告 实验课程名称:模式识别 姓名:王宇班级: 20110813 学号: 2011081325 实验名称规范程度原理叙述实验过程实验结果实验成绩 图像的贝叶斯分类 K均值聚类算法 神经网络模式识别 平均成绩 折合成绩 注:1、每个实验中各项成绩按照5分制评定,实验成绩为各项总和 2、平均成绩取各项实验平均成绩 3、折合成绩按照教学大纲要求的百分比进行折合 2014年 6月

实验一、 图像的贝叶斯分类 一、实验目的 将模式识别方法与图像处理技术相结合,掌握利用最小错分概率贝叶斯分类器进行图像分类的基本方法,通过实验加深对基本概念的理解。 二、实验仪器设备及软件 HP D538、MATLAB 三、实验原理 概念: 阈值化分割算法是计算机视觉中的常用算法,对灰度图象的阈值分割就是先确定一个处于图像灰度取值范围内的灰度阈值,然后将图像中每个像素的灰度值与这个阈值相比较。并根据比较的结果将对应的像素划分为两类,灰度值大于阈值的像素划分为一类,小于阈值的划分为另一类,等于阈值的可任意划分到两类中的任何一类。 最常用的模型可描述如下:假设图像由具有单峰灰度分布的目标和背景组成,处于目标和背景内部相邻像素间的灰度值是高度相关的,但处于目标和背景交界处两边的像素灰度值有较大差别,此时,图像的灰度直方图基本上可看作是由分别对应于目标和背景的两个单峰直方图混合构成。而且这两个分布应大小接近,且均值足够远,方差足够小,这种情况下直方图呈现较明显的双峰。类似地,如果图像中包含多个单峰灰度目标,则直方图可能呈现较明显的多峰。 上述图像模型只是理想情况,有时图像中目标和背景的灰度值有部分交错。这时如用全局阈值进行分割必然会产生一定的误差。分割误差包括将目标分为背景和将背景分为目标两大类。实际应用中应尽量减小错误分割的概率,常用的一种方法为选取最优阈值。这里所谓的最优阈值,就是指能使误分割概率最小的分割阈值。图像的直方图可以看成是对灰度值概率分布密度函数的一种近似。如一幅图像中只包含目标和背景两类灰度区域,那么直方图所代表的灰度值概率密度函数可以表示为目标和背景两类灰度值概率密度函数的加权和。如果概率密度函数形式已知,就有可能计算出使目标和背景两类误分割概率最小的最优阈值。 假设目标与背景两类像素值均服从正态分布且混有加性高斯噪声,上述分类问题可以使用模式识别中的最小错分概率贝叶斯分类器来解决。以1p 与2p 分别表示目标与背景的灰度分布概率密度函数,1P 与2P 分别表示两类的先验概率,则图像的混合概率密度函数可用下式表示为

模式识别第二次上机实验报告

北京科技大学计算机与通信工程学院 模式分类第二次上机实验报告 姓名:XXXXXX 学号:00000000 班级:电信11 时间:2014-04-16

一、实验目的 1.掌握支持向量机(SVM)的原理、核函数类型选择以及核参数选择原则等; 二、实验内容 2.准备好数据,首先要把数据转换成Libsvm软件包要求的数据格式为: label index1:value1 index2:value2 ... 其中对于分类来说label为类标识,指定数据的种类;对于回归来说label为目标值。(我主要要用到回归) Index是从1开始的自然数,value是每一维的特征值。 该过程可以自己使用excel或者编写程序来完成,也可以使用网络上的FormatDataLibsvm.xls来完成。FormatDataLibsvm.xls使用说明: 先将数据按照下列格式存放(注意label放最后面): value1 value2 label value1 value2 label 然后将以上数据粘贴到FormatDataLibsvm.xls中的最左上角单元格,接着工具->宏执行行FormatDataToLibsvm宏。就可以得到libsvm要求的数据格式。将该数据存放到文本文件中进行下一步的处理。 3.对数据进行归一化。 该过程要用到libsvm软件包中的svm-scale.exe Svm-scale用法: 用法:svmscale [-l lower] [-u upper] [-y y_lower y_upper] [-s save_filename] [-r restore_filename] filename (缺省值:lower = -1,upper = 1,没有对y进行缩放)其中,-l:数据下限标记;lower:缩放后数据下限;-u:数据上限标记;upper:缩放后数据上限;-y:是否对目标值同时进行缩放;y_lower为下限值,y_upper为上限值;(回归需要对目标进行缩放,因此该参数可以设定为–y -1 1 )-s save_filename:表示将缩放的规则保存为文件save_filename;-r restore_filename:表示将缩放规则文件restore_filename载入后按此缩放;filename:待缩放的数据文件(要求满足前面所述的格式)。缩放规则文件可以用文本浏览器打开,看到其格式为: y lower upper min max x lower upper index1 min1 max1 index2 min2 max2 其中的lower 与upper 与使用时所设置的lower 与upper 含义相同;index 表示特征序号;min 转换前该特征的最小值;max 转换前该特征的最大值。数据集的缩放结果在此情况下通过DOS窗口输出,当然也可以通过DOS的文件重定向符号“>”将结果另存为指定的文件。该文件中的参数可用于最后面对目标值的反归一化。反归一化的公式为: (Value-lower)*(max-min)/(upper - lower)+lower 其中value为归一化后的值,其他参数与前面介绍的相同。 建议将训练数据集与测试数据集放在同一个文本文件中一起归一化,然后再将归一化结果分成训练集和测试集。 4.训练数据,生成模型。 用法:svmtrain [options] training_set_file [model_file] 其中,options(操作参数):可用的选项即表示的涵义如下所示-s svm类型:设置SVM 类型,默

《 Windows7 操作系统》实验报告

实验(一) Windows 7基本操作 一、实验目的 1.掌握文件和文件夹基本操作。 2.掌握“资源管理器”和“计算机”基本操作。 二、实验要求 1.请将操作结果用Alt+Print Screen组合键截图粘贴在题目之后。 2.实验完成后,请将实验报告保存并提交。 三、实验内容 1.文件或文件夹的管理(提示:此题自行操作一遍即可,无需抓图)★期末机试必考题★ (1) 在D:盘根目录上创建一个名为“上机实验”的文件夹,在“上机实验”文件夹中创建1个名为“操作系统上机实验”的空白文件夹和2个分别名为“2.xlsx”和“3.pptx”的空白文件,在“操作系统上机实验”文件夹中创建一个名为“1.docx”的空白文件。 (2) 将“1.docx”改名为“介绍信.docx”;将“上机实验”改名为“作业”。 (3) 在“作业”文件夹中分别尝试选择一个文件、同时选择两个文件、一次同时选择所有文件和文件夹。 (4) 将“介绍信.docx”复制到C:盘根目录。 (5) 将D:盘根目录中的“作业”文件夹移动到C:盘根目录。 (6) 将“作业”文件夹中的“2.xlsx”文件删除放入“回收站”。 (7) 还原被删除的“2.xlsx”文件到原位置。 2.搜索文件或文件夹,要求如下: 查找C盘上所有以大写字母“A”开头,文件大小在10KB以上的文本文件。(提示:搜索时,可以使用“?”和“*”。“?”表示任意一个字符,“*”表示任意多个字符。)

3. 在桌面上为C:盘根目录下的“作业”文件夹创建一个桌面快捷方式。★期末机试必考题★ 3.“计算机”或“资源管理器”的使用 (1) 在“资源管理器”窗口,设置以详细信息方式显示C:\WINDOWS中所有文件和文件夹,使所有图标按类型排列显示,并不显示文件扩展名。(提示:三步操作全部做完后,将窗口中显示的最终设置结果抓一张图片即可) (2) 将C:盘根目录中“介绍信.docx”的文件属性设置为“只读”和“隐藏”,并设置在窗口中显示“隐藏属性”的文件或文件夹。(提示:请将“文件夹”对话框中选项设置效果与C:盘根目录中该文件图标呈现的半透明显示效果截取在一整张桌面图片中即可) 4.回收站的设置 设置删除文件后,不将其移入回收站中,而是直接彻底删除功能。

操作系统上机实验报告

大连理工大学实验报告 学院(系):专业:班级: 姓名:学号:组:___ 实验时间:实验室:实验台: 指导教师签字:成绩: 实验名称:进程控制 一、实验目的和要求 (1)进一步加强对进程概念的理解,明确进程和程序的区别 (2)进一步认识并发执行的实质 二、实验环境 在windows平台上,cygwin模拟UNIX运行环境 三、实验内容 (1) getpid()---获取进程的pid 每个进程都执行自己独立的程序,打印自己的pid; (2) getpid()---获取进程的pid 每个进程都执行自己独立的程序,打印自己的pid; 父进程打印两个子进程的pid;

(3)写一个命令处理程序,能处理max(m,n), min(m,n),average(m,n,l)这几个命令(使用exec函数族)。 Max函数 Min函数 Average函数 Exec函数族调用 四、程序代码 五、运行结果 六、实验结果与分析 七、体会 通过这次上机,我了解了fork函数的运行方法,同时更深刻的了解了进程的并行执行的本质,印证了在课堂上学习的理论知识。同时通过编写实验内容(3)的命令处理程序,学会了exec函数族工作原理和使用方法。通过这次上机实验让我加深了对课堂上学习的理论知识的理解,收获很多。

大连理工大学实验报告 学院(系):专业:班级: 姓名:学号:组:___ 实验时间:实验室:实验台: 指导教师签字:成绩: 实验名称:进程通讯 一、实验目的和要求 了解和熟悉UNIX支持的共享存储区机制 二、实验环境 在windows平台上,cygwin模拟UNIX运行环境 三.实验内容 编写一段程序, 使其用共享存储区来实现两个进程之间的进程通讯。进程A创建一个长度为512字节的共享内存,并显示写入该共享内存的数据;进程B将共享内存附加到自己的地址空间,并向共享内存中写入数据。 四、程序代码 五、运行结果 六、实验结果与分析 七、体会

模式识别报告二

第二次试验报告 一 实验名称 贝叶斯分类器设计(最小风险贝叶斯决策和最小错误率贝叶斯抉择) 二 实验原理 最小错误率: 合理决策依据:根据后验概率决策 已知后验概率P(w 1|x), P(w 2|x), 决策规则: ? 当P(w 1|x)>P(w 2|x) x ∈w 1, ? 当P(w 1|x)

最小风险: 1. 已知类别的P(w i )及x 的p(x/w i ),利用贝叶斯公式,可得类别 的后验概率P(w i /x)。 2. 利用决策表和后验概率,计算最小条件风险 3. 决策:在各种决策中选择风险最小的决策 三 实验内容 ? 假定某个局部区域细胞识别中正常( w1)和非正常 ( w2)两类先验概率分别为 ? 正常状态:P (w1)=0.9; 异常状态:P (w2)=0.1。 1 (/)()(/)(/)()i i i c i i i p x w P w P w x p x w P w =?=∑

?现有一系列待观察的细胞,其观察值为x: -3.9847 -3.5549 -1.2401 -0.9780 -0.7932 -2.8531 -2.7605 -3.7287 -3.5414 -2.2692 -3.4549 -3.0752 -3.9934 2.8792 -0.9780 0.7932 1.1882 3.0682 -1.5799 -1.4885 -0.7431 -0.4221 -1.1186 4.2532 ?类条件概率分布正态分布分别为(-2,0.5)(2,2)试对观察的结果进行分类。 四实验步骤及贴图 步骤: ?1.用matlab完成分类器的设计,说明文字程序相应语句,子程 序有调用过程。 ?2.根据例子画出后验概率的分布曲线以及分类的结果示意图。 ?3.最小风险贝叶斯决策,决策表如下: ?重新设计程序,完成基于最小风险的贝叶斯分类器,画出相应 的后验概率的分布曲线和分类结果,并比较两个结果。

操作系统实验报告生产者与消费者问题模拟

操作系统上机实验报告 实验名称: 生产者与消费者问题模拟 实验目的: 通过模拟生产者消费者问题理解进程或线程之间的同步与互斥。 实验内容: 1、设计一个环形缓冲区,大小为10,生产者依次向其中写入1到20,每个缓冲区中存放一个数字,消费者从中依次读取数字。 2、相应的信号量; 3、生产者和消费者可按如下两种方式之一设计; (1)设计成两个进程; (2)设计成一个进程内的两个线程。 4、根据实验结果理解信号量的工作原理,进程或线程的同步\互斥关系。 实验步骤及分析: 一.管道 (一)管道定义 所谓管道,是指能够连接一个写进程和一个读进程的、并允许它们以生产者—消费者方式进行通信的一个共享文件,又称为pipe文件。由写进程从管道的写入端(句柄1)将数据写入管道,而读进程则从管道的读出端(句柄0)读出数据。(二)所涉及的系统调用 1、pipe( ) 建立一无名管道。 系统调用格式 pipe(filedes) 参数定义 int pipe(filedes); int filedes[2]; 其中,filedes[1]是写入端,filedes[0]是读出端。 该函数使用头文件如下: #include #inlcude #include 2、read( ) : 系统调用格式 read(fd,buf,nbyte) 功能:从fd所指示的文件中读出nbyte个字节的数据,并将它们送至由指针buf 所指示的缓冲区中。如该文件被加锁,等待,直到锁打开为止。 参数定义:

int read(fd,buf,nbyte); int fd; char *buf; unsigned nbyte; 3、write( ) 系统调用格式 read(fd,buf,nbyte) 功能:把nbyte 个字节的数据,从buf所指向的缓冲区写到由fd所指向的文件中。如文件加锁,暂停写入,直至开锁。 参数定义同read( )。 (三)参考程序 #include #include #include int pid1,pid2; main( ) { int fd[2]; char outpipe[100],inpipe[100]; pipe(fd); /*创建一个管道*/ while ((pid1=fork( ))==-1); if(pid1==0) { lockf(fd[1],1,0); /*把串放入数组outpipe中*/ sprintf(outpipe,child 1 is using pipe!); /* 向管道写长为50字节的串*/ write(fd[1],outpipe,50); sleep(5); /*自我阻塞5秒*/ lockf(fd[1],0,0); exit(0); } else { while((pid2=fork( ))==-1); if(pid2==0) { lockf(fd[1],1,0); /*互斥*/ sprintf(outpipe,child 2 is using pipe!); write(fd[1],outpipe,50); sleep(5); lockf(fd[1],0,0);

模式识别实验报告(一二)

信息与通信工程学院 模式识别实验报告 班级: 姓名: 学号: 日期:2011年12月

实验一、Bayes 分类器设计 一、实验目的: 1.对模式识别有一个初步的理解 2.能够根据自己的设计对贝叶斯决策理论算法有一个深刻地认识 3.理解二类分类器的设计原理 二、实验条件: matlab 软件 三、实验原理: 最小风险贝叶斯决策可按下列步骤进行: 1)在已知 ) (i P ω, ) (i X P ω,i=1,…,c 及给出待识别的X 的情况下,根据贝叶斯公式计 算出后验概率: ∑== c j i i i i i P X P P X P X P 1 ) ()() ()()(ωωωωω j=1,…,x 2)利用计算出的后验概率及决策表,按下面的公式计算出采取i a ,i=1,…,a 的条件风险 ∑== c j j j i i X P a X a R 1 )(),()(ωω λ,i=1,2,…,a 3)对(2)中得到的a 个条件风险值) (X a R i ,i=1,…,a 进行比较,找出使其条件风险最小的 决策k a ,即()() 1,min k i i a R a x R a x == 则 k a 就是最小风险贝叶斯决策。 四、实验内容 假定某个局部区域细胞识别中正常(1ω)和非正常(2ω)两类先验概率分别为 正常状态:P (1ω)=; 异常状态:P (2ω)=。 现有一系列待观察的细胞,其观察值为x : 已知先验概率是的曲线如下图:

)|(1ωx p )|(2ωx p 类条件概率分布正态分布分别为(-2,)(2,4)试对观察的结果 进行分类。 五、实验步骤: 1.用matlab 完成分类器的设计,说明文字程序相应语句,子程序有调用过程。 2.根据例子画出后验概率的分布曲线以及分类的结果示意图。 3.最小风险贝叶斯决策,决策表如下: 结果,并比较两个结果。 六、实验代码 1.最小错误率贝叶斯决策 x=[ ] pw1=; pw2=; e1=-2; a1=; e2=2;a2=2; m=numel(x); %得到待测细胞个数 pw1_x=zeros(1,m); %存放对w1的后验概率矩阵 pw2_x=zeros(1,m); %存放对w2的后验概率矩阵

华南理工大学《模式识别》大作业报告

华南理工大学《模式识别》大作业报告 题目:模式识别导论实验 学院计算机科学与工程 专业计算机科学与技术(全英创新班) 学生姓名黄炜杰 学生学号201230590051 指导教师吴斯 课程编号145143 课程学分2分 起始日期2015年5月18日

实验概述 【实验目的及要求】 Purpose: Develop classifiers,which take input features and predict the labels. Requirement: ?Include explanations about why you choose the specific approaches. ?If your classifier includes any parameter that can be adjusted,please report the effectiveness of the parameter on the final classification result. ?In evaluating the results of your classifiers,please compute the precision and recall values of your classifier. ?Partition the dataset into2folds and conduct a cross-validation procedure in measuring the performance. ?Make sure to use figures and tables to summarize your results and clarify your presentation. 【实验环境】 Operating system:window8(64bit) IDE:Matlab R2012b Programming language:Matlab

模式识别文献综述报告

指导老师:马丽 学号:700 班级: 075111 姓名:刘建 成绩: 目录 ............................................................ 一、报告内容要点............................................................ 二、《应用主成分分解(PCA)法的图像融合技术》............................................................ 三、《基于类内加权平均值的模块 PCA 算法》............................................................

四、《PCA-LDA 算法在性别鉴别中的应用》 ............................................................ 五、《一种面向数据学习的快速PCA算法》 ............................................................ 六、《Theory of fractional covariance matrix and its applications in PCA and 2D-PCA》 ............................................................ 七、课程心得体会 ............................................................ 八、参考文献 ............................................................ 一、报告内容要点 ①每篇论文主要使用什么算法实现什么 ②论文有没有对算法做出改进(为什么改进,原算法存在什么问题,改进方法是什么) ③论文中做了什么对比试验,实验结论是什么?可以加入自己的分析和想法,例如这篇论文还存在什么问题或者缺点,这篇论文所作出的改进策略是否好,你自己对算法有没有什么改进的想法? 二、《应用主成分分解(PCA)法的图像融合技术》 第一篇《应用主成分分解(PCA)法的图像融合技术》,作者主要是实现用PCA可以提取图像数据中主要成分这一特点,从元图像获得协方差矩阵的特征值和特征向量,据此确定图像融合算法中的加权系数和最终融合图像。 作者在图像融合的算法上进行改进,用PCA获得待融合的每幅图像的加权系数Wi。是这样实现的:计算待融合的i幅图像数据矩阵的协方差矩阵,从中获

《模式识别》实验报告

《模式识别》实验报告 一、数据生成与绘图实验 1.高斯发生器。用均值为m,协方差矩阵为S 的高斯分布生成N个l 维向量。 设置均值 T m=-1,0 ?? ??,协方差为[1,1/2;1/2,1]; 代码: m=[-1;0]; S=[1,1/2;1/2,1]; mvnrnd(m,S,8) 结果显示: ans = -0.4623 3.3678 0.8339 3.3153 -3.2588 -2.2985 -0.1378 3.0594 -0.6812 0.7876 -2.3077 -0.7085 -1.4336 0.4022 -0.6574 -0.0062 2.高斯函数计算。编写一个计算已知向量x的高斯分布(m, s)值的Matlab函数。 均值与协方差与第一题相同,因此代码如下: x=[1;1]; z=1/((2*pi)^0.5*det(S)^0.5)*exp(-0.5*(x-m)'*inv(S)*(x-m)) 显示结果: z = 0.0623 3.由高斯分布类生成数据集。编写一个Matlab 函数,生成N 个l维向量数据集,它们是基于c个本体的高斯分布(mi , si ),对应先验概率Pi ,i= 1,……,c。 M文件如下: function [X,Y] = generate_gauss_classes(m,S,P,N) [r,c]=size(m); X=[]; Y=[]; for j=1:c t=mvnrnd(m(:,j),S(:,:,j),fix(P(j)*N)); X=[X t]; Y=[Y ones(1,fix(P(j)*N))*j]; end end

调用指令如下: m1=[1;1]; m2=[12;8]; m3=[16;1]; S1=[4,0;0,4]; S2=[4,0;0,4]; S3=[4,0;0,4]; m=[m1,m2,m3]; S(:,:,1)=S1; S(:,:,2)=S2; S(:,:,3)=S3; P=[1/3,1/3,1/3]; N=10; [X,Y] = generate_gauss_classes(m,S,P,N) 二、贝叶斯决策上机实验 1.(a)由均值向量m1=[1;1],m2=[7;7],m3=[15;1],方差矩阵S 的正态分布形成三个等(先验)概率的类,再基于这三个类,生成并绘制一个N=1000 的二维向量的数据集。 (b)当类的先验概率定义为向量P =[0.6,0.3,0.1],重复(a)。 (c)仔细分析每个类向量形成的聚类的形状、向量数量的特点及分布参数的影响。 M文件代码如下: function plotData(P) m1=[1;1]; S1=[12,0;0,1]; m2=[7;7]; S2=[8,3;3,2]; m3=[15;1]; S3=[2,0;0,2]; N=1000; r1=mvnrnd(m1,S1,fix(P(1)*N)); r2=mvnrnd(m2,S2,fix(P(2)*N)); r3=mvnrnd(m3,S3,fix(P(3)*N)); figure(1); plot(r1(:,1),r1(:,2),'r.'); hold on; plot(r2(:,1),r2(:,2),'g.'); hold on; plot(r3(:,1),r3(:,2),'b.'); end (a)调用指令: P=[1/3,1/3,1/3];

操作系统实验报告18038

福州大学数学与计算机科学(软件)学院 实验报告 课程名称:计算机操作系统 学号:221100218 姓名: 专业:软件工程 年级:2011级 学期:2012学年第2学期 2013年10 月24 日

实验一 Linux操作系统的使用和分析 一、实验目的 本实验主要学习和掌握Linux操作系统的基本应用。通过本实验,学生能够熟练掌握Linux环境下各种基本操作命令接口的应用。从系统安全角度出发,学习掌握系统的基本安全优化和配置,在操作系统层次进行有效安全加固,提高Linux系统的安全性能。通过本次实验,有助于学生进一步理解操作系统原理中的相关内容,加深认识。 二、实验要求 1、熟练掌握Linux系统的基本操作命令。 2、熟悉Linux 系统的基本配置。 3、实现Linux系统的安全加固。 4、掌握一种以上的网络应用软件的安装、配置与应用。 三、实验内容 系统的启动,如图: 关闭使用shutdowm 还有列出文件夹内的信息ls,cp复制拷贝,touch创建文件命令等等 ①下载文件压缩包pro.gz,解压如图:

②然后修改安装路径: ③之后用make编译文件 ④在安装路径/home/liaoenrui/11里的etc中修改文件的组名和用户名: 将groud 命名也命名为ftp,然后用groudadd和useradd命令将这两个添加在该目录的sbin目录下:

⑤最后运行文件,./profile即可 四、实验总结 通过本次的操作系统的上机实验,我熟练了Linux系统的基本操作命令,并且对安装文件有更深入的了解,比如在上述安装过程中对于通过froftpd来架构linux的ftp,由于之前都是用window系统,所以对于这些非常的生疏,因此在请教了多人和上网查询之后,终于有所了解,并且成功的将此实验顺利完成。在本次实验中,我发现自己的动手能力又有很大的提高,相信以后继续努力的话会有更大的进步,当然这也要归功于老师的教导。 参考文献 [1] Neil Maththew Richard Stones Linux 程序设计第四版人民邮电出版社 [2] 周茜,赵明生.中文文本分类中的特征选择研究[J].中文信息学报,2003,Vol.18 No.3

人工智能 多种模式识别的调研报告

郑州科技学院 本科毕业设计(论文) 题目多种模式识别的调研报告 姓名闫永光 专业计算机科学与技术 学号201115025 指导教师 郑州科技学院信息工程系 二○一四年六月

摘要 信息技术的飞速发展使得人工智能的应用范围变得越来越广,而模式识别作为其中的一个重要方面,一直是人工智能研究的重要方向。在介绍人工智能和模式识别的相关知识的同时,对人工智能在模式识别中的应用进行了一定的论述。 模式识别(Pattern Recognition)是人类的一项基本智能,着20世纪40年代计算机的出现以及50年代人工智能的兴起,模式识别技术有了长足的发展。模式识别与统计学、心理学、语言学、计算机科学、生物学、控制论等都有关系。它与人工智能、图像处理的研究有交叉关系。模式识别的发展潜力巨大。 关键词:模式识别;人工智能;多种模式识别的应用;模式识别技术的发展潜力

引言 随着计算机应用范围不断的拓宽,我们对于计算机具有更加有效的感知“能力”,诸如对声音、文字、图像、温度以及震动等外界信息,这样就可以依靠计算机来对人类的生存环境进行数字化改造。但是从一般的意义上来讲,当前的计算机都无法直接感知这些信息,而只能通过人在键盘、鼠标等外设上的操作才能感知外部信息。虽然摄像仪、图文扫描仪和话筒等相关设备已经部分的解决了非电信号的转换问题,但是仍然存在着识别技术不高,不能确保计算机真正的感知所采录的究竟是什么信息。这直接使得计算机对外部世界的感知能力低下,成为计算机应用发展的瓶颈。这时,能够提高计算机外部感知能力的学科——模式识别应运而生,并得到了快速的发展。人工智能中所提到的模式识别是指采用计算机来代替人类或者是帮助人类来感知外部信息,可以说是一种对人类感知能力的一种仿真模拟。它探讨的是计算机模式识别系统的建立,通过计算机系统来模拟人类感官对外界信息的识别和感知 1、模式识别 什么是模式和模式识别? 模式可分成抽象的和具体的两种形式。前者如意识、思想、议论等,属于概念识别研究的范畴,是人工智能的另一研究分支。我们所指的模式识别主要是对语音波形、地震波、心电图、脑电图、图片、照片、文字、符号、生物传感器等对象的具体模式进行辨识和分类。 模式识别(Pattern Recognition)是指对表征事物或现象的各种形式的(数值的、文字的和逻辑关系的)信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程,是信息科学和人工智能的重要组成部分。模式识别又常称作模式分类,从处理问题的性质和解决问题的方法等角度,模式识别分为有监督的分类(Supervised Classification)和无监督的分类(Unsupervised Classification)两种。二者的主要差别在于,各实验样本所属的类别是否预先已知。一般说来,有监督的分类往往需要提供大量已知类别的样本,但在实际问题中,这是存在一定困难的,因此研究无监督的分类就变得十分有必要了。

《大学计算机基础》上机实验报告

《大学计算机基础》 上机实验报告 班级: 姓名: 学号: 授课教师: 日期:年月日

目录 一、Windows操作系统基本操作 ............................. - 1 - 二、Word文字处理基本操作 ................................ - 4 - 三、Excel电子表格基本操作 ............................... - 6 - 四、PowerPoint幻灯片基本操作 ............................ - 8 - 五、网页设计基本操作..................................... - 9 - 六、Access数据库基本操作 ............................... - 10 - 上机实验作业要求: ○1在实验报告纸上手写并粘贴实验结果; ○2每人将所有作业装订在一起(要包封面); ○3全部上机实验结束后全班统一上交; ○4作业内容不得重复、输入的数据需要有差别。

实验名称一、Windows操作系统基本操作 实验目的1、掌握Windows的基本操作方法。 2、学会使用“画图”和PrntScr快捷键。 3、学会使用“计算器”和Word基本操作。 实验内容 1、日历标注 利用“画图”和Word软件,截取计算机上日历的图片并用文字、颜色、图框等标注出近期的节假日及其名称,并将结果显示保存在下面(参考下面样图)。 运行结果是: 主要操作步骤是: 2、科学计算 利用“计算器”和Word软件,计算下列题目,并将结果截图保存在下面(参考样图)。 ○1使用科学型计算器,求8!、sin(8)、90、74、20、67、39、400、50.23、ln(785)的平均值、和值,并用科学计数法显示。 运行结果是: ②将以下十、八、十六进制数转换为二进制数:(894.8125)10、(37.5)8、(2C.4B)16 运行结果是:(需要下载使用“唯美计算器”) ○3计算下列二进制数的加法与乘法:101.1+11.11;1101*1011 运行结果是:(参考样图) 写出主要操作步骤: 3、实验心得体会

模式识别实验报告

实验一Bayes 分类器设计 本实验旨在让同学对模式识别有一个初步的理解,能够根据自己的设计对贝叶斯决策理论算法有一个深刻地认识,理解二类分类器的设计原理。 1实验原理 最小风险贝叶斯决策可按下列步骤进行: (1)在已知)(i P ω,)(i X P ω,i=1,…,c 及给出待识别的X 的情况下,根据贝叶斯公式计算出后验概率: ∑== c j i i i i i P X P P X P X P 1 ) ()() ()()(ωωωωω j=1,…,x (2)利用计算出的后验概率及决策表,按下面的公式计算出采取i a ,i=1,…,a 的条件风险 ∑== c j j j i i X P a X a R 1 )(),()(ωω λ,i=1,2,…,a (3)对(2)中得到的a 个条件风险值)(X a R i ,i=1,…,a 进行比较,找出使其条件风险最小的决策k a ,即 则k a 就是最小风险贝叶斯决策。 2实验内容 假定某个局部区域细胞识别中正常(1ω)和非正常(2ω)两类先验概率分别为 正常状态:P (1ω)=0.9; 异常状态:P (2ω)=0.1。

现有一系列待观察的细胞,其观察值为x : -3.9847 -3.5549 -1.2401 -0.9780 -0.7932 -2.8531 -2.7605 -3.7287 -3.5414 -2.2692 -3.4549 -3.0752 -3.9934 2.8792 -0.9780 0.7932 1.1882 3.0682 -1.5799 -1.4885 -0.7431 -0.4221 -1.1186 4.2532 已知类条件概率密度曲线如下图: )|(1ωx p )|(2ωx p 类条件概率分布正态分布分别为(-2,0.25)(2,4)试对观察的结果进 行分类。 3 实验要求 1) 用matlab 完成分类器的设计,要求程序相应语句有说明文字。 2) 根据例子画出后验概率的分布曲线以及分类的结果示意图。 3) 如果是最小风险贝叶斯决策,决策表如下:

模式识别实验报告_2

模式识别理论与方法 课程作业实验报告 实验名称:Generating Pattern Classes 实验编号:Proj01-01 规定提交日期:2012年3月16日 实际提交日期:2012年3月13日 摘要: 在熟悉Matlab中相关产生随机数和随机向量的函数基础上,重点就多元(维)高斯分布情况进行了本次实验研究:以mvnrnd()函数为核心,由浅入深、由简到难地逐步实现了获得N 个d维c类模式集,并将任意指定的两个维数、按类分不同颜色进行二维投影绘图展示。 技术论述:

1,用矩阵表征各均值、协方差2,多维正态分布函数: 实验结果讨论:

从实验的过程和结果来看,进一步熟悉了多维高斯分布函数的性质和使用,基本达到了预期目的。 实验结果: 图形部分: 图1集合中的任意指定两个维度投影散点图形

图2集合中的任意指定两个维度投影散点图形,每类一种颜色 数据部分: Fa= 9.6483 5.5074 2.4839 5.72087.2769 4.8807 9.1065 4.1758 1.5420 6.1500 6.2567 4.1387 10.0206 3.5897 2.6956 6.1500 6.9009 4.0248 10.1862 5.2959 3.1518 5.22877.1401 3.1974 10.4976 4.9501 1.4253 5.58257.4102 4.9474 11.3841 4.5128 2.0714 5.90068.2228 4.4821 9.6409 5.43540.9810 6.2676 6.9863 4.2530 8.8512 5.2401 2.7416 6.5095 6.1853 4.8751 9.8849 5.8766 3.3881 5.7879 6.7070 6.6132 10.6845 4.8772 3.4440 6.0758 6.6633 3.5381 8.7478 3.3923 2.4628 6.1352 6.9258 3.3907

模式识别实验报告年月

模式识别实验报告-年月

————————————————————————————————作者: ————————————————————————————————日期:

学院: 班级: 姓名: 学号: 2012年3月

实验一 Bay es分类器的设计 一、 实验目的: 1. 对模式识别有一个初步的理解,能够根据自己的设计对贝叶斯决策理论算法有一个深刻地认识; 2. 理解二类分类器的设计原理。 二、 实验条件: 1. PC 微机一台和MA TL AB 软件。 三、 实验原理: 最小风险贝叶斯决策可按下列步骤进行: 1. 在已知 ) (i P ω, )|(i X P ω,c i ,,1 =及给出待识别的X 的情况下,根据贝叶斯 公式计算出后验概率: ∑== c j j j i i i P X P P X P X P 1 ) ()|() ()|()|(ωωωωω c j ,,1 = 2. 利用计算出的后验概率及决策表,按下式计算出采取 i α决策的条件风险: ∑==c j j j i i X P X R 1) |(),()|(ωωαλα a i ,,1 = 3. 对2中得到的a 个条件风险值) |(X R i α(a i ,,1 =)进行比较,找出使条件 风险最小的决策k α,即: ) |(min )|(,,1X R X R k c i k αα ==, 则 k α就是最小风险贝叶斯决策。 四、 实验内容: (以下例为模板,自己输入实验数据) 假定某个局部区域细胞识别中正常(1ω)和非正常(2ω)两类先验概率分别为: 正常状态:)(1ωP =0.9; 异常状态:)(2ωP =0.1。

相关主题
文本预览
相关文档 最新文档