实验4 分类
- 格式:docx
- 大小:29.42 KB
- 文档页数:6
实验类型在科学研究领域中,实验类型是非常关键的概念。
实验类型指的是在研究过程中所采用的实验方法或者实验设计。
不同的实验类型适用于不同的研究目的和研究对象。
在本文中,我们将介绍几种常见的实验类型,并探讨它们的特点和应用场景。
随机对照实验随机对照实验是一种常见的实验类型,它通过随机分配实验对象到不同的实验组和对照组,来减少实验结果被外部因素影响的可能性。
在随机对照实验中,实验组接受某种处理,对照组则不接受处理,通过比较实验组和对照组的结果,可以得出处理效果的结论。
随机对照实验通常适用于评估某种新药物、新疗法或新技术的疗效,因为它可以减少实验结果被个体差异或其他未知因素干扰的可能性。
单盲实验单盲实验是一种实验类型,其中实验对象不知道自己属于实验组还是对照组,但实验人员知道。
这种实验设计可以减少实验结果的主观性干扰,并提高实验的客观性。
单盲实验通常适用于心理学和医学领域的研究,因为心理学和医学研究中很多结果受到实验对象主观因素的影响,采用单盲设计可以减少这种影响。
双盲实验双盲实验是一种更为严谨的实验设计,实验对象和实验人员都不知道实验对象属于实验组还是对照组。
这种设计可以进一步减少实验结果的干扰,并提高实验的科学性和可靠性。
双盲实验通常用于药物临床试验和心理学研究中,因为这些研究需要排除实验对象和实验人员的主观影响,以确保实验结果的客观性和可靠性。
交叉设计实验交叉设计实验是一种实验类型,其中实验对象在不同时间或不同条件下接受不同的处理。
通过交叉设计,可以减少实验组和对照组之间的差异,从而更准确地评估处理效果。
交叉设计实验通常用于评估某种干预措施的长期效果,或者比较不同干预措施的效果。
通过在同一组实验对象上进行多次实验,可以减少个体差异和其他外部因素的影响,提高实验结果的可靠性。
性质探究实验性质探究实验是一种实验类型,旨在探索某种现象的性质和规律。
这种实验通常没有预设的假设,而是通过实验数据来发现模式和规律。
实验4放线菌、酵母菌、霉菌形态观察.实验四放线菌、酵母菌、霉菌形态观察(一)放线菌的形态观察1 目的观察放线菌的基本形态特征掌握培养放线菌的几种方法2 原理放线菌一般由分枝状菌丝组成,它的菌丝可分为基内菌丝(营养菌丝)、气生菌丝或有孢子丝三种。
放线菌生长到一定阶段,大部分气生菌丝分化成孢子丝,通过横割分列的方式产生成串的分生孢子。
孢子丝形态多样,有直、波曲、钩状、螺旋状、轮生等多种形态。
孢子也有球形、椭圆形、杆状和瓜子状等等。
它们的形态构造都是放线菌分类鉴定的重要依据。
放线菌的菌落早期绒状同细菌菌落月牙状相似,后期形成孢子菌落呈粉状、干燥,有各种颜色呈同心圆放射状。
3 材料3.1 菌种灰色链霉菌(Str. griseus),天蓝色链霉菌(Str. coelicolor),细黄链霉菌(Str.microflavus)。
3.2 培养基高氏1号培养基。
3.3 器皿培养皿,载玻片、盖玻片、无菌滴管、镊子、接种环、小刀(或刀片)、水浴锅,显微镜,超净工作台,恒温培养箱。
4 流程4.1插片法: 倒平板→插片→接种→培养→镜检→记录绘图4.2压印法: 倒平板→划线接种→挑取菌落→加盖玻片→镜检→记录绘图4.3埋片法: 倒琼脂→切槽→接种→培养→镜检→记录绘图5 步骤5.1插片法5.1.1倒平板将高氏1号培养基熔化后,倒10~12毫升左右于灭菌培养皿内,凝固后使用.5.1.2插片将灭菌的盖玻片以45度角插入培养皿内的培养基中,插入深约为1/2或1/3(图5-1)。
5.1.3接种与培养用接种环将菌种接种在盖玻片与琼脂相接的沿线,放置28℃培养3~7天。
5.1.4观察培养后菌丝体生长在培养基及盖玻片上,小心用镊子将盖玻片抽出,轻轻擦去生长较差的一面的菌丝体,将生长良好的菌丝体面向的载玻片,压放于载玻片上。
直接在显微镜下观察。
5.2压印法5.2.1制备放线菌平板同5.1.1。
在凝固的高氏1号培养基平板上用划线分离法得到单一的放线菌菌落。
实验四遥感图像的监督分类和⾮监督分类实验四遥感图像的⾮监督分类与监督分类⼀、实验⽬的1.⾮监督分类是对数据集中的像元依据统计数字,光谱类似度和光谱距离进⾏分类,在没有⽤户定义的条件下练习使⽤,在ENVI环境下的⾮监督分类技术有两种:迭代⾃组织数据分析技术(ISodata)和K均值算法(K-Means);2.分类过程中应注意:1)怎样确定⼀个最优的波段组合,从⽽达到最佳的分类精度,基于OIF和相关系数,协⽅差矩阵以及经验的使⽤来完成对最适合的组合的选取,分类效果的关键即在于此;2)K-Means的基本原理;3)Isodata的基本原理;4)分类结束后,被分类后的图像是⼀个新的图像,被分类类码秘填充,从⽽可以获得数据提取信息,统计不同类码数量,转化为实际⾯积,在得到后的图像上,可对不同⽬标的形态指标进⾏分析。
3.对训练区中的像元进⾏分类;4.⽤训练数据集估计查看监督分类后的统计参数;5.⽤不同⽅法进⾏监督分类,如最⼩距离法、马⽒距离法和最⼤似然法。
⼆、实验设备与材料1、软件ENVI 4.7软件2、所需材料TM数据三、实验步骤1.选择最优的波段组合ENVI主⼯具栏中File →Open image file →选择hbtmref.img打开→在Basic Tools中选择Statistics →Compute statistics选定原图,在Spectral subset中可选项全部选定→OK →OK →全选→保存→OK,则各类统计数字均可查;OIF计算,选择分类波段:1,2;2,3;1,3波段标准差分别为2.665727;3.473308;4.574609,和为10.713644。
Correlation Matrix 中1和2波段的相关系数0.964308,加上2和3波段的相关系数0.980166,再加上1和3波段的相关系数0.945880,最终等于2.890354。
⽤标准差相加的结果10.713644⽐上相关系数之和2.890354等于3.70668922。
人工智能实验报告四课程实验报告课程名称:人工智能实验项目名称:实验四:分类算法实验专业班级:姓名:学号:实验时间:2021年6月18日实验四:分类算法实验一、实验目的1.了解有关支持向量机的基本原理2.能够使用支持向量机的代码解决分类与回归问题3. 了解图像分类的基本原理二、实验的硬件、软件平台硬件:计算机软件:操作系统:***** 10应用软件:C+ + ,Java或者Matlab三、实验内容支持向量机算法训练分类器:1.训练数据集:见文档“分类数据集.doc”,前150个数据作为训练数据,其他数据作为测试数据,数据中“ + 1”“-1”分别表示正负样本。
2.使用代码中的C-SVC算法和默认参数来训练“分类数据集doc”中所有的数据(包括训练数据和测试数据),统计分类查准率。
3.在2的基础上使用k-折交叉验证思想来训练分类器并统计分类查准率。
4.使用2中的设置在训练数据的基础上学习分类器,将得到的分类器在测试数据上进行分类预测,统计查准率。
5.在4上尝试不同的C值("-c”参数)来调节分类器的性能并绘制查准率曲线。
6.尝试不同的kernel函数("-t”参数)来调节分类器的性能并绘制查准率曲线,对每种kernel函数尝试调节其参数值并评估查准率。
四. 实验操作采用提供的windows版本的libsvm完成实验。
1.文档“分类数据集.doc”改名为trainall.doc,前150组数据保存为train.doc 后120 组保存为test.doc2.使用代码中的C-SVC算法和默认参数来训练“分类数据集.doc” 中所有的数据(包括训练数据和测试数据),统计分类查准率。
用法:svm-scale [-l lower] [-u upper] [-y y_lower y_upper] [-s save_filename] [-r restore_filename] filename (缺省值:lower =- 1, upper = 1,没有对y进行缩放)按实验要求这个函数直接使用缺省值就行了。
实验四、环境生物小球藻、轮藻的镜检、生物学特性及其应用一、实验目的:通过显微镜玻片观察与绘图,结合课堂讲解和资料查询,对小球藻等藻类的形态结构特征、分类、生物学习性、在环境科学中的应用等进行深入的了解。
指导老师:王旭、邝春兰二、三、实验时间:20 周四、实验地点:环境生物学实验室五、实验人员:六、实验内容()概述一绿藻门,卵孢藻科。
藻体单细胞,球形或椭圆形,直径仅数微米。
无鞭毛,浮游生活。
叶绿体杯形,或为弯的板片状。
造粉核有或无,因种而异。
繁殖时,原生质体分裂数次,生成2、4、8 或16 个不动孢子;因孢子的形态与母细胞相似,故称“似亲孢子” 。
种类较多。
多生长于淡水中,少数生于海洋中;另有一些生活在动物细胞内或水螅等低等动物的内腔内。
性喜温暖,繁殖迅速,可大量培养。
富含脂肪、蛋白质、碳水化合物、矿物盐类和各种维生素,可作高蛋白质食物,是宇航中的理想食粮。
又可利用小球藻光合作用时释放氧、吸收二氧化碳,解决宇航中氧的供应。
因它繁殖快,又易于控制,为良好的研究材料。
(二)分类地位小球藻在分类上属于绿藻门,绿藻纲,绿球藻目,卵孢藻科,小球藻属。
常见的有蛋白核小球藻,其他有眼点小球藻,卵形小球藻,盐生小球藻和海生小球藻等。
(三)形态结构小球藻细胞球形或广椭圆形。
细胞内具有杯状(蛋白核小球藻)或呈边缘生板状(卵形小球藻)的色素体。
蛋白核小球藻的杯状色素体中含有一个球形的蛋白核。
细胞中央有一个细胞核。
细胞的大小依种类而有所不同,蛋白核小球藻直径一般为3—5微米,在人工培养的情况下,条件优良,小球藻会变小一点。
(五)繁殖方式以似亲抱子的方式行无性生殖,首先在细胞内部进行原生质分裂,把原生质分裂为2、4、8,,个抱子,然后这些抱子破母细胞而出,每个抱子长成一个新个体。
(六)生态条件1.盐度:不同种类的小球藻可以生活在自然的海水和淡水中,淡水种类较多,海水种对盐度的适应性很强,在河口,港湾,半咸水中都可以生存,也能移植到淡水中。
微生物安全等级分类四级
微生物安全等级分类四级(Biosafety Level 4, BSL-4)是最高级别的生物安全实验室,用于处理最危险的病原体,包括那些对人类健康和环境造成重大威胁的病原体。
BSL-4实验室通常采用高度密闭的设计和高级别的防护措施,以防止病原体的泄露和传播。
实验室内的工作人员必须穿着特殊的防护服和手套,并在实验室内采取严格的卫生和安全措施,以确保实验室内的安全。
BSL-4实验室通常用于研究和处理以下病原体:
1. 高度传染性的病原体,如埃博拉病毒、马尔堡病毒、拉萨热病毒等。
2. 能够引起严重疾病的病原体,如结核分枝杆菌、鼠疫杆菌等。
3. 其他对人类和环境造成严重威胁的病原体,如霍乱弧菌、沙门氏菌等。
BSL-4实验室的建设和运行需要高度的技术和管理支持,以确保实验室内的安全和有效的生物安全措施。
实验4 分类分类算法是解决分类问题的方法,是数据挖掘、机器学习和模式识别中一个重要的研究领域。
分类算法通过对已知类别训练集的分析,从中发现分类规则,以此预测新数据的类别。
分类算法的应用非常广泛,银行中风险评估、客户类别分类、文本检索和搜索引擎分类、安全领域中的入侵检测以及软件项目中的应用等等。
Bayes贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。
目前研究较多的贝叶斯分类器主要有四种,分别是:Naive Bayes、TAN、BAN 和 GBN。
1、贝叶斯网络(BayesNet)贝叶斯网络是一个带有概率注释的有向无环图,图中的每一个结点均表示一个随机变量 , 图中两结点间若存在着一条弧,则表示这两结点相对应的随机变量是概率相依的,反之则说明这两个随机变量是条件独立的。
网络中任意一个结点X 均有一个相应的条件概率表Conditional Probability Table,CPT) ,用以表示结点 X 在其父结点取各可能值时的条件概率。
若结点 X 无父结点 , 则 X 的 CPT 为其先验概率分布。
贝叶斯网络的结构及各结点的 CPT 定义了网络中各变量的概率分布。
应用贝叶斯网络分类器进行分类主要分成两阶段。
第一阶段是贝叶斯网络分类器的学习,即从样本数据中构造分类器,包括结构学习和 CPT 学习;第二阶段是贝叶斯网络分类器的推理,即计算类结点的条件概率,对分类数据进行分类。
这两个阶段的时间复杂性均取决于特征值间的依赖程度,甚至可以是 NP 完全问题,因而在实际应用中,往往需要对贝叶斯网络分类器进行简化。
根据对特征值间不同关联程度的假设,可以得出各种贝叶斯分类器。
2、朴素贝叶斯(NaiveBayes)朴素贝叶斯模型(NBC)发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率。
同时,NBC 模型所需估计的参数很少,对缺失数据不太敏感,算法也比较简单。
NBC 模型假设属性之间相互独立,这个假设在实际应用中往往是不成立的,这给 NBC 模型的正确分类带来了一定影响。
在属性个数比较多或者属性之间相关性较大时,NBC 模型的分类效率比不上决策树模型。
而在属性相关性较小时,NBC 模型的性能最为良好。
Lazy Learning相对其它的 Inductive Learning 的算法来说,Lazy Learning 的方法在训练是仅仅是保存样本集的信息,直到测试样本到达时才进行分类决策。
也就是说这个决策模型是在测试样本到来以后才生成的。
相对与其它的分类算法来说,这类的分类算法可以根据每个测试样本的样本信息来学习模型,这样的学习模型可能更好的拟合局部的样本特性。
kNN 算法的思路非常简单直观:如果一个样本在特征空间中的 k 个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
其基本原理是在测试样本到达的时候寻找到测试样本的 k 临近的样本,然后选择这些邻居样本的类别最集中的一种作为测试样本的类别。
在 Weka 中关于 kNN 的算法有两个,分别是 IB1,IBk。
IB1 即 1 近邻,IB1 是通过它的一个邻居来判断测试样本的类;IBk 即K 近邻,IBk 是通过它周围的 k 个邻居来判断测试样本的类别在样本中有比较多的噪音点是(Noisy points)时,通过一个邻居的效果很显然会差一些,因为出现误差的情况会比较多。
这种情况下,IBk 就成了一个较优的选项了。
这个时候有出现了一个问题,k 这个值如何确定,一般来说这个 k 是通过经验来判断的。
Trees即决策树算法,决策树是对数据进行分类,以此达到预测的目的。
该决策树方法先根据训练集数据形成决策树,如果该树不能对所有对象给出正确的分类,那么选择一些例外加入到训练集数据中,重复该过程一直到形成正确的决策集。
决策树代表着决策集的树形结构。
决策树由决策结点、分支和叶子组成。
决策树中最上面的结点为根结点,每个分支是一个新的决策结点,或者是树的叶子。
每个决策结点代表一个问题或决策,通常对应于待分类对象的属性。
每一个叶子结点代表一种可能的分类结果。
沿决策树从上到下遍历的过程中,在每个结点都会遇到一个测试,对每个结点上问题的不同的测试输出导致不同的分支,最后会到达一个叶子结点,这个过程就是利用决策树进行分类的过程,利用若干个变量来判断所属的类别。
1、Id3 即决策树 ID3 算法ID3 算法是由 Quinlan 首先提出的。
该算法是以信息论为基础,以信息熵和信息增益度为衡量标准,从而实现对数据的归纳分类。
2、J48 即决策树 C4.5 算法C4.5 算法一种分类决策树算法 , 其核心算法是 ID3 算法。
C4.5 算法继承了 ID3 算法的优点,并在以下几方面对 ID3 算法进行了改进:(1) 用信息增益率来选择属性,克服了用信息增益选择属性时偏向选择取值多的属性的不足;(2) 在树构造过程中进行剪枝;(3) 能够完成对连续属性的离散化处理;(4) 能够对不完整数据进行处理。
C4.5 算法有如下优点:产生的分类规则易于理解,准确率较高。
其缺点是:在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效。
Rule1、Decision Table 即决策表。
决策表 (Decision Table),是一中使用表的结构,精确而简洁描述复杂逻辑的方式。
2、JRip 即 RIPPER 算法规则归纳学习从分类实例出发能够归纳出一般的概念描述。
其中重要的算法为 IREP 算法和 RIPPER 算法。
重复增量修枝(RIPPER)算法生成一条规则,随机地将没有覆盖的实例分成生长集合和修剪集合,规定规则集合中的每个规则是有两个规则来生成:替代规则和修订规则。
Meta1、AdaBoostM1 即 AdaBoosting 算法Adaboost 是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。
其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。
将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。
2、Bagging 即 Bagging 方法Bootstrps bagging boosting 都属于集成学习方法,将训练的学习器集成在一起。
原理来源于 PAC 学习模型(Probably Approximately CorrectK)。
其中的 Bagging 是 bootstrap aggregating 的缩写,是最早的 Ensemble 算法之一,它也是最直接容易实现,又具有不错的效果的算法之一。
Bagging 中的多样性是由有放回抽取训练样本来实现的,用这种方式随机产生多个训练数据的子集,在每一个训练集的子集上训练一个同种分类器,最终分类结果是由多个分类器的分类结果多数投票而产生的。
实验内容:1、使用不同的分类算法对数据集进行分类。
2、通过各种不同的可视化选项观察分类结果(Visualize...)。
WEKA可以支持文本分类。
只要输入一个文件目录,WEKA即可生成对应的ARFF文件,进而直接用WEKA自带的分类器进行预测。
但是WEKA只提供训练集的训练功能,而不提供预测测试集。
由于训练过程会打乱样本,所以也不能通过训练集跟测试集一起提取特征再抽取出测试集的方法进行测试。
另外特征提取方法只有TF/IDF方法。
初始化数据在GUI版本的WEKA当中,只能读入ARFF格式的文件。
以文件目录为输入,生成ARFF文件只能通过命令行或者自行编码。
把文本数据转化成ARFF文件需要两步:1、TextDirectoryLoaderjava weka.core.converters.TextDirectoryLoader -dir text_example > text_example.arff该方法只能通过命令行实现。
如果是在windows下,要首先在环境变量里加入weka.jar的位置,再在cmd里敲入命令行。
图1 文件目录格式该类的作用是把输入目录转化成ARFF文件,但是转化之后的ARFF文件里的属性是string型的,依然是大多数分类器不能处理的,需要做进一步处理。
该类的作用相当于把每个文本表示一行的string格式。
输入的文件目录的格式应为图1所示。
由TextDirectoryLoader转化得到的ARFF文件不能直接用来分类,需要StringToWordVector类的进一步处理。
这步在命令行和GUI上都能操作。
在打开的WEKA界面中选择打开已经上一步处理过的文件,然后选择weka.filters.unsupervised.attribute.StringToWordVector,配置相应的参数:-W 需要保留的单词个数,默认为1000。
这不是最终的特征维数,但是维数跟此参数是正相关的。
-stopwords <file> 输入停词文件,文件格式为每一个词一行。
在读文件到转化特征时会自动去掉这些常用词,系统自带有一套停用词。
-tokenizer <spec> 自定义所要去除的符号,一般为标点符号。
默认有常用的标点符号,但往往是不够的,所以需自己添加。
其他参数只需默认值即可。
在GUI当中,还有一些参数设置需要介绍:lowerCaseTokens 是否区分大小写,默认为false不区分,这里一般要设置为ture,因为同一个词就会有大小写的区别。
特征选择与训练提取完ARFF文件之后,可以按上方的按钮保存文件。
在Attribute一栏中也会显示所有的特征,此时也可以自己观察一下所提取的单词是否合理,然后再在去停词、符号等方面做改进,当然若至于少部分的有问题,也可以手动剔除。
此步进行完之后,可以使用降维方法(例如PCA)对特征进行降维,当然这不是必须的。
接下来就可以按照一般ARFF文件进行训练了。
实验内容:(weka 中文文本分类)1、利用example1文件夹中的文本数据构造文本数据集,要求用java实现。
2、对上一步得到的数据集进行分类,要求用java实现。
3、合并example2文件夹中的两个数据集,进行分类,通过预处理或修改现有分类算法的方式提高分类准确率。
代码:package shiyan4;import weka.core.*;import weka.core.converters.*;import weka.classifiers.trees.*;import weka.filters.*;import weka.filters.unsupervised.attribute.*;import java.io.*;public class TextCategorizationTest {public static void main(String[] args) throws Exception { // convert the directory into a dataset// 将文本类型转化为ARF格式TextDirectoryLoader loader = new TextDirectoryLoader();File file=new File("Z:/文本分类/example1");loader.setDirectory(file);Instances dataRaw = loader.getDataSet();//System.out.println("\n\nImported data:\n\n" + dataRaw);// apply the StringToWordVector// (see the source code of setOptions(String[]) method of the filter// if you want to know which command-line option corresponds to which// bean property)//词频向量StringToWordVector filter = new StringToWordVector();filter.setInputFormat(dataRaw);Instances dataFiltered = eFilter(dataRaw, filter);//System.out.println("\n\nFiltered data:\n\n" + dataFiltered);//训练分类器// train J48 and output modelJ48 classifier = new J48();classifier.buildClassifier(dataFiltered);System.out.println("\n\nClassifier model:\n\n" + classifier);//预测}}结果:Classifier model:J48 pruned tree------------------atheism <= 0: comp.graphics (100.0)atheism > 0: alt.atheism (100.0) Number of Leaves : 2Size of the tree : 3。