哈工大深圳机器学习复习4_丁宇新
- 格式:doc
- 大小:409.00 KB
- 文档页数:3
2022机器学习专项测试试题及答案1.机器学习的流程包括:分析案例、数据获取、________和模型验证这四个过程。
()A.数据清洗A、数据清洗B.数据分析C.模型训练(正确答案)D.模型搭建2.机器翻译属于下列哪个领域的应用?() *A.自然语言系统(正确答案)A. 自然语言系统(正确答案)B.机器学习C.专家系统D.人类感官模拟3.为了解决如何模拟人类的感性思维, 例如视觉理解、直觉思维、悟性等, 研究者找到一个重要的信息处理的机制是()。
*A.专家系统B.人工神经网络(正确答案)C.模式识别D.智能代理4.要想让机器具有智能, 必须让机器具有知识。
因此, 在人工智能中有一个研究领域, 主要研究计算机如何自动获取知识和技能, 实现自我完善, 这门研究分支学科叫()。
*A. 专家系统A.专家系统B. 机器学习(正确答案)C. 神经网络D. 模式识别5.如下属于机器学习应用的包括()。
*A.自动计算, 通过编程计算 456*457*458*459 的值(正确答案)A. 自动计算,通过编程计算 456*457*458*459 的值(正确答案)A.自动计算,通过编程计算 456*457*458*459 的值(正确答案)B.文字识别, 如通过 OCR 快速获得的图像中出汉字, 保存为文本C.语音输入, 通过话筒将讲话内容转成文本D.麦克风阵列, 如利用灵云该技术实现远场语音交互的电视6.对于神经网络模型, 当样本足够多时, 少量输入样本中带有较大的误差甚至个别错误对模型的输入-输出映射关系影响很小, 这属于()。
*A. 泛化能力A.泛化能力B. 容错能力(正确答案)C. 搜索能力D. 非线性映射能力7.下列选项不属于机器学习研究内容的是() *A. 学习机理A.学习机理B. 自动控制(正确答案)C. 学习方法D. 计算机存储系统8.机器学习的经典定义是: () *A.利用技术进步改善系统自身性能A. 利用技术进步改善系统自身性能B.利用技术进步改善人的能力C.利用经验改善系统自身的性能(正确答案)D.利用经验改善人的能力9.研究某超市销售记录数据后发现, 买啤酒的人很大概率也会购买尿布, 这种属于数据挖掘的那类问题()。
大学23秋《机器学习》大作业及要求--答案 --可直接上交作业要求本次大作业旨在评估学生对机器研究概念和技术的理解和应用能力。
请按照以下要求完成作业:1. 选择一个机器研究问题或任务,可以是分类、回归、聚类等。
2. 根据所选问题,选择适用的机器研究算法,并解释为何选择该算法。
3. 收集和准备用于训练和测试模型的数据集。
4. 使用选定的算法对数据集进行训练,并评估模型的性能。
5. 分析和解释模型的结果和性能,并提出可改进的方案。
作业答案我选择了一个分类问题,即根据房屋的各项特征预测房屋的售价。
为了解决这个问题,我选择了支持向量机(Support Vector Machines,SVM)算法。
之所以选择SVM算法,是因为它在处理分类问题上表现出色,并且对于高维空间的数据也具有较高的准确性。
我采用了一个包含了房屋特征和对应售价的数据集。
首先,我对数据集进行了清洗和预处理,包括处理缺失值、标准化特征等。
然后,我将数据集划分为训练集和测试集,其中80%的数据用于训练模型,20%的数据用于评估模型的性能。
接下来,我使用SVM算法对训练集进行训练,并利用测试集进行模型性能的评估。
通过调整SVM算法的参数,我得到了一个在测试集上表现较好的模型。
该模型的准确率达到了85%,并且在其他评价指标上也取得了不错的结果。
对于模型的结果和性能,我进行了详细的分析和解释。
我发现房屋售价与房屋大小、地理位置和房屋年龄等特征密切相关。
同时,我提出了一些可改进的方案,例如增加更多的特征、尝试其他的机器研究算法等,以进一步提升模型的预测能力。
最后,我将我的作业答案整理成文档,可直接上交。
总结本作业通过选择一个机器学习问题和合适的算法,对数据集进行训练和评估,展示了机器学习的基本流程和方法。
通过对模型结果的分析和解释,提出了可改进的方案,进一步提升了作业的质量。
希望本次作业能够对学生的机器学习理解和应用能力有所提升。
Machine Learning Chapter614S051053-汪洋6.1Ans :We can get that when two of patients do laboratory tests are positive, cancer and ⌝cancer posterior probability can be expressed as: P(canner|+,+),P(⌝cancer|+,+)。
That last is a two test because it is independent of each other, so:P(+,+|cancer)=P(+|cancer)P(+|cancer)Also we can get that:P(+|cancer) P(+|cancer) P(cancer)=0.98*0.98*0.008=0.0076832P(+|⌝cancer) P(+|⌝cancer) P(⌝cancer)=0.03*0.03*0.992=0.0008928P(+,+) = P(+,+|cancer) P(cancer) + P(+,+|⌝cancer)P(⌝cancer)=0.0076832+0.0008928=0.008576So :P(canner|+,+)=0.0076832/0.008576=0.895896P(⌝cancer|+,+)=0.1041046.2Ans : From Bayesian formula, )()()|()|(++=+P cancer P cancer P cancer P Because the event cancer and ⌝cancer mutex, and P(cancer)+P(⌝cancer)=1,A full probability formula is available: P(+) = P(+|cancer) P(cancer) + P(+|⌝cancer)P(⌝cancer) So: )P(|P( P(cancer) cancer)|P( )()|()()()|()|(cancer cancer cancer P cancer P P cancer P cancer P cancer P ⌝⌝++++=++=+ So the normalization method is right.6.3Ans :(a) P(h): If we assume that H1 is more general than H2,assign P (h1)>=P(h2)),()()|()|(),()()|,(),|(++++=++++=++P cancer P cancer P cancer P P cancer P cancer P cancer P ),()()|()|(),()()|,(),|(++⌝⌝+⌝+=++⌝⌝++=++⌝P cancer P cancer P cancer P P cancer P cancer P cancer P ⎩⎨⎧=∀=otherwise x h d d h D P i i i )(,01)|((b) P(h): If we assume that H1 is more general than H2,assign P (h1)<=P(h2)(c) P(h) : Arbitrary assumptions hi and hj, P(hi)=P(hj)=||1H6.6Ans :In the naive Bayesian classification, at a given target value V, the attributes are independent of each other, the Bayesian network shown below, the direction of the arrow is from top to bottom. Because the attribute wind is independent of other attributes, there is no attribute associatedwith it. ⎩⎨⎧=∀=otherwise x h d d h D P i i i )(,01)|(⎩⎨⎧=∀=otherwise x h d d h D P i i i )(,01)|(。
16s1:COMP9417Machine Learning and Data Mining Lecture:Tree Learning(1)Topic:Some exercises on Decision Trees from Chapter3of[1]Version:with answersLast revision:Mon Mar1418:54:50AEDT2016IntroductionThese introductory exercises on decision tree learning should test your understanding of the basics.Exercise3.1Question Give decision trees to represent the following Boolean functions:(a)A∧¬B(b)A∨[B∧C](c)A X OR B(d)[A∧B]∨[C∧D]AnswerDecision trees representing Boolean functions:(a)A∧¬BA=t:|B=f:True|B=t:FalseA=f:False(b)A∨[B∧C]A=t:TrueA=f:|B=f:False|B=t:||C=t:True||C=f:False(c)A X OR BA=t:|B=t:False|B=f:TrueA=f:|B=t:True|B=f:False1(d)[A∧B]∨[C∧D]A=t:|B=t:True|B=f:||C=t:|||D=t:True|||D=f:False||C=f:FalseA=f:|C=t:||D=t:True||D=f:False|C=f:FalseNotice the replication effect of repeated subtrees,especially in the tree for d as mentioned in the lecture.Exercise3.2Question Consider the following set of training examples:Instance a1a2Classification1T T+2T T+3T F−4F F+5F T−6F T−(a)What is the entropy of this collection of training examples with respect to the target function classification?(b)What is the information gain of a2relative to these training examples?Answer(a)Entropy is1.0(3examples are+and3are-).(b)Information gain with respect to a2isGain(S,a2)=1.0−(4/6×1.0+2/6×1.0)=1.0−(2/3+1/3)=0Therefore a2provides zero information gain for this data set.2Exercise3.3Question True or false:If decision tree D2is an elaboration of tree D1,then D1is more-general-than D2.Assume D1and D2are decision trees representing arbitrary boolean functions,and that D2is an elaboration of D1if the TDIDT algorithm on Slide12of the lecture notes could extend D1 into D2.If true,give a proof;if false,a counterexample.(more-general-than is defined on Slide 15of the lecture“Concept Learning(1)”.)Answer False.As a counter-example,let D1be the tree:A=t:TrueA=f:Falseand D2be the tree:A=t:TrueA=f:|B=t:True|B=f:FalseNow take the instance A=f,B=t .D2will classify this instance as“True”,i.e.,in the concept, whereas D1will classify it as“False”,i.e.,not in the concept.This contradicts the definition of more-general-than.Exercise3.4TDIDT searches for just one consistent hypothesis,whereas the Candidate-Elimination algorithm finds all consistent hypotheses.Consider the correspondence between these two learning algorithms. Question(a)Show the decision tree that would be learned by TDIDT assuming it is given the following four training examples for the EnjoySport target concept shown on Slide7of the lecture“Concept Learning(1)”.Sky AirTemp Humidity Wind Water Forecast EnjoySportSunny Warm Normal Strong Warm Same YesSunny Warm High Strong Warm Same YesRainy Cold High Strong Warm Change NoSunny Warm High Strong Cool Change Yes(b)What is the relationship between the learned decision tree and the version space shown on Slide 30of the lecture that is learned from these same examples?Is the learned tree equivalent to one of the members of the version space?Answer(a)One possible tree is:3Sky=Sunny:YesSky=Rainy:NoAnother possible tree of the same size is:AirTemp=Warm:YesAirTemp=Cold:No(b)The two trees are essentially the two hypotheses in thefinal boundary set G4of the worked example in the lecture on“Concept Learning(1)”,slides26–30.References[1]T.Mitchell.Machine Learning.McGraw-Hill,New York,1997.4。
机器学习期末复习题机器学习期末复习题机器学习是一门研究如何使计算机具备学习能力的学科。
它通过分析和理解数据,从中提取出模式和知识,并利用这些知识来进行预测和决策。
在机器学习的学习过程中,我们需要掌握各种算法和技术。
下面是一些机器学习的期末复习题,帮助大家回顾和巩固相关知识。
1. 什么是监督学习和无监督学习?请举例说明。
监督学习是一种通过已知输入和输出的样本来训练模型的学习方法。
例如,我们可以通过给计算机展示一组图片,并告诉它这些图片中的物体是什么,来训练一个图像分类器。
无监督学习则是一种没有标签的学习方法,它通过分析数据的内在结构和模式来进行学习。
例如,我们可以通过对一组顾客购买记录的分析,来发现隐藏在数据中的潜在市场细分。
2. 请简要介绍一下决策树算法。
决策树算法是一种基于树结构的监督学习算法。
它通过对数据集进行递归分割,构建一棵树来进行分类或回归。
在构建决策树的过程中,算法会选择最佳的特征进行分割,并根据特征的取值将数据集划分为不同的子集。
决策树的优点是易于理解和解释,但容易过拟合。
3. 请简要介绍一下支持向量机算法。
支持向量机(Support Vector Machine,SVM)是一种常用的监督学习算法。
它通过在特征空间中构建一个最优分割超平面,将不同类别的样本分开。
SVM的目标是找到一个最大间隔的超平面,使得样本点到该超平面的距离最大化。
SVM可以通过核函数来处理非线性分类问题。
4. 请简要介绍一下聚类算法。
聚类算法是一种无监督学习算法,它通过对数据进行分组,将相似的样本归为一类。
常用的聚类算法有K均值聚类和层次聚类。
K均值聚类是一种迭代算法,它将数据集分为K个簇,每个簇的中心是该簇中所有样本的均值。
层次聚类则是一种基于树结构的聚类方法,它通过不断合并最相似的簇来构建聚类层次。
5. 请简要介绍一下神经网络算法。
神经网络是一种模仿人脑神经元网络的计算模型。
它由多个节点(神经元)和连接它们的权重组成。
机器学习的基础知识点机器学习是一门涉及计算机科学、人工智能和统计学的跨学科领域,它研究如何通过计算机算法使计算机能够从数据中自动学习和改进。
机器学习已经广泛应用于各个领域,例如自然语言处理、图像识别和预测分析等。
本文将介绍机器学习的基础知识点,以帮助读者了解这个领域的基本概念和技术。
一、监督学习监督学习是机器学习的一种常见方法,它通过给算法提供带有标记的训练数据,让算法学习如何预测新的未标记数据的标签。
监督学习的算法可以分为分类和回归两大类。
分类算法用于将数据划分到不同的类别中,而回归算法则用于预测连续值。
1. K近邻算法K近邻算法是一种基本的分类算法,它基于实例的学习方法。
该算法会根据离未标记数据最近的K个已标记数据的标签来判断未标记数据的类别。
2. 决策树决策树是一种基于树结构的分类算法。
它通过一系列的判断条件来对数据进行分类。
决策树的每个节点代表一个判断条件,而每个叶子节点代表一个类别。
3. 朴素贝叶斯分类器朴素贝叶斯分类器是一种基于贝叶斯定理的分类算法。
它假设属性之间是相互独立的,在给定已标记数据的情况下,通过计算后验概率来判断未标记数据的类别。
4. 支持向量机支持向量机是一种二分类算法,它通过将数据映射到高维空间来找到一个最大间隔的超平面,以实现对数据的分类。
二、无监督学习无监督学习是另一种常见的机器学习方法,它不依赖于带有标记的训练数据,而是通过对数据的结构和特征进行分析和挖掘,来学习数据的隐藏模式和结构。
1. 聚类聚类是一种无监督学习的算法,它将数据集划分为具有相似特征的不同组(簇)。
聚类算法通过衡量数据之间的相似性来确定簇的个数和样本的分配。
2. 关联规则学习关联规则学习用于挖掘数据项之间的关联关系。
该算法通过发现频繁项集和强关联规则来揭示数据中的隐藏模式。
三、深度学习深度学习是机器学习的一个分支,它以人工神经网络为基础,通过多层次的非线性变换来实现从数据中学习和提取特征。
深度学习已经在图像识别、语音识别和自然语言处理等领域取得了显著的成果。
(高级版)机器学习全套教程机器研究是现在最热门的领域之一,它让机器能够通过研究、探索来实现人工智能的目标。
如果你想在机器研究领域深入研究,那么这份全套教程就是为你准备的。
第一章:机器研究基础在这一章节中,我们将介绍机器研究的基础知识,包括机器研究的基本原理、常用算法和应用场景等。
第二章:数据分析与数据预处理机器研究需要大量数据来训练模型。
在这一章节中,我们将介绍如何对数据进行分析和预处理,以便更好地应用机器研究算法。
第三章:监督研究与非监督研究在这一章节中,我们将深入研究机器研究的两种主要类型:监督研究和非监督研究。
我们将分别介绍这两种类型的算法,并且提供大量的代码实例。
第四章:神经网络神经网络是机器研究中最重要的技术之一。
在这一章节中,我们将介绍神经网络的基本结构和原理。
此外,我们还将介绍如何使用Python和TensorFlow等工具来构建和训练神经网络。
第五章:深度研究深度研究是机器研究中最前沿的技术之一。
在这一章节中,我们将深入探讨深度研究的原理和应用。
此外,我们还将提供大量的代码实例,以帮助你更好地理解深度研究的实现过程。
第六章:自然语言处理自然语言处理是机器研究的一个重要应用领域。
在这一章节中,我们将介绍如何使用机器研究算法来处理自然语言。
我们将涵盖从预处理到算法选择再到应用的整个过程。
第七章:机器研究平台机器研究平台可以帮助企业快速部署和管理机器研究模型。
在这一章节中,我们将介绍几个流行的机器研究平台,并演示如何使用它们来构建机器研究应用。
结束语这份机器学习全套教程覆盖了机器学习的基础知识和前沿技术,是机器学习学习者的必备指南。
希望这份教程能帮助你更好地入门和掌握机器学习领域的知识。
一、单选题1、下列哪位是人工智能之父?( )A.Marniv Lee MinskyB.HerbertA.SimonC.Allen NewellD.John Clifford Shaw正确答案:A2、根据王珏的理解,下列不属于对问题空间W的统计描述是( )。
A.一致性假设B.划分C.泛化能力D.学习能力正确答案:D3、下列描述无监督学习错误的是( )。
A.无标签B.核心是聚类C.不需要降维D.具有很好的解释性正确答案:C4、下列描述有监督学习错误的是( )。
A.有标签B.核心是分类C.所有数据都相互独立分布D.分类原因不透明正确答案:C5、下列哪种归纳学习采用符号表示方式?( )A. 经验归纳学习B.遗传算法C.联接学习D.强化学习正确答案:A6、混淆矩阵的假正是指( )。
A.模型预测为正的正样本B.模型预测为正的负样本C.模型预测为负的正样本D.模型预测为负的负样本正确答案:B7、混淆矩阵的真负率公式是为( )。
A.TP/(TP+FN)B.FP/(FP+TN)C.FN/(TP+FN)D.TN/(TN+FP)正确答案:D8、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,准确率是( )。
A.1/4B.1/2C.4/7D.4/6正确答案:B9、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,精确率是( )。
A.1/4B.1/2C.4/7D.2/3正确答案:C10、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,召回率是( )。
A.1/4B.1/2C.4/7D.2/3正确答案:D11、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,F1-score是( )。
A.4/13B.8/13C.4/7D.2/30.00/2.00正确答案:B12、EM算法的E和M指什么?( )A.Expectation-MaximumB.Expect-MaximumC.Extra-MaximumD.Extra-Max正确答案:A13、EM算法的核心思想是?( )A.通过不断地求取目标函数的下界的最优值,从而实现最优化的目标。
Machine Learning
Question one:
(举一个例子,比如:导航仪、西洋跳棋)
Question two:
Initilize: G={?,?,?,?,?,?} S={,,,,,}
Step 1:
G={?,?,?,?,?,?} S={sunny,warm,normal,strong,warm,same} Step2: coming one positive instance 2
G={?,?,?,?,?,?} S={sunny,warm,?,strong,warm,same}
Step3: coming one negative instance 3
G=<Sunny,?,?,?,?,?> <?,warm,?,?,?,?> <?,?,?,?,?,same>
S={sunny,warm,?,strong,warm,same}
Step4: coming one positive instance 4
S= { sunny,warm,?,strong,?,? }
G=<Sunny,?,?,?,?,?> <?,warm,?,?,?,?>
Question three:
(a)Entropy(S)=og(3/5) og(2/5)= 0.971
(b)Gain(S,sky) = Entropy(S) –[(4/5) Entropy(Ssunny) + (1/5) Entropy(Srainny)] = 0.322
Gain(S,AirTemp) = Gain(S,wind) = Gain(S,sky) =0.322
Gain(S,Humidity) = Gain(S,Forcast) = 0.02
Gain(S,water) = 0.171
Choose any feature of AirTemp, wind and sky as the top node.
The decision tree as follow: (If choose sky as the top node)
Question Four:
Answer:
Inductive bias: give some proor assumption for a target concept made by the learner to have a basis for classifying unseen instances.
Suppose L is a machine learning algorithm and x is a set of training examples. L(xi, Dc) denotes the classification assigned to xi by L after training examples on Dc. Then the inductive bias is a minimal set of assertion B, given an arbitrary target concept C and set of training
examples Dc: (Xi ) [(B Dc Xi) -| L(xi, Dc)]
C_E: the target concept is contained in the given gypothesis space H, and the training examples are all positive examples.
ID3: a, small trees are preferred over larger trees.
B, the trees that place high information gain attribute close to root are preferred over those that do not.
BP:Smooth interpolation beteen data points.
Question Five:
Answer: In naïve bayes classification, we assump that all attributes are independent given the tatget value, while in bayes belif net, it specifes a set of conditional independence along with a set of probability distribution.
Question Six:随即梯度下降算法
Question Seven:朴素贝叶斯例子
Answer:
Question nine:
Single-point crossover:
Crossover mask: 11111100000 or 11111000000 or 1111 0000000 or 00001111111
Two-point crossover:
Offspring: (11001011000, 00101000101)
Uniform crossover:
Crossover mask: 10011110011 or 10001110011 or 01111101100 or 10000010011 or
10011110001 01100001100
Point mutation:
Any mutation is ok!。