列举2个监督学习的经典算法

作者&投稿:字变 (若有异议请与网页底部的电邮联系)

监督学习的经典算法如下:朴素贝叶斯、决策树、支持向量机、逻辑回归、线性回归、回归树、K邻近、AdaBoost、神经网络。

1、朴素贝叶斯(NaiveBayesClassifier)

朴素贝叶斯算法(NBC)是应用最为广泛的分类算法之一。NBC假设了数据集属性之间是相独立的,常用于文本分类。

2、决策树(DecisionTree)

决策树算法采用树形结构,使用层层推理来实现最终的分类。决策树通常由根节点、内部节点、叶节点三个元素构成,ID3、C4.5、CART是决策树常用的三种典型算法。

3、支持向量机(SVM)

支持向量机把分类问题转化为寻找分类平面的问题,并通过最大化分类边界点距离分类平面的距离来实现分类。SVM可以解决高维问题,也能够解决小样本下机器学习问题。

4、逻辑回归(LogisticRegression)

逻辑回归是用于处理因变量为分类变量的回归问题,常见的是二分类或二项分布问题,也可以处理多分类问题,它实际上是属于一种分类方法,用来表示某件事情发生的可能性。逻辑回归实现简单,分类时计算量非常小、速度很快、存储资源低,主要应用于工业问题上。

5、线性回归(LinearRegression)

线性回归是处理回归任务最常用的算法之一。该算法的形式十分简单,它期望使用一个超平面拟合数据集(只有两个变量的时候就是一条直线)。

线性回归建模速度快,不需要很复杂的计算,在数据量大的情况下运行速度依然很快,同时可以根据系数给出每个变量的理解和解释。

6、回归树(RegressionTree)

回归树,顾名思义,就是用树模型做回归问题,每一片叶子都输出一个预测值。回归树通过将数据集重复分割为不同的分支而实现分层学习,分割的标准是最大化每一次分离的信息增益。这种分支结构让回归树很自然地学习到非线性关系。

7、K邻近(K-NearestNeighbor)

K邻近算法是最简单的机器学习算法。该方法的思路是:在特征空间中,如果一个样本附近的K个最近(即特征空间中最邻近)样本的大多数属于某一个类别,则该样本也属于这个类别。K邻近算法理论相对成熟,思想简单,既可以用来做分类也可以用来做回归。

8、AdaBoost

AdaBoost目的就是从训练数据中学习一系列的弱分类器或基本分类器,然后将这些弱分类器组合成一个强分类器。

AdaBoost有一个很突出的特点就是精度很高。

9、神经网络

神经网络从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。在人工智能领域,神经网络通常指人工神经网络,即ANNs。



~

有监督分类的算法
答:监督分类(supervisedclassification)又称训练场地法,是以建立统计识别函数为理论基础,依据典型样本训练方法进行分类的技术。回归:在建模的过程中需同时具备自变量x和因变量y,属于有监督的学习算法。输出变量为离散型。主要介绍:Logistic,决策树,随机森林,KNN,朴素贝叶斯 tips:决策树,随机森林,KNN也...

哪些算法属于监督学习的范畴
答:监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最佳的方案将允许该算法来正确地决定那些看不见的实例的类标签。这就要求学习算法是在一种“合理”的方式从一种从训练数据到看不见的情况下形成。无监督学习(也有人叫非监督学习,反正都差不多)则是另一种研究...

有监督和无监督学习都各有哪些有名的算法和深度学习
答:DBN #非监督学习 #贪心逐层训练算法 #多层自动编码器 #监督式学习 #训练资料 #输入物件 #预期输出 #聚簇 #监督学习算法 #主成分分析方法 #等距映射方法 #局部线性嵌入方法 #拉普拉斯特征映射方法 #黑塞局部线性嵌入方法 #局部切空间排列方法 #离散点检测 #降维 #PCA ...

数据挖掘的十大经典算法,总算是讲清楚了,想提升自己的赶快收藏
答:一个优秀的数据分析师,除了要掌握基本的统计学、数据分析思维、数据分析工具之外,还需要掌握基本的数据挖掘思想,帮助我们挖掘出有价值的数据,这也是数据分析专家和一般数据分析师的差距所在。 国际权威的学术组织the IEEE International Conference on Data Mining (ICDM) 评选出了数据挖掘领域的十大经典算法:C4.5, k-...

什么是监督学习?有哪些方法?
答:其他监督学习算法 临近回归:前面介绍过最近临近回归,这也是一种非概率监督学习算法。K-最近邻回归是一种可以用于分类或回归的算法,K-最近邻算法就是从训练集中找到与测试输入的点最近的K个点,然后采用少数服从多数的思想,谁多就听谁的,或者求平均。但是这在K取值不同的时候,得到的结果可能不同,...

适合于多分类的半监督学习算法有哪些
答:DT的主要缺点是容易过拟合,这也正是随机森林(Random Forest, RF)(或者Boosted树)等集成学习算法被提出来的原因。此外,RF在很多分类问题中经常表现得最好(我个人相信一般比SVM稍好),且速度快可扩展,也不像SVM那样需要调整大量的参数,所以最近RF是一个非常流行的算法。支持向量机(Support Vector...

机器学习的相关算法包括
答:机器学习的相关算法包括:监督学习、非监督学习和强化学习。一、监督学习 1.支持向量机:是一类按监督学习方式对数据进行二元分类的广义线性分类器,其决策边界是对学习样本求解的最大边距超平面。例如,在纸上有两类线性可分的点,支持向量机会寻找一条直线将这两类点区分开来,并且与这些点的距离都尽...

knn算法属于监督学习吗?
答:knn算法是有监督机器学习算法。knn算法的知识扩展:邻近算法,或者说K最邻近分类算法是数据挖掘分类技术中最简单的方法之一。 所谓K最近邻,就是K个最近的邻居的意思,说的是每个样本都可以用它最接近的K个邻近值来代表。 近邻算法就是将数据集合中每一个记录进行分类的方法。KNN法即K最邻近法,最初由...

机器学习的方法包括哪几种?
答:2、无监督学习(Unsupervised Learning)无监督学习是另一种常见的机器学习方法,其使用无标签的训练数据,通过发现数据中的模式、结构或关联来进行学习。无监督学习的目标是对数据进行聚类、降维或异常检测等任务。常见的无监督学习算法包括聚类算法、关联规则挖掘、主成分分析(PCA)和自编码器等。3、强化...

降维算法之LDA(线性判别降维算法)--有监督
答:  不同于PCA方差最大化理论, LDA算法的思想是将数据投影到低维空间之后,使得同一类数据尽可能的紧凑,不同类的数据尽可能的分散 。因此,LDA算法是一种有监督的机器学习算法。同时,LDA有如下两个假设:(1)原始数据根据样本均值进行分类。(2)不同类的数据拥有相同的协方差矩阵。当然,在实际...