TIM*_*MEX 271 artificial-intelligence machine-learning unsupervised-learning supervised-learning
在人工智能和机器学习方面,有监督和无监督学习有什么区别?您能举例说明一个基本的,简单的解释吗?
Dav*_*ide 483
既然你问这个非常基本的问题,看起来值得指出机器学习本身是什么.
机器学习是一类数据驱动的算法,即与"普通"算法不同,它是"告诉"什么是"好答案"的数据.示例:用于图像中的面部检测的假设非机器学习算法将尝试定义面部是什么(圆形皮肤状彩色圆盘,具有您期望眼睛的暗区等).机器学习算法不会有这样的编码定义,但会"逐个学习":你会展示几个面部和非面部的图像,一个好的算法最终会学习并能够预测是否看不见图像是一张脸.
这个特殊的人脸检测示例受到监督,这意味着您的示例必须标记,或明确说明哪些是面,哪些不是.
在无监督算法中,您的示例没有标记,即您没有说什么.当然,在这种情况下,算法本身不能"发明"面部是什么,但是它可以尝试将数据聚类成不同的组,例如,它可以区分面部与景观非常不同,景观与马匹非常不同.
由于另一个答案提到它(虽然,以不正确的方式):有"中间"形式的监督,即半监督和主动学习.从技术上讲,这些是监督方法,其中有一些"智能"方法来避免大量标记的例子.在主动学习中,算法本身决定你应该标记哪个东西(例如,它可以非常确定景观和马,但它可能会要求你确认大猩猩是否确实是一张脸的图片).在半监督学习中,有两种不同的算法从标记的例子开始,然后相互"告诉"他们对大量未标记数据的思考方式.从这个"讨论"他们学到了.
Yan*_*rtz 51
监督学习是指您为算法提供的数据被"标记"或"标记",以帮助您的逻辑做出决策.
示例:贝叶斯垃圾邮件过滤,您必须将项目标记为垃圾邮件以优化结果.
无监督学习是一种算法类型,它们试图在没有原始数据之外的任何外部输入的情况下找到相关性.
示例:数据挖掘聚类算法.
Dav*_*les 29
其中训练数据包括输入矢量的示例以及它们对应的目标矢量的应用被称为监督学习问题.
在其他模式识别问题中,训练数据由一组输入矢量x组成,没有任何相应的目标值.这种无监督学习问题的目标可能是在数据中发现类似示例的组,其中称为聚类
模式识别与机器学习(Bishop,2006)
GPr*_*hap 17
在监督学习中,输入x被提供有预期结果y(即,当输入时模型应该产生的输出x),其通常被称为相应输入的"类"(或"标签")x.
在无监督学习中,x未提供示例的"类" .因此,无监督学习可以被认为是在未标记数据集中找到"隐藏结构".
监督学习的方法包括:
分类(1R,朴素贝叶斯,决策树学习算法,如ID3 CART等)
数值预测
无监督学习的方法包括:
聚类(K-means,层次聚类)
关联规则学习
Gre*_*osz 10
例如,经常训练神经网络是监督学习:你告诉网络哪个类对应你正在喂食的特征向量.
聚类是无监督学习:您让算法决定如何将样本分组到共享公共属性的类中.
无监督学习的另一个例子是Kohonen的自组织地图.
小智 10
我可以告诉你一个例子.
假设您需要识别哪辆车是汽车,哪辆是摩托车.
在监督学习案例中,您的输入(训练)数据集需要进行标记,也就是说,对于输入(训练)数据集中的每个输入元素,您应指定它是代表汽车还是摩托车.
在无监督学习案例中,您不标记输入.无监督模型基于例如类似的特征/属性将输入聚类成聚类.因此,在这种情况下,没有像"汽车"这样的标签.
我一直认为无监督和有监督的学习之间的区别是任意的,有点令人困惑.两种情况之间没有真正的区别,相反,存在一系列情况,其中算法可以具有或多或少的"监督".半监督学习的存在是线条模糊的一个明显例子.
我倾向于将监督视为向算法提供关于应该首选哪些解决方案的反馈.对于传统的监督设置,例如垃圾邮件检测,您可以告诉算法"不要在训练集上犯任何错误" ; 对于传统的无监督设置,例如聚类,您可以告诉算法"彼此接近的点应该在同一个集群中".事实恰恰相反,第一种形式的反馈比后者更具体.
简而言之,当有人说'监督'时,想一下分类,当他们说'无人监督'时会想到群集,并且尽量不要过分担心.
监督学习
监督学习是基于已经分配了正确分类的数据源训练数据样本。此类技术用于前馈或多层感知器 (MLP) 模型。这些 MLP 具有三个鲜明的特点:
这些特点与通过培训学习一起解决了困难和多样化的问题。通过在监督 ANN 模型中的训练进行学习,也称为误差反向传播算法。纠错学习算法根据输入输出样本训练网络,找出误差信号,即计算出的输出与期望输出的差值,并调整与误差乘积成正比的神经元的突触权重信号和突触权重的输入实例。基于这个原理,误差反向传播学习发生在两遍:
前传:
在这里,输入向量被呈现给网络。该输入信号向前传播,神经元通过神经元通过网络与出现在网络作为输出信号的输出端:y(n) = ?(v(n))其中v(n)在所述诱导限定的神经元的局部场v(n) =? w(n)y(n).,其在输出层O(N)是所计算的输出与所需的响应进行比较d(n)并找出该e(n)神经元的错误。在此过程中网络的突触权重保持不变。
后传:
源自该层输出神经元的误差信号通过网络向后传播。这计算了每一层中每个神经元的局部梯度,并允许网络的突触权重根据 delta 规则发生变化:
?w(n) = ? * ?(n) * y(n).
Run Code Online (Sandbox Code Playgroud)
这种递归计算继续进行,对于每个输入模式,前向传递后跟后向传递,直到网络收敛。
人工神经网络的监督学习范式是高效的,可以为分类、工厂控制、预测、预测、机器人等多个线性和非线性问题找到解决方案。
无监督学习
自组织神经网络使用无监督学习算法进行学习,以识别未标记输入数据中的隐藏模式。这种无监督是指在不提供错误信号来评估潜在解决方案的情况下学习和组织信息的能力。在无监督学习中缺乏学习算法的方向有时可能是有利的,因为它让算法回顾以前没有考虑过的模式。自组织映射(SOM)的主要特点是:
计算层也称为竞争层,因为该层中的神经元相互竞争以变得活跃。因此,这种学习算法被称为竞争算法。SOM 中的无监督算法分三个阶段工作:
比赛阶段:
对于x呈现给网络的每个输入模式,w计算具有突触权重的内积,并且竞争层中的神经元找到一个判别函数,诱导神经元之间的竞争以及在欧几里德距离中接近输入向量的突触权重向量被宣布为比赛的获胜者。这个神经元被称为最佳匹配神经元,
i.e. x = arg min ?x - w?.
Run Code Online (Sandbox Code Playgroud)
合作阶段:
获胜的神经元决定了h合作神经元拓扑邻域的中心。这是通过d合作神经元之间的横向相互作用来实现的。这个拓扑邻域在一段时间内减小了它的大小。
适应阶段:
通过适当的突触权重调整,使获胜神经元及其邻域神经元能够增加与输入模式相关的判别函数的个体值,
?w = ?h(x)(x –w).
Run Code Online (Sandbox Code Playgroud)
在重复呈现训练模式时,由于邻域更新,突触权重向量倾向于遵循输入模式的分布,因此 ANN 在没有监督者的情况下学习。
自组织模型自然地代表了神经生物学行为,因此被用于许多现实世界的应用,如聚类、语音识别、纹理分割、矢量编码等。
小智 6
已经有很多答案详细解释了差异。我在codeacademy上找到了这些 gif ,它们经常帮助我有效地解释差异。
请注意,这里所做的只是分组(聚类),模型对任何图像一无所知。