深度学习—–思想篇 ( 六 )

  • Post author:
  • Post category:其他


刚刚学了斯坦福吴教授的机器学习第五节课,记录一下。

吴教授介绍了另一类算法叫做生成学习算法,与之前的判别学习算法还是有区别的,简单的说,判别学习算法是用一条直线将两类数据分隔开,而生成学习算法是知道可能有的两种结果,对这两种结果进行建模,分别输入不同的假设条件,然后计算出对应的概率。

判别学习算法典型的就是Logistic线性回归,而生成学习算法的比如高斯判别分析。

在这个过程中,我发现了一个链条:纷繁复制的数据,经过判断,分析,可以分类成多种数据分布,比如高斯分布、泊松分布、伯克利分布,不同的数据分布加上条件假设就会生成不同的数据模型,不同的数据模型可以推导出数学表达式,也就是我们说的公式。

吴教授介绍了一个很基础的一个算法:朴素贝叶斯算法,一个很典型的分类算法,还举例了垃圾邮件分类器,两类邮件,一类是垃圾邮件,另一类是非垃圾邮件,用遍历文件标题关键词的方法,并给出了对应的贝叶斯网络,用这个算法可以分出那些是垃圾邮件,那行是非垃圾邮件,除了这个例子,还可以对文本进行分类,对网页信息进行分类。

教授提到了LAPLACE平滑,实际上是对事件发生概率的预判,举例了斯坦福大学篮球队的胜率。

教授今天讲课非常细致,回答学生的提问也非常详细,估计是有人反馈之前的课讲的太生硬了,现在是知无不言,言无不尽。哈哈。



版权声明:本文为hukelei123原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。