从西瓜书的第三章开始吃瓜哈
机器学习三要素
- 模型:根据具体问题,确定假设空间
- 策略:根据评价标准,确定选取最优模型的策略(通常会产生一个“损失函数”)
- 算法:求解损失函数,确定最优模型
特征值
- 连续性特征值【发际线高度】
- 二值离散型特征值【颜值】(好看:1,不好看:0)
- 有序的多值离散特征值【饭量】(小:1,中:2,大:3)
- 无序的多值离散特征【肤色】(黄:[0,0,1],黑:[0,1,0],白:[1,0,0])
一元线性回归
假设特征数只有1个,拟合回归:
使得
最小二乘法
从arg min式子中求得w和b
极大似然估计
概率密度函数:
似然函数:
求L最大时候的μ和σ的值
取对数
对于线性函数,假设以下模型:
求 arg max lnL(w,b)等价于求arg min(yi-wxi-b)2
可以看出来最小二乘法和极大似然法都是殊途同归的
求解w和b
1.证明E(w,b)是凸函数
2.用凸函数的办法求w和b
版权声明:本文为m0_60272485原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。