吴恩达相关笔记资料摘录

线性回归

模型描述

代价(损失)函数

平方误差

三维模型图

梯度下降

同步更新

线的斜率,导数项为0

学习率大小的影响

保持在了局部最优解

梯度下降与代价(损失)函数结合

判断j=0和j=1不同的情景
微积分的推导

多特征线性回归

多特征假设函数

多元梯度下降法

选择合适的学习率和均值归一化特征向量

正规方程法

正则方程法的推导过程

https://blog.csdn.net/zoe9698/article/details/82419330

正则方程法在1w特征向量不实用性

正则方程法在不可逆矩阵的处理,删除多余特征向量

Logistic 回归

Logistic 与线性回归在分类问题上的局限性

监督学习,解决二分类问题。

分类的本质:在空间中找到一个决策边界来完成分类的决策

逻辑回归:线性回归可以预测连续值,但是不能解决分类问题,我们需要根据预测的结果判定其属于正类还是负类。所以逻辑回归就是将线性回归的(−∞,+∞) 结果,通过sigmoid函数映射到(0,1)之间。

线性回归回因特殊样本造成伪预测

Logistic回归模型

g函数可为sigmod(logistic函数术语相同)

决策边界



代价(损失)函数

线性回归的损失函数为平方损失函数,如果将其用于逻辑回归的损失函数

则其数学特性不好,有很多局部极小值,难以用梯度下降法求最优。

选用全局最优解

逻辑回归损失函数:对数损失函数

logistics代价函数推导

梯度下降

正则化

减少过度拟合问题

图一:欠拟合、导致拟合效果差

图二:二阶项, 拟合效果稍好

图三:四阶项,很好的拟合了数据集(过度拟合、高方差)

过拟合问题

特征数据少,样本数据过多,就会出现过拟合现象,泛化的不好

解决过拟合方案

模型选择算法, 哪些特征保留,哪些特征舍弃

正则化, 不希望舍弃掉,保留所有特征向量,但减少量级

正则化的运行

正则化增加新的一项,作用缩小每个参数

正则化参数选择很重要,如果过大,则只趋于一条直线

线性回归-正则化

代价(损失)函数

梯度下降

正则化推导

正规方程法

Logistic回归-正则化

logistics回归用正则避免过拟合现象

代价(损失)函数

梯度下降

深度学习

神经网络

因特征过多,logistics回归并不是一个好方法, 神经网络反而是一种非线性假设好的算法

神经网络最初发明制造能模拟大脑的机器,能解决机器学习不能解决的问题

神经元细胞结构

计算机模拟的神经元结构

神经网络模拟

权重也是函数的参数

1:正规方程式的推导?不可逆的矩阵如何处理?矩阵在什么情况下不可逆?

2:解释一下梯度下降法?