Part I/ Chapter 5 机器学习基础2
一、监督学习算法 1、概率监督学习:使用最大似然估计找到对于有参分布族p(y| x ; θ )=N(y; θ T x , I )最好的参数向量 θ 。 2、支持向量机(support vector machine,SVM):与逻辑回归不同,SVM不输出概率,只输出类别。 ① 核函数 :点积替换。一方面使我们能够使用保证有效收敛的凸优化技术学习非线性模型,另一方面核函数的实现方法通常比直接构建φ(x)再计算点积高效很多。 →最常用的核函数是 高斯核(Gaussian kernel) 。 3、其他简单监督学习算法:如k-最近邻、决策树(decision tree)。 二、无监督学习算法:一个经典的任务是找到数据的“最佳”表示 表示:①低维表示:尝试将x中的信息尽可能压缩到较小的表示中; ②稀疏表示:常用于需要增加表示维数的情况,使得大部分为0的表示不会丢失很多信息; ③独立表示:试图分开数据分布中变化的来源,使得表示的维度是统计独立的。 1、主成分分析 2、k-均值聚类 三、随机梯度下降(stochastic gradient descent,SGD):核心:梯度是期望。 四、构建机器学习算法:特定的数据集、代价函数、优化过程、模型 五、促使深度学习发展的挑战: 1、维数灾难(curse of dimensionality) 2、局部不变形和平滑正则化 3、流形学习