斯坦福大学

斯坦福大学机器学习课程第一周笔记

你。 提交于 2020-02-28 19:26:53
课程地址: https://www.coursera.org/learn/machine-learning/home/welcome 简记 机器学习mechine learning 监督学习Supervised learning 回归问题regression problem 分类问题classification problem 无监督学习Unsupervised learning 聚类问题clustering 非聚类non-clustering 线性回归linear regression 代价函数cost function 梯度下降算法gradient descent---第一个算法 线性代数知识 矩阵matrix 矩阵加addition 实数矩阵乘scalar Multipliction 矩阵矩阵乘matrix matrix multipliction 向量vector 矩阵标量乘matrix vector multipliction 标量identity matrix 方阵square matrix 奇异矩阵singular/退化矩阵degenerate 逆矩阵inverse 转置矩阵transponse 乘法性质 不符合交换律和结合律(除标量外) 来源: https://www.cnblogs.com/ephemerid/p/10838329.html

斯坦福大学cs231n作业参考(中文版)

巧了我就是萌 提交于 2020-02-27 17:59:34
cs231n2016冬季课程作业完成,在原先的基础上进行了翻译和中文注释,同时增加了16之后版本的部分新作业文件,已经全部跑通,需要的欢迎自取。 斯坦福大学的 CS231n(全称:面向视觉识别的卷积神经网络)一直是计算机视觉和深度学习领域的经典课程,每年开课都吸引很多学生。这门课由AI圈领军人李飞飞老师亲自设计教学,专注深度学习在计算机视觉领域的应用,内容涵盖多种神经网络具体结构与训练应用细节,质量和内容都非常之高。 github地址: https://github.com/hanlulu1998/CS231n 外部资源参考地址: 所有课程资料、PPT等: http://cs231n.stanford.edu/syllabus.html 课程官网: http://cs231n.stanford.edu/ 中文字幕视频地址: https://www.bilibili.com/video/av16585576/ (整理版本: https://www.bilibili.com/video/av58778425 ) 中文笔记: https://zhuanlan.zhihu.com/p/21930884 作业详解地址: https://zhuanlan.zhihu.com/p/30748903 来源: https://www.cnblogs.com/hanlulu1998/p

斯坦福大学机器学习公开课学习—2.监督学习应用·梯度下降

佐手、 提交于 2020-01-26 03:25:42
  这节课的学习,相信一般上过统计或者运筹相关课程的同学应该都会有所了解。课上涉及的知识虽然很基础,但是也是很重要的。   在搜集了一些房价相关数据的基础上,利用线性回归算法来预测房价。   为了方便算法的训练推导,进行了很多符号的标准规定,从这当中也学到了一些知识,以后自己在进行一些算法的推导时也可学习课上的这些标准符号和推导方式。   下面给出这堂课上的一些干货。   1.机器学习算法的基本框架        2.最小二乘法——线性回归常用的代价函数,即误差平方和最小   3.参数学习算法——梯度下降算法,包含批量梯度下降和随机梯度下降。     梯度下降能够收敛,但是也可能是局部最优解,但如果目标函数是凸函数,这样梯度下降一定能找到全局最优解。     当训练样本很多的时候,每更新一次参数都需要遍历所有的样本计算总误差,这样学习速度太慢;这个时候每次计算一个样本的误差更新参数的随机梯度下降算法通常会比   批量梯度下降法更快。(理论上不能保证随机梯度下降能够收敛)   4.对于线性回归问题的最小二乘法,没必要利用梯度下降法来搜索最优解;通过矩阵理论能够证明   最终的参数解为:Θ=(X T X) -1 X T Y    来源: https://www.cnblogs.com/lile/p/4423444.html