
斯坦福大学
文章平均质量分 74
Cins侯卓
我的征途是星辰大海。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
斯坦福大学自然语言处理第二课“文本处理基础(Basic Text Processing)”
文本处理基础1.正则表达式(Regular Expressions)正则表达式是重要的文本预处理工具。 以下截取了部分正则写法: 2.分词(Word tokenization) 我们在进行每一次文本处理时都要对文本进行统一标准化(text normalization)处理。文本规模 How many words? 我们引入变量Type和Token 分别代表词典中的元素(an原创 2015-08-26 18:47:21 · 2710 阅读 · 0 评论 -
斯坦福大学自然语言处理第一课 “引言(introduction)”
斯坦福大学自然语言处理第一课“引言(introduction)”原创 2015-08-25 22:10:15 · 2994 阅读 · 0 评论 -
Stanford机器学习课程(Andrew Ng) Week 1 Model and Cost Function --- 第一节 Model representation
Model representation 课程地址: https://www.coursera.org/learn/machine-learning/lecture/db3jS/model-representation?sort=lastActivityAtDesc&page=1这节课将通过讲述一个完整的线性回归的例子来了解监督学习的完整流程。首先根据不同房屋尺寸所出售的价格画出数据集,原创 2015-12-14 11:41:12 · 1625 阅读 · 0 评论 -
Stanford机器学习课程(Andrew Ng) Week 1 Model and Cost Function --- 第二节 Cost Function
课程地址: https://www.coursera.org/learn/machine-learning/lecture/rkTp3/cost-functionCost Function 在学习线性回归之前,我们有必要补充代价函数的知识,来帮助我们弄清楚如何把最有可能的直线和我们的数据相拟合。还是上节课的数据集,而假设函数也是这样的一个最基本的线性函数形式 我们把θi称为模型参数原创 2015-12-14 16:15:33 · 1762 阅读 · 0 评论 -
Stanford机器学习课程(Andrew Ng) Week 1 Parameter Learning --- 梯度下降法
随机梯度下降是很常用的算法,他不仅被用在线性回归上,实际上被应用于机器学习领域中的众多领域。 本节我们可以用这种算法来将代价函数最小化 我们想要使用梯度下降算法得到 θ0和θ1来使代价函数J(θ0 , θ1)最小化,当然也适用于其他跟一般的函数比如J(θ0,….θn)。 下面是关于梯度下降的构想: 预估两个初始值θ0和θ1作为起点 不断改变θ0和θ1使代价函数 J(原创 2015-12-15 15:26:10 · 1145 阅读 · 0 评论 -
Stanford机器学习课程(Andrew Ng) Week 1 Parameter Learning --- 线性回归中的梯度下降法
本节将梯度下降与代价函数结合,并拟合到线性回归的函数中 这是我们上两节课得到的函数,包括: 梯度下降的公式 用于拟合的线性假设和h(x) 平方误差代价函数 J(θ0 , θ1) 步骤 我们把J(θ0 , θ1)带入到左边的梯度下降公式中,展开成下面形式 我们假设梯度下降算法起始地两个初值J = 0 , 1 。分别对θ0 和θ1求偏导原创 2015-12-15 17:12:17 · 1385 阅读 · 0 评论 -
斯坦福大学自然语言处理第七课“情感分析(Sentiment Analysis)”
课程地址:https://class.coursera.org/nlp/lecture/311. What is Sentiment Analysis?情感分析(Sentiment analysis)又可以叫做 意见抽取(Opinion extraction) 意见挖掘(Opinion mining) 情感挖掘(Sentiment mining) 主观分析(Subjectivity anal原创 2015-12-02 21:25:20 · 15938 阅读 · 2 评论