
机器学习
文章平均质量分 81
Yuetianw
用随机梯度下降来优化人生
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Pytorch实战—— Loss Functions一览
Pytorch Loss Functions总结:文档链接:Loss FunctionsL1Loss用于测量输入中每个元素之间的平均绝对误差 (MAE)。>>> loss = nn.L1Loss()>>> input = torch.randn(3, 5, requires_grad=True)>>> target = torch.randn(3, 5)>>> output = loss(input, target)&g原创 2022-04-08 09:35:25 · 709 阅读 · 0 评论 -
根据用户采集的WiFi信息采用决策树预测用户所在房间
根据用户采集的WiFi信息采用决策树预测用户所在房间数据集:数据集:训练集存于TrainDT.csv中;测试集存于 TestDT.csv中。BSSIDLabel: BSSID标识符,每个AP(接入点,如路由器)拥有1个或多个不同的BSSID,但1个BSSID只属于1个AP;RSSLabel:该BSSID的信号强度,单位dbm;RoomLabel: 该BSSID被采集时所属的房间号,为类标签,测试集中也含该标签,主要用于计算预测准确度;SSIDLabel: 该BSSID的名称,不唯一;finLa原创 2021-04-08 19:39:45 · 786 阅读 · 0 评论 -
使用Python实现单隐藏层神经网络的训练
文章目录1 实验内容2 实验要求3 实验原理多层感知机:前向传播与后向传播4 具体实现数据加载与可视化:激活函数:单隐层神经网络前向传播后向传播Mini-batch梯度下降:预测与评估:分类结果可视化:5 实验结果不同激活函数:收敛速度分类结果可视化1 实验内容不使用Keras,Tensorfolow 或Pytorch 等框架,仅使用Numpy,Scipy 和Matplotlib 等Python 常用科学计算库,完成单隐藏层的全连接神经网络(和之后要讲的卷积神经网络形成对比),实现Scikit-lear原创 2021-09-30 17:34:14 · 4857 阅读 · 0 评论 -
使用梯度下降训练线性模型
使用梯度下降训练线性模型文章目录使用梯度下降训练线性模型1 实验内容2 实验原理线性分类——最小二乘法logistic回归3 具体实现数据生成与可视化:数据读取与处理:法一:利用最小二乘求解线性分类法二:利用线性分类+梯度下降:法三:利用逻辑回归+梯度下降:随机梯度下降:利用逻辑回归模型分类:计算分类精度:分类结果可视化:4 结果比较5 小组分工1 实验内容**课程内容回顾:**在理论课程中,我们回顾了机器学习的基本概念,模型的评估和选择,线性模型和广义线性模型的概念和相关的梯度下降的优化方法。*原创 2021-09-26 09:32:04 · 919 阅读 · 0 评论 -
机器学习课后题——神经网络
6.1 试述将线性函数f(x) = wTx作为激活函数的缺陷。答:如果使用线性函数作为激活函数时,无论是在隐藏层还是在输出层,本质上其单元值还是输入x的线性组合。这个时候的若神经网络输出层使用Sigmoid函数退化为逻辑回归,若输出层也使用线性函数作为激活函数,那么就退化为线性回归。6.2 以下是几种在神经网络或深度学习网络中常用的激活函数,试总结激活函数所具备的特征,并解释下面几种函数是否适合作为激活。答: 激活函数一般特征:非线性:激活函数为非线性激活函数的时...原创 2021-07-31 20:35:11 · 3751 阅读 · 5 评论 -
机器学习课后题——支持向量机
支持向量机7.1 对于样本空间中的一划分超平面**w*Tx* + b = 0,有*w* = (-1, 3, 2),b = 1。则判断如下向量是否为支持向量,并求出间隔。(1) ***x***1 = (4, -2, 2)(2) ***x***2 = (2, 5, -6.5)(3) ***x***3 = (4, -2, 4)7.2 假设输入空间是R2,核函数是κ(x, z) = (xTz)2,试找出其相关的特征空间H和映射Φ(x):7.3 设计几种SVM实现多分类的方案。答:SVM是用来解决原创 2021-07-31 20:27:00 · 4310 阅读 · 1 评论 -
机器学习课后题——聚类
9.1 常用的聚类划分方式有哪些?列举代表算法。答:原型聚类:代表算法:K-means、K-中心点、高斯混合聚类密度聚类:代表算法:DBSCAN、OPTICS、CURE层次聚类:代表算法:HAC、BIRCH、DIANA9.2 Kmeans初始类簇中心点的如何选取?答: 理论上初始中心点可以随机选取,但为了提高效率,并获得更好的结果,我们希望选取初始的聚类中心之间的相互距离要尽可能的远,因此我们可以:选择彼此距离尽可能远的K个点:首先随机选择一个点作...原创 2021-07-31 20:18:07 · 1844 阅读 · 0 评论 -
机器人赋能智慧城市典型案例及未来展望
机器人赋能智慧城市典型案例及未来展望提到“服务机器人”,你脑海中第一个画面是什么?是短视频中与宠物斗志斗勇的扫地机器人,还是在疫情期间穿梭酒店实现无接触配送的物流机器人?其实,机器人的价值早已不仅限于此。2017年,美国佛吉尼亚州就为机器人提供了与行人等同的路权。国际机器人联合会(IFR)判断,2021年服务机器人的市场规模将达到130亿美元。我们认为:服务机器人是智慧城市新蓝海。作为一种具备完整连接计算能力、突破时空限制的城市新单元,并引发城市发展模式和人类生活方式的新探索。国际机器人联合会(IFR转载 2021-07-31 11:06:46 · 1769 阅读 · 0 评论 -
机器学习课后题——线性回归模型
第5章 线性回归模型5.1 试分析在什么情况下,式fx=wTx+b 不必考虑偏置项b。答:我的看法是,如果样本 x 中有某一个属性 xi 为固定值时,wixi+b 等价于偏置项。即此时 wixi+b 与 b 等价,不必考虑偏置项b。5.2为研究某化学反应过程中,温度x对产品得率y的影响,测得数据如下:温度(℃) 100 110 120 130 140 150 160 170 180 190得率(%) 45 51 54 61 66...原创 2021-07-14 17:52:43 · 2909 阅读 · 1 评论 -
机器学习课后题——贝叶斯
+第四章 贝叶斯分类器 1. 简述朴素贝叶斯的优缺点.答: 朴素贝叶斯的主要优点有:算法比较简单,易于实现。 快速,易于训练。 朴素贝叶斯模型有稳定的分类效率。 对小规模的数据表现很好,能处理多分类任务,适合增量式训练,尤其是数据量超出内存时,可以一批批的去增量训练。 对缺失数据不太敏感。朴素贝叶斯的主要缺点有: 如果输入变量是相关的,则会出现问题。 需要知道先验概率,且先验概率很多时候取决于假设,假设的模型可以有很多种,因此在某些时候会由于假设的先验模型的原因...原创 2021-07-14 17:46:37 · 11859 阅读 · 3 评论 -
机器学习课后题——聚类
聚类9.1 常用的聚类划分方式有哪些?列举代表算法。答:原型聚类:代表算法:K-means、K-中心点、高斯混合聚类密度聚类:代表算法:DBSCAN、OPTICS、CURE层次聚类:代表算法:HAC、BIRCH、DIANA9.2 Kmeans初始类簇中心点的如何选取?答: 理论上初始中心点可以随机选取,但为了提高效率,并获得更好的结果,我们希望选取初始的聚类中心之间的相互距离要尽可能的远,因此我们可以:选择彼此距离尽可能远的K个点:首先随机选择一...原创 2021-07-14 17:34:55 · 7857 阅读 · 4 评论 -
算法工程师就业
算法工程师文章目录算法工程师面试准备个人背景行情方案:准备项目实施工作日常岗位方向算法生命周期工作时间分配工作量项目实例一**转化成算法问题**项目实例二职业晋升前景晋升路线晋升难点前途&钱途前途&钱途面试准备个人背景Type A:有机器学习工作背景,对深度学习感兴趣Type B:没有机器学习工作背景,有数据类工作背景Type C:没有任何数据背景,没有工程背景,对深度学习感兴趣截止2019年,互联网算法岗仍是不饱和的,人才供不应求行情大厂:BATJM——ML&a原创 2021-07-10 11:40:40 · 622 阅读 · 0 评论 -
No module named ‘tensorboard‘ 解决方法
No module named ‘tensorboard’ 解决方法报错代码:from torch.utils.tensorboard import SummaryWriterTensorBoard是一个强大的可视化工具,在pytorch中有两种调用方法:1.from tensorboardX import SummaryWriter这种方法是在官方还不支持tensorboard时网上有大神写的2.from torch.utils.tensorboard import SummaryWrit原创 2021-07-08 15:28:55 · 18104 阅读 · 5 评论 -
机器学习 模型评估课后题
结合对性能度量部分的阅读,简述错误率、精度、查准率与查全率的含义。答:错误率(Error Rate):是分类错误的样本数占样本总数的比例。精度(Accuracy):是分类正确的样本数占样本总数的比例。对于二分类问题,可将样例根据其真实类别与学习器预测类别的组合划分为真正例(true positive)、假正例(false positive)、真反例(true negative)、假反例(false negative)四种情形,令TP、FP、TN、FN分别表示其对应的样例数,则显然有TP原创 2021-06-24 10:05:26 · 2153 阅读 · 0 评论 -
机器学习课后思考-绪论
本文内容:1.1简要叙述训练数据集和测试数据集的含义。1.2 一个初学机器学习的朋友对房价进行预测。他在一个N=1000个房价数据的数据集上匹配了一个有533个参数的模型,该模型能解释测试数据集上99%的变化,请问该模型能很好地预测来年的房价吗?简要说明原因。1.3 请简要说说一个完整机器学习项目的流程。1.4试简述机器学习在互联网搜索的哪些环节起什么作用?1.1简要叙述训练数据集和测试数据集的含义。答:训练集用来训练模型;测试集用来评估模型和预测数据。有时还会抽出验证集(但不是必须),用来帮助调原创 2021-06-01 22:29:23 · 1962 阅读 · 0 评论 -
聚类练习:对地理数据应用二分k-均值算法聚类
文章目录**编程作业:聚类**实验原理:k-means聚类:二分k-means聚类:使用后处理来提高聚类性能:任务:对地理数据应用二分k-均值算法聚类(1)问题描述:(2)具体实现:(3)实验结果:实验小结:编程作业:聚类实验原理:参考:机器学习实战 (豆瓣) (douban.com)(13条消息) 机器学习实战 第十章 利用K-均值聚类算法对未标注数据分组_无名的博客-优快云博客k-means聚类:k-means聚类将相似的对象归到同一个簇中,每个簇的中心采用簇中所含值的均值计算而成。优原创 2021-06-01 12:44:01 · 1445 阅读 · 1 评论 -
使用神经网络完成新闻分类
文章目录使用神经网络完成新闻分类(1)问题描述:(2)模型原理:(3)实现过程:(4)实验小结:使用神经网络完成新闻分类(1)问题描述:该数据集用于文本分类,包括大约20000个左右的新闻文档,均匀分为20个不同主题的新闻组集合,其中:**训练集:**包括11314个新闻文档及其主题分类标签。训练数据在文件train目录下,训练新闻文档在train_texts.dat文件中,训练新闻文档标签在train_labels.txt文档中,编号为0~19,表示该文档分属的主题标号。**测试集:**包括75原创 2021-05-29 21:44:31 · 2439 阅读 · 16 评论 -
使用Logistic回归估计马疝病的死亡率
本文内容使用Logistic回归估计马疝病的死亡率(1)问题描述:(2)模型原理:(3)具体实现:(4)实验结果:(5)使用Sklearn构建LR分类器(6)实验小结:使用Logistic回归估计马疝病的死亡率(1)问题描述:**训练集:**包含于文件horseColicTraining.txt中,用于训练得到模型的最佳系数。训练集包含299个样本(299行),每个样本含有21个特征(前21列),这些特征包含医院检测马疝病的指标;最后1列为类别标签,表示病马的死亡情况;部分样本含有缺失值。**测试集原创 2021-05-29 21:31:00 · 1678 阅读 · 0 评论 -
使用线性SVM实现对垃圾邮件分类
本文内容使用线性SVM实现对垃圾邮件分类(1)问题描述:(2)实现过程:实验小结:使用线性SVM实现对垃圾邮件分类(1)问题描述: 编程实现一个垃圾邮件SVM线性分类器,分别在训练集和测试集上计算准确率。其中训练数据文件:task3_train.mat,要求导入数据时输出样本数和特征维度。测试数据文件:task3_test.mat,要求导入数据时输出样本数和特征维度,测试数据标签未给出。(程序运行时间10mins左右)(2)实现过程:分析数据:利用给出loadData(),读取数据,原创 2021-05-29 21:20:13 · 2438 阅读 · 0 评论 -
分别用线性SVM和高斯核SVM预测对数据进行分类
本文内容分别用线性SVM和高斯核SVM预测对数据进行分类(1)问题描述:(2)训练过程:使用线性核函数的svm算法使用高斯核函数的SVM算法(3)尝试调用sklearn:分别用线性SVM和高斯核SVM预测对数据进行分类(1)问题描述:task1_linear.mat中有一批数据点,试用线性SVM对他们进行分类,并在图中画分出决策边界。task1_gaussian中也有一批数据点,试用高斯核SVM对他们进行分类,并在图中画出决策边界。(2)训练过程:使用线性核函数的svm算法加载数据并可视化:原创 2021-05-29 21:07:57 · 5103 阅读 · 3 评论 -
使用朴素贝叶斯对电影评论分类
本文内容:使用朴素贝叶斯对电影评论分类1.数据集讲解:2.具体实现:3.实验结果:实验总结使用朴素贝叶斯对电影评论分类1.数据集讲解: 该数据集是IMDB电影数据集的一个子集,已经划分好了测试集和训练集,训练集包括25000条电影评论,测试集也有25000条,该数据集已经经过预处理,将每条评论的具体单词序列转化为词库里的整数序列,其中每个整数代表该单词在词库里的位置。例如,整数104代表该单词是词库的第104个单词。为实验简单,词库仅仅保留了10000个最常出现的单词,低频词汇被舍弃。每条评论原创 2021-04-27 09:44:38 · 3238 阅读 · 1 评论 -
使用朴素贝叶斯过滤垃圾邮件
本文内容:**使用朴素贝叶斯过滤垃圾邮件**1.问题描述:2.实验原理:3.代码实现:4.测试结果:使用朴素贝叶斯过滤垃圾邮件1.问题描述:现有50封电子邮件,存放在数据集task1中,试基于朴素贝叶斯分类器原理,用Python编程实现对垃圾邮件和正常邮件的分类。采用交叉验证方式并且输出分类的错误率及分类错误的文档。2.实验原理:朴素贝叶斯:基于概率论的分类方法:朴素贝叶斯,要求分类器给出一个最优的类别猜测结果,同时给出这个猜测的概率估计值。一种有效计算条件概率的方法称为贝叶斯准则,贝叶斯准原创 2021-04-26 20:18:47 · 1758 阅读 · 0 评论 -
决策树IMDB数据集电影评测分类
目录**决策树IMDB数据集电影评测分类(二分类问题)**1. 数据集讲解:2. 代码实现:a) 取出数据集:b) 数据处理:决策树IMDB数据集电影评测分类(二分类问题)1. 数据集讲解:该数据集是IMDB电影数据集的一个子集,已经划分好了测试集和训练集,训练集包括25000条电影评论,测试集也有25000条,该数据集已经经过预处理,将每条评论的具体单词序列转化为词库里的整数序列,其中每个整数代表该单词在词库里的位置。例如,整数104代表该单词是词库的第104个单词。为实验原创 2021-04-17 20:59:23 · 1675 阅读 · 5 评论