- 博客(51)
- 资源 (3)
- 收藏
- 关注
原创 集成学习理论梳理-bagging、boosting
1.baggingBagging 的思路是所有基础模型都一致对待,每个基础模型手里都只有一票。然后使用民主投票的方式得到最终的结果。具体过程:2.boostingBoosting 和 bagging 最本质的差别在于他对基础模型不是一致对待的,而是经过不停的考验和筛选来挑选出「精英」,然后给精英更多的投票权,表现不好的基础模型则给较少的投票权,然后综合所有人的投票得到最终结果。具体过程:3.bagging与boosting区别样本选择上:Bagging:训练集是在原始集中有放回选取的,
2022-06-30 11:06:25
433
原创 【python】python文件操作
2.read()、readline() 、readlines()3.write()、writelines( )write()要写入字符串writelines()既可以传入字符串又可以传入一个字符序列,并将该字符序列写入文件。 注意必须传入的是字符序列,不能是数字序列。4. f.close() f.closed()5.with open as f打开方法这种打开文件的方式不用写f.closed关闭文件6.f.encoding取文件打开的编码【推荐阅读】【推荐阅读】示例:......
2022-06-28 20:04:25
300
原创 Leetcode14天算法入门-Day4双指针
编写一个函数,其作用是将输入的字符串反转过来。输入字符串以字符数组 s 的形式给出。不要给另外的数组分配额外的空间,你必须原地修改输入数组、使用 O(1) 的额外空间解决这一问题。557. 反转字符串中的单词 III给定一个字符串 s ,你需要反转字符串中每个单词的字符顺序,同时仍保留空格和单词的初始顺序。...
2022-06-27 21:44:02
157
原创 Leetcode14天算法入门-Day3双指针
给定一个数组 nums,编写一个函数将所有 0 移动到数组的末尾,同时保持非零元素的相对顺序。请注意 ,必须在不复制数组的情况下原地对数组进行操作。示例 1:输入: nums = [0,1,0,3,12]输出: [1,3,12,0,0]思路及解法使用双指针,左指针指向当前已经处理好的序列的尾部,右指针指向待处理序列的头部。右指针不断向右移动,每次右指针指向非零数,则将左右指针对应的数交换,同时左指针右移。注意到以下性质:左指针左边均为非零数;右指针左边直到左指针处均为零。因此每次交换,都是将
2022-06-26 20:18:20
168
原创 Leetcode14天算法入门-Day2双指针
给你一个按 非递减顺序 排序的整数数组 nums,返回 每个数字的平方 组成的新数组,要求也按 非递减顺序 排序。示例 1:输入:nums = [-4,-1,0,3,10]输出:[0,1,9,16,100]解释:平方后,数组变为 [16,1,0,9,100]排序后,数组变为 [0,1,9,16,100]法1:暴力解题法2:双指针 归并排序设置正数和负数一个界限neg法3:双指针同样地,我们可以使用两个指针分别指向位置 0 和 n−1,每次比较两个指针对应的数,选择较大的那个逆序放入答案并移动
2022-06-24 11:07:58
182
原创 [蓝桥杯]-算法训练组-python
文章目录1.印章1.印章问题描述 共有n种图案的印章,每种图案的出现概率相同。小A买了m张印章,求小A集齐n种印章的概率。输入格式 一行两个正整数n和m输出格式 一个实数P表示答案,保留4位小数。此题采用动态规划(Dynamic Programming,DP)的方法求解,动态规划的三要素:最优子结构、边界和状态转移函数。最优子结构:每个阶段的最优状态可以从之前某个阶段的某个或某些状态直接得到边界:问题最小子子集的解(初始范围)状态转移函数:从一个阶段向另一个阶段过度的具体形式
2022-04-14 10:17:31
242
原创 [时序数据趋势预测]论文阅读思考总结[2022.3.25-2022.4.1]
文章目录1.时序数据预测为什么要用LSTM网络?1.时序数据预测为什么要用LSTM网络?在使用深度学习处理时序数据时,RNN是经常用到的模型之一。在深度学习领域中(尤其是RNN),“长期依赖“问题是普遍存在的。长期依赖产生的原因是当神经网络的节点经过许多阶段的计算后,之前比较长的时间片的特征已经被覆盖,导致产生梯度消失/爆炸。处理梯度爆炸可以采用梯度截断的方法。所谓梯度截断是指将梯度值超过阈值θ \thetaθ的梯度手动降到θ \thetaθ 。梯度消失不能简单的通过类似梯度截断的阈值式方法来解决
2022-04-14 10:15:12
1430
1
原创 [时间序列趋势预测]前期知识汇总
文章目录1.降维方法2.回声状态网络(ESN)3.LSTM网络4.PSO算法(粒子群优化算法)过程5.Adam算法6.RMSprop算法-优化算法7.迁移学习中特征向量提取以及微调8.FdeAVG算法在阅读论文《基于改进联邦学习的时序数据趋势跟踪及应用_胡尧》时涉及到的算法,仅次记录1.降维方法机器学习中会用到降维方法,常用的降维方法有两种:PCA(主成分分析)和SVD(奇异值分解)SVD奇异值分解作为一个很基本的算法,在很多机器学习算法中都有它的身影。SVD奇异值分解是线性代数中一种重要的矩阵分解
2022-03-23 16:35:03
2026
原创 [蓝桥杯]-基础练习组-python
文章目录1.A+B2. 数列排序3.16进制转化为8进制4. 十六进制转十进制5.十进制转十六进制6.特殊回文数7.回文数8.特殊的数字9.杨辉三角形10.查找整数11 数列特征12.字母图形 找规律13.01字串14.闰年判断15.Fibonacci数列16. 圆的面积17. 序列求和1.A+BA,B=map(int,input().split())C=A+Bprint(C)2. 数列排序lst1 = []n = int(input())lst2 = input().split(' ')
2022-03-09 20:57:58
946
原创 【RL】第八章-基于模型的规划与学习-Dyna算法
文章目录8.1 环境的模型8.2 整合了学习与规划的RL学习算法—Dyna算法8.3 基于模拟的搜索8.3.1 简单蒙特卡罗搜索8.3.2 蒙特卡罗树搜索Dyna算法编程8.1 环境的模型8.2 整合了学习与规划的RL学习算法—Dyna算法Dyna 算法从实际经历中学习得到模型,同时联合使用实际经历和基于模型采样得到的虚拟经历来学习和规划,更新价值和 (或) 策略函数基于行为价值的 Dyna-Q 算法的流程如算法 7所述。8.3 基于模拟的搜索在强化学习中,基于模拟的搜索 (simulati
2022-02-18 16:42:09
1066
原创 【RL】第七章-DPG基于策略梯度的深度强化学习
文章目录简介基于策略学习的意义策略目标函数演员-评论家算法深度确定性策略梯度(DDPG)编程-DDPG算法的实现简介仅此记录大体框架供自己学习使用,格式因此随意基于策略学习的意义策略目标函数演员-评论家算法深度确定性策略梯度(DDPG)编程-DDPG算法的实现好文章推荐...
2022-02-18 14:48:54
334
原创 【RL】同策略(on-policy)与异策略(off-policy)
文章目录同策略on-policy异策略off-policy同策略、异策略区别Sarsa:同策略时序差分控制Q-learning:异策略时序差分控制同策略on-policy异策略off-policy同策略、异策略区别Sarsa:同策略时序差分控制Q-learning:异策略时序差分控制...
2022-01-28 22:05:56
1734
原创 【RL】基于神经网络(深度学习)的Q学习算法(DQN)
文章目录DQN介绍DDQN介绍编程-基于Pytorch实现DQN求解PuckWorld问题PuckWorld环境介绍:DQN介绍DQN(Deep Q-Learning)是将深度学习与强化学习相结合,当Q-table他过于庞大无法建立的话,使用DQN是一种很好的选择。DQN算法主要使用经历回放(experience replay)(经验池)来实现价值函数的收敛。使用Deep Q-learning方法,从每一episode中得到的奖励来迭代更新Q(s,a). DQN算法中,(具体方法后续更出)继将每一
2022-01-28 21:35:25
3327
1
原创 【RL】预测与控制问题
文章目录预测控制预测预测问题:最终基于某一策略最终价值函数Vπ(S)\begin{array}{c}V_{\pi }(S) \end{array}Vπ(S)或Qπ(S,A)\begin{array}{c}Q_{\pi } (S,A)\end{array}Qπ(S,A)控制控制问题:找到最优价值函数V∗(S)或Q∗(S,A)\begin{array}{c}V_{*} (S) 或 Q_{*} (S,A)\end{array}V∗(S)或Q∗(S,A)PS:以后学习过程中不断
2022-01-27 11:00:00
1235
原创 全连接神经网络VS卷积神经网络基本概念理解
文章目录1.全连接神经网络2.卷积神经网络2.1走五子棋的例子2.2卷积核2.3通道2.4池化2.5全连接层1.全连接神经网络全连接神经网络中,对n-1层和n层而言,n-1层的任意一个节点,都和第n层所有节点有连接。即第n层的每个节点在进行计算的时候,激活函数的输入是n-1层所有节点的加权,这个激活函数是非线性的。它的缺点就是权重太多了,计算量很大。它可作用于大多数场景2.卷积神经网络2.1走五子棋的例子2.2卷积核卷积核:负责检测对应的一个特征。卷积核的大小也影响网络的架构,早期习惯
2021-12-26 15:51:03
2812
原创 【视觉+IOT】论文笔记-Visual Object Detection and Tracking for Internet of Things Devices Based on Spatial
基于空间注意力机制的多域网络的物联网设备视觉对象检测与跟踪Visual Object Detection and Tracking for Internet of Things Devices Based on Spatial来源:IEEE 2021论文提纲
2021-12-26 11:01:05
7141
原创 蓝桥杯02-李白打酒(递归问题求解)
李白打酒话说大诗人李白,一生好饮。幸好他从不开车。一天,他提着酒壶,从家里出来,酒壶中有酒2斗。他边走边唱:无事街上走,提壶去打酒。逢店加一倍,遇花喝一斗。这一路上,他一共遇到店5次,遇到花10次,已知最后一次遇到的是花,他正好把酒喝光了。请你计算李白遇到店和花的次序,可以把遇店记为a,遇花记为b。则:babaabbabbabbbb 就是合理的次序。像这样的答案一共有多少呢?请你计算出所有可能方案的个数(包含题目给出的)。注意:通过浏览器提交答案。答案是个整数。不要书写任何多余的内容这是一
2021-12-22 10:06:52
458
原创 蓝桥杯-01幻方填空(python)
题目描述-幻方填空(python)import itertoolsnums = itertools.permutations([2, 3, 4, 5, 6, 7, 8, 10, 12, 14])for i in nums: num = list(i) #将元组转换成列表,列表自身带有0,1,2 sum_1 = 16 + num[0] + num[1] + 13 sum_2 = num[2] + num[3] + 11 + num[4] sum_3 = 9 + num[
2021-12-22 09:39:09
176
原创 【计算机视觉】论文笔记-FCOS: Fully Convolutional One-Stage Object Detection
文章目录前言前提知识1.CNN与FCN:2.FCOS:该算法是一种基于FCN的逐像素目标检测算法,3.H×W×C4.COCO数据集5.ground truth box6.FPN结构:特征金字塔网络方法改进-FPN对FCOS的多层次预测FCOS会产生大量偏离目标中心的边界框前言此论文笔记为本人课堂小组展示,特此记录部分内容前提知识1.CNN与FCN:CNN:卷积神经网络FCN:全卷积网络通常cnn网络在卷积之后会接上若干个全连接层,将卷积层产生的特征图(feature map)映射成为一个固定长
2021-12-15 14:16:05
3574
原创 【RL】ε-贪心算法
文章目录前言ε-贪心算法总结前言初学者对于贪心算法总是会模棱两可,不懂ε具体代表含义,以至于写代码的时候弄淆概念,特此记录下正确算法概念ε-贪心算法ε-贪心的意思是说,我们有 1 − ε 的概率会按照 Q 函数来决定动作,通常 ε 就设一个很小的值,1 − ε可能是 90%,也就是 90% 的概率会按照 Q 函数来决定动作,但是你有 10% 的机率是随机的。通常在实现上 ε 会随着时间递减。在最开始的时候。因为还不知道哪个动作是比较好的,所以你会花比较大的力气在做探索。接下来随着训练的次数越来越
2021-12-15 14:04:13
4184
原创 【RL】MC首次访问和MC每次访问+TD实例(随风行走)
文章目录首次访问蒙特卡洛策略评估每次访问蒙特卡洛策略评估TD实例:MC与TD区别:首次访问蒙特卡洛策略评估每次访问蒙特卡洛策略评估TD实例:#!/usr/bin/env python# -*- encoding: utf-8 -*-'''@File : RandomWork.py@Time : 2021/12/12 16:57:13@Author : zhangzhe @Version : 1.0@Contact : 841121040@
2021-12-12 20:54:32
1490
原创 【DL】4个问题的思考与解决
这里写自定义目录标题协方差矩阵协方差矩阵在统计学中,方差是用来度量单个随机变量的离散程度,而协方差则一般用来刻画两个随机变量的相似程度,其中,方差的计算公式为其中,n表示样本量,在此基础上,协方差的计算公式被定义为...
2021-12-12 20:13:10
2478
原创 Python 常用函数
这是一个不断更新的博客…文章目录np.mean(data, axis=0)函数np.dot()函数np.hstack(tup)X.dot(a)np.mean(data, axis=0)函数axis=0,那么输出矩阵是1行,求每一列的平均(按照每一行去求平均);axis=1,输出矩阵是1列,求每一行的平均(按照每一列去求平均)。还可以这么理解,axis是几,那就表明哪一维度被压缩成1。np.dot()函数主要有两个功能,向量点积和矩阵乘法np.hstack(tup)np.hstack(tup)
2021-12-12 14:52:50
1591
原创 【DL】构建具有单隐藏层的2类分类神经网络-带有一个隐藏层的平面数据分类
文章目录第三周作业 - 带有一个隐藏层的平面数据分类一、加载和查看数据集二、构建神经网络的一般方法是:2.1定义神经网络结构2.2 初始化模型的参数2.3 循环2.3.1 前向传播2.3.2计算损失2.3.3 向后传播2.3.4更新参数整合三、预测正式运行1.更改隐藏层节点数量2.当改变sigmoid激活或ReLU激活的tanh激活时会发生什么?3.改变learning_rate的数值会发生什么4.如果我们改变数据集呢?第三周作业 - 带有一个隐藏层的平面数据分类我们简单说一下我们要做什么。我们要建立一
2021-12-06 14:39:47
2348
原创 【DL】搭建一个能够【识别猫】 的简单的神经网络
文章目录一、处理数据集二、构建神经网络三、使用神经网络可视化吴恩达深度学习week2-实战:搭建一个能够【识别猫】** 的简单的神经网络**我们要做的事是搭建一个能够**【识别猫】** 的简单的神经网络h5py文件是存放两类对象的容器,数据集(dataset)和组(group),dataset类似数组类的数据集合,和numpy的数组差不多。group是像文件夹一样的容器,它好比python中的字典,有键(key)和值(value)。group中可以存放dataset或者其他的group。”键”就是组成
2021-12-06 14:18:50
246
原创 【RL】Q-learning走迷宫案例及改进
创建迷宫环境import numpy as npimport timeimport sysimport tkinter as tk import randomUNIT = 40 # pixels 像素MAZE_H = 4 # grid height 网格高度MAZE_W = 4 # grid width 网格宽度class Maze(tk.Tk, object): # 继承 def __init__(self): super(Maze, self)..
2021-11-23 21:29:56
1102
1
原创 【RL】迭代法评估4*4方格世界下的随机策略
强化学习实践一 迭代法评估44方格世界下的随机策略本篇用代码演示《强化学习》第三讲中的示例——方格世界,即用动态规划算法通过迭代计算来评估44方格世界中的一个随机策略。#!/usr/bin/env python# -*- encoding: utf-8 -*-'''@File : RL_practice1.py@Time : 2021/11/11 21:30:11@Version : 1.0@Contact : 841121040@qq.com@License
2021-11-16 20:02:45
285
原创 pytorch创建一个简单的分类器-OPM内核崩溃
遇到的问题:OMP: Error #15: Initializing libiomp5md.dll, but found libiomp5md.dll already initialized.OMP: Hint This means that multiple copies of the OpenMP runtime have been linked into the program. That is dangerous, since it can degrade performance or cau
2021-11-10 21:05:25
253
原创 【20天吃掉pytorch】day3-bug记录
问题一、将torchtext.data改成torch.legacy.dataTEXT = torchtext.legacy.data.Field(sequential = True ,tokenize = tokenizer,lower =True, fix_length = MAX_LEN,postprocessing = filterLowFreqWords)python - 属性错误 :module 'torchtext.data' has no attribute 'TabularData
2021-11-06 13:41:17
458
原创 【20天吃掉pytorch】day2-bug记录
问题一、问题二、input和target的size不匹配解决:自己粗心在组件模型的时候没有return y,所以input和target的size不匹配
2021-11-05 14:22:41
113
原创 【RL】异策略算法Q-Learning寻宝藏小例子
介绍例子的环境是一个一维世界, 在世界的右边有宝藏, 探索者只要得到宝藏尝到了甜头, 然后以后就记住了得到宝藏的方法, 这就是他用强化学习所学习到的行为。#先定义qtable 再定义如何去选择行为,再不断地更新#表格是表示寻宝者在每一个位置的选择的概率import numpy as npimport pandas as pdimport timenp.random.seed(2) #产生伪随机数列 每次产生都是一样的 #seed( ) 用于指定随机数生成时所用算法开始的整数值,如果使
2021-10-29 10:11:45
585
原创 吴恩达机器学习课后编程作业(Week3)
文章目录*week3 多类分类*week3 多类分类对于此练习,我们将使用逻辑回归来识别手写数字(0到9)。我们将扩展我们在练习2中写的逻辑回归的实现,并将其应用于一对一的分类。 让我们开始加载数据集。它是在MATLAB的本机格式,所以要加载它在Python,我们需要使用一个SciPy工具。#是个十类的问题 import numpy as npimport pandas as pdimport matplotlib.pyplot as pltfrom scipy.io import lo
2021-10-11 08:37:58
819
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人