
机器学习与深度学习
文章平均质量分 54
简述在求学路上遇到的机器学习以及深度学习的小案例
YunMo_SixYear
生活从来没有你想的那么容易,但我为卒,从不后退。
展开
-
RuntimeError: ‘lengths’ argument should be a 1D CPU int64 tensor, but got 1D cuda:0 Long tensor
关于提示Tensor数据类型错误的处理方法原创 2023-02-27 23:01:05 · 1746 阅读 · 0 评论 -
GitHub学习——Pycharm上传github,实现异地编程
个人电脑和实验室电脑异地编程导致代码数据不同步。因此利用github和pycharm实现commit和push功能。未完待续,以此记录学习生活,尚有不足,欢迎指出讨论。原创 2022-07-19 11:18:43 · 1463 阅读 · 0 评论 -
Python基础——pandas读取tsp数据
写在前面:最近在做TSP的作业,老师给了berlin52的文件,开头是一些脏数据,一共6行,如何跳过脏数据,直接读取有效数据?方法1最笨最有效的,手工处理,把多于数据删掉。方法2通过跳行操作。具体使用read_cvs的skiprows函数。skiprows=n,即代表连续跳前n行。如果不读取指定行,即skiprows=[1,2,3],括号内输入指定行号即可错误示范:skiprows=[3:6],不支持切片操作。其他错误请见链接:https://blog.youkuaiyun.com/w原创 2022-03-29 21:40:25 · 979 阅读 · 0 评论 -
Python基础——pandas.errors.ParserError: Error tokenizing data. C error: Expected 2 fields
**报错信息;**pandas.errors.ParserError: Error tokenizing data. C error: Expected 2 fields问题代码:df = pd.read_csv(r'berlin52.tsp', sep=" ",skiprows=6, header=None)city = np.array(df[0][0:len(df)-2]) # 最后一行为EOF,不读入city_name = city.tolist()print(city_name).原创 2022-03-29 21:35:24 · 6014 阅读 · 0 评论 -
Pytorch基础——关于LeNet中的padding值
问题源头:老师在上课中对LeNet-5的过程进行了解析,我在看回放的时候,发现在第一层卷积的时候,padding的值没搞清楚多少,故对于输出计算不太理解。(听老师口述padding=1,却不知道在不需要填充的时候,就不用padding值,在结尾已给出叙述和资料解释)LeNet流程如下:**输出:**w_out=(w_in+2P-R)/S+1padding的解释:对边缘部分没有运算的数据,做补0操作。当padding=1,则周围都补0,padding=0的话,代表不需要填充附:valid p原创 2022-03-21 16:29:39 · 3064 阅读 · 0 评论 -
Pytorch基础——手写体识别MLP(内置Xavier,dropout函数)
前言:最近忙于做作业,平常看资料之类的都觉得没困难,一到动手就歇菜。用来记录生活。整个题目的要求呢:第一是构建一个能识别手写体的神经网络,输入64维的数据,然后输出10个数据。个人理解呢,就是这个数据集是,8*8的就是64维度。10个输出,就是0-9数字判断。import torchfrom matplotlib import pyplot as pltfrom torch import nn, optimfrom torch.nn.modules import dropoutfrom tor原创 2022-03-20 15:44:59 · 1859 阅读 · 0 评论 -
深度学习-GAN在NLP应用的讨论及思路
转载:作者:加勒比海鲜王链接:https://www.jianshu.com/p/92f6624135be来源:简书说实话,是聆听了大神们,本人只是捧哏似的嗯、啊了几句。之前paperweekly的GAN讨论组要进行一次讨论,给出了很多议题进行投票。里边有GAN in NLP、GAN and RL、半监督GAN等我比较感兴趣的话题。也有图像相关的关于GAN的正统问题。没想到最后GAN in NLP获得了最多的票数。我原来对于把GAN应用于NLP叫做剑走偏锋,没想到志同道合的人这么多…接下来是对转载 2021-11-19 08:13:45 · 1989 阅读 · 0 评论