
❤️ 机器学习
文章平均质量分 85
机器学习
iteapoy
这个作者很懒,什么都没留下…
展开
-
DFGN-Dynamically Fused Graph Network for Multi-hop Reasoning 论文阅读
将 DFGN 模型用于HotpotQA (TBQA类型的公开数据集)QA任务注重从单一的篇章中找到证据和答案,但是有一些不需要推理,只要抽取就可以了。针对这个问题,有了一些需要多跳理解任务的数据集,如 WikiHop, Complex Web Question, HotpotQA多跳理解任务需要从多个篇章中过滤噪声,抽取出有用的信息。有文章提出从输入的篇章中建立实体图,通过实体图,用GNN来聚合信息问题:静态的全局实体图,是隐式的推理本文:根据query去构建动态的局部实体图,进行显式的推理。原创 2022-12-14 00:55:13 · 482 阅读 · 2 评论 -
JEC-QA:A Legal-Domain Question Answering Dataset 论文阅读
JEC-QA:A Legal-Domain Question Answering Dataset 论文阅读笔记原创 2022-12-14 00:47:42 · 1312 阅读 · 2 评论 -
NLP/QA 基于 Bert 实现简单的问答系统
利用 transformer 库中的bert,在 wikiQA 数据集上训练模型原创 2022-10-14 15:01:48 · 3307 阅读 · 28 评论 -
Transformers 库在NLP任务上的入门与使用
transformer库入门原创 2022-10-13 23:13:55 · 2521 阅读 · 1 评论 -
python库h5py读取.mat文件以及SVHN format1的预处理
python在读写matlab文件时常用到scipy.io文件,但是,针对存储版本为“matlab-v7.3”的文件,必须用h5py模块。博主想处理 The Street View House Numbers (SVHN) 的数据集,用bounding box 剪裁出图像中的文字,发现里面的bounding box是.mat文件,想要读取,没有找到一些适合的教程,费了一番功夫才读出来。记录一下。数据集的说明:http://ufldl.stanford.edu/housenumbers/训练集的压缩包:原创 2021-06-14 15:15:58 · 1844 阅读 · 2 评论 -
自己用python写一个线性支持向量机linearSVM
一个利用梯度下降法更新的linearSVM转载 2021-06-11 13:50:05 · 689 阅读 · 0 评论 -
【Pytorch官方教程】从零开始自己搭建RNN3 - 含注意力机制的Seq2Seq机器翻译模型
这次,我们仍然要自己搭建一个RNN,与第一篇和第二篇不同的是,这次是一个单词级别的RNN,是一个从序列到序列的模型,又叫做Seq2Seq(Sequence to Sequence)模型,常用到的结构是编码器-解码器结构(Encoder-Decoder)。在这个模型中,由两个循环神经网络同时工作,把一个序列转换成另一个序列。一个编码器神经网络会把输入的序列编码成一个上下文向量,然后把这个上下文向量输入解码器网络,解码器网络把它解码成一个新的序列。原创 2020-06-07 19:33:55 · 2745 阅读 · 16 评论 -
【Pytorch官方教程】从零开始自己搭建RNN2 - 字母级RNN的生成任务
这是官方教程中同一个系列的文章,总共有3篇:第一篇,教你搭建一个字母级别(character-level)的RNN,对名字进行分类,是一个分类的任务。第二篇,教你搭建一个字母级别(character-level)的RNN,生成名字,是一个自然语言生成的任务。第三篇,教你搭建一个Seq2Seq的RNN,进行机器翻译,也是一个自然语言生成的任务。Seq2Seq是序列到序列的模型,类似于单词级别(word-level)的RNN。原创 2020-06-03 17:13:33 · 1597 阅读 · 4 评论 -
【Pytorch官方教程】从零开始自己搭建RNN1 - 字母级RNN的分类任务
来自官方教程,对于萌新学习用Pytorch做NLP任务有很大的帮助,就翻译过来,顺便自己Mark一下,因为打开官网有时候太慢了,还是看自己写的Blog比较快。另外,之前在做⭐ 李宏毅2020机器学习作业4-RNN:句子情感分类的时候,代码看起来有些难度。之前的几个作业都还能看懂,但是作业4实在跳跃度太大了,就先拿这几个练个手。这是官方教程中同一个系列的文章,总共有3篇:第一篇,教你搭建一个字母级别(character-level)的RNN,对名字进行分类。原创 2020-06-01 21:16:06 · 5155 阅读 · 30 评论 -
图解torch.gather()的用法
最近在看别人的代码时,看到一个神奇的函数torch.gather(),网上查了一下,看了半天才终于看懂对方在说什么,个人觉得这种东西应该画个图来帮助理解,于是就写了这篇博客。官方文档解释:torch.gather(input, dim, index, out=None) → Tensor Gathers values along an axis specified by dim. For a 3-D tensor the output is specified by: .原创 2020-05-19 00:04:02 · 8046 阅读 · 2 评论 -
可视化理解pytorch中transforms的具体作用
pytorch的图像处理库 torchvision 的 transforms 集成了随机翻转、旋转、增强对比度、转化为tensor、转化为图像等功能,用于数据增强,非常便捷。但是,初学者在学习 transforms 时,可能会好奇图像在经过transforms后究竟变成了什么样子,以下利用 matplotlib 来绘制图像,增强理解。实验环境jupyter notebookpython3matplotlib库pytorch库(这里以1.2.0作为演示)pillow库(这里以7.1.2作为演示)原创 2020-05-14 16:38:18 · 5977 阅读 · 1 评论 -
Colab将tensorboard嵌入jupyter notebook
如果你可以访问谷歌,那么你会发现 colab 非常好用,但是,在colab中使用tensorboard可能有一些不便,因为打开tensorboard的路径是类似localhost:6666的链接,这是远程服务器的本地连接,用我们的电脑是访问不到的。现在有一个简单的方法是直接把tensorboard嵌入到jupyter notebook中……转载 2020-05-08 13:08:05 · 1189 阅读 · 0 评论 -
用GAN进行图像去噪的邮件解答
继用GAN进行图像去噪【ImageDenoisingGAN】Image Denoising Using a Generative Adversarial一文发表后,近来收到不少邮件,在此刊登,供大家答疑解惑,也欢迎大家交流。因为本人才疏学浅,所以回答有误的地方也欢迎大家指正。原创 2019-10-25 23:53:13 · 4737 阅读 · 11 评论 -
用生成对抗神经网络进行图像去噪【ImageDenoisingGAN】Image Denoising Using a Generative Adversarial
原文和源代码: https://github.com/manumathewthomas/ImageDenoisingGAN这不是一篇严格的用GAN进行图像去噪的文章,代码有一些小小的bug需要纠正。另外,自己生成的数据集,用这个代码跑,会发现图像出现严重变色。本博主的代码更改:https://github.com/iteapoy/GANDenoising关于博主代码说明:这个...原创 2019-05-26 12:41:18 · 20459 阅读 · 25 评论 -
数字图像处理/计算机视觉常用数据集资源(预览+下载)
自己做数字图像处理的时候一点点收集的数据集。灰度图含:BSD68,Set12,RN16。彩色图含:CBSD68,Kodak24,McMaster,RNI15,CSet8预览含下载链接。BSD68数字图像处理常用数据集BSD68,68张灰度图,大小不一。下载链接:数字图像处理数据集(一)-BSD68https://download.youkuaiyun.com/dow...原创 2019-01-08 09:58:43 · 29467 阅读 · 28 评论 -
SOTA model / SOTA result / SOTA模型究竟是什么?
最近看计算机人工智能相关顶级会议的论文,看到了SOTA model,本来以为是一个很厉害的模型,但是网上都没有查到。今天会心一击,终于想起来,SOTA是state-of-the-art的缩写。SOTA model 也就是state-of-the-art model的意思,并不是特指某一个模型,而是指该项研究任务中到目前最好/最先进的模型。...原创 2020-02-21 21:32:51 · 53649 阅读 · 31 评论