- 博客(81)
- 收藏
- 关注
原创 手写HOG
为了减少光照因素的影响,降低图像局部的阴影和光照变化所造成的影响,我们首先采用Gamma校正法对输入图像的颜色空间进行标准化(或者说是归一化)。所谓的Gamma校正可以理解为提高图像中偏暗或者偏亮部分的图像对比效果,能够有效地降低图像局部的阴影和光照变化。##作者在他的博士论文里有提到,对于涉及大量的类内颜色变化,如猫,狗和马等动物,没标准化的RGB图效果更好,而牛,羊的图做gamma颜色校正后效果更好。 是否用gamma校正得分析具体的训练集情况。举一个非常简单的例子对于85这个像素点 他的梯度赋值为 G
2022-09-28 12:20:36
654
原创 CS231n课程笔记:Leture7 Training Neural Networks II
【代码】CS231n课程笔记:Leture7 Training Neural Networks II。
2022-09-26 14:31:26
263
原创 CS231n课程笔记:Leture6 Training Neural Networks I
【代码】CS231n课程笔记:Leture6 Training Neural Networks I。
2022-09-26 14:31:14
405
原创 CS231n课程笔记:Leture8 Deep Learning Software
【代码】CS231n课程笔记:Leture8 Deep Learning Software。
2022-09-26 14:30:06
155
原创 CS231n课程笔记:Leture5 Convolutional Neural Networks
if stride 2 what about stride 3? zero pad the borders padding value *2 + N If you got any questions here,you can learn from this blog in details(21条消息) CNN中卷积核数和输出通道数的关系_co2e的博客-优快云博客_卷积核个数与输入输出通道数关系ok Question:Input volume :32x32x310 5x5 filters with s
2022-09-20 22:37:52
867
原创 CS231n课程笔记:Leture4 Backpropagation and Neural Network
【代码】CS231n课程笔记:Leture4 Backpropagation and Neural Network。
2022-09-20 22:37:39
123
原创 CS231n课程笔记:Leture3 Loss Functions and Optimization
so if we've got some one-dimensional function f that takes in a scaler x, and then outputs the height of some curve, then we can compute the slope or derivative(导数) at any point by imagining.
2022-09-20 22:37:18
263
原创 CS231a课程笔记:Lecture2 Camera Models
A1:不能work 因为胶片上的每一个像素收集到的是整个物体发出的光在这个像素上的聚合 所以它无法区分这个光是从物体的哪个部分发出来的 也就是说这个像素代表不了物体上的一个单元。K内参矩阵 是一个三角矩阵 R是一个旋转矩阵 正交矩阵 T是一个三维的平移向量 Pw是三维坐标系下的一个点 是4X1的一个齐次坐标。A2:当我们孔变大 透过这个孔的光变多了 就不再单点了 那么物体上的一个点在film上会有多个光斑 就会产生重影。假设所有的旋转矩阵是一个集合 任何一个旋转矩阵都可以分解为围绕三个轴的旋转矩阵的连乘。
2022-09-17 17:30:16
561
原创 CS231n课程笔记:Leture2 Image Classification
如果我们的图像size 是 32*32*3 然后我们把它展开成3072*1的向量 如果我们想要得到10*1的class scores 我们就需要乘以10*3072的参数矩阵 有时候我们也会加上一个10*1 的bias。我们可以把image 看作是高维空间中的一个点 然后线性分类器正在放入这些线性决策边界 来尝试分类。在训练集中选择不同的超参数来训练我们的算法 在验证集上进行评估 在验证集上表现最好的超参数集。我们现在可以可视化与cifar-10中十个类别中的每一个相对应的学习权重矩阵中的那些行。
2022-09-17 17:23:18
437
原创 Detectron2环境配置加测试(Linux)
然后 安装我们需要用的包 注意opencv的版本 最好是干净的环境 一套流程走下来 以免发生版本不兼容的问题。我这里实验室服务器满了 所以用的cpu 有gpu的话 把MODEL.DEVICE cpu去掉就好了。一般大文件 我都会用git lfs clone 不过lfs是需要自己安装的 具体可以csdn找到。3.安装detectron2时 -e . 需要注意一下 not detectron2。(一定要注意自己的CUDA版本 我的是11.6所以用下面的代码)然后进detectron2的github。
2022-08-24 02:57:08
639
原创 SegFormer:Simple and Efficient Design for SemanticSegmentation with Transformers阅读笔记
VIT使用位置编码PE(Position Encoder)来插入位置信息,但是插入的PE的分辨率是固定的,这就导致如果训练图像和测试图像分辨率不同的话,需要对PE进行插值操作,这会导致精度下降。为了解决这个问题CPVT(Conditional positional encodings for vision transformers. arXiv, 2021)使用了3X3的卷积和PE一起实现了data-driver PE。我们认为语义分割中PE并不是必需的。
2022-08-22 03:44:50
592
原创 DETR:End-to-End Object Detection with Transformers阅读笔记
我们提出了一种新的方法,将对象检测视为一个直接集预测问题。我们的方法简化了检测流程,有效地消除了许多手工设计组件的需要,如非最大抑制程序或锚定生成,这些组件显式编码了我们关于任务的先验知识。新框架被称为检测Transformer(DEtection TRansformer,简称DETR),其主要组成部分是1.基于集合的全局损耗(提出了一个新的目标函数),通过二分图匹配进行唯一的预测,2.以及Transformer编码器-解码器架构。给定一个固定的小集合的。
2022-08-21 16:01:22
1241
原创 Leetcode1 字符串压缩
第三个字符是b 与当前压缩字符不一致 那么要将之前的压缩字符结果保存到ans中 即a2 那么当前压缩字符变为b 当前压缩字符计数为1。定义两个变量 当前压缩字符ch 和当前压缩字符计数 cnt = 1。如果第一个是 a 则设置为当前压缩字符为a 当前压缩字符计数为1。第二个字符还是a 与当前压缩字符一致 那么压缩字符计数就更新为2。定义ans 作为最终的结果返回 遍历整个字符串。最后还要有一个判断 返回长度较小的字符串。...
2022-08-19 01:15:30
331
原创 HMM隐马尔可夫模型最详细讲解与代码实现
首先就要说到中文分词 现阶段的分词手法一般有三大流派1.基于规则: 前后向最大匹配2.基于统计:HMM, CRF3.基于深度学习:Bilstm+crf 那么我们今天重点要讲的就是其中之一HMM隐马尔可夫模型 再说一下为什么要进行分词?1.更好的理解语义(能够提高模型性能)2.为了更重要的任务 如(命名实体识别、情感分析、文本分类 、语义识别等等)3.应用场景的需要 (淘宝、百度)搜索算法对于分词的要求就非常高But 并非所有中文任务都需要进行分词! 比如说 Bert (NSP)然后绕不开的一个点就是语料
2022-07-01 01:10:23
2832
1
原创 A Unified MRC Framework for Named Entity Recognition阅读笔记
论文地址: https://arxiv.org/pdf/1910.11476.pdfgithub:ShannonAI/mrc-for-flat-nested-ner: Code for ACL 2020 paper `A Unified MRC Framework for Named Entity Recognition` (github.com)总结:将ner任务看成mrc(machine reading comprehension)任务 解决实体嵌套问题如 北京大学不仅是一个组织 ..
2022-05-12 22:42:32
549
原创 Simplify the Usage of Lexicon in Chinese NER阅读笔记
基于之前Lattice LSTM的问题进行改进 Lattice LSTM虽然达到了SOTA 但是模型结构非常复杂 限制了在工业上的应用 这篇提出了一个简化且高效的模型 融合了词汇信息到字编码中 避免了复杂的序列建模结构 而且对于任何神经NER模型 只需要对字表示层进行微调来引入词汇信息本文提出了两个方法 后者为前者的优化第一个方法 构造exsoftword特征 这种方法能保存所有可能的词典匹配的分词结果{B, M , E, S, O}对应(begin, middle, end, single,
2022-05-09 18:59:01
763
原创 Distantly Supervised NER with Partial Annotation Learning and Reinforcement Learning阅读笔记
论文地址:Distantly Supervised NER with Partial Annotation Learning and Reinforcement Learning (aclanthology.org)GitHub:rainarch/DSNER: Distantly Supervised NER with Partial Annotation Learning and Reinforcement Learning (github.com)先翻译再说理解Abstract :在新领
2022-05-05 21:02:43
526
原创 Pandas数据清洗总结
# 导入import numpy as npimport pandas as pd# 查看版本pd.__version__文本文件的读取: 对于csv或txt后缀的文本文件,用read_csv函数来实现文件的导入。重要参数的含义如下pd.read_csv(file_path_or_buffer, #指定导入文件的具体路径sep = ', ', # 指定元数据中各种变量之间的分割符,默认是逗号,可自行修改header='infer' , #默认将数据集首行作为表头(列名),若原
2022-04-21 18:31:57
1021
原创 Kaggle_NBME NLP比赛Baseline详解(2)
这部分主要讲代码分四个部分讲解1.Dataset设计2.Model设计3.Loss函数设计4.一些QA1.Dataset设计目标:每次迭代计算的时候要取出部分数据放入模型实现的方法:继承torch.utils.data.Dataset具体转化方法:先定义一个prepare_input的方法将文本转化为tensor再定义一个create label的方法将annotation的标记转化为tensor我们碰到nlp问题的时候 一定要搞清楚模型的输入和输出是什么 其实现
2022-04-21 18:30:53
2249
原创 Prompt Learning详解
现阶段NLP最火的两个idea 一个是对比学习(contrastive learning) 另一个就是 promptprompt 说简单也很简单 看了几篇论文之后发现其实就是构建一个语言模板 但是仔细想想又觉得复杂 总感觉里面还有很多细节 因此我想从头到尾梳理一下prompt 很多地方会把它翻译成[范式] 但是这个词本身不好理解 我个人更倾向于看作是模板首先我们要知道预训练模型(Bert为首)到底做了什么?我觉得是预训练模型提供了一个非常好的初始化参数 这组参数在预训练任务上的表现非常好(预训.
2022-04-15 21:28:37
11159
3
原创 最详细NER实战讲解-bilstm+crf(6)数据增强
为什么要做数据增强?提高模型学习各种长短句子的能力import pandas as pdimport pickleimport numpy as npfrom tqdm import tqdmimport os# 先把所有的数据 拼接 融合在一起 将所有的字全部换成对应的下标def get_data_with_windows(name='train'): with open (f'data/prepare/dict.pkl', 'rb') as f: map
2022-03-28 17:45:39
1282
原创 论文阅读笔记-Glyce: Glyph-vectors for Chinese CharacterRepresentations
论文地址:https://arxiv.org/pdf/1901.10125v5.pdfgithub地址:https://github.com/ShannonAI/glyceAbstract:对于像中文这样的标志图形语言来说,NLP任务应该从这些语言中的符号信息的使用中受益,这是很直观的。然而,由于象形文字缺乏丰富的象形证据,标准计算机视觉模型对文字数据的泛化能力较弱,如何有效地利用象形文字信息还有待探索。在本文中,我们通过预先设置Glyce(汉字的字形向量)来解决这一问题。主要创新有三方面:
2022-03-24 11:44:17
391
原创 论文阅读笔记-Lattice: Chinese NER using Lattice LSTM
论文地址:github地址:https://github.com/jiesutd/LatticeLSTMAbstract我们研究了一个格子结构的LSTM模型,该模型对输入的字符序列以及与词库相匹配的所有潜在词汇进行编码。与基于字符的方法相比,我们的模型明确地利用了词和词的序列信息。与基于单词的方法相比,我们的模型明确地利用了单词和词序信息。网格LSTM不会出现分割错误。门控递归单元允许我们的模型从一个句子中选择最相关的字符和词,以获得更好的NER结果。在各种数据集上的实验表明,格子LST
2022-03-23 15:20:40
1810
原创 最详细NER实战讲解-bilstm+crf(5)生成映射字典
我们要将每一个字 分词边界 词性 偏旁部首 拼音都要映射成向量现在要来统计里面有多少个不同的 字 标签 分词边界这些 然后做成idtolabel labeltoid这种
2022-03-22 20:07:44
676
原创 论文阅读笔记-FLAT: Chinese NER using Flat-Lattice Transformer
论文地址:https://arxiv.org/pdf/2004.11795.pdfgithub地址:https://github.com/LeeSureman/Flat-Lattice-Transformer再给大家推一个作者本人的讲解视频 讲的特别透彻【AI TIME PhD】结合词典的中文命名实体识别-李孝男_哔哩哔哩_bilibili还是先把论文过一遍吧 这篇论文里面可能会涉及到Lattice LSTM的内容 这篇论文后续也会仔细研究的 okAbstract工作中提出,命名实.
2022-03-22 17:18:29
2040
原创 论文阅读笔记-FGN: Fusion Glyph Network for Chinese Named Entity Recognition
论文地址:paper:https://arxiv.org/ftp/arxiv/papers/2001/2001.05272.pdfgithub地址:github:https://github.com/AidenHuen/FGN-NER主要创新点:1.提出了一种CGS-CNN的新型CNN结构,以获取字形信息和相邻图形之间的交互信息2.我们提供了一种具有滑动窗口和注意力机制的方法来融合每个字符的bert表示和字形表示这种方法可以捕获上下文和字形之间现在的交互知识,在四个误码率数据集上进行的实
2022-03-21 18:05:04
2821
原创 NER 常见问题(BIO BIOES BMES)标注之间的转换
实习收到的第一个任务人民日报数据集的训练集用的就是BIO格式然后我们转化为BIOES 和 BMES首先是BIO转BMESpath = r'./input/data_train.txt'res_path = r'./output/BMES.txt'f = open(path, encoding='utf-8')f1 = open(res_path, 'w+', encoding='utf_8')sentences = []sentence = []label_set = se
2022-03-19 16:36:09
4850
7
原创 最新NER模型及效果调研
我们根据不同的数据集来划分各个模型的得分情况首先是MSRA数据集然后是WEIBOner数据集以及OntoNotes4Resume NER可以看到在Top榜上许多模型存在多次故我们需要调研的为以下模型:FGN Lattice Flat-Lattice Flat Glyce+bertbert-mrc bert-mrc+DSCflat+bertaesinerslk-nerlstm+Lexicon augment...
2022-03-18 17:22:40
2039
原创 Kaggle_NBME NLP比赛baseline讲解(1)
最新的一个kaggle nlp比赛 和大家分享一下baseline和基本的kaggle操作主要由以下这几个部分构成:1.赛题分析2.数据EDA3.模型选择及训练代码构建4.成绩提交 # 一篇应该讲不完 后面会继续更新1.赛题分析目标:在病人的病例中,找出各个疾病对应的临床表现 简单来说就是QA问题 但是根据实际情况 同一病症会有多个临床表现 所以也可以看成是一个token分类问题 把和相关病症有关的token标记成1 把无关的标记成0问题转化: QA问问题 & To.
2022-03-15 18:40:41
4075
原创 最详细NER实战讲解-bilstm+crf(4)提取词边界和词性特征
造一个空的列表 用来保存最终的结果tags = []起始位 start = 0 end = 0 参照着前面文本的长度 一点点去截取
2022-03-13 22:12:01
2188
原创 最详细NER实战讲解-bilstm+crf(3)获取标签
import osimport pandas as pdfrom collections import Counterfrom data_process import split_textfrom tqdm import tqdmimport jieba.posseg as psg # 结巴的词性标注train_dir = '自己写'def process_text(idx, split_method=None): """ idx:文件的名字 不要扩展名 .
2022-03-11 17:50:54
647
2
原创 最详细NER实战讲解-bilstm+crf(2)数据预处理
目录1.找到分隔符的index2.过滤特殊字符串同时也是将文本分割为长短句3.处理长短句问题1.找到分隔符的index我们写个测试一下输出值为匹配到的:,有一个span 就是找到的标点符号的起始位置和结束位置为了展示的更清楚一些span所表示的东西 我们再写个测试可以看到在第一个输出中span[0]就是,的下标span[1]是后面的‘预’的下标后面就表示为m.span[0] (在循环中)2.过滤特殊字符串同时也是将文本分割为长短句...
2022-03-08 16:08:37
2099
原创 最详细NER实战讲解-bilstm+crf(1)数据准备
bilstm+crf也是现在实际应用上用的最多的模型!1.数据介绍一个txt文件对应一个ann文件文件内容展示.txt文件就是一些关于糖尿病的文档T1 T2标号 symptom症状 anatomy 结构test_value等等实体类型1845 1850就是指 实体出现的位置做这个模型的目的是什么??将来直接用算法 拿来一个文本 直接标注 不再需要人工标注1.先设计好标签 每个字都有一个标注标签要做成什么样子?隐马尔科夫模型里 这些字就是..
2022-03-07 17:10:48
3602
5
原创 Leetcode933(队列篇)
队列的特点:先入先出单端队列:只有一个口可以进,一个口可以出双端队列:两个口都可以进,两个口都可以出时间复杂度:Access:O(n)Search:O(n)Insert:O(1) 只需要在末尾段插入Delete:O(1) 同上队列常用操作:创建队列: queue = deque() 实际创建的是双端队列添加元素: queue.append O(1)获取即将出队的元素:temp1 = queue[0] O(1)删除即将要出队的元素:temp2 = queue.po
2022-02-21 14:53:29
133
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人