- 博客(89)
- 收藏
- 关注
原创 @Transactional注解失效的解决
要添加事务,有两个步骤:1 在config配置类中,选择合适的事务管理器添加到Ioc容器中;2 选择要添加事务的方法,在该方法上添加@Transactioinal注解。完成上述两步之后,在测试类中进行测试,结果显示,可以正常地完成修改数据的操作。但是,为@Transactional注解配置readOnly=true和timeout=3都失效,完全没有效果。
2024-11-06 10:15:00
196
1
原创 【报错解决】
以上就是小白遇到的报错及解决办法(已经出错不止一次了【大哭】),希望大家不要跟我一样犯这种低级错误。这里是希望你能越来越好的小白~~最后检查发现,报错原因是在config配置类中配置数据库连接池的4个属性时的方式不正确导致的。
2024-11-05 21:13:14
228
原创 【报错解决】使用@SpringJunitConfig时报空指针异常
具体的报错如下图所示:我的测试代码如下:解决办法Test导包导错了,应该导入再重新运行就可以成功输出了,如下、这里是希望能与你一起成长进步的小白,希望以上内容对大家有所帮助~~~
2024-11-05 11:05:33
580
原创 将stanfordcorenlp的tokenizer换成自定义的(或用stanfordcorenlp对自定义tokenizer分词后的结果做ner)
基于以上动机,我查找了相关资料,发现需要对下载到的stanfordcorenlp的原文件夹中的tokensregex中的代码进行修改。,这对于某些nlp场景可能就不太合适了,自然的就想到能不能将stanfordcorenlp中用于分词的tokenizer替换掉,替换成自定义的,这样就可以控制中文分词结果是你想要的了。分析stanfordcorenlp的分词结果,可以发现,它好像是对。本文是基于中文语料做的,对于英文语料应该也是同理,即同样适用的。这里是希望你能越来越好的 小白冲鸭 ~~~
2024-06-08 22:21:44
469
原创 stanfordcorenlp+python做中文nlp任务,得到的结果中全是空字符串,而不是中文字符串
用到的依赖包:stanford-corenlp-full-2016-10-31、stanford-chinese-corenlp-2016-10-31-models.jar。
2024-06-08 17:44:47
575
原创 pytorch使用DataParallel并行化保存和加载模型(单卡、多卡各种情况讲解)
话不多说,直接进入正题。!!!不过要注意一点,本文保存模型采用的都是,而不是保存整个模型的情况。一定要看清楚再用啊!
2024-06-07 21:58:44
1814
4
原创 【报错解决】深度学习模型训练时cuda内存足够但测试时反而报错cuda out of memory
第一行代码初始化模型,在cpu上进行,第二行代码,首先torch.load函数将模型参数加载到cpu上,然后model.load_state_dict函数加载模型到cpu上,第三行代码直接将整个模型放到gpu上,避免了重复加载模型参数,节省了gpu内存,就不会再造成cuda内存不够而报错了,第四行代码是将模型进行并行化处理,也就是说,如果你有多块gpu的话,这行代码可以将模型复制到多块gpu上进行并行化计算,当然如果你只有一块gpu或只有cpu,加了这行代码也没什么影响,不会报错。
2024-06-07 21:23:03
1145
原创 【报错解决】NotImplementedError: Unable to handle scheme ‘f‘, expected one of (‘‘, ‘file‘, ‘ftp‘, ‘ftps‘,
我几乎尝试了网上能查到的所有相关解决办法,结果还是会报这个错误。最后我想起来好像代码上传服务器的时候文件路径没有进行修改,然后修改地址后在运行,就成功了,不报错了。这简直就是啪啪打脸,要被自己蠢哭了,浪费了两天时间。希望大家都不要像我一样犯这么低级的错。
2024-06-06 16:35:02
236
原创 【报错解决】opnet14.5报错:网络中的某个节点的src_stat没有具体化
我查阅大量资料并进行尝试之后发现,报错原因是:可能节点模型选错了。就是在节点模型面板中,比如选择PC时,节点模型选错了,我这里是选的ethernet_station_adv(错误的),导致节点内部的进程模块的数据线的src_stat属性为空,没有具体化,所以会报以上错误。解决办法就是换一个节点模型,我这里是换成ethernet_wkstn_adv就可以了,就可以成功运行仿真了。
2024-04-13 11:38:33
295
6
原创 python导入本地当前目录下的文件和父目录下的文件
对,你没有看错,就是在tokenizer的前面加一个点,无敌简单的方法,或许有时候简单的反而更有效【笑哭】【笑哭】【笑哭】import osimport sys就可以成功导入了。
2024-04-05 12:59:50
564
原创 anaconda虚拟环境安装apex0.1教程win10
我安装apex0.1的环境是:torch(gpu)1.8.0,cuda10.2,cuda8.5。
2024-04-05 10:03:37
2639
1
原创 【anaconda报错解决】Fatal error in launcher: Unable to create process using ‘“d:\anaconda3\envs\pytorch-gp
它前面报错的"d:\anaconda3\envs\pytorch-gpu-1.2.0\python.exe"中的pytorch-gpu-1.2.0是我以及那个删除掉的虚拟环境,这报错看着就很奇怪。上网去查,解决办法都是二进制的什么操作,完全看不懂,也不敢尝试。
2024-03-29 14:52:05
2198
2
原创 将字典写入json文件python,其中的中文变成unicode编码
json.dumps()方法将dict的数据转换为str数据,然后将str写入到文本中,但是json.dumps()方法会默认将其中unicode码以ascii编码的方式输入到string。在json.dumps()方法中加入一个参数,并把值设置为False(默认为True),即可显示中文。
2024-03-19 21:46:33
499
原创 【报错解决】main.py: error: the following arguments are required: --data_dir, --save_dir
时,报出了这一错误,
2024-03-15 15:44:12
1069
原创 stanfordcorenlp创建实例对象时,一直运行,不报错也不出结果
前几天因为工作需要下载了Stanford Corenlp工具,然后创建相应的实例对象,对文本进行分词、注释等操作。单句测试的时候可以正常运行,很快就出结果,但是写到函数里,就是一直运行,不报错也不出结果,debug发现是卡在了创建对象那里。后来经过一番努力【疯狂搜索】,终于解决了~~~【哈哈哈哈哈哈】
2024-03-15 10:41:24
619
原创 python居然还有Union类型?
在Python中,Union类型是一种用于表示一个变量可以是多个不同类型之一的类型注解。它是typing模块中的一个类,可以与其他类型一起使用,以指定一个变量可以接受的多个类型。# 这里的type1、type2等代表要包含在Union类型中的类型,可以是任何合法的类型,包括内置类型、自定义类型和其它Union类型。
2024-03-13 19:40:30
2308
原创 电脑上同时安装多个版本的cuda
比如,我原本安装的cuda是9.0版本的,现在我新安装的cuda是9.2版本的。当需要配置多个anaconda虚拟环境,并且其tensorflow或pytorch的版本不同时,所需的cuda的版本也不同,因此,可能会需要在电脑上同时安装多个版本的cuda。)那么,只要让新版本的(9.2版本的)cuda的这四个环境变量的位置,在旧版本(9.0)cuda的这四个环境变量的位置 之上即可。然后一路确定退出,再在cmd中输入nvcc -V,即可返回新安装的cuda的版本:9.2。
2024-03-12 17:14:51
1724
原创 【pytorch】pytorch学习笔记(续5)
(1)解决方案:每一次计算的时候都检查一下w的梯度信息,如果梯度>阈值,则用当前梯度除以当前梯度的模(方向保持不变),然后再乘阈值,这样就将梯度缩放到了阈值范围内。2.考虑上下文语境信息:用一个单元把上文信息记录下来,在计算当前层的h时,不仅要考虑当前层的输入,还要考虑上一层的h。将原本的梯度=Whhk变成了梯度=四项累加的和,大大减少了梯度特别小的情况的出现概率,从而有效减轻了梯度离散。公认的一个前提:在G没有训练的时候(即刚开始的时候),pr和pg是几乎没有重叠(overlap)的。
2024-01-27 17:00:00
442
原创 【pytorch】pytorch学习笔记(续4)
前22层训练后,与后8层并列的有一个短路层,如果后8层的训练效果并不好,那就训练完前22层后走短路层,如果后8层训练得好,那前22层训练完后就走后8层。后面的层是对前面的层的一个综合,它不是对应元素相加,而是拼接,因此其channel会变得很大。由图可见,在堆叠到20层左右的时候,再增加层数,会由于层数过多,训练难度过大,而导致train的效果不好,从而导致模型的效果并不好。2.test时,可能只有一个测试案例,所以是无法取到batch的均值和方差的,所以test时使用的均值和方差是全局的均值和方差。
2024-01-27 12:30:00
968
原创 【pytorch】pytorch学习笔记(续3)
因为对损失函数最小化的时候,不仅对原本的损失函数做了最小化,还对正则项做了最小化,从而使得模型的低微变量的参数相对较大,二高维变量的参数十分接近于0,这就会造成不仅使得模型的表现最优,还使得模型的复杂度得到了降低的效果,从而实现在不影响模型表现的情况下降低模型复杂度的目的。若没有的话则什么都不做,只是记录一下。(1)如何实现:对每一个w(或者每一条边)定义一个额外的属性:probaiblity,即在前向传播中,每一条边都有一定的概率会输出为0,即把原本应输出为wx的输出为0,即把这条连接(即边)给断掉。
2024-01-26 16:15:00
551
原创 【pytorch】pytorch学习笔记(续2)
(2)如果设置了p.backward(retain_grad=True),那么执行完该语句后再执行p.backward()就不会报错了,但如果第三次执行p.backward()而第二次p.backward()中没有设置retain_grad=True,那么第三次执行会报错。:1.X,Y=np.meshgrid(x,y):把x和y的范围传进去,就会生成两张图片,每张图片上相同位置的两个点拼在一起,就会形成一个坐标(x,y)。注意:w.norm()返回的是L2范数,w.grad.norm()返回的是。
2024-01-26 09:45:00
997
原创 【pytorch】pytorch学习笔记(续1)
上图中第19行中label.expand(4,10),label是一个size是[10]的tensor,使用expand操作后就变成了[4,10]的tensor,expand操作当确实维度的时候可以在当前维度前面自动添加一个新维度并对其进行扩展吗?2.函数的梯度是一个向量,这个向量的方向表示这个函数在当前点的增长方向,这个向量的模即长度代表了这个函数在当前这个点增长的一个速率。常用,如概率,RGB等。12.k-th:即第k个的值:kthvalue(k,dim=1):只能表示最小的,即k表示第k小的。
2024-01-25 20:00:00
694
原创 【pytorch】pytorch学习笔记
(2)squeeze(idx):idx为要删减的那个维度的参数,如果不给idx的话,会把所有能删减的(即:dim.size为1的维度)都删减掉。3.Tensor()生成的类型是默认的类型,即把默认的类型设置成什么类型,Tensor()生成的就是什么类型的tensor,通常会把默认的类型由float改为double,因为double类型的精度是64位,会更精确一些。dim(2)是size/shape([2,2])的长度,size/shape是tensor([1,2][3,4],两行两列的一个矩阵)的形状。
2024-01-25 09:00:00
933
原创 【报错解决】anaconda: Read timed out.
换一个源进行下载,比如使用清华源、豆瓣源等。我这里是使用百度镜像下载的,速度较快,而且也不会报错,几分钟就下载完成了。造成以上报错的原因是:网络连接出现问题,无法下载。
2024-01-24 11:02:14
1358
原创 【c++】利用嵌套map创建多层树结构
首先定义一个节点类Node类,要包括children(用map容器实现),即用map结构来模拟子树,然后整棵树也用一个map结构来实现。因此,总体来说,就是用一个嵌套的map结构来实现多层树结构。以下给出每一步具体的描述 及相应的代码。定义树结构之前要先定义一个节点类Node类,要包括键、值、children等属性,并包括有参无参构造函数,此外,本文还实现了一个打印所有节点包括的键值对的函数(PrintTree函数)。Node* left;Node() {}
2024-01-14 10:30:00
1558
原创 【vs】vs编辑器的光标变粗,输入字母会把光标选中的字母覆盖掉
在vs2019编辑器中,光标突然变粗,在选中的位置输入字母会把光标选中的字母覆盖掉。
2024-01-11 20:13:44
964
原创 hugging face官网打不开,bert-large-uncased-whole-word-masking-finetuned-squad模型无法下载到本地
最近在用bert预训练模型做问答任务时,想要下载bert-large-uncased-whole-word-masking-finetuned-squad模型,但是打不开hugging face官网,下载不了该模型。这一问题困扰了我很久,但终于还是解决了 hh~
2024-01-10 07:45:00
907
原创 【hugging face无法加载预训练模型】OSError:Can‘t load config for ‘./bert-base-uncased‘. If you‘re trying
当运行以下两行代码时,明明已经将下载到本地的bert-base-uncased模型放到了当前py文件的目录下,
2024-01-09 17:30:00
3613
原创 【hugging face无法加载预训练模型】OSError:Can‘t load config for ‘./bert-base-uncased‘. If you‘re trying
当运行以下两行代码时,明明已经将下载到本地的bert-base-uncased模型放到了当前py文件的目录下,
2024-01-09 11:15:11
6749
原创 【报错解决】RuntimeError: Expected tensor for argument #1 ‘indices‘ to have one of the following scalar
直接换一个函数生成tensor,就是不再使用Tensor()函数了,而是使用torch.tensor()函数,也就不会报错了。在Tensor()函数后面加.long()转换成long类型,就不会再报错了。
2024-01-08 19:40:40
3657
原创 【报错解决】ModuleNotFoundError: No module named ‘setuptools.build_meta‘
更新以下setuptools即可。
2024-01-08 19:33:36
2388
原创 【KD】知识蒸馏(knowledge distillation)简单介绍
最近学到了知识蒸馏的相关知识,来简单总结一下૮꒰ ˶• ༝ •˶꒱ა。知识蒸馏知识蒸馏,是一种模型压缩的手段。通过训练学生模仿教师的行为,将嵌入在大的教师模型中的知识迁移到小的学生模型。例如,TinyBERT(Jiao et al.,2020)通过在通用领域的大规模语料库上执行通用的蒸馏,首次得到了一个通用的蒸馏小模型,然后在微调阶段用下游任务数据执行面向特定任务的蒸馏。DynaBERT通过从全量模型到小规模的子模型的知识蒸馏,训练了一个宽度自适应和深度自适应的BERT模型。
2024-01-06 16:33:11
727
原创 【txt->dataframe】将txt文件中的数据读入,并转换成dataframe对象
原始数据保存在txt文件中,需要从中读入数据,并将其转换成dataframe对象,以便后续进行处理。
2024-01-04 19:30:41
1764
原创 【报错解决】TypeError: __init__() got an unexpected keyword argument ‘size‘
【代码】【报错解决】TypeError: __init__() got an unexpected keyword argument ‘size‘
2024-01-03 20:17:38
1096
原创 【dataframe】将dataframe中的数据保存到csv文件或txt文件中
对比以上两个代码片段,可以发现,将dataframe中的数据保存到csv文件和txt文件的主要区别在于:函数中的sep参数值的设置,保存到csv文件中sep=',';保存到txt文件中sep='\t'。
2024-01-03 20:11:37
3065
原创 【形式语言与自动机/编译原理】CFG-->Greibach-->NPDA(3)
本文将详细讲解《形式语言与自动机》(研究生课程)或《编译原理》(本科生课程)中的上下文无关文法(CFG)转换成Greibach范式,再转成下推自动机(NPDA)识别语言是否可以被接受的问题。此外,本文还给出了python代码的具体实现。由于内容比较多,所以为了讲清楚,分成了3篇博客,第一篇主要讲 解从上下文无关文法到Greibach范式的具体步骤和流程,并给出了相应的算法及具体的例子;第二篇主要讲解从Greibach范式到下推自动机NPDA,同样给出了相应的算法及具体的例子;
2024-01-01 09:14:10
762
PMR-main.zip PMR源码
2024-04-07
pip-21.1.3.tar.zip
2024-03-26
allennlp-0.8.5
2024-03-26
Zoom视频会议软件电脑版安装包 ZoomInstaller(电脑版).exe
2024-03-14
OPNET14.5 包交换实验 官方教程(英文原文) pdf
2023-11-17
opnet仿真实验LAN modeling
2024-05-06
TA创建的收藏夹 TA关注的收藏夹
TA关注的人