- 博客(18)
- 收藏
- 关注
原创 苍穹外卖 - 学习记录
1. 前端页面启动:找到目录里的nginx.exe双击启动(注意路径不能有中文即可),在网页输入localhost就能跳转前端页面2. 数据库:使用目录里的sql文件随便使用一个可视化数据库软件运行加载,我这里使用的是MySQL3. 后端项目编译启动:双击compile编译jdk 版本maven版本lombok版本改成.304. 编译成功5. 启动成功6. 跳到具体的实现方法:ctrl + alt + b7. 导入接口文档:便于前后端接口联调和同步开发操作。
2025-04-02 18:55:24
151
原创 juputer notebook 打开指定文件夹
5. 输入 jupyter notebook。3. conda activate 环境名。1. 打开Anaconda Prompt。4. cd /d D:/文件名。
2024-12-25 10:40:29
239
原创 服务器常用命令
conda create --name hw2 python=3.9 创建新的虚拟环境。conda remove --name hw2 --all 删除对应虚拟环境。conda activate hw2 激活对应虚拟环境。conda deactivate 退出当前虚拟环境。conda env list 查看虚拟环境。nvidia-smi 查看gpu资源。
2024-12-04 11:19:54
78
原创 支持向量机(SVM)
SVM的目标是找到一个超平面,使得支持向量到超平面的距离(即间隔)最大化。:距离分类超平面最近的样本点,简单来说,支持向量是最“边缘”的样本,它们对分类边界有重要的影响。3.径向基函数核(RBF Kernel,常用高斯核):是最常用的非线性核函数之一,适合复杂的分类任务。将一个随机分布的蓝绿色点划分出超平面(黑实线),支持向量(黑色圈着的蓝绿色点),黑色虚线代表支持向量边界。SVM尤其适用于解决二分类问题,基本思想是找到一个能够最大化分类间隔的最佳超平面,将不同类别的样本分开。
2024-10-12 12:12:41
282
原创 Zotero
gpt插件:https://gitee.com/MuiseDestiny/plugins/raw/master/zotero-gpt.xpi注册API:https://github.com/chatanywhere/GPT_API_free
2024-09-18 21:51:05
131
原创 Sunshine+Moonlight+Zerotier串流
3.打开zerotier官网注册一个ip,然后主机和客户端都要安装zerotier,加入注册的那个ip;如果出现udp,tcp端口被阻塞,需要在电脑上添加udp,tcp端口。2.客户端安装moonlight。1. 主机安装sunshine。
2024-09-11 21:26:34
424
原创 PyTorch环境配置及安装
先新建一个虚拟环境,在上图界面输入 conda create -n pytorch python=3.6 即可创建一个名为pytorch的python版本为3.6的环境。官网,下载1.1版本以上,Windows系统,conda包,python3.6版本,CUDA9.2版本(若无英伟达显卡则CUDA选None)复制对应命令运行即可安装。输入pip list可查看安装的包,可看到torch是否成功安装以及版本。输入torch.cuda.is_available()验证torch和cuda是否可用。
2024-06-26 22:40:11
860
原创 如何阅读论文
第二遍(精读):确定论文值得读之后,可以快速的把整个论文过一遍,不需要知道所有的细节,需要了解重要的图和表,知道每一个部分在干什么,圈出相关文献。觉得文章太难,可以读引用的文献。第一遍(海选):标题、摘要、结论。可以简单看一看方法和实验部分重要的图和表。这样可以花费十几分钟时间了解到论文是否适合你的研究方向。第三遍(细读):可以代入自己来思考,提出什么问题,用什么方法来解决这个问题。合上文章,回忆每一个部分在讲什么。
2024-06-06 12:01:59
155
原创 深度学习之自然语言处理(Attention)
这里我们所做的改进只是将编码器的全部时刻的隐藏状态取出来而已。通过这个小改动,编码器可以根据输入语句的长度,成比例地编码信息。可以像我们人类一样,将“注意力”集中在必要的信息上。编码器的输出的长度应该根据输入文本的长度相应地改变。中,仅将编码器最后的隐藏状态向量传递给了解码器。1.1 seq2seq存在问题。个单词,此时编码器输出 5。的反向传播是 Repeat。这里重述一下要点:“
2024-05-24 17:04:32
463
1
原创 深度学习之自然语言处理(基于RNN生成文本)
想让每次生成的文本有所不同,这样一来,生成的文本富有变化,会更有趣。在加法问题中,每个样本在时间方向上的大小不同。也就是说,加法问题处理的是可变长度的时序数据。层的隐藏状态是编码器和解码器的“桥梁”。在正向传播时,编码器的编码信息通过 LSTM。在反向传播时,解码器的梯度通过这个“桥梁”传递给编码器。那么,解码器是如何“处理”这个编码好的向量,从而生成目标文本的呢?并不是必然的(不是确定性的),而是概率性的。学习可变长度的时序数据时,最简单的方法是使用。如果有更好的语言模型,就可能有更好的文本。
2024-05-21 17:43:49
449
1
原创 深度学习之自然语言处理(Gated RNN)
遗忘门从上一时刻的记忆单元中删除了应该忘记的东西,但是这样一来,记忆单元只会忘记信息。输入门不会不经考虑就添加新信息,而是会对要添加的信息进行取舍。的各个元素,调整它们作为下一时刻的隐藏状态的重要程度。为了解决梯度消失问题,需要从根本上改变 RNN 层的结构,提出Gated RNN。记忆单元的特点是,仅在 LSTM 层内部接收和传递数据。此时,关注时间方向上的梯度,可知反向传播的梯度流经 tanh。这样一来,新的信息就被添加到了记忆单元中。的对应元素的乘积添加到记忆单元中。会发生梯度消失和梯度爆炸的问题。
2024-05-16 17:38:19
406
原创 深度学习之自然语言处理(RNN)
前馈型神网络:指网络的传播方向是单向的,先将输入信号传给下一层(隐藏层),接收到信号的层也同样传给下一层,然后再传给下一层……像这样,信号仅在一个方向上传播。存在问题:不能很好地处理时间序列数据(以下简称为“时序数据”)即单纯的前馈网络无法充分学习时序数据的性质。所以需要引入RNN(循环神经网络)1 概率和语言模型。
2024-05-07 12:05:32
1302
原创 深度学习之自然语言处理(word2vec的高速化)
word2vec中最大的问题是,随着语料库中处理的词汇量的增加,计算量也随之增加。对上一章中简单的word2vec进行两点改进:引入名为Embedding 层的新层,以及引入名为的新损失函数。1 word2vec的改进①假设词汇量有100万个,CBOW模型的中间层神经元有100个。
2024-05-06 12:04:03
1652
原创 深度学习之Numpy
解决方案:网速太慢导致,使用国内镜像源安装;中国科学技术大学: http://pypi.mirrors.ustc.edu.cn/simple/中国科技大学: https://pypi.mirrors.ustc.edu.cn/simple/清华大学: https://pypi.tuna.tsinghua.edu.cn/simple/清华源: https://pypi.tuna.tsinghua.edu.cn/simple/阿里云: http://mirrors.aliyun.com/pypi/simple/
2024-04-07 15:11:10
332
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人