- 博客(24)
- 收藏
- 关注
原创 清理被占用的GPU显存
使用nvidia-smi,发现明明没有进程运行,但显寸被占用很多,应该怎么清理呢?这会显示所有占用GPU的进程,包括。1. 查找隐藏的GPU进程。
2025-12-07 13:52:33
212
原创 Xshell+tmux本地服务器
重新连接:下次连上 Xshell 后,输入 tmux attach -t myjob,你之前的界面、光标位置、打印日志会完好无损地显示出来。如果网断了,或者你想关电脑走人,按快捷键 Ctrl + B,松开后按 D (Detach)。此时任务在后台继续运行。新建会话[名字为myjob]
2025-12-04 21:00:00
204
原创 服务器与autodl的数据传输
获取 AutoDL 的登录信息 在 AutoDL 控制台的“容器实例”列表中,找到“登录指令”。想在autodl租一台性能更好的显卡,本地服务器上有大模型的pretrain model需要迁移,怎样直接将服务器与租的显卡相链接,从而跳过本地的权重传输这一步骤?如果你的模型文件很大(几十 GB),网络稍微波动一下 scp 可能会断掉,断掉后必须重头再来。-P: 显示进度条,并且支持断点续传(关键)。注意: scp 的指定端口参数是大写的 -P。-e: 指定 ssh 连接的端口。-v: 显示详细过程。
2025-12-02 12:28:22
177
原创 Google Drive稳定下载教程
值得注意的是,从挂载的云端硬盘到本地的复制传输,这时本质是在执行下载操作。因为 Google 的服务在国内无法直接访问,这些数据流量必须经过 Clash 的代理通道才能传输到你的本地机器,因此绝对会消耗你的 Clash 节点流量。有时浏览器下载别人分享的大文件会断联,为了解决这一问题,可以首先安装好desktop版的Google Drive,这个应用实现了云端硬盘和自身电脑的挂载。方案 A:最快的方法(打开对应的分享链接,直接“创建副本”)这会直接在您自己的网盘里生成一个一模一样的文件。
2025-11-29 19:52:55
137
原创 linux系统zstd 多核 CPU 进行加速压缩
tar -cf - ...: 将 samples/CAM_FRONT、maps 和 v1.0-trainval 打包并输出到标准输出(不落地生成中间文件)。注意 samples/CAM_FRONT 会保留目录层级,解压时会自动还原到 samples 文件夹下,非常安全。zstd -T0: 调用 zstd 压缩,-T0 表示自动使用所有可用的 CPU 核心(实现您要的加速)。今天发现一个好的压缩工具,速度十分快!zstd 是现代压缩标准,速度极快,压缩率高,且原生支持多线程。-o ...: 输出最终文件。
2025-11-27 11:41:49
161
原创 关于在conda中配置tensorflow的环境
这里推荐两篇Blog,详细说明了tensorflow gpu与cuda与cudnn的配置方法,众所周知,想让tf跑起来,环境适配非常重要。
2025-06-12 13:53:54
228
原创 转载VS code运行和调试python程序
可能会遇到报错,python debugger的版本很重要。需要按照链接创建launch.json文件。
2024-12-23 11:18:48
266
原创 VScode调试Python说明
(1)逐过程:即逐行顺序调试;在遇到函数时,会把函数从整体上看做一条语句,不会进入函数内部。这个就不多说,在需要的代码行前面点上红点;(2)单步调试:进入函数内部调试。(4)单步跳出:跳出本函数的执行。(3)继续:运行到下一个断点。3.带有命令行的调试。
2024-10-11 16:40:42
310
原创 Python装饰器@的用法(类与函数)
语法对应的是装饰器(decorator),是 Python 中一个非常强大的功能,它允许你在不修改函数或类代码的前提下,给它们添加额外的功能。装饰器的一个应用就是:在可扩展的深度学习框架中,写好一个注册函数,然后每定义一个损失函数或检测头等类,就可以调用注册函数进行注册。最近在学习一个开源工程文件,作者在许多定义的类之前使用了@符号。2.self是访问实例(对象)的属性和方法,在类的方法中是必须的参数,指向当前的实例对象。比如下面的代码,在不改变Tokyo的类代码情况下,为类增加了一个“打招呼”功能。
2024-10-02 14:08:10
302
原创 kitti数据集介绍
在demo中,虚线是相机的90°视角,只对视角内的LiDAR进行标注,因为看不到的区域标注毫无意义。如果要使用mmdetection进行训练,需要将kiiti数据集按照下图进行组织。数据集是按文件名一一对应的,然后ImageSets对其进行划分。物体的标注如下图所示。
2024-09-19 16:13:02
369
原创 Transformer理解(一)
首先说明计算规则:输入的向量矩阵,都需要与Wq,Wk和Wv这三个矩阵相乘,才会得到Q,K,V。先把K转置,然后Q与之相乘,得到矩阵A(注意力得分,T行T列),对A的每一项进行缩放(除以根号D_out),按行计算Softmax。这里Up主举了一个很生动的例子:“美女”在字典中形容很漂亮的女性,如果紧跟一句“加个微信吧”,那么大概率真的说明这个人很好看,但如果接的是“麻烦让一让”,那美丽的程度可能大幅度降低了。而加法就是逐项相加。词向量是具备一些基础语义的,但是语义是受限的,V就是表示词典里查到的客观语义。
2024-09-11 22:32:11
518
原创 台式机安装ubuntu20.04笔记
rufus制作启动U盘 -- ubuntu-20.04.6-desktop-amd64.iso-优快云博客安装Ubuntu系统详细教程_ubuntu安装-优快云博客
2024-08-15 20:24:53
292
原创 补充:理解Query、Key和Value
Query(查询)每个输入元素(如单词、字符等)都有一个Query向量。Query向量表示我们正在寻找的信息或特征。在计算注意力权重时,Query用于匹配Key,从而确定关注哪些元素及其重要程度。Key(键)每个输入元素也有一个Key向量。Key向量表示元素的特征或内容。Key用于与Query匹配,计算两者的相似度或相关性,从而确定哪些元素对当前Query重要。Value(值)每个输入元素还有一个Value向量。Value向量表示实际的信息或特征值。
2024-07-30 17:26:58
3019
原创 多层感知机(MLP)笔记
多层感知机(Multilayer Perceptron,简称MLP)是一种典型的前馈神经网络。它由多个层次的节点(也称为神经元)组成,其中每一层的节点与下一层的节点全连接。MLP通常包含一个输入层、一个或多个隐藏层以及一个输出层。每个节点使用一个激活函数来处理输入,并输出到下一层。
2024-07-30 16:56:42
424
原创 Recurrent Neural Network-01
假设一个需求:客户发送语句给自动订票系统,网络输出目的地和到达时间。词语编码向量,这并不难。如“Taibei”会被网络识别为目的地,“Nov 12th”会被识别为时间。现在可能会遇到一个问题,如果客户说“I want toleaveTaibei on Nov 12th”呢?这就需要机器有记忆力,在看到“Taibei”之前已经看到过“leave”这个词汇,从而分辨出发和到达的地点与时间。
2024-07-28 23:13:23
228
原创 图神经网络-01
接下来,介绍图的聚合(Aggregate)的定义:在图神经网络中,聚合操作用于节点特征的更新,例如下图通过邻居节点的特征来更新当前节点的特征,最终Readout从节点的特征表示中提取出图的全局特征。思路2:应用数据处理的傅里叶域(Fourier Domain)等概念,基于光谱的方法。已知图包含结点(Node)和边(Edge),如何用卷积的方法将节点嵌入到特征空间?这其中,GAT和GCN是常用的网络图神经网络模型。思路1:将卷积的概念推广到图——空间近邻的卷积;
2024-07-27 17:39:41
416
原创 注意力机制简介
与传统的前馈神经网络(如全连接网络和卷积神经网络)不同,RNN具有循环的结构,能够保留序列数据的上下文信息。该类任务output与input的数量相同,一个简单的思路是使用全连接层依次处理,但这对于句子理解等任务是不适用的,比如“I saw a saw(锯子)”,模型无法区别不同词性,所以需要考虑上下文信息。以a1为例,首先是找到Sequence中的其余元素与之的相关联程度α,它的计算方法有很多,常用的方法有Dot-product。谁的α越大,谁的k越大,说明对应的v就会对结果有更大的影响。
2024-07-25 11:07:39
1691
原创 卷积神经网络
虽然感受野的可以自己定义,但也有常规的方法:默认考虑图像的每个channel,长宽的尺寸被叫做kernel size,下图中的kernel size是3×3。感受野并不是划分的,而是有重叠的,移动的步长是stride,这也是人工设定的hyperparameters。它的出发点是:以图像识别为例,一只鸟的“喙”可能出现在不同的区域,如果在每个区都用一个neuron侦查“喙”,过多的重复工作会带来过多参数量。图像分类问题与前面的回归是不一样的,模型的输入是固定尺寸的图片,输出是一个Vector(向量)
2024-07-23 22:15:06
413
原创 机器学习任务攻略
本节介绍在训练网络时的一些技巧。如果训练好的模型表现不尽人意,第一步是检查损失函数在训练集上的表现,如果Loss太大,说明在训练资料上没学好。接下来对于多种可能的原因,给出了应对思路。当模型过于简单时,可能找不到很好的函数去预测。解决思路:重新设计model,给它更大的弹性,如使用更多的特征、更深的网络(2)Optimization的问题可能是在优化过程中陷入局部最小值。如何确定是model bias还是优化的问题呢?
2024-07-22 19:17:01
380
原创 Pytorch入门
tensor有加减乘等运算,也有求和sum()和求平均mean()等函数,另外还有transpose、squeeze、unsqueeze、cat等对维度操作的函数。在进行validation和testing的时候,要把梯度关掉,目的是为了避免验证集或测试集干扰模型参数。Tensor是Pytorch的数据组织格式,dim(维)和numpy中的axis含义相似。是一个类,用于构建神经网络模型的容器。Pytorch是一个Python机器学习框架,优点是可以使用GPU进行高维的矩阵运算,而且方便梯度计算。
2024-07-22 14:42:47
503
原创 机器学习基本概念(二)
与Sigmoid函数相似的,有ReLU函数,两个ReLU起到1个sigmoid函数的相似作用,在机器学习中都被称为Activation function(激活函数),这些激活函数就叫做Neuron,很多个组合在一起就叫做Neural network。以上就完成了ML的第一步,得到带有未知数的函数,后面要考虑的就是如何定义Loss以及如何优化求解。如下图所示的蓝色折线,多个这样的线重叠可以逼近曲线模型。深度学习的训练会用到Backpropagation(反向传播),是一种比较高效的算Gradient的方法。
2024-07-21 23:27:17
265
原创 机器学习基本概念(一)
后者是需要自己设定的,被称为hyperparameters(超参数)。梯度变化的内容,理解原理即可,在Pytorch等深度学习网络框架中,仅需一行代码就可以完成计算。为了衡量w和b的值有多好,需要设计一个损失函数(Loss function)L(w,b),其值越小,说明学习到的w和b越让人满意。为了优化求解最优的w和b,机器学习通常采用Gradient descent(梯度下降)方法,如下图所示,决定变化率的有偏导数与学习率。w是weight,b是bias,这两个的值是需要通过学习得到的。
2024-07-20 20:33:57
282
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅