- 博客(26)
- 收藏
- 关注
原创 ModuleNotFoundError: No module named ‘pointnet2_ops‘
最有可能是由于服务器cuda多版本配置,导致我每次安装都说pytorch不匹配/gcc不匹配、...各种问题出现,换了三个版本的pytorch都没成功。这个就更离谱了,本人服务器cuda有:11.7/12.1/12,8,完全没有10.1,出现的莫名其妙,根本原因还是:得在环境变量指定cuda版本。终端输入:nvcc -V 检查实际的cuda版本 (这里又遇到几个奇怪的问题,如下图)每创建一个环境都缺这个包,每次安半天,下次总忘记怎么安装的,记录一下安装过程。cuda一般不会,我都会安的比机子上低。
2025-09-20 21:10:23
451
原创 Contextual information(上下文信息)
是指在理解一个对象、事件或数据时,。它能帮助模型、人类或系统更准确地解释、判断或推理。
2025-06-25 22:23:43
324
原创 VScode : 过程试图写入的管道不存在
1)win+x:打开windows powershell,输入ssh user@10.xx.xx.xxx,连接失败,然后我去搜索为什么失败,显示错误Bad permissions. Try removing permissions for user: \\Everyone (S-1-1-0) on file C:/Users/xxx/.ssh/config. Bad owner or permissions on C:\\Users\\xxx/.ssh/config。# 再次确认权限,只剩当前用户有权限。
2025-06-16 17:30:11
556
原创 是否启用了多 GPU 支持
遇到的问题是:服务器命令CUDA_VISIBLE_DEVICES = 1,2,但在调用python.py文件的时候,py文件内的代码仅仅支持一个GPU支持。2. 主函数里添加代码 (大概是这样,如果跑不通,就要按照自己的代码改类似于model类型,例如我改成了self.model...)1. 我添加包:(这里根据自己的实际代码添加包,下面仅供参考)记住 服务器命令要改,py文件里面也要改!
2025-04-24 11:13:03
175
原创 Encoder 和 Decoder
EncoderEncoder 就是提炼“有用信息”的模块,Decoder 就是从这些信息里“重建/恢复”你需要的结果。2D Encoder = 图像操作(Conv2D、图像级处理)3D Encoder = 点云或体数据操作(Conv3D、PointNet、DGCNN)
2025-04-22 20:29:19
578
原创 想最快速度看懂一篇论文的核心点
✅输出作者对方法的总体评价未来工作的方向(也可能是方法的弱点)步骤看哪里你要知道什么①标题+摘要+图1方法干啥的?为什么做?②引言结尾+贡献点创新点在哪?有什么亮点?③方法图+小节标题方法结构是啥?用啥模块?④实验表格/可视化效果好不好?真的强吗?⑤Conclusion一句话总结它做了啥。
2025-04-22 19:40:12
592
原创 安装https://github.com/NVIDIA/MinkowskiEngine.git心得
我是在虚拟环境里面又配了一遍pytorch和cuda,详细镜像配置前面帖子写了,先去官网找对应,再去镜像网站下载3个whl.文件,最后上传服务器,pip install ***.whl, 即可。4.检查是否安装成功:终端输入:python -c "import MinkowskiEngine;解决方法:1.直接去网页本地安装:https://github.com/NVIDIA/MinkowskiEngine。5. 在fcgf这个虚拟环境就安装好啦!如果能出现对应版本号,大功告成!原因是我在服务器中配置。
2025-04-10 11:23:24
271
原创 服务器配准环境教程(miniconda+CUDA 11.1)+服务器指令
两网址:对应版本选择 和 镜像下载网站(相比于之间conda 安装快很多)git clone github复制的链接:一般用于克隆代码项目。安装完检查是否安装成功:pip show +torch..操作均在:MobaXterm_Portable_v25.0。依次:pip install 安装。下完丢进服务器中对应的文件夹下。一、下载miniconda。2.安装CUDA 11.1。
2025-02-27 21:48:09
223
原创 注意力机制(Attention Mechanism)
注意力机制的本质是动态分配权重,突出关键部分的重要性,其成功应用于各领域,特别是 NLP(Transformer、BERT)和 CV(ViT)。随着技术的发展,注意力机制已经成为深度学习中不可或缺的重要工具。
2024-12-13 20:53:49
996
原创 word中毕业论文页码设置(页码格式)/删除空白页/...(以及遇到的问题等等)
5.如果想删除指定某一页的页码,只需要孤立这一页,1.选择 布局-分隔符-分页符,2.再进入页码也,取消“链接到前一节” 3.最直接删除这一页页码。1.先鼠标动标放在摘要前,然后点击-布局-分隔符-下一页,将摘要前与摘要页设置为两部分。2.进行设置,点击 插入-页码-设置页码格式,设置为罗马数字/阿拉伯数字。这里注意:摘要 每一页的罗马数字要单独设置,例如:中文摘要页是一。只想要在摘要页设置罗马数字页码,摘要的前一页不设置。英文摘要页码页是二,页码设置时,页码设置格式改为。
2024-03-04 15:20:45
3186
1
原创 绝对路径 与 相对路径(存储路径中的参数 ‘.‘)
如果想要将des存储在固定路径,只需要修改 '.' (相对路径)为。在设置存储路径中遇到这个问题。
2024-01-10 20:13:40
487
原创 可视化点云ply文件(一个/多个)
2.要在同一个可视化窗口中显示两个 PLY 文件,需要为每个点云创建一个不同的标识符,并将它们分别添加到可视化对象中。1.注释为可视化单个点云ply文件。可视化点云ply文件代码。
2023-12-27 21:40:29
1159
1
原创 vector<Match_pair_PRratio> match_pair和vector<Match_pair_PRratio>& TOP_K
在您的代码中,是一个结构体,用于表示特征匹配对的信息。
2023-12-08 11:32:34
459
原创 python中npy转txt文件(科学计数法/十进制类型)
2.npy转成txt-十进制类型;相比于上面更改了 np.savetxt(txt_filename, data, fmt='%.2f')1.npy转成txt-科学计数法类型。
2023-12-05 17:28:18
822
原创 计算点云分辨率(c语言 与 python)
高分辨率的点云可以提供更多的细节,但同时可能需要更多的存储空间和计算资源。因此,根据具体需求选择合适的点云分辨率是非常重要的。点云分辨率是一个衡量点云数据密度和质量的指标。它反映了点云中点的平均间距或密度,通常用于描述点云中点的分布情况。:点云的分辨率不仅与点的密度有关,还与点的分布均匀性有关。即使点的总体密度较高,如果这些点集中在某些区域而在其他区域稀疏,则分辨率可能并不理想。:这是最常见的衡量点云分辨率的方法。平均点间距越小,表示点云的密度越高,分辨率越高。:这指的是单位体积或单位面积内的点的数量。
2023-12-01 22:06:11
1256
1
原创 win11 pycharm安装cuda+pytorch,创建项目如何应用
点击 pythonproject,下面那个venv点一下,然后出现下拉栏,scripts,选python.exe,确定。创建项目的时候需要激活venv环境,设置解释器,激活的作用就是能让新的项目也能运行在pytorch框架下。点settings,找plugings,开vpn,搜索栏输入chinese,下载第二个呀。旁边添加本地解释器,点旁边的 现有,点旁边的三个点。点绿色的,重启ide,变成中文了耶。先弄一个pycharm的中文插件。之前那个setting。
2023-11-29 21:15:33
510
4
原创 win 11安装pycharm(配置cuda11.6.2,pytorch),不用安装anaconda
终端输入:pip install torch==1.12.0+cu116 torchvision==0.13.0+cu116 torchaudio==0.12.0 --extra-index-url https://download.pytorch.org/whl/cu116。创建项目的时候需要激活venv环境,设置解释器。
2023-11-29 20:53:57
697
1
原创 step_size 与 local_patch (深度学习)
这样,虽然每次处理的数据量减少了,但仍然可以处理所有的数据,只是需要更多的迭代次数。:在机器学习和模式识别任务中,这些局部补丁可以被用来训练模型,识别和匹配特征点,或者进行其他相关的分析。:在您的代码中,这些局部补丁被转换为PyTorch张量(Tensors),然后在神经网络模型中用于计算描述符。描述符是对每个局部补丁的高级数学表示,用于后续的分析和处理,如特征匹配或分类。在您的代码中,您将这个值设定为20,这意味着每次迭代中,模型将处理20个局部补丁。时,每个批次处理的数据量减少,但总的迭代次数(
2023-11-29 19:53:28
939
1
原创 加载D3Feat关键点(Deep 3D Feature)
如果你已经随机选择了一些点作为关键点,并且这些关键点已经足够适用于你的任务,那么你可能不需要额外加载 D3Feat 关键点。随机选择关键点的方法在某些情况下可能足够,特别是如果你的任务对关键点的位置不太敏感或者随机选择的关键点能够很好地代表整体几何结构。D3Feat 或其他深度学习方法通常用于自动学习鲁棒的关键点表示,但如果随机选择的关键点对你的应用足够好,那么你可以继续使用这种方法。在某些情况下,随机选择的关键点可能不如使用深度学习方法提取的关键点具有鲁棒性,但这取决于具体的任务和数据。
2023-11-28 10:46:11
582
原创 the Kullback-Leibler divergence(KL) 散度,也称为相对熵(Relative Entropy)
如果 KL 散度为零,则表示 P 和 Q 完全相同;如果 KL 散度大于零,则表示 P 和 Q 之间存在差异,差异越大,KL 散度的值越大。在机器学习中,KL 散度通常用于度量两个概率分布之间的差异,例如,在概率模型中度量预测分布与真实分布之间的差异,或在聚类算法中度量不同簇之间的相似性。P(x) 表示真实分布 P 中事件 x 发生的概率,而 Q(x) 表示待比较分布 Q 中事件 x 发生的概率。需要注意的是,KL 散度不是对称的,即 KL(P || Q) 和 KL(Q || P) 可能不相等。
2023-09-05 11:15:59
314
1
原创 “直方图交集核“(Histogram Intersection Kernel)
直方图交集核通常用于图像处理、计算机视觉和模式识别等领域,用于比较图像、物体或特征的相似性。这种核函数对于处理具有不同尺度、旋转或变换的数据具有一定的鲁棒性,因为它关注特征分布的交集而不是具体的特征值。在这个核函数中,每个数据集或样本被表示为一个直方图,其中直方图的每个条目表示数据点的某种特征或属性。其中,i 是直方图的某个条目或某个特征的索引,Σ 表示对所有特征进行求和。核函数计算的结果是两个直方图之间的交集值的总和。直方图交集核越大,表示两个数据集越相似,因为它们的特征分布更相似。
2023-09-05 11:11:45
515
1
原创 VS2022版本pcl配置
这两个csdn帖子都看看,一次就配置好第一个https://blog.youkuaiyun.com/syz201558503103/article/details/103892364?spm=1001.2101.3001.6661.1&utm_medium=distribute.pc_relevant_t0.none-task-blog-2%7Edefault%7ECTRLIST%7Edefault-1-103892364-blog-82415704.pc_relevant_aa&depth_1-u
2022-06-09 12:24:18
1207
1
原创 0112C++学习
hello worldsizeof(数据类型)float double字符型转义字符字符串类型布尔类型cin前置运算符,后置运算符+= -= *=比较运算符! && ||
2022-01-12 21:30:23
180
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅