自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(196)
  • 收藏
  • 关注

原创 【Linux】通俗易懂讲解-正则表达式

本文介绍了正则表达式(regex)的基础知识,将其比作"文本的超级搜索密码"。正则表达式能高效解决日志过滤、文件筛选、文本替换等场景问题,比传统方法更快捷。文章重点讲解扩展正则表达式(ERE),详细解析了元字符如.、*、+、?的匹配规则,以及字符组[]、或运算符|、分组()等核心概念。同时介绍了位置锚点^$和预定义字符类\d等实用技巧,帮助读者构建文本匹配模式,适用于Linux命令行和编程场景。

2025-08-10 20:39:24 892 3

原创 【AlphaFold3】网络架构篇(8)| 深入浅出-详解Auxiliary heads

AlphaFold3的辅助模块包含三个关键技术:1) 迷你扩散展开:训练时从纯噪声出发进行20步短扩散,生成预测坐标供其他模块使用,但不更新梯度;2) 链置换与对称性解析:使用文献方法对齐预测结构与真实结构的链标识,并通过RDKit解决原子命名歧义;3) 置信度预测:模型输出pLDDT、PAE、PDE三种指标,其中pLDDT通过50维softmax分箱预测局部结构相似性,仅考虑配体与聚合物的相互作用。这些技术共同解决了生物分子结构预测中的关键挑战,包括链标识匹配、原子级对齐和预测可靠性评估。

2025-07-31 10:42:49 943

原创 【AlphaFold3】网络架构篇(7)| 详解Diffusion training set-up

本文介绍了扩散模型的训练方法及其在蛋白质结构预测中的应用。该方法通过数据增强和并行训练显著提升效率,采用加权对齐MSE损失、键长辅助损失和平滑LDDT损失相结合的多目标优化策略。其中,对不同类型原子(蛋白质、核酸、配体)赋予不同权重,重点关注难预测的原子结构。训练时采用动态噪声采样,推理时使用200步的平滑噪声调度。该方法通过刚性对齐和加权计算,在保持化学键长度正确性的同时,优化局部和全局结构相似性,为蛋白质结构预测提供了有效的扩散训练框架。

2025-07-30 16:12:45 815

原创 【AlphaFold3】网络架构篇(6)|Diffusion Module讲解

AlphaFold 3采用扩散模型预测原子坐标,通过迭代去噪从随机噪声生成高精度结构。其核心组件Diffusion Module将主干网络特征作为条件输入,使用改进的Transformer架构进行去噪。算法18描述了从噪声到结构的完整采样流程:首先采样初始噪声,然后通过多步迭代(中心化增强、噪声注入、去噪预测、坐标更新)逐步优化原子位置。算法20详细说明了去噪器的实现,包括条件处理、特征初始化、两级Transformer架构等关键设计。该模型不依赖几何偏置,通过数据驱动学习原子分布,可灵活处理蛋白质、核酸等

2025-07-29 15:12:34 1705

原创 【AlphaFold3】网络架构篇(5)|Template embedding & Pairformer stack

本文介绍了AlphaFold3中两个核心模块的功能与设计差异。 模板嵌入模块通过整合多模板的结构特征(如距离图、残基类型)生成成对表示,与上一轮预测结果动态融合,为模型提供参考结构的约束。该模块采用多模板独立处理取平均的策略,并利用掩码机制过滤无效信息,显著提升低同源序列的预测精度。 Pairformer堆叠模块替代了AlphaFold2的Evoformer,专注于优化单特征表示和成对表示。关键改进包括:1)仅使用单序列特征而非MSA子集;2)取消列方向注意力;3)成对表示通过注意力偏置单向调控单特征信息流

2025-07-29 09:28:21 1075

原创 【AlphaFold3】网络架构篇(4)|MSA Module

AlphaFold 3的MSA模块(多序列比对模块)通过改进的注意力机制处理进化信息,显著提升了计算效率。该模块包含4个同质块,通过外积均值将MSA特征转换为成对表示(pair representation),并采用门控加权平均更新MSA特征。与AlphaFold 2相比,其创新点在于:1)独立处理MSA各行,通过成对表示间接传递信息;2)使用SwiGLU激活函数替代ReLU;3)简化注意力计算,完全依赖成对表示生成权重。模块输出作为Pairformer的基础输入,为蛋白质/核酸结构预测提供关键约束。

2025-07-28 16:33:36 1552

原创 【AlphaFold3】网络架构篇(3)| Sequence-local atom attention(序列局部原子注意力)

AlphaFold 3采用序列局部原子注意力机制,实现原子级特征交互。该机制将分子表示为原子列表,每个32原子子集仅关注附近128个原子的邻域,在序列空间内实现局部"对话"。这种设计突破传统令牌化的限制,保留原子级细节(如化学键、空间位阻),同时通过局部注意力将计算复杂度控制在合理范围。核心算法包括:原子注意力编码器(将原子特征转换为令牌嵌入)、解码器(更新原子位置)和Atom Transformer(实现局部注意力)。通过扩散Transformer和掩码机制,模型能高效捕捉原子间相互作

2025-07-28 12:15:07 845

原创 【AlphaFold3】网络架构篇(2)|Input Embedding 对输入进行特征嵌入

本文探讨了AlphaFold3中Featurisation(特征化)与Input Embedding(输入嵌入)的关系与区别,并通过实例说明了两者在模型处理流程中的不同作用。 核心内容: 特征化:将原始数据转化为结构化特征(如分子结构转换为原子类型、化学键等),是数据预处理的关键步骤。 输入嵌入:将特征进一步编码为模型可计算的向量(如残基类型、空间结构等通过算法2转换为数值表示),是模型输入阶段的重要处理。 关系与区别:特征化是嵌入的基础,两者共同完成从原始数据到模型可处理向量的转换,但处理阶段和目标不同(

2025-07-28 10:59:58 1316 3

原创 【论文精读】最有潜力的Transformer杀手-谷歌发布新LLM模型架构:MOR

递归混合模型(Mixture-of-Recursions, MoR),通过统一参数共享和自适应计算来提升语言模型效率。MoR采用递归层结构实现参数复用,同时引入轻量级路由器动态分配每个token的递归深度,实现按需计算。该方法仅对活跃token进行注意力计算,并选择性缓存中间结果,显著提升了内存访问效率。实验表明,在1.35亿至17亿参数规模下,MoR相比传统Transformer和递归基线模型,在相同计算成本下可获得更优的验证困惑度和少样本准确率,同时实现更高吞吐量,为平衡模型性能与计算成本提供了

2025-07-27 13:55:51 1399

原创 【AI+Bio系列】项目实战|Protenix项目下载、环境准备和测试

Protenix是字节跳动AML AI4Science团队开源的AlphaFold3复现项目,旨在优化蛋白质-生物分子相互作用预测。本文详细介绍了Protenix的conda环境配置流程:1) 创建Python 3.10环境;2) 安装PyTorch 2.3.1及CUDA依赖;3) 通过pip或源码安装项目;4) 解决CUTLASS_PATH环境变量问题以启用DeepSpeed功能;5) 成功测试推理任务并生成蛋白质结构预测文件(.cif格式)和置信度评估(.json格式)。项目需至少16GB内存,

2025-07-23 09:47:35 1682 1

原创 【机器学习】组合优化问题combination-optimization概述

组合优化是运筹学中的核心领域,专注于在离散对象的有限集合中寻找“最佳”组合方式。这类问题普遍存在于现实世界,从物流路径规划到金融资产配置,再到算法设计,其核心挑战是如何在“组合爆炸”的庞杂解空间中高效锁定最优解。

2025-07-23 09:14:42 1438

原创 【Phenix】使用教程1|使用phenix.map_model_cc进行结构验证|整体结构CC计算/单个氨基酸的CC

Phenix.map_model_cc工具简介 Phenix.map_model_cc是Phenix软件包中专门用于计算蛋白质模型与电子密度图相关性的工具。它能提供: 全局相关性系数(CC)评估整体模型质量 残基级别的局部CC值,帮助识别弱密度区域 支持多种数据格式(mtz/mrc/map) 基本使用方法只需输入模型文件和密度图: phenix.map_model_cc model.pdb map.mrc 工具会自动生成包含残基CC值的日志文件。用户还可通过参数控制输出格式和计算范围,如指定分辨率、选择特定

2025-07-22 20:49:08 1094

原创 【AlphaFold3】网络架构篇(1)|概览+预测算法

AlphaFold3在AlphaFold2基础上进行了重大革新,主要体现在:(1)采用更通用的化学结构处理方案,通过改进的输入特征嵌入器支持蛋白质、核酸及小分子的统一表征;(2)用Pairformer替代Evoformer简化MSA处理,降低计算复杂度;(3)创新性地引入扩散模型直接预测原子坐标,摆脱传统几何约束,实现更灵活的分子结构生成。模型采用条件扩散架构,主体条件网络包含模板嵌入器、MSA模块和Pairformer堆叠,通过多轮循环优化特征。扩散模块实现高

2025-07-21 22:17:28 1635

原创 【AlphaFold3】符号说明+Data_pipline学习笔记

AlphaFold3算法细节精读笔记 本文深入解析AlphaFold3的算法实现细节,主要包含以下要点: 符号约定:遵循AlphaFold2论文规范,定义了token数(N_token)、模板数(N_templ)和MSA行数(N_msa)等关键参数,并详细说明了算法中的运算符表示方法。 数据处理流程: 解析mmCIF文件,提取原子坐标和元数据 通过Jackhmmer等工具进行遗传搜索构建MSA 采用分层策略构建最多16,384行的MSA 检索并筛选PDB模板 关键技术: 使用物种配对策略优化MSA构建 通过

2025-07-18 11:01:33 647 2

原创 【AI前沿】英伟达CEO黄仁勋ComputeX演讲2025|Token是AI时代的“新货币”

Token是AI处理语言的最小单位(如单词、符号),决定模型的理解与生成能力。黄仁勋在Computex演讲中强调Token的核心地位,因其直接关联算力需求与经济模型: AI推理时代:Agentic AI通过中间Token(思考过程)提升精度,算力需求激增; 经济价值:云服务按Token计费,硬件需优化Token处理效率; 未来趋势:Token经济学将推动低成本、高效率的AI服务普及。英伟达通过GPU技术布局Token基础设施,奠定AI时代竞争力。

2025-07-17 11:13:26 1418

原创 【AlphaFold2】深入浅出,Feature Embedding|学习笔记

特征嵌入一般指的是网络的前几层,将初始的特征(通常是one-hot独热编码)进行,嵌入到第一层可学习的嵌入向量中。此外,我们还会给模型构造位置编码,引入位置信息,弥补注意力机制对位置的感知;然后我们会使用迭代编码优化的机制(Recycling Embedder ),将模型预测的结果作为新一轮的输入,进行迭代优化,从而逐步提高预测的效果。

2025-05-10 10:52:27 1496

原创 【AlphaFold2】深入浅出,讲解Evoformer|学习笔记

本篇博客是围绕youtube德国博主Kilian Mandon()的《从头实现AlphaFold2:AlphaFold Decoded》的第五期视频讲解和note-book内容写成的笔记,加上了自己的理解和对相关概念的解释。上期我们讲解了AlphaFold2的特征提前的部分【AlphaFold2】Feature extraction:提取特征,为模型输入做准备|Datapipeline讲解。本期,我们将介绍AlphaFold2中最为庞大且最为重要的部分——Evoformer。

2025-05-07 16:29:44 1608

原创 【2024年度总结】世界无限可能,走在自己喜欢的路上

2024一年确实满足了去年“模糊”的展望,今年确实发生了很多不曾设想的事情。但不就是因为这样人生才可期待,才有意思吗?大学和高中最大的不同也就在于此了。高中被牵着鼻子走,很多都是既定的了,拼的是脑力和体力。大学的生活和以后的人生不一样了,没有什么是非对错,都是自己创造出来的。取决于你想成为什么样子的自己。选择内心所期盼的,喜欢的,内心深处渴望的,积极向上的去选择就好了。享受过程,活在当下就好。有目标则不留遗憾的去奋斗,迷茫时则积极向上的去做好自己该做的事情(读书、运动、学习英语、学习技术…),

2025-05-01 22:04:39 1189 14

原创 【AlphaFold2】Feature extraction:提取特征,为模型输入做准备|Datapipeline讲解

本期博客主要参考Youtube博主Killian Manton从头实现AlphaFold2的专题视频。本期博客主要参考视频内容,主要讲解AlphaFold2的特征提取模块。特征提取是指将特定领域的数据格式(这里是蛋白质相关数据)转换为机器学习可用的张量格式。特征提取(Feature Extraction)的本质:将特定领域的数据格式(如蛋白质序列、结构等生物学数据)转换为机器学习模型能处理的张量格式(多维数组)。问题一:选择什么样的生物学数据?

2025-04-29 21:37:16 1275 1

原创 【深度学习】多头注意力机制的实现|pytorch

在上篇文章中,我们介绍了系统且详细的介绍了注意力机制及其数学原理进行系统且详细的讲解。在本篇博客中,我们围绕 多头注意力的代码实现进行展开。MultiHeadAttention:多头注意力机制Gated MultiHeadAttention:带门控的注意力机制Global Gated MultiHeadAttention:全局+门控注意力机制最终将其整合到一个注意力模块中,利用传递参数的方法选择使用哪种注意力。

2025-04-27 17:11:56 1388

原创 【深度学习】注意力机制| 基于“上下文”进行编码,用更聪明的矩阵乘法替代笨重的全连接

注意力机制目前已经运用到大部分深度学习算法框架当中。从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)。这篇视频由浅入深,讲得十分好,看了几遍后让我对注意力机制是个啥,能干啥有了比较清晰的认识。但是,学习是一回事,如何运用又是一回事,最近在看AlphaFold的论文,特别是想研究清楚它的代码,它是如何把这些深度学习的算法运用起来,来解决仅仅根据蛋白质序列来预测蛋白质三维结构这样的生命科学难题的。

2025-04-26 22:17:27 1553 1

原创 【深度学习】张量计算:爱因斯坦求和约定|tensor系列03

爱因斯坦求和约定(Einstein Summation,简称einsum)是一种简洁且功能强大的符号表示法,用于指定复杂的张量运算。在深度学习领域,特别是在 PyTorch 库中,提供了一种灵活的方式来执行各种张量操作,例如矩阵乘法、点积、批量计算、外积、规约(reduction)、重塑(reshaping)或转置(transposing)等等。在上篇文章中我们介绍了张量关于”积“的各种操作【深度学习】详解矩阵乘法、点积,内积,外积、哈达玛积极其应用|tensor系列02。

2025-04-18 13:56:31 1196

原创 【深度学习】详解矩阵乘法、点积,内积,外积、哈达玛积极其应用|tensor系列02

点积内积外积哈达玛积(Hadamard Product矩阵乘法这篇博客,我将结合这三种操作在深度学习中的运用,来讲解一下这三种操作的区别。对比总结表运算数学符号代码实现(PyTorch)输入要求输出规则矩阵乘法ABABA @ B或前列=后行行列点积求和点积(内积)u⋅vu⋅v同维向量标量外积u⊗vu⊗v任意两向量矩阵(( \mathbf{u} \mathbf{v}^T ))哈达玛积A∘BA∘BA * B或同形状矩阵/张量逐元素相乘。

2025-04-17 15:37:49 3101 2

原创 【深度学习】你真的理解张量了吗?|标量、向量、矩阵、张量的秩|01

在之前的学习中,我自以为我对张量、矩阵、数组,已经十分清楚。就在近期我打算再好好学习一下张量各个操作的过程极其原理的时候,才发现之前的自己或许根本没有弄清楚张量到底是个啥?为什么呢?我发现我学习的过程中发现对张量的各个操作有种说不上来的不明白。我问了自己很久,到底是哪一点让自己感受到这种“不舒适”的学习感?我向来是一个喜欢追根溯源,刨根问底的人。于是我问我自己这个问题区分这两个概念:[x,y,z],形状为(3,)2. 3阶张量,形状为(m,n,k)这不是很明显吗?

2025-04-16 22:08:57 2645 4

原创 【机器学习】笔记| 通俗易懂讲解:生成模型和判别模型|01

在解决大部分深度学习和机器学习问题时,解决思路通常来源于:判别模型和生成模型。也就是说,这两种模型的方法,给许多实际问题提供了基础的概念框架和思考方向。基于这两种模型的特征、方法、应用场景的不同,其实也可以很容易将其区分开来:比如上图右侧,将一个图片样本(内容为猫或者狗)区分开来,这就是判别模型所需要做的。

2025-04-12 19:57:12 1764

原创 【科研小白系列】这些基础linux命令,你都掌握了嘛?

博主作为之前是windows的重度依赖者,无论是文件操作还是代码开发很少运用命令行。来到新实验室后发现这边大部分工作都是在远程服务器上进行。对于代码的编写和修改/脚本文件的编写和修改->使用本地的VsCode与远程服务器链接(即把它当做一个文本编辑器,有高亮看代码和改代码最为方便,改完之后像VsCode这样的编辑器会帮你自动同步到远程)文件的移动文件的重命名文件的与本地服务器之间的上传和下载…代码调试这些通通都用linux命令完成。

2025-02-27 21:21:47 1176 4

原创 【科研小白系列】训练模型时消除结果的随机性——保证可复现Reproducibility

最近在训练模型的时候遇到一个问题,当输入相同的时候,每次经过模型得到的结果并不完全一致。比如使用Early-Stopping,总训练轮数并不完全一致。这是因为现在的深度学习框架有一定的随机性(具体原因暂时还没了解,因为我这里其实load是预训练权重,但是仍然存在随机性在模型训练过程中,随机性可能来自多个方面,如数据的随机打乱、模型初始化、随机优化算法中的随机性等。随机性会导致每次训练结果不一致,不利于模型的评估和复现。

2025-02-20 23:18:57 1637

原创 【Python】数组操作:数组切片——省略号和切片|(1)

用通俗易懂的方式来讲解省略号(...)在数组切片中的作用,并将其与冒号()进行区分。冒号:主要用于明确指定某个维度上要选择所有元素,需要对每个维度都进行明确的指定。如果维度较多,使用冒号会使代码变得冗长。省略号:用于自动选择所有剩余的维度,它可以简化代码,尤其是在处理高维数组时,避免了对每个维度都写冒号的麻烦。例如,对于一个四维数组arr4d,如果我们想选择第一个元素对应的三维数组的所有元素,使用冒号的话需要写,而使用省略号则可以简洁地写成。

2025-02-05 16:42:09 1204

原创 【AI+Bio系列】小白向·蛋白质结构预测到底在做什么?

本人计科专业本科生,并非生物专业出生,主要利用人工智能技术解决生物信息领域问题,因此,需要涉及一些生物信息方面的基础知识,希望能帮助到你,如果错误,恳请指正!接下来我会用一条PDBID为1F88的蛋白质为例子,来解释什么叫蛋白质接触矩阵。(以下简称 PDB)是当今全世界最具公信力的蛋白质数据库之一,每一条蛋白质都有唯一标识通过 前面的介绍,我们对蛋白质这个三维结构有了一些了解。现在我们对最重要的对蛋白质最重要的两个维度的表示进行更深层次的讲解。蛋白质的1级结构指的是其序列。在PDB中可以下到。

2025-01-10 18:09:06 2194

原创 【科研小白系列】从0开始配置服务器环境:Miniconda(超详细)

今天是来到一个全新的实验室单位实习的第五天了,回想起来到实验室的第一天,老师给我在服务器上开了个新用户,这意味着我又需要在服务器终端重新配置所有的环境。借着这个机会,我正好可以继续整理出一个比较完整的适合小白的实验室入门教程了。同时在这个实习过程中,我也学到了很多东西,比如工具的正确使用、新的终端工具、调试方法等等。也会在这期之后继续更新。碎碎念,其实在第一天连接服务器的时候,我遇到了很多问题,比如在本地windows下怎么都连不上服务器,最终换成苹果系统居然神奇的好了。

2025-01-10 17:24:34 3464 1

原创 【科研小白系列】使用VScode连接远程服务器编码训练模型,真的太香了!!

这篇文章,详细介绍了如何使用工具连接远程服务器,上传代码,打开远程终端进行运行。但是最近遇到了一个问题,一些Github上的项目本身就是在Linux下开发的,这就对于惯用Windows开发的我这个小白来说,非常不友好。对PyCharm热衷的我,终于要下Vscode了…那么本期教程,让我们从头开始,学习如何使用Vscode连接服务器,编码和调试!!

2024-11-27 16:27:34 4723 4

原创 【深度学习】论文笔记:空间变换网络(Spatial Transformer Networks)

博主简介:努力学习的22级计算机科学与技术本科生一枚🌸博主主页:往期回顾:每日一言🌼:今天不想跑,所以才去跑,这才是长距离者的思维。——村上春树(Spatial Transformer Networks,简称STN)是一种模型,旨在。STN是由Max Jaderberg等人在2015年提出的,其核心思想是在传统的卷积神经网络(CNN)中嵌入一个可学习的模块,该模块能够显式地对输入图像进行空间变换,从而使得网络能够对输入图像的几何变形具有更好的适应性。STN的引入使得网络能够。

2024-11-04 19:10:54 4850 3

原创 【机器学习】有监督学习·由浅入深讲解分类算法·Fisher算法讲解

在前面的博客中,我们也讲解过分类算法,它的另外一个名字又叫做逻辑回归。🔗【吴恩达·机器学习】第三章:分类任务:逻辑回归模型(交叉熵损失函数、决策边界、过拟合、正则化)在那篇博客中,我们了解到简单的线性回归模型+阈值分割无法完成所有的分类任务,但是在回归模型的基础上引入逻辑函数,将其线性转换为非线性的逻辑回归模型,则可以很好的解决这个问题。事实上,逻辑回归只是解决分类问题其中一种方法,在此篇文章,我们将系统的了解分类问题,且就其中一种线性分类算法——Fisher 进行详细的讲解。➢问题的定义:设有满足独立同

2024-10-28 20:03:40 1795 2

原创 深入浅出:深度学习模型部署全流程详解

在我大二,参与了一个较为完整的机器学习的目标检测项目,在这个过程中,我陆陆续续写了以下博客,目的是记录我在这个过程中所学习到的知识和技术。🌸部署和系统开发系列文章QT C++实现点击按键弹出窗口并显示图片/视频|多窗口应用程序的设计和开发QT C++实战:实现用户登录页面及多个界面跳转QT C++实践|超详细数据库的连接和增删改查操作|附源码【yolov8部署实战】VS2019+OpenCV环境部署yolov8目标检测模型|含详细注释源码。

2024-10-22 15:04:14 10656 4

原创 【论文精读】PSAD:小样本部件分割揭示工业异常检测的合成逻辑

逻辑异常(LA)是指违反潜在逻辑约束的数据,例如图像中组件的数量、排列或组成(the quantity, arrangement, or composition of components)。准确检测此类异常需要模型通过分割对各种组件类型进行推理。然而,语义分割的像素级标注的整理既耗时又昂贵。尽管已有一些少样本或无监督的共部分分割算法,但它们在工业对象图像上往往失败。这些图像中的组件具有相似的纹理和形状,精确区分具有挑战性。在本研究中,我们引入了一种用于 LA 检测的新型组件分割模型,该模型利用了少量标记样

2024-10-17 16:11:11 2375

原创 【机器学习】深入浅出讲解贝叶斯分类算法

贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。而朴素贝叶斯(Naive Bayes)分类是贝叶斯分类中最简单,也是常见的一种分类方法。一些很常见的分类算法(如:KNN,逻辑回归,决策树),这些模型学习目的是学习输出YYY和特征XXX之间的关系。它们属于判别方法 。但这篇文章所讲的贝叶斯分类算法,它是基于概率论的生成方法,直接找出输出YYY和输入特征XXX之间的联合分布P(X,Y)P(X, Y)P(X,Y) ,进而根据贝叶斯公式P(Y∣X)=P(X,Y)P(X)P(Y\mi

2024-10-13 16:02:34 5760 2

原创 【论文精读】Few-Shot Anomaly Detection via Category-Agnostic Registration Learning全类别通用!提升11%!CAReg:超越FSAD

来自上海交通大学 MediaBrain 团队和上海人工智能实验室智慧医疗团队等的研究人员提出了一种基于配准的少样本异常检测框架RegAD,本篇论文在RegAD基础上提出了一种新颖的少样本异常检测方法,称为CAReg,通过学习通用的跨类别配准技术,仅使用每个类别的正常图像进行训练,从而实现了对新类别的无需微调的模型应用,提高了异常检测的准确性和效率。

2024-10-06 19:46:32 2150

原创 【科研小白系列】如何精读论文——总结李沐老师

最近在做缺陷检测相关的项目,和以前做的一些项目不一样,并没有直接开源的代码可以用(Like Yolo, 只用调调参,准备一下数据集然后直接训练和使用)。也许这才是真正的科研吧,并没有现成的可参考完全适用的方案。需要自己一步一步搜集论文、看开源代码,慢慢想出一个适合自己需求的方法。这对我来说是一个挑战,找到的开源代码你不仅需要读懂整个开源代码,就算后续用上自己的数据集进行训练,效果也不一定如意(这是我目前的情况),于是我需要修改源码,修改一个适合我需求和数据集的代码和模型。

2024-09-23 09:27:46 1055

原创 【科研小白系列】使用screen创建虚拟终端,实现本地关机后服务器仍然跑模型

最近连上实验室服务器跑模型了,但是发现这样有一个很鸡肋的点就是电脑不能关机,还得一直插着网线保持和服务器的连接才行。之后同学告诉我说,有一个可以创建虚拟终端的方法,这样就算本地电脑关机,服务器仍然能够继续跑模型。这篇博客就是用来介绍在linux系统下的screen命令来实现这个功能。背景:系统管理员经常需要SSH 或者telent 远程登录到Linux 服务器,经常运行一些需要很长时间才能完成的任务,比如系统备份、ftp 传输等等。

2024-09-08 12:41:46 1807 3

原创 【科研小白系列】模型训练已经停止(强行中断)了,可GPU不释放显存,如何解决?

最近好不容易用服务器把模型跑起来了,美滋滋地看他一轮一轮训练,感觉应该没啥问题,想着一个晚上训练完肯定没问题!结果第二条早上来一看:main()这不是说我显存不够了吗!使用nvidia-smi命令查看服务器显卡使用情况:没错,我用的就是0号显卡,难道是实验室师兄师姐在训练模型?不应该呀!这个显存占用量和我模型训练的显存占用量极为相似,何况师兄师姐他们训练模型之前肯定会查看显卡的使用情况的!

2024-09-05 09:22:18 2458

Hadoop课题笔记(原创

Hadoop课题笔记(原创

2024-08-22

Hadoop复习习题(旧

Hadoop复习习题(旧

2024-08-22

Hadoop期末复习习题

Hadoop期末复习习题

2024-08-22

Hadoop-HDFS常用命令

Hadoop-HDFS常用命令

2024-08-22

【Golang项目实战】手把手教你写一个备忘录程序-源码01

这个教程将手把手地教你如何用Golang编写一个备忘录程序,并提供完整的源代码。备忘录程序可以帮助你记录重要的事项、任务和提醒事项,以确保你能够及时完成它们。在这个教程中,你将学习如何使用Golang创建一个命令行应用程序,如何使用文件系统存储数据,以及如何实现基本的CRUD(创建、读取、更新、删除)操作。通过这个实战项目,你将学到Golang的基础语法和常用库,以及如何将它们应用到实际项目中。在完成这个项目后,你将具备开发简单命令行应用程序的能力,这对于学习Golang编程或开发其他类型的应用程序都会有所帮助。

2023-05-02

【Golang项目实战】手把手教你写一个备忘录程序-源码02

这个教程将手把手地教你如何用Golang编写一个备忘录程序,并提供完整的源代码。备忘录程序可以帮助你记录重要的事项、任务和提醒事项,以确保你能够及时完成它们。在这个教程中,你将学习如何使用Golang创建一个命令行应用程序,如何使用文件系统存储数据,以及如何实现基本的CRUD(创建、读取、更新、删除)操作。通过这个实战项目,你将学到Golang的基础语法和常用库,以及如何将它们应用到实际项目中。在完成这个项目后,你将具备开发简单命令行应用程序的能力,这对于学习Golang编程或开发其他类型的应用程序都会有所帮助。

2023-05-02

高等数学A:多元函数微分学及其应用重点知识思维导图(考前快速复习版)

高等数学A:多元函数微分学及其应用重点知识思维导图(考前快速复习版) 1.偏导数 2.全微分 3.多元复合函数的微分法 4.偏导数的几何应用 5.多元函数的极值 6.方向导数和梯度

2023-04-13

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除