自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(119)
  • 收藏
  • 关注

原创 关注和取关等功能小记

【代码】关注和取关等功能小记。

2025-12-18 19:38:37 198

原创 redis day1

1.2.是指程序在申请内存后,,导致可用内存逐渐减少,最终可能引发程序崩溃或系统性能下降。

2025-12-10 20:06:31 228

原创 项目实站day8--功能之订单统计,销量排名统计,数据运营报表

这些 Mapper 是在项目早期就已经实现好的。VO(View Object)的作用是。

2025-12-09 17:39:13 164

原创 项目实站day7--功能之营业额统计,用户数量统计

用户统计同理,不在赘述。

2025-12-08 22:36:46 155

原创 项目实站day6--功能之加入购物车_清空购物车_地址导入_用户下单

本文介绍了购物车和地址管理功能的实现。购物车功能包括添加商品逻辑:通过Controller接收请求,Service层判断商品是否存在(存在则数量+1,不存在则新增记录),区分菜品和套餐类型,最后通过Mapper插入数据库。地址管理功能实现了新增地址的接口,Controller接收地址数据,Service设置用户ID和默认状态,最终通过Mapper插入地址信息。两个功能都遵循了Controller-Service-Mapper的分层架构模式,使用注解简化开发,并通过BaseContext获取当前用户ID确保数

2025-12-02 21:12:53 139

原创 项目实站day5--功能之vx小程序登入

【代码】项目实站day5--功能之vx小程序登入。

2025-11-28 21:33:47 387

原创 项目实站day4--功能之删除菜品,修改菜品

本文介绍了菜品批量删除功能的实现流程,主要分为三层架构:Controller层接收删除请求并转发,Service层进行业务逻辑处理,Mapper层执行数据库操作。Service层通过事务管理确保数据一致性,先校验菜品状态(是否在售)和关联关系(是否被套餐引用),满足条件后执行菜品数据及其关联口味数据的删除。Mapper层通过@Delete注解实现SQL删除操作。整个流程体现了分层架构和事务管理的设计思想。

2025-11-26 15:24:45 142

原创 项目实站day3--功能之新增菜品,菜品分页,阿里云服务替换本地

ApiOperation("新增菜品") Swagger注解,用于API文档生成。:Spring注解,表示从请求体中获取JSON数据并自动转换为DishDTO对象。log.info("新增菜品:{}", dishDTO);定义菜品数据的数据库操作SQL语句,实现Java方法与SQL命令的映射关系。// 获取insert语句生成的主键值。// 向口味表插入n条数据。:方法参数,接收前端传来的菜品数据。// 向菜品表插入1条数据。5.把阿里云服务换成本地。(1)先在server。

2025-11-25 22:30:10 294

原创 项目实战day2--功能之员工分页,禁用,编辑

员工分页查询功能严格遵循分层架构:Controller 层接收前端传来的分页参数(page、pageSize、name),封装为 DTO 并调用 Service;Service 层使用 PageHelper 开启分页上下文,随后调用 Mapper 执行查询;数据库返回总记录数和当前页数据后,Service 将结果封装为统一的 PageResult 对象,最终由 Controller 返回给前端。log.info("员工分页查询,参数为:{}", employeePageQueryDTO);

2025-11-24 16:39:15 336

原创 项目实战day1--功能之新增员工

本文介绍了新增员工功能的实现流程:前端请求通过Controller接收并转为EmployeeDTO对象,Service层处理业务逻辑(包括数据校验、密码加密等),并将数据转换为Employee实体对象后通过Mapper层存入数据库。关键点包括:1)使用BeanUtils进行对象属性拷贝;2)设置默认账号状态和加密密码;3)自动记录操作时间和操作用户;4)采用DTO模式实现前后端数据安全传输。整个流程体现了分层架构设计,确保了数据处理的完整性和安全性。

2025-11-24 00:35:24 760

原创 ICML 2025 | 低秩Swish网络:理论突破实现高效逼近,小模型性能媲美大网络

本文针对深度神经网络在资源受限场景下的应用瓶颈,系统研究了采用Swish激活函数的低秩网络对光滑函数的逼近能力。通过理论分析证明,在相邻非线性层之间插入无偏置的窄线性层后,固定深度的低秩Swish网络能够以任意精度逼近Hölder球函数空间中的连续函数。研究结果表明,当线性隐藏层宽度不超过非线性层的三分之一时,网络在保证逼近能力的同时可显著降低计算复杂度。通过构造性方法,本文给出了网络参数规模与逼近误差之间的定量关系,并在多个标准数据集上验证了理论结果。

2025-06-25 17:01:42 549

原创 java基础1

变量:在程序运行过程中,其值可以发生改变的量。从本质上讲,变量是内存中的一小块区域,其值可以在一定范围内变化。变量的定义格式:(3)还可以在同一行定义多个同一种数据类型的变量,中间使用逗号隔开。但不建议使用这种方式,降低程序的可读性。// 定义int类型的变量a和b,中间使用逗号隔开int c,d;// 声明int类型的变量c和d,中间使用逗号隔开c = 30;d = 40;变量的使用:通过变量名访问即可。使用变量时的注意事项:1. 在同一对花括号中,变量名不能重复。

2024-11-01 18:11:38 938 2

原创 力扣day2

在Python中,你需要先将整数转换为字符串,然后再将字符串转换为列表,最后返回值时再转化为int就行,这个必须要有4位数字,而题目刚好就是四位数字的要求。,排完序这个结果就出来了,默认是按升序的,所要求的最小公倍数,如果余数不为0,那么。,但数字不能直接转化为list,原因是。5 和 2 的最小公倍数是 10。,你拥有的数位包括:两个。的最小公倍数(正整数)。中所有数位都必须使用。,请你返回可以得到的。

2024-10-22 21:27:16 376

原创 8.扩散模型的未来---GPT及大模型(3)完结

基于人类反馈的强化学习,简单来说就是对GPT生成的内容进行打分,符合标准的回答给予较多的回报,鼓励模型生成这种回答,对于不符合标准的回答给予较少的回报,抑制模型生成这种回答。模型的泛化能力指的是模型在训练集和测试集之间的性能表现。(1)当训练数据量和模型参数数量不断上涨时,gpt及大模型的表现会呈现出上涨的趋势,并在达到某一个点时发生突变,也是拥有“涌现能力、扩散趋有同样的上涨趋势,以及是否会有涌现能力是值得探索的,但是由于扩散模型的训练是非常消耗资源的,所以增大模型参数训练的优化问题也需要考虑进来。

2024-10-17 10:14:39 862

原创 8.扩散模型的未来---GPT及大模型(2)

GPT(Generativepre-Training)是指使用生成式预训练的语言模型,是NLP领城中的一种强大的模型。初代的GPT是在2018年由 OpenAI提出的,之后更新为GPT2GPT-3、InstructGPT,以及后续一系列变体模型(统称GPT-3.5系列),最终发展到如今的智能对话搜索引擎ChatGPT,以及多模态引擎Visual ChatGPT和GPT-4。初代的GPT-1已经在多种任务中达到了SOTA,而之后的GPT甚至可以解决未经过训编的新任务(Zero-shot),并可

2024-10-16 16:46:44 1153

原创 8.扩散模型的未来---GPT及大模型(1)

在微调时,通常是在一个较小的、与预训练模型类似的数据集上对模型进行微调,以适应特定的任务微调技术的具体实现方式是将预训练模型的所有或部分层参数作为初始参数,然后通过训练过程更新这些参数,使其适应特定的任务。例如,对于模型中的线性变换Y=AX,可以按列或行拆分矩阵A,并将其分别放置在两个不同的GPU上进行计算,然后在两个GPU之间进行通信以获得最终结果,这种方法可以扩展到更多的GPU和其他可拆分的操作符上。例如,在扩散模型前向过程中完全抹去数据中的信息,并将其等效于先验分布的假设,可能并不总是成立的。

2024-10-16 11:09:20 1377

原创 7.跨学科应用

1.基于深度学习的分子性质预测和新分子生成算法,指通过利用神经网络模型等习大量分子数据在保证分子稳定性和活性的前提下,生成新的药物分子,并预测新分子的药效和毒副作用等,以此减少新药物的研发时间和成本的算法。人工智能药物研发是指利用人工智能技术研发新药物的过程和方法,人工智能拔术可以用于药物研发的不同阶段,包括药物发现、分子设计、药效预测、毒性评估等可以加速药物研发的过程、提高药物的效力和安全性。基于扩散模型的医学影像重建,Song 等人利用基于分数的生成模型来重建与观察到的测量结果一致的影像图。

2024-10-15 21:44:28 703

原创 6.将扩散模型与其他生成模型的关联(2)

(x|x~)是通过恢复似然训练的,即在给定高噪声样本后,使用低噪声数据x的条件似然值作为目标函数,其目的是在给定更高噪声的噪声数据的情况下,最大化特定低噪声水平下数据的条件概率。条件EBM可以较好地最大化恢复似然,这是因为原数据的分布可能是多模态的,而在给定加噪样本后,原数据的条件概率会比原数据的边际似更容易处理。同时 Gao 等人还证明了,当每次加入的噪声强度足够小时,扩散恢复似然的最大似然训练与 ScoreSDE的分数匹配训练是近似的,并进一步建立了基于能量的模型与扩散模型的关系。

2024-10-12 20:01:23 939

原创 6.将扩散模型与其他生成模型的关联(1)

GAN通常由两个神经网络组成:生成器G和判别器 D,生成器的目是生成与训练数据相似的新数据,而判别器的目标是区分生成器生成的伪造数据和实数据。对于潜在空间中的扩散模型,ELBO 中的交叉熵项是难以处理的,但如果将基于分数的生成模型看作是一个无限深的 VAE,那么交叉熵项可以被转化为一个可处理的分数匹配目标。在本章中,我们首先介绍其他5种重要的生成模型,包括变分自编码器抗网络、归一化流、自回归模型和基于能量的模型,分析它们的优点和局限性,并说明这些生成模型是如何通过纳入扩散模型而得到促进的。

2024-10-10 10:46:15 1046

原创 5.将扩散模型应用于具有特殊结构的数据

该模型的前向过程向邻接矩阵的上三角矩阵,加入独立的高斯噪声来保证加噪矩阵也是对称的,然后使用神经网络来拟合加嗳矩阵的分数的数(有良定义的)。Niu等人证明了如果生成过程中使用的分数模型是置换不变的,那么生成的样本也是置换不变的,并采用了称为EDP-GNN的置换等变图神经网络来估计分数函数,实验结果表明,使用EDP-GNN来参数化噪高得分模型可以生成置换不变的无向无权图。比如,经典扩散模型所依赖的分数的函数仅在连续装据域才有定义,而对于离散型数据没有定义,或者数据位于低维流形式上时,就会出现问题。

2024-10-09 11:07:54 1058

原创 4.扩散模型的似然最大化(2)

解决的方案是,使用重要性采样,在Iikelihood weighting的基础上,变换时间t在从0到T上的分布,可以得到任意方式加权的损失。在 iDDPM中,Nichol和 Dhariwal提议,通过用某种形式的线性插值来参数化并学习逆向方差,使用一种混合目标对其进行训练,以得到更高的对数似然和更快的采样速度,且不损失样本质量。,一些同时期的工作证明,经过适当的加权,存在一个可高效计算的变分下界,我们可以直接使用修改的损失函数来训练我们的扩散模型,从而最大化。在扩散模型的经典框架中,逆向过程p。

2024-10-08 19:45:11 468

原创 4.扩散模型的似然函数最大化(1)

在扩散模型中,我们希望优化生成样本分布的对数似然,也就是Eq0logp0,其中q0是真实样本的分布,p0是生成的样本的分布。下,产生数据集中的所有样本的概率是最大的。但在计算机中,多个概率的乘积结果并不方便计算和储存,例如,在计算过程中可能发生数值下溢的问题,即对比较小的、接近于0的数进行四舍五入后成为0。在经典的扩散模型(如DDPM)中,前向过程中的噪声进程是手工调试的,没有可训练的参数。似然函数是一个关于模型参数0的函数,当选择不同的参数0时,似然函数的值是不同的,它描述了在当前参数。

2024-10-03 16:57:38 875

原创 3.基于分数的生成模型

基于分数的生成模型(SGM)的核心是Stein分数(或分数函数)。给定一个概率密度函数p(x),其分数函数定义为对数概率密度的梯度Vxlogp(x)。生成模型通过学习并建模输入数据的分布,从而采集生成新的样木,该模型广泛运用于图片视频生成、文本生成和药物分子生成。扩散模型是一类概率生成模型,扩散模型通过向数据中逐步。

2024-10-02 15:49:09 1398

原创 扩散模型(2)--1

生成模型通过学习并建模输入数据的分布,从而采集生成新的样木,该模型广泛运用于图片视频生成、文本生成和药物分子生成。扩散模型是一类概率生成模型,扩散模型通过向数据中逐步。

2024-09-29 22:27:37 1722 1

原创 扩散模型(1)--AIGC与相关技术

包括人脸生成、人脸替换、人物属性编辑、人脸操控、姿态探控等 AIGC 技术,以及编辑图像、视频内容、图像生成、图像增强、图像修复等 AIGC 技术,如美颜换脸、捏脸、复刻及修改图像风格、AI绘画等。,包括文本转音频、语音转换、语音属性编辑等生成或者编辑语音内容的AIGC技术,以及音乐合成、场景声音编辑等生成或者编辑非语音内容的AIGC技术,如智能配音主播、虚拟歌手演唱、自动配乐、歌曲生成等。,主要包括文章生成、文本风格转换、问答对话等生成或者编辑文本内容的 AIGC 技术,如写稿机器人、聊天机器人等。

2024-09-24 10:59:39 557

原创 python如何跨文件调用自己定义的函数

当自己定义函数过多时,只有一个python文件时代码会很长,不易理清代码框架,比如下面这段代码,如何隐藏具体函数细节呢?自定义函数在dataset文件夹下的minst.py中,然后导入自定义的函数名比如load_minst_gz即可,当相对路径导入报错时候就导入绝对路径即可。如果没有上面的三个库也会报错,原因是这个函数需要用到上面的那三个库,而不是简单的把def函数内容复制过来。2.定义两个python文件,需要注意的时封装的函数也要导入相关的库比如。

2024-09-22 21:36:01 1017

原创 研究生第一次刷力扣day1

先用len函数求出数组的长度n,然后一个个遍历数组中的内容,具体方法就是采用双层循环,i和j,i在数组长度内,当i固定时,去完全遍历j,再一次一次遍历i,如果数组内的内容相加等于target则返回下标。,请你在该数组中找出和为目标值target。的那两个整数,并返回它们的数组下标。1.给定一个整数数组。

2024-09-21 19:37:57 2188 6

原创 图神经网络模型应用(8)--2

文档中句子之间的关系,词之间的关系 都可以被利用。传统的卷积神经网络主要利用的是一个小邻域上的本地信息,对于远程的关系处理起来很难,但是 语义分割的任务上正好大量存在着可能的远程关联。离)建立联系,形成一个图,然后图LSTM(Graph LSTM)的模型对这些超像素构建的图进行建模,从而更好地利用远程的关联性辅助本来的分割任务。整个训练过程以批处理的形式进行,对于每个目标节点,我们对它周围的邻居进行重要性采样,然后经由图中右上角所展示的两层信息聚合(图卷积),得到节点的嵌入表示。

2024-09-19 10:55:15 952 1

原创 图神经网络模型的应用(8)--1

前面介绍过,按照元素和层级来划分,图数据上的任务一般可以分为节点上的任务、边上的任务和图上的任务。而在实际应用中,大部分图神经网络的应用都集中在节点分类、链路预测和图分类上;在设计一个新的图神经网络模型时,我们常使用的标准数据集也都基本来自这三个任务。我们暂时不考虑图数据的具体领域,先来介绍图神经网络在这些标准任务上的使用。1.1节点分类节点分类是图神经网络上最普遍的一个任务。沿用本书惯用的符号,给定一个图G={V,}, 假设已知其中部分节点Vtrain的标签Y∈Rn×8(n。

2024-09-19 09:27:33 1069

原创 知识图谱与异构图神经网络(7)--2

编码器:结构感知卷积网络采用了带权重的图卷积网络进行编码,不同于图卷积网络,它对每个关系。知识图谱作为一种重要而特殊的图结构,在各个领域有着广泛的应用,知。由于结合了知识图谱嵌入的得分方式,又考虑了不同边的类型,CompGCN 在。的章节中也提到过,它本质上是对图卷积网络模型的一个扩展,在图卷积网络。的基础上加入了边的信息,因此也可以被用来学习知识图谱中的实体嵌入。把知识图谱拆分为多个单关系的同构图,即知识图谱中的每种关系对应一个子。础上增加了带权重的图卷积网络的编码,因此可以加入知识图谱的结构信息和。

2024-09-18 10:23:16 1321

原创 知识图谱与异构图神经网络(7)--1

例如,对于三元组(姜文, 出演,让子弹飞),“姜文”和“让子弹飞”的类型完全不同,一个是人物, 一个是电影。而在更高维度的空间中,超平面则是一个更高维度的“平面”,它将空间分割成两个部分)随着对知识图谱相关研究的深入,出现了基于不同思路的知识图谱嵌入方法,这些方法定义了不同的嵌入空间或者不同的损失函数。知识图谱的表示学习,或者说知识图谱嵌入,是将实体和关系映射到一个低。传统的知识图谱推理一般只推测已经出现过的实体之间的关系,称之为转。型,几乎涵盖了所有的匹配关系,但是它的参数过多,导致不能有效地处理大。

2024-09-17 17:56:50 1439

原创 其他图嵌入方法(6)

(3)浅层图嵌入方法只能采用直推式学习,如果它们要学习一个节点的嵌入, 则这个节点必须是在训练过程中出现的,对于未出现过的节点则无能为力。相比之下,图神经网络(如图卷积网络)的参数是用来将节点本身的属性向量映射到一个更低维的向量,与节点的数量无关,只与节点属性向量的维度。(1)浅层图嵌入方法是对图中出现的所有节点直接习得最终的表示,它们的编码器是将每个节点线性映射到最终的嵌入向量f(x)=Zx, 因此参数。(2)浅层图嵌入方法通常只考虑图的结构,而忽略了节点本身的属性。实际上使得图的嵌入尽量光滑。

2024-09-17 13:38:43 1237

原创 图神经网络模型扩展5--3

这个措施使得GraphSAGE 的复杂度可以维持在一个固定的开销,与其他消息传递网络相比,更容易扩展到大规模的图上。PinSAGE基于GraphSAGE做了微小的改进,在采样的时候加入了邻居节点重要性的考虑,通过随机游走,被访问越多次的节点,被采样的概率就越大。在传统的图注意力网络中,没有考虑到边的信息,但。很大),图卷积网络的计算量是很大的,所需要的内存也是很大的。可以看出,上式和图卷积网络的公式非常相似,唯一的区别是根据边的类型r不同,选择了不同的参数W。到,在一个图中,每个节点的重要性是不一样的。

2024-09-16 22:10:43 1404

原创 图神经网络模型扩展(5)--2

预训练最大的优势是通过输入巨量的数据,使预训练好的模型只需通过微调就能迁移到不同的数据上,并在不同的目标任务上得到巨大的效果提升。找到这个节点周围的上下文图,上下文图指的是到中心节点的距离大于等于r₁、小于等于r₂ 的所有点构成的子图,r₁ 被限制小于K, 所以上下文图可以和节点的邻接域有部分重合,重合的这些节点被称为上下文锚节点。找到上下文图之后,我们定义一个额外的辅助图神经网络,对上下文图进行编码,然后对所有上下文锚节点的嵌入求平均,作为一个节点上下文的向量表示,图G中节点v 的上下文向量记为。

2024-09-16 20:42:14 914

原创 图神经网络模型的扩展(5)--1

另外,考虑到那些粗化的节点并没有一个有意义的排序,如果直接进行池化,就需要一个额外的表来存取这些节点信息,造成了内存的浪费和低效,也影响平行计算的实现,而切比雪夫网络稍微做了改进,它利用Graclus的机制先把粗化过程做成一个二叉树,然后通过对最终的粗图进行节点排序并进行倒推,得到原图的节点排序,从而实现了一个类似普通卷积网络中的一维池化操作。虽然谱聚类是一个很好的图聚类方法,但是在涉及多粒度、多层的图聚类时依然不够高效,因此在大图和多层池化的场景下, 我们可能需要选择更高效的图池化方法。

2024-09-15 11:01:57 1192

原创 深入理解图卷积网络(4)

图神经网络的滤波性质,我们先来想一个问题:在图信号中,究竟是什么频率的信号起了更大的作用?在得到重构的图信号之后,我们以它为输入,训练一个两层的多层感知机,在图数据上做节点分类任务。D -1/2AD-1/2 xW实际上是一个没有加自环的图卷积网络,在加了自环并做相应的正则化后,D-1/2(A+为了简化分析,假设图论傅里叶变换所用的是正则化后的拉普拉斯矩阵 L=I-D-1/2AD-1/2,那么D-1/2AD-1/2x=(I-L)X=U(I-假设一个图是联通的,并且不是一个二分图,我们对它上面的一个图信号。

2024-09-12 18:36:20 1072

原创 图神经网络介绍3

当我们要判断两个图是否同构时,先通过聚合节点和它们邻居的标签,再通过散列函数得到节点新的标签,不断重复,直到每个节点的标签稳定不变。Weisfeiler-Lehman 测试最大的特点是其对每个节点的子树的聚合函数采用的是单射的散列函数。与Weisfeiler-Lehman测试一样,在表达网络结构的时候,一个节点的表征会由该节点的父节点的子树信息聚合而成。数据,两层图卷 积网络即可达到很好的效果,叠加更多的层并不一定能提升模型的表现,反而 可能导致过平滑的问题。之后发展出的各种各样的图神经网络大都可以归。

2024-09-12 00:03:20 1337

原创 图神经网络模型介绍2

空域图神经网络出现得更早,并在后期更为流行。它们的核心理念是在空域上直接聚合邻接点的信息,非常符合人的直觉。如果把欧几里得空间中的卷积扩展到图上,那么显然这些方法需要解决的一个问题是:如何定义一个可以在不同邻居数目的节点上进行的操作,而且保持类似卷积神经网络的权值共享的特性。早期的图神经网络就是直接从空域(顶点上的信号)的角度来考虑的。它的基础是不动点理论。它的核心算法是通过节点的信息传播达到一个收敛的状态,基于此进行预测(由于它的状态更新方式是循环迭。

2024-09-11 09:28:18 1121

原创 图神经网络模型介绍(1)

在实际应用中,我们通常可以叠加多层图卷积,得到一个图卷积网络。我们以H¹ 表示第L层的节点向量,W¹表示对应层的参数,定义。参数是没办法迁移的,因此谱域图神经网络通常只作用在一个单独的图上,这大大限制了这类模型的跨图学习和泛化能力。接下来,我们从切比雪夫网络的公式(3.12)出发,对图卷积网络进行推导。下面,我们以一个常用的两层图卷积网络来解释图卷积网络是怎么对节点。从图信号分析的角度考虑,我们希望这个过滤函数g 能够有比较好的局部化,常作用在图拉普拉斯矩阵的特征值矩阵上,在换到另一个图上时,这些卷积核。

2024-09-09 15:02:15 1381

原创 图神经网络(2)预备知识

对于接触过数据结构和算法的读者来说,图并不是一个陌生的概念。如果图里的边不仅表示连接关系,而且具有表示连接强弱的权重,则这个。从图的某个顶点出发,沿着图中的边访问每个顶点且只访问一次,这叫作。在图上模拟一个热扩散的过程,φ(t)是图上每个顶点的热量分布,热量传播。如果一个图的每个边都有一个方向,则称这个图为有向图。图的同构指的是两个图完全等价。很显然,这个大于等于0的,所以L是半正定的。拉普拉斯矩阵的另一个重要作用是作为图上的离散拉普拉斯算子。然地,我们把拉普拉斯算子的特征函数换成拉普拉斯矩阵的特征。

2024-09-07 19:46:53 1495

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除