- 博客(44)
- 资源 (4)
- 收藏
- 关注
原创 更快、更强、更经济的大模型RAG系统:港大黄超团队发布开源LightRAG
随着大语言模型(LLM)自身能力的日趋完善,很多学者的目光聚焦于如何帮助大模型处理和感知大规模的私有数据库。RAG(Retrieval-Augmented Generation)系统采用检索方法,从私有数据库中高效、准确地召回与查询高度相关的信息内容,用以增强通用大模型处理查询的语境知识和生成效果。为了应对这些问题,文章提出了一种使用图结构数据进行增强的RAG系统——LightRAG。利用图结构对复杂关系的准确描绘,LightRAG能够有效地解决上述问题。
2024-10-14 15:47:00
1256
原创 港大推出XRec:「会说话」的推荐系统大模型, 从黑盒预测到可解释
代码链接: https://github.com/HKUDS/XRec论文链接: https://arxiv.org/pdf/2406.02377实验室链接: https://sites.google.com/view/chaoh最近,香港大学数据智能实验室推出了一款名为 XRec 的全新智能大模型,旨在为传统推荐系统注入可解释性的新动力。XRec 利用大语言模型(LLM)的强大自然语言处理能力,为推荐系统赋予了可解释性,让系统不仅能给出精准的推荐结果,还能用通俗易懂的语言向用户阐述其推荐依据。通过这种融合
2024-07-02 13:41:38
1415
原创 ICML2024 | 『即插即用,快速适配』港大发布全新智慧交通时空预测模型:FlashST
尽管现有时空预测方法已显示出其有效性,但大多数时空预测模型在面对不同下游数据集和任务中的分布变化时往往难以有效泛化。其中,训练数据与测试数据之间分布不一致的假设成为了真实城市场景中准确预测的障碍。如图1所示,直接将从数据集A上学到的参数应用于数据集B的测试,可能因不同数据分布间的时空特征显著变化而导致性能不佳。有效地从下游任务中提取特定的复杂时空上下文信息是至关重要的。然而,赋予预训练模型快速理解并整合仅在测试期间可访问的新领域数据的空间和时间特性的能力是一个巨大的挑战。
2024-06-05 16:06:46
1202
原创 港大新工作 HiGPT:一个模型,任意关系类型 !
总得来说,我们将实现"一个模型,建模任意关系类型C1. 关系类型异质性偏移。本研究中我们关注的一个主要挑战是各种异质图结构中关系类型异质性的偏移。在这些图中,实体由各种类型的关系连接,而这些关系类型可能在各种数据集中有很大的差异。为了说明这一点,让我们考虑两个例子。在推荐系统中,异质图可能涉及user和item之间的节点关系。另一方面,在学术图中,关系可能涉及"论文-论文"、“作者-论文"和"论文-会议”。这些例子说明了不同的异质图可能在不同领域中展示出具有不同语义的各种关系异质性。
2024-03-26 15:02:14
1773
原创 港大提出图结构大语言模型:GraphGPT
总得来说,将大语言模型与图学习结合是一项重大的挑战。首先,在图的结构信息和语言空间之间实现适当的对齐需要深入的研究。同时,如何引导大语言模型有效地理解图的结构信息,以及如何赋予大语言模型对于图学习下游任务逐步推理的能力,都是当前面临的关键问题。为了深入了解直接使用纯文本提示为大语言模型建模图结构的局限性,本文进行了一系列的实验和对比,如图1所示。这些实验揭示了仅依赖文本提示进行图结构建模时可能出现的潜在问题。
2024-03-14 13:10:11
2124
原创 智慧城市大模型来啦!港大&百度推出UrbanGPT
时空预测旨在对不断变化的动态城市场景进行预测和洞察,涵盖了时间和空间两个维度。其目的是预测城市生活各个方面的未来时空模式、趋势和事件,包括交通、人口流动和犯罪率。尽管大量相关工作致力于开发神经网络技术来准确预测时空数据,但值得注意的是,许多方法很大程度上依赖于拥有足够的训练样本来生成精确的时空表示。不幸的是,数据稀缺的问题在实际的城市传感场景中普遍存在。在某些情况下,从下游场景收集任何标记数据变得具有挑战性,从而进一步加剧了问题。因此,有必要建立一个能够在不同的时空场景中表现出强大的泛化能力的时空模型。
2024-03-13 17:44:16
1177
原创 WWW2024 | PromptMM:Prompt-Tuning增强的知识蒸馏助力多模态推荐系统
这项工作的目标是使用一种新颖的模态感知KD框架,通过提示调整来简化和增强多模态推荐系统。为了有效地将任务相关的知识从教师模型转移到学生模型,模型引入了一个可学习的提示模块,动态地弥合了教师模型中的多模态上下文编码与学生模型中协作关系建模之间的语义差距。此外,模型提出的框架名为PromptMM,旨在分解信息性的协作关系,从而实现增强型知识蒸馏。通过大量实验,模型证明了PromptMM相比最先进的解决方案显著提高了模型效率,同时保持了更优的准确性。
2024-03-13 16:59:46
1621
原创 港大新工作,通用图基座模型OpenGraph,从LLM中蒸馏零样本图泛化能力!
模型的总体架构包括三个部分:1)统一图Tokenizer,2)可扩展的图 Transformer,3)对大语言模型的知识蒸馏。
2024-03-13 15:07:46
1193
原创 港大提出GraphEdit, 图数据编辑大模型!
图结构学习(Graph Structure Learning, GSL)旨在通过生成新的图结构来捕捉图结构数据中节点之间的内在依赖性和交互关系。图神经网络(Graph Neural Networks, GNNs)作为一种有前景的GSL解决方案,通过递归消息传递来编码节点间的相互依赖性。然而,许多现有的GSL方法过度依赖于作为监督信号的显式图结构信息,使它们容易受到数据噪声和稀疏性的挑战。
2024-02-27 17:05:26
1429
1
原创 Simple Yet Effective Graph Contrastive Learning for Recommendation
图神经网络(GNN)是一种强大的基于图的推荐系统学习方法。最近,结合对比学习的gnn在处理高度稀疏数据时,在数据增强方案的推荐方面表现出了优异的性能。尽管它们取得了成功,但大多数现有的图对比学习方法要么在用户-项目交互图上执行随机增强(例如,节点/边缘扰动),要么依赖基于启发式的增强技术(例如,用户聚类)来生成对比视图。我们认为,这些方法不能很好地保持语义的内在结构,并且容易受到噪声扰动的影响。
2022-12-21 20:11:16
1161
原创 Improving Graph Collaborative Filtering with Neighborhood-enriched Contrastive Learning
最近,图协同过滤方法被提出作为一种有效的推荐方法,它可以通过建模用户-项目交互图来捕获用户对项目的偏好。尽管有效,但这些方法在实际场景中存在数据稀疏问题。为了减少数据稀疏性的影响,在图形协同过滤中采用对比学习来提高性能。然而,这些方法通常是通过随机抽样来构建对比对的,忽视了用户(或项目)之间的相邻关系,未能充分挖掘对比学习的潜力来进行推荐。为了解决上述问题,我们提出了一种新的对比学习方法,称为邻域丰富的对比学习,称为NCL,它明确地将潜在的邻域合并为对比对。
2022-10-21 16:26:30
1280
3
原创 Revisiting Graph Contrastive Learning from the Perspective of Graph Spectrum
仅含图谱相关符号定义L^\hat{L}L^是对称归一化的Laplacian矩阵,其特征分解为UΛU⊤UΛU⊤,其中Λ=diag(λ1,...,λN)Λ=diag(λ1,...,λN)和U=[u1⊤,...,uN⊤]∈RN×NU=[u1⊤,...,uN⊤]∈RN×N分别是L^\hat{L}L^的特征值和特征向量。
2022-10-17 19:29:39
1271
4
原创 MetAug: Contrastive Learning via Meta Feature Augmentation
什么对对比学习很重要?我们认为对比学习在很大程度上依赖于信息特征,或“硬”(正面或负面)特征。早期的作品通过应用复杂的数据增强和大批量或内存库来包含更多信息特征,最近的作品设计了精细的采样方法来探索信息特征。探索这些特征的关键挑战是源多视图数据是通过应用随机数据增强生成的,这使得始终在增强数据中添加有用信息是不可行的。因此,从这种增强数据中学习到的特征的信息量是有限的。作为回应,我们建议直接增强潜在空间中的特征,从而在没有大量输入数据的情况下学习判别表示。
2022-09-29 16:35:25
1037
2
原创 MetAug: Contrastive Learning via Meta Feature Augmentation
什么对对比学习很重要?我们认为对比学习在很大程度上依赖于信息特征,或“硬”(正面或负面)特征。早期的作品通过应用复杂的数据增强和大批量或内存库来包含更多信息特征,最近的作品设计了精细的采样方法来探索信息特征。探索这些特征的关键挑战是源多视图数据是通过应用随机数据增强生成的,这使得始终在增强数据中添加有用信息是不可行的。因此,从这种增强数据中学习到的特征的信息量是有限的。作为回应,我们建议直接增强潜在空间中的特征,从而在没有大量输入数据的情况下学习判别表示。
2022-09-22 22:31:57
501
3
原创 Self-Damaging Contrastive Learning
最近通过对比学习取得的突破加快了在现实世界数据应用程序上部署无监督训练的步伐。然而,现实中未标记的数据通常是不平衡的,并且呈现出长尾分布,并且目前尚不清楚最新的对比学习方法在实际场景中的表现如何。本文建议通过称为自损对比学习 (SDCLR) 的原则框架明确解决这一挑战,以在不知道类别的情况下自动平衡表示学习。我们的主要灵感来自最近的发现,即深度模型具有难以记忆的样本,这些样本可能通过网络修剪暴露出来(Hooker 等人,2020)。更自然地假设由于示例不足,长尾样本也更难模型学习。
2022-09-12 19:25:42
950
原创 G-Mixup: Graph Data Augmentation for Graph Classification
然而,直接采用Mixup对图数据进行增强具有挑战性,因为不同的图通常有以下几个问题:1)节点数量不同;2)不容易对齐;3)在非欧几里得空间中具有独特的类型学。为此,我们提出G-Mixup,通过插入不同类别图的生成器(即graphon)来增强图的分类。具体来说,我们首先使用同一个类中的图来估计graphon。然后,我们不直接操作图,而是在欧氏空间中插入不同类别的graphons,以得到混合graphons,其中合成图是通过基于graphons的采样生成的。大量实验表明,G-Mixup显著提高了GNNs的泛化能
2022-08-10 01:47:42
1578
原创 Interventional Contrastive Learning with Meta Semantic Regularizer
基于对比学习(CL)的自我监督学习模型以成对的方式学习视觉表征。虽然目前流行的CL模型已经取得了很大的进展,但在本文中,我们发现了一个一直被忽视的现象:当用完整图像训练CL模型时,在完整图像中测试的性能比在前景区域测试的性能要好;当使用前景区域训练CL模型时,在完整图像中测试的性能比在前景区域测试的性能差。这一观察结果表明,图像中的背景可能会干扰模型学习的语义信息,其影响尚未完全消除。为了解决这个问题,我们建立了一个结构因果模型(SCM),将背景建模为一个混淆剂。我们提出了一种基于后门调整的正则化方法,
2022-07-20 15:20:52
955
原创 Let Invariant Rationale Discovery Inspire Graph Contrastive Learning
主流图对比学习(GCL)方法以两种方式进行图增强:(1)随机破坏锚点图,可能导致语义信息的丢失;(2)使用领域知识维护显著特征,破坏对其他领域的泛化。从GCL的不变性角度来看,我们认为高性能的增强应该保留锚图关于实例区分的显著语义。为此,我们将GCL与不变的基本原理发现联系起来,并提出了一个新的框架,基本原理感知图对比学习(RGCL)。具体来说,在没有监督信号的情况下,RGCL使用基本原理生成器来揭示图实例判别的显著特征,然后为对比学习创建基本原理感知视图。这种理性感知的训练前方案赋予骨干模型强大的表示
2022-07-12 23:03:09
942
原创 Self-supervised Learning for Large-scale Item Recommendations
大规模推荐模型可以从庞大的目录中找到最相关的商品,在现代搜索和推荐系统中发挥着至关重要的作用。为了对具有大词汇量分类特征的输入空间进行建模,典型的推荐模型通过神经网络学习用户反馈数据中的查询和商品的联合嵌入空间。然而,由于语料库中有数百万到数十亿个商品,用户倾向于为其中很小的一组商品提供反馈,从而导致幂律分布。这使得长尾项目的反馈数据非常稀少。 受最近在计算机视觉和自然语言理解领域成功的自我监督表示学习研究的启发,我们提出了一个用于大规模项目推荐的多任务自我监督学习(SSL)框架。该框架旨在通过更好
2022-06-28 17:27:28
968
原创 Ontology-enhanced Prompt-tuning for Few-shot Learning
Ontology-enhanced Prompt-tuning for Few-shot Learning
2022-04-19 11:17:23
861
原创 AdaPrompt: Adaptive Prompt-based Finetuning for Relation Extraction
AdaPrompt: Adaptive Prompt-based Finetuning for Relation Extraction本文仅供参考、交流、学习论文地址:https://arxiv.org/abs/2104.07650v1代码和数据集地址:暂无1. 摘要 在本文中,将关系抽取任务重新定义为掩码语言建模,并提出一种基于提示(prompt)的自适应微调方法。文中提出了一种自适应的标签词选择机制,该机制将关系标签分散到不同数量的标签令牌中,以处理负责的多个标签空间。文中进一步引入一个辅助
2022-03-31 11:37:43
1991
1
原创 KnowPrompt: Knowledge-aware Prompt-tuning with Synergistic Optimization for Relation Extraction
KnowPrompt: Knowledge-aware Prompt-tuning withSynergistic Optimization for Relation Extraction
2022-03-07 15:34:45
2025
1
原创 Large-scale Multi-granular Concept Extraction Based on Machine Reading Comprehension
Large-scale Concept Extraction Based on Machine Reading Comprehension for Knowledge Graph Completion本文为作者个人观点,仅供参考、交流、学习论文地址:https://link.springer.com/chapter/10.1007/978-3-030-88361-4_6代码和数据集地址:https://github.com/fcihraeipnusnacwh/MRC-CE
2022-02-24 14:08:49
444
1
原创 Bayesian Rose Trees 贝叶斯玫瑰树
Bayesian Rose Trees 贝叶斯玫瑰树发现没有关于贝叶斯玫瑰树的中文文章,于是对贝叶斯玫瑰树进行简要概括,仅供交流学习使用,如有错误请指正。 论文地址:Bayesian Rose TreesPython 实例:贝叶斯层次聚类和贝叶斯玫瑰树 背景 大多数层次聚类算法采用二叉树表示数据,其中叶子节点对应数据点,内部节点对应集群。但是在许多情况下,假设空间仅仅局限于二叉树是不可取的。首先,现实世界中许多的层次结构并不是二进制的。其次,将算法限制在二叉树上,往往会导致虚假的结构
2021-12-15 18:48:55
1681
1
原创 Neuralizing Regular Expressions for Slot Filling 神经网络转回自动机
Neuralizing Regular Expressions for Slot Filling 神经网络转回自动机在论文中,讲述了如何将正则表达式转换为神经网络(具体流程见Neuralizing Regular Expressions for Slot Filling 流程解析)并且在zero-shot或者few-shot的情况下优于其它方法...
2021-11-30 16:16:20
5504
原创 Neuralizing Regular Expressions for Slot Filling 流程解析
Neuralizing Regular Expressions for Slot Filling 流程解析1. 论文简介2. 对正则表达式进行预处理3. 构建正则表达式的DFA3.1 正则表达式转换为NFA3.2 子集构造法3.3 分割法将DFA最小化3.4 文中规则转换的例子3.5 合并DFA并转换为i-FST3.5.1 FST转换为i-FST的原因4. 张量分解转换为FSTRNN5. 整合外部embedding5.1 GloVE等静态词嵌入5.2 Bert等动态词嵌入6. 模型增强方法6.1 Non-l
2021-11-17 19:14:56
986
原创 YOLO系列原理
YOLO系列原理与改进1. YOLO v0 雏形思想2. YOLO v13. YOLO v24. YOLO v35. YOLO v46. YOLO v57. YOLO v1 v2 v3 v4 v5 对比图8. YOLO vx参考文章1. YOLO v0 雏形思想 传统检测所采用的方法基本是滑动窗口法,想要检测的精度越高,那么就需要遍历的越精确,同时检测所需要的时间开销就会越大。除此之外还存在另一个问题,背景图片很多,前景图片很少:二分类样本不均衡。在一张图片中对应背景和前景的框差距极大。可以把传统检测
2021-11-15 11:46:22
4795
原创 python通过append向字典中添加元素遇到的一点问题
今天写代码的时候准备向字典中添加一些元素想起来字典可以通过dict.fromkeys快速创建,但是插入的时候却出现了问题原因是通过dict.fromkeys创建字典时,都会指向同一个元素,连地址都是一样的,所以所有的空列表其实指的都是同一个列表,从而导致出现问题解决方案:...
2021-10-19 18:31:14
1051
1
原创 方形物体检测 实验报告
方形物体检测 实验报告1. 任务定义2. 实验环境3. 算法说明3.1 Canny算法3.1.1 Canny类初始化3.1.2 灰度化3.1.3 高斯模糊处理3.1.4 图像梯度计算3.1.5 NMS(非极大值抑制)3.1.6 双阈值边界选取3.2 Hough算法3.2.1 Hough_transform类初始化3.2.2 Hough变换3.2.3 矩形选取4. 结果分析4.1 图像结果4.1.1 灰度化4.1.2 高斯滤波4.1.3 边界图像4.1.4 NMS4.1.5 双阈值边界选取后4.1.6 Hou
2021-08-08 19:52:10
413
原创 VAE 实验报告
VAE 实验报告1. 任务定义2. 实验环境3. 方法描述3.1 VAE.py3.1.1 损失函数定义3.1.2 VAE模型实现3.2 train.py3.2.1 数据加载3.2.2 模型、优化器与损失函数初始化3.2.3 模型训练与图像绘制4. 结果分析4.1 loss变化图像4.2 观察原始图像与生成图像1. 任务定义 本题目尝试用 VAE 生成 MNIST 风格的手写数字。与 AE 不同,VAE 试图从特定分布中采样出一个隐变量,交由解码器学习一个与观测数据相同的分布。然后从学习得到的分布中采样
2021-08-08 19:50:45
2219
1
原创 Autoencoder 实验报告
Autoencoder 实验报告1. 任务定义2. 实验环境3. 方法描述3.1 AutoEncoder.py3.1.1 encoder3.1.2 decoder3.1.3 forward3.2 train.py3.2.1 数据加载3.2.2 模型、优化器与损失函数初始化3.2.3 模型训练与存储3.3 evaluate.py4. 结果分析4.1 对比不同损失函数的3D图像4.2 对比不同损失函数的还原结果4.3 修改模型观察效果5. 总结1. 任务定义使用自动编码器学习输入的特征表示。尝试设计一个全
2021-08-08 19:49:47
1002
原创 展品讲解语音对话系统 实验报告
展品讲解语音对话系统 实验报告1. 任务定义2. 实验环境3. 系统功能4. 方法说明4.1 本地录音4.1.1 初始化4.1.2 录音4.1.3 保存音频4.2 百度语音识别4.2.1 初始化4.2.2 语音识别4.3 图灵机器人回答4.3.1 在图灵机器人平台新增语料库4.3.2 初始化4.3.3 获得回复4.4 处理回答内容并语音回答5. 演示视频及源码1. 任务定义搭建以展品讲解为主要内容的语音对话系统展品导览:通过对话,确认用户感兴趣的展品(假设展品为展馆内所展示的物品或图、画),以及导
2021-06-19 14:47:02
1099
原创 隐马尔可夫模型 实验报告
隐马尔可夫模型 实验报告1. 任务说明2. 实验环境3. 方法描述3.1 问题一3.1.1 前向算法3.1.2 后向算法3.1.3 绘制结果3.2 问题二3.2.1 Viterbi 算法3.3 问题三3.3.1 前向算法计算3.3.2 预测并评估3.4 辅助函数说明4. 附加问题5. 源码1. 任务说明2. 实验环境Windows 10VS Codepython 3.7.83. 方法描述加载数据data = scio.loadmat('./hmm_params.mat')数
2021-06-19 14:45:29
1498
原创 利用词袋模型和SVM进行图片分类 实验报告
利用词袋模型和SVM进行图片分类 实验报告1. 任务定义2. 实验环境3. 算法说明3.1 初始化3.2 提取SIFT特征3.3 生成词汇字典3.4 提取BOW特征描述3.5 使用SVM进行训练3.6 模型评估4. 结果分析4.1 LinearSVC分类报告以及混淆矩阵4.2 调整参数后分类效果4.3 总结1. 任务定义任务: 编写一个图像分类系统,能够对输入图像进行类别预测。具体的说,利用数据库的 2250张 训练样本进行训练;对测试集中的2235张样本进行预测。数据库说明: scene_c
2021-06-19 14:43:30
4052
19
原创 基于BiLSTM-CRF的命名实体识别
基于BiLSTM-CRF的命名实体识别1. 任务说明1.1 任务定义1.2 语料说明2. 实验环境3. 算法说明(按文件说明)3.1 model.py3.2 data.py3.3 predict.py3.4 evaluate.py3.5 run.py4. 实验结果5. 参考资料6. 源码1. 任务说明1.1 任务定义 基于train.txt和train_TAG.txt数据训练一个BiLSTM-CRF命名实体识别模型,进而为test.txt进行序列标注,输出标签文件,标签文件输出格式与train_TA
2021-06-19 14:42:53
4122
11
原创 2021语言与智能技术竞赛:机器阅读理解任务 实验报告
2021语言与智能技术竞赛:机器阅读理解任务 ——实验报告 1. 比赛介绍2. 赛题说明2.1 样例2.2 数据说明3. 数据集介绍3.1 数据介绍3.2 数据样本4. 模型介绍4.1 Bert模型介绍4.1.1 Masked Language Model4.1.2 Next Sentence Prediction4.1.3 模型输入4.2 fine-tuning5. 工作流程5.1 数据预处理5.2 模型训练5.2.1 训练参数说明
2021-06-19 14:41:06
1313
原创 K-means聚类 实验报告
K-means聚类 实验报告 任务定义2. 实验环境3. 方法描述3.1 数据切分3.2 模型训练3.2.1 读取数据3.2.2 初始化K个中心点3.2.3 计算点到聚类中心点的距离3.2.4 模型训练3.2.5 绘制聚类图3.2.6 模型存储3.3 模型评估3.3.1 模型加载3.3.2 使用模型聚类3.3.3 sse计算评估4. 结果分析1. 任务定义使用K-means模型对cluster.dat进行聚类。尝试使用不同的类
2021-05-11 08:13:41
10179
原创 Webots平台NAO机器人寻路避障实现
NAO机器人实验报告 一、实验目的二、功能模块三、实现方法四、程序运行使用说明五、实验结果及优缺点分析六、总结心得一、实验目的二、功能模块三、实现方法四、程序运行使用说明五、实验结果及优缺点分析六、总结心得...
2021-04-20 14:47:26
5627
10
原创 基于BPE的汉语tokenization
编程作业1:基于BPE的汉语tokenization 基本环境算法说明train.pytokenlize.py源码基本环境操作系统:Windows10python版本:3.7.8算法说明train.pyget_vocab——从训练语料中获取基本字典def get_vocab(filename): vocab = collections.defaultdict(int) with open(filename,
2021-04-20 14:44:34
1754
2
可用于svm的iris数据集
2020-11-19
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人