- 博客(15)
- 资源 (1)
- 收藏
- 关注
原创 One-Pass聚类方法
一次通过聚类是一种简单且高效的聚类算法,特别适用于数据以流的形式到达或需要实时处理的场景。这种算法逐个处理数据点,并根据预定义的相似度阈值将数据点分配到现有聚类中,或者创建新的聚类。如果与最近聚类的相似度超过预定义的阈值,将该数据点分配到该聚类中,并更新该聚类的中心点。如果没有任何现有聚类满足相似度阈值,创建一个新的聚类,并将当前数据点作为其中心。这种方法特别适合在线或实时聚类场景,无需存储所有数据,而是可以逐个处理和决策。计算该数据点与每个现有聚类中心的相似度(或距离)。从一个空的聚类集合开始。
2024-08-12 21:13:20
363
原创 Hash Method
pHash(Perceptual Hash)是一种感知哈希算法,用于通过分析图像的内容生成一个指纹(哈希值),这个指纹可以用来比较图像之间的相似性。不同于传统的加密哈希算法(如MD5或SHA),感知哈希关注的是内容的相似性,而不是内容的精确匹配。因此,即使图像经过了一些轻微的修改,如缩放、旋转或亮度调整,它们的pHash值仍然会非常接近。:将图像缩小到一个标准大小(通常为32x32像素)。这一步骤有助于减少计算量,并保留图像的主要特征。:将图像转换为灰度图像,以消除颜色信息的干扰,专注于图像的亮度模式。
2024-08-11 20:38:34
479
原创 EASYTOOL: Enhancing LLM-based Agents with Concise Tool Instruction
为了补足LLM和tool之间的gap,Agent会先分析任务需求、做规划,再调用工具。先前已经有研究做微调补足这个gap,但是不适用于黑盒LLM,例如chatgpt,而且微调缺乏即插即用的灵活性现有工具文档阻碍LLM利用工具的问题:格式不一致信息冗余,会过度消耗token文档有时缺失完整信息流程概述将文档转换为标准文档(工具指令),达到统一格式并去除冗余的目的;最终LLM使用工具指令easytool可以即插即用。
2024-03-29 11:07:51
1058
1
原创 AnyTool: Self-Reflective, Hierarchical Agents for Large-Scale API Calls
API检索器链接meta-agent,meta-agent链接不同类别的api-agent,如类别agent和tool-agent求解器求解API tool自我反思特点即插即用,不用训练应用分而治之思想和Rapid API分类构建的API层次结构显著减少了每个Agent的搜索范围,并克服了与 LLM 中最大上下文长度相关的限制自我反思机制显著减少了“过度搜索”简单查询的趋势,同时还为复杂查询提供了上下文更丰富、更深入的搜索。这个闭环系统提高了查询解析过程的效率和有效性。
2024-03-04 18:58:39
1036
1
原创 APIGen
API能使开发人员访问、使用外部资源,提高开发效率,现今API库高速发展,为特定的编程需求推荐API是当前开发人员面临的巨大挑战基于检索的方法受限于嵌入模型的表示能力基于学习的方法受限于任务领域训练数据不足APIGen两个组成部分:多样化的示例选择和引导式 API 推荐。三个主要阶段:示例检索、提示构建和 API 推荐。示例检索阶段,APIGen 使用给定的查询从 API 相关帖子语料库中搜索相关帖子。相关帖子将作为下面阶段的演示示例,每个帖子都包含一个编程问题及其相应的 API 答案。
2024-03-04 18:52:04
1024
1
原创 EasyInstruct
LLM指令微调被提出,但人工构建数据耗时耗力;LLM用来辅助大规模指令微调数据集生成会受到多样性、复杂性影响,导致数据分布不平衡或质量差;指令处理开源工具依旧很少且大部分都是为了特定任务进行定制的,很少有系统性、通用的工具;因而提出easyInstruct给定一些现有的聊天数据、语料库或知识图谱,EasyInstruct 可以处理指令生成、选择和提示过程,同时还考虑它们的组合和交互。
2024-03-04 18:46:40
1217
1
原创 论文阅读:Meta-Prompting
元提示引导 LM 将复杂的任务分解为更小、更易于管理的子任务,子任务由同一 LM 的不同“专家”实例处理,每个实例都在特定的、定制的指令下运行使用批判性思维和验证流程来完善和验证最终结果。
2024-03-04 18:43:47
1126
1
原创 Auto MC-Reward: Automated Dense Reward Design with Large Language Models for Minecraft
Auto MC-Reward:针对 Minecraft 的大型语言模型自动密集奖励设计https://yangxue0827.github.io/auto_mc-reward.html 摘要 传统强化学习依赖稀疏奖励,使用二进制指示任务完成或失败,其效率在minecraft中表现低,提升效率困难、有挑战。为解决这个问题,这篇文章基于LLM自动设计密集奖励函数强化学习效率 过程(对照图1) 奖励设计者先通过使用预定义的观察输入编写可执行 Python
2024-01-18 22:35:24
1057
4
原创 昇思MindSpore技术公开课-transformer(5)
在前文实现好的encoder和decoder的基础上实现transformer。
2024-01-18 21:44:19
429
1
原创 SELF GENERATED WARGAME AI
自生成兵棋AI:基于大语言模型的双城代理任务规划摘要大语言模型应用于智能决策领域,构建了以大语言模型为决策核心的Agent架构进一步提出两层Agent任务规划,通过自然语言交互下达和执行决策命令,并通过兵棋模拟环境进行模拟验证实验发现LLM的智能决策能力在方面,明显强于常用的强化学习AI和规则AI,都更好LLM的智能度与提示密切相关将LLM从人机交互扩展到智能决策领域,对于智能决策的发展具有重要的参考价值和意义。
2024-01-18 14:39:57
1059
1
原创 昇思MindSpore技术公开课-transformer(1)
Transformer是一种神经网络结构,由Vaswani等人在2017年的论文“Attention Is All You Need”中提出,用于处理机器翻译、语言建模和文本生成等自然语言处理任务。Transformer是一个纯基于注意力机制的结构,并将自注意力机制和多头注意力机制的概念运用到模型中;由于缺少RNN模型的时序性,Transformer引入了位置编码,在数据上而非模型中添加位置信息;更容易并行化,训练更加高效;在处理长序列的任务中表现优秀,可以快速捕捉长距离中的关联信息。
2024-01-17 17:37:39
526
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人