- 博客(36)
- 收藏
- 关注
原创 数据集加载参数设置
dataloaders有一个参数num_workers,这个参数是用于加速数据集进程的。但是在实际使用的时候,他们可能降低训练速度。对于har数据集而言,这只会影响代码训练速度。
2025-12-06 14:33:21
188
原创 Division-of-Thoughts: Harnessing Hybrid Language Model Synergy for Efficient On-Device Agents
摘要:本文提出"思维分工"(DoT)框架,通过任务分解、调度和分配优化,实现本地小模型(SLM)与云端大语言模型(LLM)的高效协作。DoT利用任务分解器将复杂查询拆解为独立子任务,通过依赖图实现并行推理,并采用轻量级适配器(MLP)基于SLM生成的句子嵌入进行任务分配。实验表明,DoT在保持推理准确率的同时,平均降低66.12%推理时间和83.57%API成本。该方法创新性地结合了经济学分工思想与语言模型特性,为设备端AI代理提供了高效解决方案。
2025-10-10 17:01:52
796
原创 Native Sparse Attention: Hardware-Aligned and Nativel Trainable Sparse Attention
deepseek团队论文 ACL'25
2025-09-29 15:40:52
772
原创 ARPO: End-to-End Policy Optimization for GUI Agents with Experience Replay
摘要:本文提出代理回放策略优化(ARPO),一种端到端强化学习方法,用于训练基于视觉-语言模型(VLM)的GUI交互智能体。针对GUI环境中稀疏奖励、延迟反馈和高成本轨迹生成等挑战,ARPO通过引入跨训练迭代的回放缓冲区和任务筛选机制,显著提升了智能体在复杂长周期任务中的表现。具体贡献包括:(1)采用组相对策略优化(GRPO)实现多模态环境下的端到端训练;(2)设计任务选择策略优化训练样本;(3)开发经验回放缓冲区复用成功轨迹;(4)在OSWorld基准测试中建立新性能基线。实验表明,ARPO在领域内任务上
2025-09-12 16:06:45
863
原创 SFS: SMARTER CODE SPACE SEARCH IMPROVES LLMINFERENCE SCALING
SCATTERED FOREST SEARCH (SFS)方法精读
2025-08-26 20:45:19
735
原创 Tree-of-Evolution: Tree-Structured Instruction Evolution for Code Generation in Large Language Model
Tree-of-Evolution的论文精读
2025-08-25 21:10:29
702
原创 Creating Hardware Component Knowledge Bases with Training Data Generation and Multi-task Learning
本文提出了一种基于机器学习的方法,用于从硬件数据手册中自动构建组件数据库。传统人工创建数据库的方式耗时费力且容易出错。该方法通过结合多模态数据模型、弱监督、数据增强和多任务学习技术,有效解决了硬件数据手册中的三大挑战:关系型数据结构、专业术语使用以及PDF格式的复杂性。实验结果表明,该方法在三种硬件组件上平均达到77的F1分数,质量与人工创建的数据库相当。研究还展示了该方法如何显著改善硬件组件的选择流程,并通过案例研究验证了其实际应用价值。相比传统人工方法,该方案能够在几天内快速构建高质量知识库,为嵌入式系
2025-08-08 15:50:33
634
原创 BossNAS: Exploring Hybrid CNN-transformers with Block-wiselySelf-supervised Neural Architecture Sea
BossNAS是一种新型无监督神经架构搜索方法,通过分块自监督学习解决权重共享空间过大和监督偏差导致的问题。该方法将搜索空间分解为多个块,采用"集成自引导"训练方案:先独立训练每个块,再整体搜索最优架构。研究人员还设计了HyTra混合CNN-Transformer搜索空间,搜索得到的BossNet-T模型在ImageNet上达到82.5%准确率,超越EfficientNet 2.4%。实验表明,该方法在多个搜索空间上展现出卓越的架构评分能力(Spearman相关性0.78/0.76),优
2025-07-27 23:08:00
1165
3
原创 GLiT: Neural Architecture Search for Global and Local Image Transformer
GliT
2025-07-25 17:31:41
969
原创 NAS-Bench-101: Towards Reproducible Neural Architecture Search
《NAS-Bench-101:迈向可复现的神经架构搜索》提出首个开源NAS基准数据集,包含423k个独特卷积架构在CIFAR-10上的评估结果。通过构建7节点DAG搜索空间(含3种基本操作),采用固定训练流程生成超500万模型指标。研究揭示:1)架构性能呈局部性特征;2)ResNet/Inception类结构表现优异(最佳测试准确率94.32%);3)比较显示正则化进化、BOHB和SMAC算法表现突出。该数据集支持毫秒级架构评估,为NAS研究提供标准化测试平台,显著提升实验复现性和算法开发效率。
2025-07-25 12:57:01
1015
原创 CE-NAS: An End-to-End Carbon-Efficient Neural Architecture Search Framework
ce-nas解析
2025-07-09 22:13:17
793
原创 Design Principle Transfer in Neural Architecture Search via Large Language Models
可迁移神经架构搜索(
2025-07-05 12:32:08
368
1
原创 Coevolving with the Other You: Fine-Tuning LLMwith Sequential Cooperative Multi-AgentReinforcement
论文详读
2025-06-09 17:59:07
737
原创 CodePlan: Repository-level Coding using LLMs and Planning
摘要 本文提出CodePlan,一个任务无关框架,将仓库级代码编辑(如包迁移、错误修复)建模为规划问题,利用LLM生成多步编辑计划。CodePlan结合增量依赖分析、变更影响分析和自适应规划算法,动态扩展计划图(PlanGraph)以处理代码依赖关系。它通过提取空间和时间上下文生成结构化提示,指导LLM执行编辑,并通过预言机验证代码状态。实验表明,CodePlan在C#包迁移和Python时序编辑任务中优于基线方法,成功通过5/6仓库的验证。核心贡献包括:(1)仓库级代码问题的规划建模;(2)基于静态分析和
2025-06-04 15:31:14
807
原创 ChatCam: Embracing LLMs for Contextual Chatting-to-Camera withInterest-Oriented Video Summarization
ubicomp25 ChatCam解读
2025-04-23 21:38:19
986
原创 ChatCam: Empowering Camera Control throughConversational AI
本文探索如何通过人类语言human language指导控制摄像机camera。作者提出ChatCam系统,通过用户对话导航摄像机运动,模拟专业电影摄影师的工作流程。为此,我们设计了CineGPT——一种基于GPT的自回归模型,用于文本条件下的摄像机轨迹生成。我们还开发了Anchor Determinator以确保摄像机轨迹的精确定位。ChatCam理解用户请求,并利用所提工具生成轨迹,这些轨迹可用于在辐射场表示(如NeRF[52]或3DGS[35])上渲染高质量视频。
2025-04-23 16:14:27
896
原创 aiXcoder-7B: A Lightweight and Effective LargeLanguage Model for Code Processing
aiXcoder-7B(70亿参数),achieves higher code completion accuracy while having smaller scales。在保持较小规模的同时实现了更高的代码补全精度。其优势源于三大技术:❶ 多目标训练.我们采用三种训练目标,其中核心是提出的。SFIM通过解析代码语法结构,显著提升了模型对代码的补全能力。❷ . 该策略考虑了跨文件关联性,增强了模型对跨文件上下文的理解能力。❸ 。
2025-04-20 00:52:12
1263
原创 NExT: Teaching Large Language Models toReason about Code Execution
人类开发者的一项基本技能是理解和推理程序的执行过程。例如,程序员可以通过用自然语言在脑海中模拟代码执行来进行调试和修复代码 debug and repair code(即所谓的"橡皮鸭调试" "rubber duck debugging")。然而,代码的大语言模型(LLMs)通常仅基于程序的表面文本形式进行训练,因此可能缺乏对程序运行时语义的理解。但这些方法都需要特定的任务架构或者人工制作的模板。
2025-04-18 13:10:29
732
原创 gnome terminal开启失败
如果修改了python path软连接或者修改默认python,都可能导致gnome terminal 的问题。但问题是,我该了好几次pythonpath,我也不知道自己现在是python几,所以,直接修改配置文件的第一行为。可见,包是按照3.10配置,但是此时连接的python不一定是3.10.gnome terminal是依赖于python gui界面的终端。2.查看自己的gnome terminal是什么版本的。发现第一行是使用python3。3.查看gnome的配置文件。
2025-04-13 16:29:26
383
原创 GPIoT 解读
GPIoT: Tailoring Small Language Models for IoT Program Synthesis and Development摘要大意:现有的代码大型语言模型(如WizardCoder和CodeLlama)无法较好完成IoT领域的代码生成任务,因为它们主要针对通用编程任务进行训练,IoT相关知识在其训练数据中占比很小。此外,使用云端LLMs(如GPT-4)进行IoT应用开发存在隐私泄露、网络不稳定和高昂的查询成本等问题。而本文提出的GPIoT由三个本地部署的小型语言模型
2025-03-10 20:10:05
814
原创 学习AFlow
首先,在Prompt告诉大模型它每一步可以采取的行动主要有5种类型:add modify delete nodes parameters prompts.,根据得分,使用公式更新每一个之前工作流中的节点i的得分p。然后跳转到得分最高的节点i那里,让llm抉择节点i的下一步要做什么(依旧是从五中类型里选择)。P的公式如上所示,n是当前的所有节点,计算所有节点中贡献最大的点,然后直接跳转到这个节点,让llm选择这个节点的下一步。组会上同门分享的论文,感觉人家做的太好了。
2025-03-05 15:16:58
732
原创 X-3D(CVPR2024)在Ubuntu复现
论文主要有两个数据集,一大一小,ScanNet数据集太大了,论文作者使用了8张显卡进行训练,我直接放弃了,所以这里只复现了论文的小型数据集训练、测试。(但其实小型能运行,如果硬件跟上,大的一样可以运行)
2025-02-24 14:10:31
990
1
原创 使用arduino编译esp32-wroom-32的代码
在这过程中,当程序开始现实connecting,要先按下boot按钮,长按,同时按一下en按钮,按完它后,才能松开boot按钮。搜索esp32,然后选择最新版Install(一定要是最新版,哪怕你下载的不是最新版的压缩包,也要选择最新版)注意,串口一般是最新的那个,编号的话则是最大的那个(如我选择的COM5)。如果无法下载,请选择ctrl+click链接,开始手动下载。然后插入esp32-wroom-32板子,编写代码,编译。下载完后,解压这个文件夹来到arduino的下载目录。首先下载相关的文件。
2024-10-16 18:42:36
1062
原创 neo4j linux上安装与配置
下载 neo4j-community-3.5.13-unix.tar.gz 和 openjdk-11.0.0.2_linux-x64.tar.gz。注意这里要填入你自己将下载文件解压后的路径。生效后,我们可以测试Java。
2024-10-03 16:58:46
808
原创 VirtualBox虚拟机报内存不够
Disk /dev/sda:25 GiB,26843545600 字节,52428800 个扇区。(注意这里不能写sudo mkdir /home/ouyangpeng/sda3,不然后面会出错)输入:sudo mount /dev/sda3 /home/ouyangpeng/sda3。将分区 /dev/sda3 挂载到 /home/ouyangpeng/sda3。I/O 大小(最小/最佳):512 字节 / 512 字节。扇区大小(逻辑/物理):512 字节 / 512 字节。
2024-08-20 19:58:05
2029
原创 Compiler xtensa-esp32-elf-gcc is required but not found in PATH. Aborting. 解决
然后再把 export PATH="$HOME/esp/xtensa-esp32-elf/bin:$PATH" 加到文件的最后。然后到达该文件被下载的文件夹内(一般是/home/xxx/Download)再解压该文件。如果不知道自己的xtensa-esp32-elf-gcc在哪里,可以直接下载一个。发现输出中并未出现xtensa-esp32-elf-gcc的路径。问题根源:xtensa-esp32-elf-gcc的路径找不到。我将解压的文件夹放置在/home/xxx/esp文件夹内。
2024-07-17 20:47:02
760
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅