- 博客(24)
- 收藏
- 关注
原创 论文阅读《Curriculum Learning for Reinforcement Learning Domains: A Framework and Survey》
这篇论文提出了课程学习(CL)在强化学习(RL)中的重要性,并详细讨论了其框架、挑战及解决方案。通过提出自适应的任务排序方法、任务迁移技巧和多任务训练方法,论文展示了 CL 如何有效提升 RL 代理的学习效率和泛化能力。同时,论文也指出了当前 CL 方法的局限性,并为未来的研究方向提供了宝贵的建议。
2025-04-01 21:29:31
1056
1
原创 论文阅读<A Survey of Curriculum Learning in Deep Reinforcement Learning>——如何在深度强化学习中引入课程学习以提升训练效率
论文阅读<A Survey of Curriculum Learning in Deep Reinforcement Learning>
2025-04-01 21:22:30
524
1
原创 论文阅读《Proximal Curriculum for Reinforcement Learning Agents》——提升智能体学习速度的
老规矩,今天是使用Gemini2.5pro来生成的模板。
2025-03-31 14:49:11
922
1
原创 论文阅读:Human Decision Makings on Curriculum Reinforcement Learning with Difficulty Adjustment
以人为本的人工智能考虑的是人类对人工智能性能的体验。虽然已有大量研究通过全自动学习或弱监督学习帮助人工智能实现超人性能,但较少有人尝试人工智能如何在细粒度输入的情况下根据人类偏好的技能水平进行定制。在这项工作中,我们通过学习人类的决策过程,引导课程强化学习结果达到既不太难也不太容易的首选性能水平。为此,我们开发了一个便携式交互平台,用户可以通过操作任务难度、观察表现和提供课程反馈与代理进行在线交互。我们的系统具有高度可并行性,使人类在没有服务器的情况下训练需要数百万样本的大规模强化学习应用成为可能。
2025-03-28 16:35:49
890
1
原创 Python报错requests.exceptions.ChunkedEncodingError: Response ended prematurely
Python报错修改
2025-03-20 13:28:47
241
原创 Post-Training Quantization, PTQ
Post-Training Quantization(PTQ) 是 模型训练完成后,对其参数(权重 & 激活值)进行量化 的方法,目的是 减少存储占用 & 提高推理速度,同时尽可能保持模型精度。相比于 量化感知训练(Quantization-Aware Training, QAT),PTQ 不需要重新训练模型,而是 直接对训练好的模型进行量化转换,适用于 推理优化。现代深度学习模型(如 Transformer、CNN)通常采用 FP32(32-bit 浮点数) 存储权重和计算数据,这会带来以下问题:✨ PT
2025-03-19 22:26:23
299
原创 A Comprehensive Evaluation of Quantization Strategies for Large Language Models全面评估大型语言模型的量化策略论文阅读
A Comprehensive Evaluation of Quantization Strategies for Large Language Models全面评估大型语言模型的量化策略论文阅读——————大模型量化的一个小综述
2025-03-18 21:47:11
1337
2
原创 VisFlow: Adaptive Content-Aware Video Analytics on Collaborative Cameras论文阅读
VisFlow: Adaptive Content-Aware Video Analytics on Collaborative Cameras论文阅读
2025-03-12 15:17:08
489
1
原创 AdaStreamer: Machine-Centric High-Accuracy Multi-Video Analytics with Adaptive Neural Codecs论文阅读
AdaStreamer: Machine-Centric High-Accuracy Multi-Video Analytics with Adaptive Neural Codecs论文阅读
2025-03-12 15:16:36
904
1
原创 Langgraph 使用排错 AttributeError: ‘OllamaLLM‘ object has no attribute ‘bind_tools‘
解决AttributeError: ‘OllamaLLM‘ object has no attribute ‘bind_tools‘问题
2025-02-24 20:23:58
343
原创 论文阅读《Unsafe Diffusion: On the Generation of Unsafe Images and Hateful Memes From Text-To-Image Mod》
大模型安全论文阅读——CCS 2023《Unsafe Diffusion: On the Generation of Unsafe Images and Hateful Memes From Text-To-Image Mod》不安全扩散:关于从Text-To-Image Model生成不安全图像和仇恨模因
2024-12-01 21:48:04
1031
1
原创 解决问题AttributeError: module ‘numpy‘ has no attribute ‘int0‘. Did you mean: ‘int8‘?
在使用numpy对opencv 的matlike类型的数据进行整数化时,有报错AttributeError: module 'numpy' has no attribute 'int0'. Did you mean: 'int8'。解决方法:将int0改为int64即可,是由于numpy的版本升级int0,int8已不再使用。
2024-11-06 13:15:10
659
原创 大语言模型学习第八讲之大语言模型评估(8.4&8.5)
阅读《大规模语言模型——从理论到实战》的第八章的8.4,即第八章的最后一章,对其知识点进行提炼和简单概述,粗略阅读,以及对第八章整体进行简单的总结
2024-10-23 23:10:39
1201
原创 大语言模型学习第八讲之大语言模型评估(8.3)
阅读《大规模语言模型——从理论到实战》的第八章的8.3,对其知识点进行提炼和简单概述,粗略阅读,此部分是第八章的重点章节
2024-10-20 22:23:43
1433
1
原创 大语言模型学习第八讲之大语言模型评估(8.1&8.2)
阅读《大规模语言模型——从理论到实战》的第八章的8.1及8.2,对其知识点进行提炼和简单概述,粗略阅读
2024-10-18 22:56:03
855
原创 语义通信Semantic Communications Overview, Open Issues, and Future Research Directions综述阅读
语义通信的核心综述阅读Semantic Communications: Overview, Open Issues, and Future Research Directions
2024-10-15 22:51:29
1902
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人