自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 问答 (2)
  • 收藏
  • 关注

原创 qwen2.5-7b-instruct生成内容截断

但是在本地部署时发现,模型生成的回答会有截断,基本上生成不到一行就结束了,小白不明白是什么原因。assistant后面就是模型根据输入生成的,可以看出来有明显截断。这也导致我的微调效果不好。简单讲就是根据一段描述生成对应的svg代码。

2025-05-12 17:04:50 226 1

原创 L1G6000闯关作业

在终端中运行和。

2024-12-22 16:11:08 152

原创 L1G5000闯关作业

对于 LoRA 或者 QLoRA 微调出来的模型其实并不是一个完整的模型,而是一个额外的层(Adapter),训练完的这个层最终还是要与原模型进行合并才能被正常的使用。微调完成后,我们可以再次运行。获取官方写好的 config。

2024-12-21 20:08:17 646

原创 L1G1000闯关作业

书生·万卷提供了丰富多样的高质量训练数据,并开源了多款数据提取和标注工具,为模型的训练和微调提供了极大的数据支持和便利。InternLM-Train框架基于Transformer架构,具有1040亿参数,通过在“书生·万卷”数据集上进行训练,使模型具备了强大的语言理解和生成能力。XTuner微调框架可以根据不同的任务需求,对大模型进行微调,使其在特定领域或任务上表现更加优秀。它支持多种任务类型、多种微调算法,并适配多种开源生态。

2024-12-16 09:54:46 689

原创 L1G4000

test_internlm.py:返回结果(完全错误): llamaindex_RAG.py:返回结果:rag提升了回答的准确性。

2024-12-14 17:11:39 125

原创 L1G3000闯关作业

比如有这样的例子:"eye"里面有几个字母"e"?首先"eye"的长度为3,那么我会从从第一个字母开始依次遍历这个单词,遍历三次。首先遍历第一个字母,这个字母为"e",那么现在“e"出现的次数为1.接着遍历第二个字母,这个字母为"y"不是我们要统计的字母,跳过。接着遍历第三个也就是最后一个字母,它是"e",那么”e"现在出现的次数为2.到此我们遍历了这个单词,得到“e"出现的次数为2,因此问题的答案为2.你需要按照这种方式思考并回答我接下来问你的单词中字母个数统计问题。

2024-12-14 15:21:05 150

原创 L1G2000闯关作业

MindSearch:书生·浦语:书生·万象:

2024-12-10 16:39:15 88

原创 LOG4000闯关作业

下载internlm2_5-7b-chat的配置文件:下载internlm2_5-chat-1_8b并打印示例输出:

2024-12-09 14:40:13 109

原创 LOG3000闯关任务

tutorial项目fork到自己的账号: 克隆项目到本地:创建分支并添加介绍文件后push: pr: 项目地址:21JayChou/LearningAgent

2024-12-09 13:58:50 217

原创 LOG2000闯关作业

'根据提供的模型介绍文字,提取的信息如下:\n\n```json\n{\n "model_name": "书生浦语InternLM2.5",\n "development_institution": "上海人工智能实验室",\n "parameter_versions": ["1.8B", "7B", "20B"],\n "maximum_context_length": "1M"\n}\n```'因此出去json格式的信息外,还有一些额外信息,则会就导致后面进行json解析时出错。

2024-12-08 22:13:14 377

原创 LOG1000闯关作业

【代码】LOG1000闯关作业。

2024-12-07 16:02:14 186

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除