- 博客(10)
- 资源 (2)
- 收藏
- 关注
原创 书生浦语基6:OpenCompass 评测书生大模型实践
结果显示 /share/new_models/Shanghai_AI_Laboratory/internlm2_5-1_8b-chat/, 接着, 创建配置脚本 /root/opencompass/configs/models/hf_internlm/hf_internlm2_5_1_8b_chat_api.py。path='/share/new_models/Shanghai_AI_Laboratory/internlm2_5-1_8b-chat/', # 注册的模型名称。
2024-12-01 11:15:32
726
原创 书生浦语基5:XTuner 微调实践微调
这里我们使用修改好的配置文件 internlm2_5_chat_7b_qlora_alpaca_e3_copy.py。在 XTuner 中提供了一键合并的命令 xtuner convert merge,在使用前我们需要准备好三个路径,包括原模型的路径、训练好的 Adapter 层的(模型格式转换后的)路径以及最终保存的路径。微调完成后,我们可以再次运行 xtuner_streamlit_demo.py 脚本来观察微调后的对话效果,不过在运行之前,我们需要将脚本中的模型路径修改为微调后的模型的路径。
2024-11-26 16:42:30
645
原创 书生浦语基4:InternLM + LlamaIndex RAG 实践
给模型注入新知识的方式,可以简单分为两种方式,一种是内部的,即更新模型的权重,另一个就是外部的方式,给模型注入格外的上下文或者说外部信息,不改变它的的权重。st.session_state.messages = [{"role": "assistant", "content": "你好,我是你的助手,有什么我可以帮助你的吗?st.session_state.messages = [{"role": "assistant", "content": "你好,我是你的助手,有什么我可以帮助你的吗?
2024-11-25 17:35:47
773
原创 基2:书生系列的大模型产品及体验
基于原生的 InternLM2.5 最新 Chat 模型 (InternLM2.5-20B) 搭建聊天机器人应用。:InternLM 组织今年开源的 AI 搜索引擎 (框架),基于多智能体技术将你提出的问题进行分析、拆解、网页搜索,最终给出有参考依据的高可信度回答。将对你提出的问题进行分析并拆解为数个子问题,在互联网上搜索、总结得到各个子问题的答案,最后通过模型总结得到最终答案。:InternVL 开源模型的官方产品,原生支持图文多模态对话能力。通过对话,可以看出来局限性还是有的。
2024-11-19 10:47:30
281
原创 四、书生浦语第四期关卡四
因为个人GitHub CodeSpace硬盘空间有限(32GB可用),而7B的模型相对较大,这里我们先演示如何下载模型文件夹的特定文件。我们可以把训练好的模型保存进里面,考虑到网速问题,只上传我们刚刚下载好的config.json,把它复制粘贴进这个文件夹里面。创建好环境后,可以进入网页版VSCode的界面,这就是CodeSpace提供给我们的在线编程环境。注意,如果git push 报错,可能是第一次上传时需要验证,请使用以下命令,注意替换<>里面的内容,(
2024-11-01 16:48:02
1937
原创 三、书生闯关第四期基础任务3
从远程仓库拉取最新的内容到本地仓库,并自动尝试合并到当前分支。这一步是同步的重要环节,确保你的工作基于最新的项目状态进行。这一步是准备阶段,你可以选择性地添加文件,决定哪些修改应该被包括在即将进行的提交中。这一步是将你的更改正式记录下来,每次提交都应附带一个清晰的描述信息,说明这次提交的目的或所解决的问题。git commit -m "add git_camp4_036_introduction"#提交信息记录,这里需要修改为自己的uid。:将本地仓库的更改推送到远程仓库。完成介绍文件后提交更改分支。
2024-11-01 14:24:00
319
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅