- 博客(10)
- 收藏
- 关注
原创 小试OpenCompass 评测
再次运行测试,rouge的问题解决了。仍然发现api_key出错。索性直接把key写在配置文件里。第一次运行发现了一些错误,貌似是血少 importlib_metadata库。根据群里大佬的建议,用conda来安装rouge,看是否可以解决问题。留意到目录已经有一个配置文件了,修改这个配置文件。仍然出现错误,提示还缺少rouge库。
2024-11-15 17:11:55
299
原创 XTuner 微调实践微调
简单测试一下,发现模型已经把预支的"董董董" fine-tune进了adaptor层。注意如果不能正确获取pth_file变量中的内容,则手动输类似于如下结果。修改xtuner_streamlit_demo.py的内容。可以看到A100 的占用率和显存的占用率明显提高。在新生成的config文件中,修改如下内容。2. 实践模型微调。将修改脚本中的关键字替换成自己想要的名字。确认已经生成了新的文件,并修改了内容。1. 微调一个属于自己的聊天机器人。这步需要等待一段时间,稍安勿躁。首先获取官方config。
2024-11-12 17:43:24
608
原创 RAG探索
3. **指导治疗和预防**:VelScope提供的清晰图像可以帮助牙医制定更精确的治疗计划,同时也可以向患者展示口腔问题的实际情况,增强患者对口腔健康重要性的认识,促进预防性口腔保健。结果说明LLM已经采纳了RAG的内容,并输出了正确的结果,而并没有出现幻觉,编造了一些非专业的信息,错误的把velscope设备识别成检查牙齿裂缝的仪器。2. **早期发现口腔问题**:VelScope的照明技术可以揭示一些早期不易察觉的口腔问题,如龋齿的早期阶段、牙龈炎的早期迹象等,帮助牙医及时采取措施,防止问题恶化。
2024-11-11 16:36:45
1422
原创 LangGPT结构化提示词编写实践
月之暗面 Kimi × LangGPT 提示词专家: https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0。将这个提示词模版发给InternLM, 而后让LLM生成一份根据提示词写的公文。对比baseline, 没有用LangGPT提示词生成的内容。经过自动生成,就会输出一个标准的LangGPT形式的提示词。另外,发现如果使用英文,LLM也可以比较直接的给出答案。在提示词中增加一些逻辑,引导LLM来解决问题。没有进行提示词优化的结果如下。
2024-11-09 17:44:24
271
原创 玩转书生「多模态对话」与「AI搜索」产品
1. 使用MindSearch 来对特定问题进行提问2. 书生 浦语对话模型体验3. 体验 InternVL 开源的视觉语言模型官方的对话产品
2024-11-09 15:57:23
155
原创 书生 浦语大模型全链路开源开放体系笔记
书生浦语大模型的开源之路始于去年7月,从7B模型的开源开始,逐步迭代到如今的2.5版本,性能不断提升,甚至在某些方面可以与GPT-4媲美。书生浦语大模型的开源开放体系给我留下了深刻的印象,它不仅仅是一个模型,而是一整套从数据到应用的全链路解决方案。除了不同量级的InternLM模型,书生浦语还提供了针对特定场景的模型,例如InterLM-xComposer多模态模型和InternLM-Math数学模型,进一步扩展了应用范围。书生浦语大模型全链路开源开放体系的不断完善,为AI领域的发展注入了新的活力。
2024-11-06 00:18:00
655
原创 使用Hugging Face平台下载InternLM模型
先创建一个python文件,用来激活从hugging face 的自动下载以及推理。先创建一个python文件,用来下载hugging face模型库中的两个文件。运行这个程序,确认文件已经被下载到code space的主机。
2024-11-05 10:29:06
177
原创 书生大模型实战营之Git前置基础
在InternLM中确认提交了pull request,等待rerify。建立icamp4文件夹,以及个人介绍文件,并commit到仓库。继续填写一些介绍信息,并在介绍中增加了去InternLM的链接。先clone软件仓库到本地,创建一个叫3068的新branch。在github上创建一个自己的LLM学习笔记文件仓库。push 本地仓库到remote仓库。确认提交的class_9分支。
2024-11-04 02:24:18
186
原创 书生浦语大模型实战营基础部分Python关卡
书生浦语InternLM2.5是上海人工智能实验室于2024年7月推出的新一代大语言模型,提供1.8B、7B和20B三种参数版本,以适应不同需求。请帮我从以下``内的这段模型介绍文字中提取关于该模型的信息,要求包含模型名字、开发机构、提供参数版本、上下文长度四个内容,以json格式返回。该模型在复杂场景下的推理能力得到全面增强,支持1M超长上下文,能自主进行互联网搜索并整合信息。# 如果字符不在magazine中,或者已经用完了,返回False。# 遍历magazine字符串,统计每个字符出现次数。
2024-11-01 01:20:26
286
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人