- 博客(6)
- 收藏
- 关注
原创 书生浦语大模型实战营第二期第四次课
傻瓜式,上手难度低轻量级,对于7B参数量的LLM,微调需要的最小显存仅为8GBXTuner训练速度在不同的量级的模型上训练速度都显著高于LLaMa-Factory在不同参数长度下,无论是兼容性、性能优化、显存优化等方面XTuner都更具优势。
2024-05-12 11:29:11
677
原创 书生浦语大模型实战营第二期第三次课
此外,该模型具有很强的扩展性,可以适应各种不同的应用场景和需求。如生成幻觉、对于新闻新技术等新知识的缺失问题,以及在回答时很难给出到我们可追溯以及透明的过程和论证,而RAG可以提供更准确的回答、降低训练过程产生的成本、实现外部记忆。面向大规模数据以及需要高速响应的需求时,向量数据库也需要优化,尤其对向量表示的优化,对向量表示的优化将直接影响RAG结果的好坏。可以将RAG理解成搜索引擎,将用户输入的内容作为索引,在外部知识库中搜寻相应的内容,结合大语言模型的能力生成回答。
2024-04-14 19:25:26
984
1
原创 书生浦语大模型实战营第二期第二次课
八戒-Chat-1.8B 是利用《西游记》剧本中所有关于猪八戒的台词和语句以及 LLM API 生成的相关数据结果,进行全量微调得到的猪八戒聊天模型。八戒-Chat-1.8B 能够回答各种问题,提供建议、信息和娱乐,并与用户进行自然语言交互。课程文档:https://github.com/InternLM/Tutorial/blob/camp2/helloworld/hello_world.md。课程视频:https://www.bilibili.com/video/BV1AH4y1H78d/
2024-04-05 14:15:50
406
1
原创 书生浦语大模型实战营第二期第一次课
8月发布:升级对话模型InternLM-Chat-7B和智能体框架Lagent,InternLM千亿参数模型参数量升级至123B,使模型能够更好地进行对话交互,并提供更丰富的智能体框架。- 9月发布:中等尺寸模型与优化工具链,为不同需求提供适用的模型尺寸,并进一步优化工具链,提升模型性能。英特尔M2的开源提供了一种提升模型性能、支持复杂场景的解决方案,并提供了不同尺寸的模型以适应不同需求。- 7月升级:支持8K语境和工具体系的升级,为模型提供更广阔的信息范围和更强大的工具支持。
2024-03-31 18:19:54
269
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人