- 博客(7)
- 收藏
- 关注
原创 L1G5000XTuner 微调个人小助手认知
使用 XTuner 微调 InternLM2-Chat-7B 实现自己的小助手认知,如下图所示(图中的尖米需替换成自己的昵称),记录复现过程并截图。
2025-01-25 18:55:34
190
原创 L1G6000OpenCompass 评测书生大模型实践
首先在终端下载相关的依赖 puyu_api.py demo_cmmlu_chat_gen.py 最后得到测评结果
2025-01-21 19:59:01
248
原创 L1G4000InternLM + LlamaIndex RAG 实践
基于 LlamaIndex 构建自己的 RAG 知识库,寻找一个问题 A 在使用 LlamaIndex 之前 浦语 API 不会回答,借助 LlamaIndex 后 浦语 API 具备回答 A 的能力,截图保存。
2025-01-21 17:25:33
457
原创 L1G3000浦语提示词工程实践
##逐字母分析1.**s**-第1个字母2.**t**-第2个字母3.**r**-第3个字母4.**a**-第4个字母5.**w**-第5个字母6.**b**-第6个字母7.**e**-第7个字母8.**r**-第8个字母9.**r**-第9个字母10.**y**-第10个字母。让我们一步一步地分析单词"strawberry"中的每个字母,并统计字母'r'的出现次数。
2025-01-20 12:03:07
3428
原创 L1G1000书生大模型全链路开源体系
它包括了丰富的技术框架和开源项目,如InternLM、XTuner、OpenCompass、LMDeploy、LAgent等,这些共同构成了从数据准备到应用部署的全流程支持。书生大模型的核心数据集包括但不限于书生万卷1.0和书生万卷CC,这些数据集包含丰富的多模态数据,如文本、图像和音频等,总容量达到2TB。此外,还有针对特定领域的模型,如InternLM-Math(支持形式化数学语言及解题过程评价的开源模型)和InternLM-XComposer(支持图文混合创作的大模型)。
2025-01-20 10:07:43
161
原创 L1G2000玩转书生「多模态对话」与「AI搜索」产品
然而,随着技术的不断进步,伦理和监管挑战也日益凸显,需要学术界、工业界和政府共同努力,确保技术的健康发展。例如,在医疗领域,生成式AI通过分析大量医疗数据,帮助医生做出更准确的诊断,预测疾病发展趋势,并为患者提供个性化的治疗方案。例如,博世公司利用生成式AI的仿真绘制技术,合成了超过15000张关于产品缺陷的图像,显著提升了电机定子的质量检验效率,将项目工期缩短了六个月,年产值提升显著。例如,科学家借助AI设计新的蛋白质以中和蛇毒,展示了生成式AI在科学研究和工程领域的巨大潜力。
2025-01-20 10:06:58
1159
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅