- 博客(14)
- 收藏
- 关注
原创 Datawhale AI夏令营 「结构化数据的用户意图理解和知识问答挑战赛」
1,在task2的基础上加上了数据清洗的过程(之前没有做这一步,是因为自己没有看到表格里面的时间格式是不一致的,还有车次号,有一些是无效的,在12306网站上搜索之后也修改了一些);2,加上了多线程处理的方法,使用5个api,QA对生成时间缩短为五分之一;3,加上了“简洁回答”的要求;
2025-07-30 23:30:26
114
原创 L1G5000-XTuner微调
编辑change_script.py,修改44行。创建一个新的文件夹用于存储微调数据。获取官方写好的 config。
2025-01-12 16:02:30
383
原创 LlamaIndex+InternLM RAG 实践
配置环境的部分跳过,下载包的部分跳过,直接看测试部分。使用LlamaIndex RAG之后再测试。
2024-12-27 21:22:42
144
原创 【无标题】
利用对提示词的精确设计,引导语言模型正确回答出“strawberry”中有几个字母“r”。完成正确的问答交互并提交截图作为完成凭证。大致了解了什么是LangGPT之后,我让kimi帮我生成提示词。我首先试试直接问,浦语大模型直接就给出了正确的回答。浦语baseline的效果,似乎也还行啊。
2024-12-24 21:46:25
361
原创 书生·浦语 体验逻辑推理问题
好吧,我承认我对这个模型的表现太自信了。投喂正确的答案后,似乎能正确回答了。月之暗面的kimi也没法正确回答。第二次思考依旧是错误的。
2024-12-09 20:48:47
212
原创 mindsearch使用(1)
第一次使用的时候,生成了最后结论之后闪退,提示“无法回答这个问题”(具体怎么表述的我专注于截图没看清)mindsearch使用。
2024-12-09 20:33:02
277
原创 书生大模型全链路开源开放体系初步了解
更令人惊喜的是它适配多种硬件,使用消费级显卡就可以微调7B模型,这无疑大大降低了模型微调的门槛。在性能方面,开源的internLM2.5-7B-Chat模型已经达到了closeAI公司的GPT4(4月)的水平,并且支持的上下文长度达到100万token,远超GPT4的128k。模型的训练数据融合多种数据合成方案,比如基于规则的数据,基于反馈的数据等,提升了合成数据的质量。借用B站用户@AI视频总结的 树状图,书生大模型做到了从“数据,预训练,模型微调,部署,评测,最后到应用的全链路开开源。
2024-12-09 19:57:07
169
原创 L0G2000闯关作业提交
这是因为json.load接收的参数应该是一个json类型的值,但是internlm-gen方法的返回值是一个string。所以需要将string转化为json格式。
2024-11-07 20:24:48
190
原创 Linux+InternStudio 关卡
例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,下面案例可供参考。
2024-11-07 19:21:03
238
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅