- 博客(13)
- 收藏
- 关注
原创 【无标题】
MindSearch 是一个开源的 AI 搜索引擎框架,具有与 Perplexity.ai Pro 相同的性能。🤔 任何你想知道的问题:MindSearch 通过搜索解决你在生活中遇到的各种问题📚 深度知识探索:MindSearch 通过数百个网页的浏览,提供更广泛、深层次的答案🔍 透明的解决方案路径:MindSearch 提供了思考路径、搜索关键词等完整的内容,提高回复的可信度和可用性。💻 多种用户界面:为用户提供各种接口,包括 React、Gradio、Streamlit 和本地调试。
2024-12-30 21:42:38
1697
原创 书生大模型L2G4000InternVL 多模态模型部署微调实践
我们主要通过接口来构造多轮对话管线,核心代码为:## 1.导入相关依赖包## 2.使用你的模型初始化推理管线## 3.读取图片(此处使用PIL读取也行)## 4.配置推理参数## 5.利用 pipeline.chat 接口 进行对话,需传入生成参数## 6.之后的对话轮次需要传入之前的session,以告知模型历史上下文lmdeploy推理的核心代码如上注释所述。
2024-12-28 22:44:21
1620
原创 书生大模型L2G3000LMDeploy 量化部署进阶实践
打开,进入如下界面并按箭头指示顺序点击。点选开发机,自拟一个开发机名称,选择镜像。我们要运行参数量为7B的InternLM2.5,由查询InternLM2.5-7b-chat的config.json文件可知,bfloat16所以我们需要大于14GB的显存,选择(24GB显存容量),后选择,等状态栏变成运行中,点击,我们即可开始部署。在终端中,让我们输入以下指令,来创建一个名为lmdeploy的conda环境,python版本为3.10,创建成功后激活环境并安装0.5.3版本的lmdeploy及相关包。
2024-12-25 20:10:30
1814
原创 书生大模型L2G2000Lagent 自定义你的 Agent 智能体
'API Base 地址:', value='https://internlm-chat.intern-ai.org.cn/puyu/api/v1/chat/completions'# ================================== 硅基流动的API ==================================# ================================== 浦语官方的API ==================================
2024-12-20 20:57:38
959
原创 【无标题】
下标为 3 的山是稳定的,因为 height[2] == 3 大于 threshold == 2。下标为 4 的山是稳定的,因为 height[3] == 4 大于 threshold == 2.输入:height = [10,1,10,1,10], threshold = 10。输入:height = [10,1,10,1,10], threshold = 3。此时,x = 5 且 num = 5。因此它不是一个回文数。输入:height = [1,2,3,4,5], threshold = 2。
2024-12-19 16:38:01
685
原创 书生大模型第四期L1G4000InternLM + LlamaIndex RAG 实践打卡
安装XTuner后就可直接输出了,无需构建RAG库。(当然,也可以使用data自行构建)
2024-12-15 23:34:46
194
原创 书生大模型第四期L1G1000书生大模型全链路开源体系打卡
书生大模型(InternLM)是一个致力于提供高效、灵活且功能全面的大语言模型(LLM)开源开放体系。该体系不仅包括了模型本身的开发和优化,还涵盖了模型的压缩、部署和服务体系,旨在为开发者和研究者提供一个完整的工具链,以便于大型语言模型的开发和应用。
2024-12-15 14:30:47
446
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅