- 博客(18)
- 收藏
- 关注
原创 企业级知识问答工具--茴香豆
可以看到 Web 版茴香豆的知识库注册页面,在对应处输入想要创建的知识库名称和密码。茴香豆和 MMPose 的文档,利用茴香豆搭建一个茴香豆和 MMPose 的知识问答助手。开启网络搜索功能(需要填入自己的 Serper token,token 获取参考。相关文档上传后,可以直接用下面的聊天测试窗口测试知识助手的效果。
2024-08-26 13:35:02
205
原创 MindSearch 部署的到 Hugging Face Space
部署详细链接使用硅基流动的 API 来部署 MindSearch打开来注册硅基流动的账号完成注册后,打开来准备 API Key。首先创建新 API 密钥,然后点击密钥进行复制,以备后续使用由于硅基流动 API 的相关配置已经集成在了 MindSearch 中,所以我们可以直接执行下面的代码来启动 MindSearch 的后端。
2024-08-25 16:12:22
213
原创 LoRA微调可图kolos模型
汇聚各领域最先进的机器学习模型,提供模型探索体验、推理、训练、部署和应用的一站式服务。设置训练时的精度为混合16位精度(half precision)设置LoRA的秩(rank),影响模型的复杂度和性能。设置LoRA的alpha值,控制微调的强度。指定训练完成后保存模型的路径。启用中心裁剪,用于图像预处理。指定用于训练的数据集路径。启用梯度检查点,节省显存。部署链接LoRA微调。设置最大训练轮数为1。
2024-08-16 21:56:05
999
原创 LMDeploy量化部署实践
50%A100*11. LMDeploy验证启动模型文件InternStudio提供的资源监控权重占用,剩余显存,因此kv cache占用,加上原来的权重,总共约占用。2. LMDeploy API部署InternLM2.5部署InternLM2.5模型端口映射。
2024-08-16 13:37:56
342
原创 Lagent 自定义 Agent 智能体实现一个调用 MagicMaker API 以完成文生图的功能。
实现一个调用 MagicMaker API 以完成文生图的功能。我们再试一下“帮我搜索一下 MindSearch 论文”。
2024-08-12 22:57:17
248
原创 利用 CompassArena对比InternLM2.5和通义千问
接下来,我们考虑$y=-(x-1)^2+a$,这是一个开口向下的抛物线,顶点为$(1,a)$。为了在$(0,+\infty)$上有两个不同的交点,抛物线的顶点必须位于$y=x^3-3x$的最小值以下,即$a<(-2)$,但同时抛物线必须在$x>0$时与$x^3-3x$曲线至少有两个交点,这意味着$a$不能太小以至于抛物线在$x>0$时完全位于$x^3-3x$下方。我们知道$y=x^3-3x$在$x>0$时是先递减后递增,因为它的导数$y'=3x^2-3$在$x=1$时为零,表明$x=1$是一个极小点。
2024-08-12 21:47:28
1036
原创 利用AI给出提示词对kolors(可图)模型调试
例如:你是一个优秀的python开发工程师,现在我们需要你帮我们分析这个代码的主体框架,你需要把代码按照工作流分成几部分,用中文回答我的问题。{此处替换前面的代码}(2)继续追问可以使用类似:我对其中{替换成你的问题}还是不太理解,给我再详细介绍一下。(1)代码详解可利用通义千问。丑陋,变形,嘈杂,模糊,低对比度。
2024-08-11 21:56:31
714
原创 使用 OpenCompass 评测 internlm2-chat-1.8b 模型在 ceval 数据集上的性能
在InternStudio平台上。
2024-08-10 20:27:25
245
原创 书生·浦语大模型全链路开源开放体系
书生·浦语大模型全链路开源开放体系_哔哩哔哩_bilibili该模型发展历史性能天梯核心技术思路开源数据工具箱。
2024-08-10 10:05:46
190
原创 AIGC文生图
文生图(Text-to-Image Generation)是一种通过文本生成图像的技术,其发展历程可以追溯到早期的计算机视觉和自然语言处理研究。手指常常出现问题是因为生成模型在处理细节时比较困难。手指的结构复杂,模型可能会难以捕捉到细微的比例和形状差异。文生图主要以SD系列基础模型为主,以及在其基础上微调的lora模型和人物基础模型等。图4的手指还是有问题。
2024-08-10 09:50:18
234
原创 InternLM2-Chat-1.8B加装 LlamaIndex 前后对比
在限定为一个美食家的情况下,InternLM2-Chat-1.8B显然没做到,InternLM2-Chat-1.8B+ LlamaIndex 代入角色。模型对问题理解的方式: 语言模型可能对“比较大小”这类数学逻辑的处理方式存在差异,导致在某些情况下输出不一致或不正确的结果。语言模型训练数据偏差: 语言模型的训练数据可能不包括足够的数学推理或精确数值处理的内容,导致在这类问题上表现不佳。效果都不好,InternLM2-Chat-1.8B甚至连个数都错了。
2024-08-05 20:00:25
434
原创 浦语提示词工程实践
近期相关研究发现,LLM在对比浮点数字时表现不佳,经验证,internlm2-chat-1.8b (internlm2-chat-7b)也存在这一问题,例如认为。基于LMDeploy将开源的InternLM2-chat-1_8b模型部署为OpenAI格式的通用接口。利用LangGPT优化提示词,使LLM输出正确结果。
2024-08-03 16:28:15
149
原创 8G 显存玩转书生大模型 Demo
使用 Cli Demo 完成 InternLM2-Chat-1.8B 模型的部署,并生成 300 字小故事,记录复现过程并截图。 在终端 本地 使用 LMDeploy 完成 InternLM-XComposer2-VL-1.8B 使用 LMDeploy 完成 InternVL2-2B 的部署 参考链接Tutorial/docs/L1/Demo/readme.md at camp3 · InternLM/Tutorial (github.com)
2024-08-03 16:24:58
191
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人